Menschen können nur 73 % der KI-generierten Deepfakes erkennen
In der Fachzeitschrift PLOS One wurde eine interessante Studie veröffentlicht, die von Forschern am University College London durchgeführt wurde. Diese Studie hat die Fähigkeit von Menschen untersucht, Sprache zu erkennen, die durch künstliche Intelligenz (KI) generiert wurde. Dazu wurden aus zwei öffentlichen englischen und chinesischen Sprach-Datensätzen 50 Deepfakes generiert.
Deepfakes werden von künstlicher Intelligenz erstellt, um die Stimme oder das Aussehen einer realen Person nachzuahmen. 529 Studienteilnehmer wurden gebeten, die echten von den KI-Sprachproben zu unterscheiden. Sie waren nur in 73 % der Fälle in der Lage, die Fälschung zu erkennen. Zusätzliches Training zur Erkennung von Deepfakes zeigte nur wenig Erfolg.
Nach Ansicht von Branchenexperten stellen Deepfakes von allen Anwendungen künstlicher Intelligenz die größte Gefahr dar. Ihre Entwicklung schreitet unaufhaltsam voran; die Entwicklung moderner Systeme zu ihrer Detektion hinkt jedoch hinterher. Außerdem sind die Gesetze nicht auf den Schutz vor dem Einsatz von Deepfakes ausgelegt.