Logo Jugend und FinanzenSchulserviceportalLogo

Aktuelles

Foto: Adobestock; kebox

KI-Studie zeigt: Menschen erkennen KI-generierte Inhalte immer seltener

Wie täuschend echt sind KI-generierte Inhalte?

In der Studie wurden die Teilnehmenden per Zufallsprinzip Texten, Bildern oder Audiodateien zugeordnet, von denen jeweils 50 Prozent KI-generiert waren. Die überraschenden Ergebnisse zeigen, dass die Mehrheit der Menschen diese Inhalte fälschlicherweise als menschengemacht einstufte. Professor Dr. Thorsten Holz, einer der Hauptautoren, erklärt: „Wir stehen an einem Punkt, an dem es schwierig ist, echte von KI-generierten Medien zu unterscheiden.“ Dabei spielt es kaum eine Rolle, ob die Testpersonen unterschiedliche Bildungsniveaus, Altersgruppen oder politische Einstellungen hatten – die Erkennungsfähigkeit blieb über diese Faktoren hinweg nahezu gleich. 

Wachsende Gefahren und zukünftige Forschungsansätze

Die Studie verdeutlicht auch die möglichen Risiken von KI-generierten Inhalten. CISPA-Faculty Dr. Lea Schönherr warnt, dass diese Technologien für Social Engineering und politische Manipulation missbraucht werden könnten. „Die nächste Generation von Phishing-Angriffen könnte noch personalisierter und gefährlicher werden“, betont Schönherr. Um solchen Bedrohungen entgegenzuwirken, plant das Forscherteam weitere Untersuchungen, etwa zur technischen Unterstützung bei der Erkennung von KI-Inhalten. Ein zentraler Ansatz könnte die Entwicklung von automatisierten Fact-Checking-Methoden sein, die helfen, die Authentizität von Inhalten schneller und genauer zu überprüfen.

Weitere Infos zur Studie auf cispa.de  

 

 

Artikel per E-Mail weiterempfehlenArtikel per E-Mail weiterempfehlenArtikel auf Google+ teilen

Social-Datenschutz Dienste aktivieren  (Datenschutz)
Weitersagen


Lesen Sie auch…

Alle Meldungen

Bildungsangebote
bundesweit

Unterrichtsmaterial



printPageprintPageprintPage