Deepfakes & Co: Wie geht man damit um?

Fraunhofer-Institut erforscht, wie man Fakes aufdeckt

Screenshot

Mit ihrer Übersicht zu „Deepfakes: Mit KI-Systemen Audio- und Videomanipulationen verlässlich entlarven“ führt das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit  in das Thema ein. Was recht gut gelungen ist.

Dann folgen Infos, wie man mit den Risiken umgeht bzw. wie man den Fakes begegnen kann. Neben (Awareness-)Schulungen, die schon eine Menge bringen, kann man die Sicherheit im eigenen (betrieblichen) Umfeld checken lassen.

Außerdem forscht das Institut an Systemen und zu Maßnahmen, die Deepfakes entlarven können: Wissenschaftlerinnen und Wissenschaftler arbeiten daran, die hinter dem Betrug steckende Technologie umfassend zu verstehen, mögliche Schwachstellen auszumachen und Schutzmaßnahmen zu entwerfen. Dafür wechseln sie in Simulationen zunächst auf die Seite der Fälscher:innen. Hier generieren sie überzeugend gefälschte Audio- und Video-Daten, anhand derer sie dann Algorithmen zur Aufdeckung von Fälschungen entwickeln.

Auf Kika findet man einen gut aufbereiteten Beitrag zur Arbeit des Fraunhofer AISEC (Video 12:35 Min / Ausstrahlung war am 10. Sep. 2022):
www.kika.de/roadtrip-fuer-techfans/videos/richtig-fake-fuenf-100

ScreenshotEin Ergebnis der Forschung ist diese Arbeit zum Zusammenspiel von (Sinnes-)Wahrnehmung und Audio-Fälschungen:
Human Perception of Audio Deepfakes

Mehr Infos:
www.aisec.fraunhofer.de/de/das-institut/wissenschaftliche-exzellenz/Deepfakes.html

Augen-Logo Maria

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert