Handyfoto
ORF
ORF
Chronik

Cybercrime: Künstliche Intelligenz als Gefahr

Das Bundeskriminalamt warnt vor sogenannten „Deepfake“-Clips als neuer Waffe von online-Kriminellen. Mit künstlicher Intelligenz (KI) können täuschend echt wirkende Videos von realen Personen erstellt werden, die dann in krimineller Absicht genutzt werden.

Im Jahr 2022 sind die angezeigten Straftaten im Bereich des Cybercrime um 30 Prozent auf mehr als 60.000 gestiegen. Sexualdelikte fallen da ebenso darunter wie Vermögensdelikte. Bei Betrugsdelikten gab es ein Plus von 23 Prozent auf mehr als 27.600 Fälle und der Schaden belief sich auf 700 Millionen Euro – wobei die Dunkelziffer noch weit höher sein dürfte, warnten Experten aus dem Bundeskriminalamt.

Cybercrime: Künstliche Intelligenz als Gefahr

Das Bundeskriminalamt warnt vor sogenannten „Deepfake“-Clips als neuer Waffe von online-Kriminellen. Mit künstlicher Intelligenz (KI) können täuschend echt wirkende Videos von realen Personen erstellt werden, die dann in krimineller Absicht genutzt werden.

Steigende Bedeutung von „deepfake“-Clips

Immer öfter verwenden online-Kriminelle inzwischen „deepfake“-clips, die mit Hilfe künstlicher Intelligenz (KI) erstellt werden. Das sind manipulierte Audio- oder Videoaufnahmen, bei denen das Gesicht und die Stimme einer Person so verändert werden, dass völlig neue Aussagen und Inhalte transportiert werden können. Zum Beispiel kann eine kurze Videosequenz einer Person, die einen deutschen Text spricht umgewandelt werden in ein Video, in dem die Person etwas völlig anderes auf Serbisch erzählt.

Beispielvideo: Völlig neuer Inhalt mithilfe von KI

Tipps zum Erkennen von „deepfakes“

Es gibt Möglichkeiten, solche manipulierten Videos zu erkennen. Laut dem KI-Experten Sven Kurras vom Hamburger Unternehmen „Risk Ident“ sind zum Beispiel unscharfe Übergänge zwischen Gesichtern und dem Hintergrund verdächtig. Wichtig sei vor allem das Bauchgefühl: Verhält sich die andere Person untypisch? Gibt es Auffälligkeiten in der Mimik oder bei den Mundbewegungen? Hat man etwa während eines Live-Videogesprächs Verdacht geschöpft, könnte man das Gegenüber zu gezielten Tests auffordern, wie zum Beispiel zum Singen, um diese KI-Sprachmodelle zu entlarven.