Wie kann man KI zur Erkennung von Bildfälschungen einsetzen?

Benedikt Lorch hält einen Vortrag zum Thema "Forensische Bildanalyse mithilfe von Künstlicher Intelligenz".
Benedikt Lorch beim 6. Erlanger Cybercrime Tag (Bild: FAU / DP)

FAU-Doktorand über Chancen und Grenzen der forensischen Bildanalyse mithilfe von KI

Bei strafrechtlichen Ermittlungen können Bilder oft wichtige Hinweise liefern und vor Gericht als Beweismittel dienen. Um ihre Authentizität zu überprüfen und so viel wie möglich über die Herkunft zu erfahren, wurde ein breites Spektrum an forensischen Werkzeugen für Bilder entwickelt. Seit einigen Jahren basieren die leistungsfähigsten dieser Werkzeuge auf maschinellem Lernen.

Benedikt Lorch ist Doktorand im Graduiertenkolleg 2475 „Cybercrime und Forensische Informatik“, wo sich Forschende mit technischen und juristischen Fragen rund um digitale Beweismittel befassen. Mit ihm sprechen wir über Bedenken hinsichtlich der Zuverlässigkeit, der Sicherheit und der Undurchsichtigkeit von maschinellen Lernmethoden als gerichtliches Werkzeug und die Frage, ob solche Werkzeuge bei strafrechtlichen Ermittlungen zuverlässig eingesetzt werden können.

Herr Lorch, Ihr Forschungsgebiet ist die forensische Bildanalyse mithilfe von KI. Können Sie erklären, was Sie genau tun?

Wir entwickeln mathematische und statistische Methoden, um Bilder auf ihre Echtheit zu überprüfen und ihren Ursprung zu identifizieren. Diese Informationen können in strafrechtlichen Ermittlungen eine Rolle spielen. Wir forschen daran, wie man maschinelles Lernen zuverlässig einsetzen kann. Das schließt unterschiedliche Fragestellungen ein: Wurde ein Bild nach der Aufnahme verändert? Stammt ein bestimmtes Bild X von einer bestimmten Kamera Y? Ist ein Video geschnitten worden, was möglicherweise den Kontext verändert? Für all diese Anwendungsfälle gibt es unterschiedliche Werkzeuge.

Wie können Bilder strafrechtlich genutzt werden?

Bilder können einerseits als Hilfsmittel zum Aufklären eines Verbrechens dienen, andererseits kann Bildmaterial selbst im Zentrum einer Straftat stehen. Ein Beispiel für letzteres wären der Einsatz von sogenannten „Deepfakes“, also gefälschte Audio-, Bild- oder Videodateien, die kaum von einem Original unterscheidbar sind. Mögliche Delikte, die sich aus Bildfälschungen ergeben können, sind Betrug, rechtwidrige Marktmanipulationen oder die Verleumdung von Personen. Sollen Bilder als Hilfsmittel zur Aufklärung genutzt werden, geht es zum Beispiel darum, ein Bild einem Aufnahmegerät zuzuordnen. Kann bewiesen werden, dass ein bestimmtes Bild von einem bestimmten Gerät stammt, kann man daraus Rückschlüsse ziehen. Bilder als Hilfsmittel können aber für vieles genutzt werden, unter anderem auch zur forensischen Höhenschätzung, also die Einschätzung, wie groß eine Person oder ein Objekt ungefähr ist, und der Erkennung von Personen anhand von biometrischen Merkmalen oder der Gangart.

Mit welchen forensischen Werkzeugen können Bilder überprüft werden?

So wie eine Täterin oder ein Täter am Tatort Spuren hinterlässt, hinterlassen auch Bildmanipulationen Spuren. In den vergangenen 20 Jahren wurde eine Vielzahl forensischer Werkzeuge für unterschiedliche Einsatzzwecke entwickelt. Diese kann man grob in physikbasierte und statistische Methoden einteilen. Physikbasierte Methoden analysieren Spuren wie Schatten, Reflektionen und die Richtung des Lichteinfalls. Statistische Methoden analysieren kaum sichtbare Merkmale auf Pixelebene.

Warum setzt die Forschung auch auf dem Gebiet der Bildforensik immer mehr auf KI? Wo liegen die Vorteile?

Wenn Bilder und Nachrichten über Social-Media-Plattformen oder Messenger verteilt werden, werden sie üblicherweise verkleinert und komprimiert. Leider gehen dabei forensisch interessante Spuren teilweise verloren oder werden verwaschen. Mit klassischen Methoden ist dann die Analyse schwer. KI-Methoden hingegen können selbst in diesen schwierigen Fällen gute Ergebnisse erreichen.

Andererseits boomen KI-Methoden, weil klassische Methoden auf genauem Wissen über die Bildentstehung aufbauen. Um die Bildqualität zu verbessern, weichen moderne Smartphones allerdings von der klassischen Bildentstehung ab.  Anstatt einem einzelnen Foto nehmen Smartphones mehrere Bilder auf und setzen diese künstlich zu einem Foto zusammen. Wegen dieser komplizierten Verarbeitung ist es schwer nachzuvollziehen, welche Spuren bei der Bilderstellung entstehen. Deswegen kann man nur schwer beschreiben, was ein Original ausmacht. Maschinelles Lernen ist hier ein sehr gutes Werkzeug, weil es keine Definition eines Originals nach bestimmten Kriterien braucht. KI kann stattdessen anhand von Beispielbildern lernen, was ein Original ausmacht.

Welche Spuren entstehen bei der Bildaufnahme?

Klassischerweise wird eine Szene über eine Kameralinse auf den Sensor der Kamera projiziert. Der Sensor ist in Millionen kleine Zellen eingeteilt. Diese sollten alle gleich groß sein. In der Fertigung ist das nicht möglich, und das hinterlässt Spuren: Manche Zellen nehmen ein bisschen mehr oder weniger Licht auf. Daraus kann man eine Art individuellen Fingerabdruck der Kamera erstellen. Dieser Abdruck kann ein eindeutiger Hinweis sein, dass ein Foto mit einer bestimmten Kamera aufgenommen wurde. Dieses Bildforensikwerkzeug wurde auch schon vor Gericht eingesetzt.

Viele Bildforensikmethoden bauen auf den Ablauf in der Kamera auf. Der Einsatz von Smartphones erschwert die Analyse, da man nicht genau sagen kann, wie genau das Bild entsteht. Auch ständige Softwareupdates, die sich auf die Kamera auswirken, sowie die Diversität an verfügbaren Kamera-Apps erschweren die händische Suche nach forensisch interessanten Spuren. Die KI bietet immerhin den Vorteil, dass man ‚nur‘ einen großen Datensatz an Beispielbildern braucht um das Bildgebungsverfahren zu lernen, anders als eine händische Analyse.

Und wo liegen die Nachteile im Einsatz von KI zur forensischen Bildanalyse?

KI funktioniert sehr gut bei Bildern, die den Trainingsdaten ähneln. Wenn die Testbilder stark von den Trainingsdaten abweichen, treffen KI-Methoden oft falsche Vorhersagen. Der Anwender kann nicht erkennen, dass das KI-Modell außerhalb seines „Wissens“ operiert. Gleichzeitig ist es praktisch unmöglich, alle Lücken in den Trainingsdaten zu schließen, dazu gibt es zu viele Möglichkeiten. Ob Trainingsdaten für einen speziellen Fall repräsentativ sind und darauf angewendet werden können, ist nicht immer klar. In meinem Team habe ich daran geforscht, wie Falschvorhersagen wenigstens gekennzeichnet werden können. Die Idee ist, dass das KI-Modell neben der Vorhersage auch eine Vorhersageunsicherheit ausgibt. Anhand der Unsicherheit kann der Anwender entscheiden, ob man der Ausgabe vertrauen kann.

Ein weiteres Problem ist die Intransparenz: Den Entscheidungsprozess von KI-Methoden vollständig nachzuvollziehen ist nahezu unmöglich. Ermittlungsmaßnahmen müssen aber begründet werden und auf einer gesicherten Tatsachenlage basieren – gerade im strafrechtlichen Bereich. Wenn man den Entscheidungsprozess nachvollziehen könnte, könnte man sicherstellen, dass ein KI-System zuverlässig arbeitet. Da das nicht geht, ist es enorm wichtig, KI-Methoden ausführlich zu testen, um deren Zuverlässigkeit zu gewährleisten.

Was muss man beim Einsatz von KI in der Forensik bedenken?

Ob man KI-Methoden in der Strafverfolgung einsetzen darf, war lange fraglich. Die Europäische Kommission hat im April 2021 dann einen Entwurf für die Regulierung von KI vorgestellt. In dieser Regulierung werden KI-Detektoren zur Erkennung von Bildfälschungen für Zwecke der Strafverfolgung als Hochrisikoanwendung eingestuft. KI-Systeme für Hochrisikoanwendungen dürfen eingesetzt werden, aber sie müssen verbindliche Anforderungen erfüllen, wie ein gewisses Maß an Genauigkeit, Robustheit und Sicherheit gegen Angriffe. Bestimmte KI-Anwendungen sind auch verboten: Biometrische Echtzeitfernüberwachung, also Videoüberwachung mit automatisierter Gesichtserkennung, und Social Scoring, also das Bewerten des Verhaltens von Menschen innerhalb der Gesellschaft, zählen dazu.

KI-Methoden in der Forensik haben also viel Potenzial, aber wie wir mit diesem Werkzeug umgehen müssen, um Fehler zu vermeiden, müssen wir noch bessern lernen.

Mehr Informationen

Benedikt Lorch
Lehrstuhl für Informatik I
Tel.: 09131/85-69918
benedikt.lorch@fau.de