Du scrollst durch TikTok, Instagram oder YouTube und plötzlich fragst du dich: „War das echt oder von einer KI gemacht?“ Künstliche Intelligenz (KI) ist inzwischen so gut, dass sie Texte, Bilder und sogar Videos erstellen kann, die kaum von menschlich gemachten zu unterscheiden sind. Zumindest kommen wir Menschen bei so einer Unterscheidung schon jetzt an unsere Grenzen. Aber da, wo Menschen scheitern, kann vielleicht auch eine KI helfen? Kann KI erkennen, welche Inhalte von KI erstellt wurden?
Was bedeutet „KI generierte Inhalte“ eigentlich?
Als KI‑generierte Inhalte bezeichnet man alles, was von einer Maschine erzeugt wurde: also was nicht direkt von Menschen geschrieben, gemalt oder gefilmt wurde. Du selbst hast wahrscheinlich schon Texte von ChatGPT schreiben lassen, mit My AI auf Snapchat gechattet oder Bilder und Videos mit einem Bildgenerator erzeugt.
Durch KI erzeugte Bilder und Video können, wenn sie richtig gemacht wurden, unglaublich realistischwirken. Kaum zu unterscheiden von Aufnahmen, aufdenen echte Menschen zu sehen sind, oder natürliche Szenen. Sie entstehen aber ohne menschliche Kreativität im klassischen Sinne.
In diesem Handysektor-Artikel findest du einen Chatbot-Vergleich!
Wie erkennt KI KI?
Vielleicht hast du schon mal mitbekommen, dass andere eine KI fragen, ob Bilder, Videos oder Texte auch von Künstlicher Intelligenz erstellt wurden. Das war bisher aber eigentlich gar nicht so richtig möglich! So versuchen viele KIs KI-generierte Inhalte zu erkennen:
- Analyse von Mustern: KI‑Texte haben oft bestimmte Satzstrukturen, nutzen immer dieselben Satzzeichen und klingen insgesamt sehr ähnlich.
- Vergleich mit Trainingsdaten: Eine KI kennt andere KI-Texte und erkennt wie typische KI‑Inhalte aussehen. Sie vergleicht also und schätzt so ab.
- Auf Bildern wird nach Unstimmigkeiten gesucht: Viele mit KI erstellte Bilder und Videos sind nicht ganz realistisch. Eine Halskette kann beispielsweise mit dem Hals verschmelzen, der Hintergrund ist nach einem Schnitt nicht konsistent oder Menschen laufen ineinander.
Grenzen der Erkennungs KI
So spannend das klingt … hundertprozentig zuverlässig kann KI nicht erkennen, ob ein Mensch oder eine andere KI die Inhalte generiert hat. Die Einschätzung basiert nämlich nur auf Wahrscheinlichkeiten. Und auch ein Mensch kann grammatikalisch so schreiben, dass Verwechslungsgefahr besteht. Mit KI generierte Bilder können im Nachhinein außerdem bearbeitet werden, so dass Unstimmigkeiten verschwinden.
Was ist SynthID?
SynthID ist ein System von Google DeepMind, das entwickelt wurde, um KI-generierte Inhalte zuverlässig zu erkennen. Im Gegensatz zu klassischen Detektor-KIs arbeitet SynthID nicht durch Analyse, sondern fügt unsichtbare digitale Wasserzeichen direkt in die Inhalte ein. Die Technologie kommt hauptsächlich in Googles eigenen generativen KI-Produkten zur Anwendung, um die Herkunft von Bildern, Videos, Audio und Texten nachvollziehbar zu machen.
Diese Wasserzeichen bleiben auch dann bestehen, wenn Inhalte bearbeitet oder komprimiert werden. Auch bei Screenshots bleiben diese sichtbar! Ziemlich cool eigentlich.
Das bedeutet: Inhalte, die mit SynthID erstellt wurden, können später von anderen KI-Tools, zum Beispiel Gemini, identifiziert werden. Die Wasserzeichen machen es möglich, KI-Inhalte zu erkennen, selbst wenn sie durch Filter, Bearbeitungen oder andere Manipulationen verändert wurden.
Der Prozess funktioniert folgendermaßen:
- Ein KI-System erzeugt Inhalte und versieht sie gleichzeitig mit einer digitalen Signatur.
- Spätere Analyse-Tools, wie Gemini, können diese Signatur auslesen.
- So lässt sich feststellen, ob ein Text, Bild oder Video tatsächlich von einer KI stammt.
Trotz seiner Vorteile hat SynthID Grenzen: So kann es beispielsweise nur KI-generierte Inhalte erkennen, die tatsächlich mit SynthID markiert wurden. Inhalte anderer KIs ohne Wasserzeichen bleiben unerkannt. Zudem ist die Zuverlässigkeit davon abhängig, dass die Wasserzeichen nicht entfernt oder zerstört werden.
Warum das Ganze wichtig ist
Die Frage, ob ein Inhalt echt oder künstlich ist, hat reale Bedeutung für:
- Nachrichten und Medien: Falschmeldungen oder manipulierte Bilder können für Verwirrung sorgen.
- Social Media: KI generierte Inhalte tauchen immer häufiger auf und sorgen für Unsicherheit.
- Alltag: Selbst, wenn etwas auf den ersten Blick glaubwürdig aussieht, kann es KI‑manipuliert worden sein.
Was sagst du? Würdest du dir wünschen, dass mehr KIs ein solches digitales Wasserzeichen nutzen? Schreibe und deine Meinung auf Instagram.