Kann künstliche Intelligenz Produkte von künstlicher Intelligenz erkennen?
Ich sehe zunehmend mehr Content, welches AI - generiert ist und ich nicht mehr als AI-Herstellung identifizieren kann. Es kann sein, dass wir bald gar nicht mehr unterscheiden können, was real und was digital ist.. Gibt es Wege, AI-Herstellungen zu identifizieren?
10 Stimmen
6 Antworten
Momentan ist es noch (relativ) möglich. Aber nicht für alle. Es gibt mittlerweile so gute Deepfakes, da fallen Menschen drauf rein.
Aber irgendwann kommen wir an den Punkt, da wird es zunehmend schwerer.
Bspw. gibt es den Turing-Test. Seit ChatGPT kann man bei vielen Konversationen nicht erkennen, dass es eine KI ist.
Bspw. gibt es den Turing-Test. Seit ChatGPT kann man bei vielen Konversationen nicht erkennen, dass es eine KI ist.
Das liegt aber daran, dass der Turing Test im Grunde umgangen wird und auch nicht klar spezifiziert ist. Schließlich wurde er vor rund 75 Jahren beschrieben, also als KI selbst in der Theorie gerade mal in den Kinderschuhen steckte.
Wenn du den Probanden der die Wertung des Turing Tests vornimmt vorher explizit darauf schulst KI generierte Antworten zu erkennen, gelingt es auch 9 von 10 Probanden die KI richtig zu benennen.
Ja, denken wir mal 10 Jahre in die Zukunft. Das wird ziemlich schwer sein, das noch zu erkennen.
Gut möglich. Wie gesagt schon heute sind die neusten GPT Modelle extrem gut.
Ja du kannst sowohl Formulierungen als auch Bilder in ChatGPT werfen und es abschätzen lassen ob es von einer KI erstellt wurde.
Wie hoch die Erfolgsquote ist hängt vom Einzelfall ab. An sich erkennt man aber KI noch relativ gut an bestimmten Markern.
https://www.gutefrage.net/frage/warum-sagt-chatgpt-mein-text-waere-von-ihm
Da hat es nicht so funktioniert.
Bei mir hat es mal funktioniert als ich mit mehreren meiner Texte gegen geprüft habe. Kann Zufall gewesen sein, ein anderes Modell daher ich die neusten nutze sobald sie released werden (zahle dafür) oder irgendwas falsch am Prompt.
ChatGPT ist darauf getrimmt dir zuzustimmen solange du jetzt nicht den größten Blödsinn erzählst, du kannst 2 unterschiedliche Ergebnisse mit dem selben Prompt kriegen je nach Formulierung.
Wird sicherlich immer besser,
aber je kürzer der Text, desto schwieriger ist es zu das richtige Ergebnis zu bestimmen.
Wenn die KI auch noch anfängt zu lügen (aus welchem Grund auch immer), macht es die Sache nicht leichter.
Eine Zeit lang ist es vielleicht möglich, man kann versuchen eine KI entsprechend zu trainieren dies zu erkennen, bis jemand eine KI trainiert die KI recognition als Qualitätsmerkmal mit einbezieht. Dann wird es ein Wettlauf der KIs.
Es ist mit den aktuellen KIs nicht zuverlässig möglich, da diese auf Generierung und nicht auf Prüfung optimiert sind.
Noch ist es für KI nicht möglich, sich selbst wirklich weiterzuentwickeln. Es kann zwar mit Daten arbeiten, indem es die Daten verwaltet und herausspukt, jedoch nimmt es nicht die Daten und macht neue, sinnvolle Daten daraus. Alleine daraus kann also eine Wissenslücke oder ein prinzipieller Logikfehler identifiziert werden, jetzt gibt es ja trotzdem sowas wie Chat GPT, damals (damals bedeutet jetzt mal zur 3.0er Version) gab es ja noch diese Erkennungen für Text aus Chat GPT. Wie die funktioniert haben, weiß ich auch nicht, aber 3Blue 1Brown hat mal ne Videoserie zu KI gemacht, da wird einiges erklärt, und prinzipiell gibt es verschiedene Wahrscheinlichkeiten, mit welchen bestimmte Wörter nach anderen Wortgruppen auftauchen können. Deshalb meine Vermutung, dass sich verschiedene Wörter herausgepickt werden und die entsprechende Wahrscheinlichkeit dazu gemessen wird, also der dazugehörige Textstil. Wie gesagt, ist ne Vermutung. Jetzt gibt es das Phänomen aber auch bei Bildern, zwar nicht ganz so wie bei Sätzen, dennoch macht sich da der Einfluss von KI bemerkbar, im Englischen heißt das zum Beispiel "Model Collapse" und bezeichnet praktisch, wenn man Kopien von Kopien von Kopien durch generative oder Bildverändernde KI schiebt.
Prinzipiell entstehen da inhaltslose oder fragmentierte Bilder, das gleiche kann auch mit Text passieren. Mit dem Effekt kann man aber super Kunst machen, wenn man da ein bisschen Mühe reinsteckt.
Prinzipiell ist aber Chat GPT 4.0 schon so ausgereift, dass man das fast bis gar nicht mehr von einem sachlichen Text eines Menschen unterscheiden kann, wenn man natürlich auch ne sinnvolle Frage stellt. Dennoch weiß man ja häufig, dass das KI generiert ist, einfach durch Fehlerlosigkeit, zwar nicht Inhaltliche, aber Grammatikalische.
Es ist abzusehen, was kommt. Viele Entwicklungen wird es da noch geben, mitunter auch selbstständiges Weiterentwickeln, sozusagen Forschung. Und wenn das dann doch ein neuronales Netz übernimmt ist ja auch OK, es darf uns bloß nicht ausreisen.
Als Fazit lässt sich also schreiben, dass KI generierte Texte schon noch häufig entdeckt werden können, es bleibt nur abzuwarten, wann nicht mehr.
Ohne Kennzeichen kann die AI auch nur raten und kann andere Ki nicht von Menschen unterscheiden.
Gibt immer wieder versuche das KI eingereichte Arbeiten auf Ki überprüft und scheitert.
Was ChatGPT angeht gilt das aber nur für die aktuellsten Modelle. Dieses passt sich tatsächlich deiner Art zu schreiben an durch die Erinnerungsfunktion.
Die vorhergehenden Modelle nutzen oft bestimmte Formulierungen und Stichwörter die man leicht rauslesen kann wenn man öfter mit KI arbeitet.