Kann man von Menschen verfasste Nachrichten, Texte sowie Statements von der einer KI/AI unterscheiden?
Ist ja brandaktuell das Thema. KI/AI wird ja auch immer besser - ist ja lernfähig...
Dennoch hab ich mich gefragt, ob es möglich ist bzw. irgedwann noch möglich sein wird zu unterscheiden, ob ein Text von einer KI generiert wurde oder von einem Menschen verfasst? Wir gehen natürlich vom höchsten Standard aus, den ein "normaler Bürger" zur Verfügung haben kann...
Falls es tatsächlich irgedwann nicht mehr möglich ist, KI vom "Mensch" zu unterscheiden, wie seht ihr diese Entwicklung?
5 Antworten
Hallo DERstobbel,
nicht mit der KI von heute. ChatGPT ist eine schwache KI und keine Echte. Es ist ein Machine Learning Model, welches die Daten verwertet und ausgibt. Diese Daten folgen immer Algorithmen und bestimmten Mustern.
Solange wir also keine echte, selbstlernende, sogenannte starke KI haben, wird man die KI immer vom Menschen unterscheiden können.
Heißt, wenn wir es wirklich schaffen, neurale Netze für eine KI zu bilden und diese selbstständig lernen kann, dann besteht die Chance, dass die KI kaum vom Menschen zu unterscheiden ist. Mit Machine Learning alleine wie bei ChatGPT ist das nicht erreichbar.
VG
Du kannst die Texte inhaltlich oder den Stil betrachten und überlegen, ob eine Person das geschrieben haben könnte. Dafür ist es natürlich notwendig, dass Du die Person gut kennst. Z.B. würde ein Schüler sicher niemals so ausgefeilte Texte schreiben, wie es ChatGPT tut, der Text ist "zu gut".
Es wird außerdem an "KI"-Systemen gearbeitet, die von "KI" generierte Texte erkennen können sollen. Wie da der Stand ist und wie gut das überhaupt funktionieren kann, weiß ich aber nicht. Aber selbst wenn es gut funktioniert, wird sowas immer "hinterherhängen", solche Systeme können nur für Bestehendes trainiert werden und demnach auch nur Bestehendes erkennen, alles was neu/anders/besser ist, wird nur schwer erkennbar sein.
Und im Fall von generierten Texten sehe ich eher geringe Probleme. Schüler können es nutzen, aber ich denke, ein guter Lehrer riecht so eine Hausaufgabe auf 10 Meter entfernung. Im Studium sieht das vermutlich schon wieder anders aus, allerdings ist dort häufig wissenschaftliches Arbeiten nötig und das kann eine solches LLM nicht.
Ich sehe aber vor allem auch Vorteile, da z.B. ChatGPT sehr gut im Formulieren ist, kann es die Arbeit auf dem Gebiet deutlich erleichtern. Ich nutze es auch gerne, wenn ich größere Texte ins Englische übersetzen muss, ChatGPT ist einfach schneller und zuverlässiger, als meine begrenzten Englisch-Kentnisse. Wer genau damit aber sein Geld verdient, sollte sich mittelfristig anders orientieren, noch ist ChatGPT (und Co.) nicht in der "normalen" Arbeitswelt verankert, es gibt also noch viele Arbeitsplätze, aber das wird sich ändern.
Die generellen und großen Risiken mit "KI"-Systemen sehe ich eher in der Informationssicherheit, also z.B. dass Videos gefälscht werden, aber das ist nicht neu, das gibt's schon seit Jahren. Das kann für unsere Gesellschaft ernsthafte Folgen nach sich ziehen und tut es vielleicht auch schon. Auch hier wird daran gearbeitet, solche Fälschungen mittels "KI" zu erkennen.
Ja, es ist möglich aber nicht zu 100%
Teils teils. Bei manchen ist es einfach offensichtlich. Aber man kann die Algorithmen auch so geschickt manipulieren, dass es schwer wird. Wenn man es hinterher noch manuell nachbearbeitet, noch schwerer. Die automatischen Detektoren die es gibt, taugen nicht wirklich etwas.
Kennst du den Turing-Test?
Bei den Ai/KI wird versucht sie so zu machen das man sie eben nicht vom Menschen unterscheiden können soll.
Anders herum versucht der Schauspieler Brent Spiner einen Androiden zu spielen, der sich von einem Menschen unterscheidet.
Also je nach Ziel der KI, wird es leicht sein das zu erkennen, oder eben nicht.