Kann man von Menschen verfasste Nachrichten, Texte sowie Statements von der einer KI/AI unterscheiden?
Ist ja brandaktuell das Thema. KI/AI wird ja auch immer besser - ist ja lernfähig...
Dennoch hab ich mich gefragt, ob es möglich ist bzw. irgedwann noch möglich sein wird zu unterscheiden, ob ein Text von einer KI generiert wurde oder von einem Menschen verfasst? Wir gehen natürlich vom höchsten Standard aus, den ein "normaler Bürger" zur Verfügung haben kann...
Falls es tatsächlich irgedwann nicht mehr möglich ist, KI vom "Mensch" zu unterscheiden, wie seht ihr diese Entwicklung?
5 Antworten
Hallo DERstobbel,
nicht mit der KI von heute. ChatGPT ist eine schwache KI und keine Echte. Es ist ein Machine Learning Model, welches die Daten verwertet und ausgibt. Diese Daten folgen immer Algorithmen und bestimmten Mustern.
Solange wir also keine echte, selbstlernende, sogenannte starke KI haben, wird man die KI immer vom Menschen unterscheiden können.
Heißt, wenn wir es wirklich schaffen, neurale Netze für eine KI zu bilden und diese selbstständig lernen kann, dann besteht die Chance, dass die KI kaum vom Menschen zu unterscheiden ist. Mit Machine Learning alleine wie bei ChatGPT ist das nicht erreichbar.
VG
Weniger nachverfolgbaren als Algorithmen. So gesehen verwenden wir deutlich mehr "Variablen", worunter Gedanken, Erinnerungen und Hormone eine große Rolle spielen. Das tun wir basierend auf einen Kontext, wozu Machine Learning nicht in der Lage ist. ML gibt nur die Antwort, die sie berechnet hat, die höchste Wahrscheinlichkeit hat, dir zu gefallen.
Kann ML nicht auch Kontext bekommen wenn es lange genug mit Daten versorgt wurde?
Ich meine wenn solche ein ML lange genug läuft dass es eben auf wietreichende Daten zurückgreifen kann?
Nein, leider nicht. Nicht nur mit ML.
Machine Learning Is Bad at Context. Here's How We Fix It. - IEEE Computer Society
Nur sind wir so weit noch nicht. ;-)
Im Grunde ja, aber deutlich komplexer.
Außerdem haben unsere "KI"-Systeme Einen "Eingang" und einen "Ausgang", es gibt Eingabeparameter und Ausgabewahrscheinlichkeiten.
Meiner Theorie nach funktioniert unser Gehirn sehr ähnlich, aber ohne "Eingang" oder "Ausgang". Das Gehirn ist ein gewaltiges neuronales Netzwerk ohne Anfang oder Ende, alles ist irgendwie verknüpft. Die Hirnregionen sind Bereiche, die besonders stark zu einem Bereich stimuliert werden und vernetzt sind, aber sie sind nicht getrennt.
Elektrische Reize (z.B. Tastsinn) führt zur Stimulation irgendwo im neuronalen Netz (kein Eingang, einfach "mittendrin"), die dann von den Neuronen weitergeleitet und unterschiedlich verstärkt oder abgeschwächt werden. Und auf dem "Weg", den ein elektrischer Reiz zurücklegt, werden andere Reaktionen (z.B. Hormonausschüttung) ausgelöst, was dann wiederum andere Prozesse auslöst und so weiter.
Im Grunde also eine permanente Kettenreaktion, ein neuronales Netzwerk, das sich permanent selber mit Daten füttert und die Ergebnisse immer weiter neue Reaktionen auslösen, beeinflusst von äußeren Reizen.
Also ja, im Grunde sehr ähnlich, aber sehr viel komplexer, so komplex, dass es mMn. mit unserer aktuellen Computertechnik nicht abbildbar ist.
Also ja, im Grunde sehr ähnlich, aber sehr viel komplexer, so komplex, dass es mMn. mit unserer aktuellen Computertechnik nicht abbildbar ist.
Genau das denke ich auch. Wobei wir, glaube ich, schon ziemlich gut dabei sind beim Thema Quantencomputer. Aber die Datenmasse und Geschwindigkeit wäre einfach erschlagend, dass ich das auch eher bezweifle, dass wir davon noch etwas mitbekommen werden.
Ich glaube nicht, dass Quantencomputer irgendwie bei dieser Entwicklung helfen. Die haben ihre Vorteile, aber eben auch große Nachteile.
Ich sehe die Zukunft dieser Technologie eher in der analogen Computertechnik. Das ist ja nichts neues, wir brauchen allerdings Systeme, die sich selbständig neu "verkabeln" können, ansonsten ist ein Lernprozess wie in unserem Gehirn nicht möglich.
Sowas gibt's meine ich auch schon, aber nur sehr eingeschränkt und extrem teuer - und ich vergesse den Namen immer wieder ^^
By the way ein sehr interessantes Video zum Thema Quantencomputer:
https://www.youtube.com/watch?v=-UrdExQW0cs
Daraus geht mMn. auch hervor, warum die in diesem Bereich der KI-Forschung nicht helfen werden.
Du kannst die Texte inhaltlich oder den Stil betrachten und überlegen, ob eine Person das geschrieben haben könnte. Dafür ist es natürlich notwendig, dass Du die Person gut kennst. Z.B. würde ein Schüler sicher niemals so ausgefeilte Texte schreiben, wie es ChatGPT tut, der Text ist "zu gut".
Es wird außerdem an "KI"-Systemen gearbeitet, die von "KI" generierte Texte erkennen können sollen. Wie da der Stand ist und wie gut das überhaupt funktionieren kann, weiß ich aber nicht. Aber selbst wenn es gut funktioniert, wird sowas immer "hinterherhängen", solche Systeme können nur für Bestehendes trainiert werden und demnach auch nur Bestehendes erkennen, alles was neu/anders/besser ist, wird nur schwer erkennbar sein.
Und im Fall von generierten Texten sehe ich eher geringe Probleme. Schüler können es nutzen, aber ich denke, ein guter Lehrer riecht so eine Hausaufgabe auf 10 Meter entfernung. Im Studium sieht das vermutlich schon wieder anders aus, allerdings ist dort häufig wissenschaftliches Arbeiten nötig und das kann eine solches LLM nicht.
Ich sehe aber vor allem auch Vorteile, da z.B. ChatGPT sehr gut im Formulieren ist, kann es die Arbeit auf dem Gebiet deutlich erleichtern. Ich nutze es auch gerne, wenn ich größere Texte ins Englische übersetzen muss, ChatGPT ist einfach schneller und zuverlässiger, als meine begrenzten Englisch-Kentnisse. Wer genau damit aber sein Geld verdient, sollte sich mittelfristig anders orientieren, noch ist ChatGPT (und Co.) nicht in der "normalen" Arbeitswelt verankert, es gibt also noch viele Arbeitsplätze, aber das wird sich ändern.
Die generellen und großen Risiken mit "KI"-Systemen sehe ich eher in der Informationssicherheit, also z.B. dass Videos gefälscht werden, aber das ist nicht neu, das gibt's schon seit Jahren. Das kann für unsere Gesellschaft ernsthafte Folgen nach sich ziehen und tut es vielleicht auch schon. Auch hier wird daran gearbeitet, solche Fälschungen mittels "KI" zu erkennen.
Ja, es ist möglich aber nicht zu 100%
Teils teils. Bei manchen ist es einfach offensichtlich. Aber man kann die Algorithmen auch so geschickt manipulieren, dass es schwer wird. Wenn man es hinterher noch manuell nachbearbeitet, noch schwerer. Die automatischen Detektoren die es gibt, taugen nicht wirklich etwas.
Kennst du den Turing-Test?
Bei den Ai/KI wird versucht sie so zu machen das man sie eben nicht vom Menschen unterscheiden können soll.
Anders herum versucht der Schauspieler Brent Spiner einen Androiden zu spielen, der sich von einem Menschen unterscheidet.
Also je nach Ziel der KI, wird es leicht sein das zu erkennen, oder eben nicht.
Ich kenne beide von dir benannten "Gegenwärtigkeiten" nicht...
Gibt es den "Gesetzmäßigkeiten" die auf das eine oder andere schließen lassen?
Vom Turing Test sollte man vielleicht schon mal gehört haben, wenn man über KI redet. So lang ist die Definition auch nicht.
Es gibt keine Gesetzmäßigkeiten, auch weil eben wegen dem Turing Test immer versucht wird die KI so schwer wie möglich vom Menschen unterscheidbar zu machen.
Hab ich gesagt dass ich mich nicht informiert habe nachdem ich durch deien Antwort davon hörte? Nein.
Süß wie du dich aufregst, aber das war kein Vorwurf sondern ein Hinweis. 😉
Ich bin kein Experte auf dem Gebiet... Und ich find die (womögliche) Entwicklung von Ki ziemlich gruselig...^^
Erfolgt aber "menschliches Lernen" nciht auch "nur" Mustern bzw. Algorythmen?