ChatGPT und die Folgen für diese Plattform?
Ich möchte die Aufmerksamkeit auf ein Phänomen lenken welches meiner Meinung nach nicht im Sinne der Platform bzw. seiner User, explizit denjenigen die nach besten Wissen hier antworten, sein kann.
Dank der Software ChatGPT ist es möglich auf seine Fragen KI generierte Antworten zu bekommen und diese hier zu veröffentlichen.
Just solch ein Fall habe ich hier verlinkt.
Hier hat der User zugegen selbst keine Ahnung und die Antwort lediglich kopiert zu haben.
Nur frage ich mich wie fair ist das denjenigen gegenüber die hier teilweise seit Jahren nicht nur mit Wissen sondern durch Recherche, sich einlesen sowie mit Quellen unterlegt und eigenen Worten hilfreich anderen zur Seite stehen wenn ein Chatbot das gleiche schafft und dann ein User diese Antwort als die seine ausgibt.
Bekommt er dann Anerkennung, ein Hilfreich und Danke wird gar durch scheinbar seriöse Antworten irgendwann zum Experten ernannt obgleich er defakto nichts geleistet hat?
Durch Copy und Paste einer Chatbot Antwort ohne das dies offensichtlich ist, gar gekennzeichnet?
Zudem wird solch eine Antwort vollkommen ohne Prüfung des Antwortgebenden übernommen. Sie klingt in meinem Beispiel, bereits durch Umfang, Formulierung sowie weitgehende Infos seriös und wird daher auch vom fragenden User nicht weiter in Frage gestellt. Solch eine in Sekunden formulierte Antwort auf Korrektheit zu prüfen dauert eben wesentlich länger sofern mann die Kommentarfunktion zur Richtigstellung dafür nutzen möchte.
Was haltet ihr davon?
Und wie sollte Gute Frage damit umgehen?
8 Antworten
Mir ist das hier auch schon ein paar mal aufgefallen. Teilweise sind die ChatGPT Antworten wirklich gut und hilfreich, aber oft gehen sie nur teilweise oder gar nicht auf die Frage ein, schweifen ab, oder sind einfach falsch.
Meiner Meinung nach sollte reines Copy + Paste von ChatGPT (oder anderen Quellen) nicht erlaubt sein. Wenn jemand einen Text von ChatGPT zitiert und eindeutig kennzeichnet, dass der Text von ChatGPT stammt, und noch eigene Gedanken zur Antwort hinzufügt, finde ich das aber in Ordnung.
Ich würde mir auch wünschen, dass es eine klare Richtlinie zu ChatGPT gibt.
100% Zustimmung.
Wenn ich hier was schreibe, was nicht von mir ist, gebe ich immer (!) die Quelle mit an. Das habe ich so gelernt.
Ich hatte auch schon ChatGPT als Quelle, aber nicht für eine ernsthafte Antwort 😉.
Wenn ich mir bei meiner Antwort nicht sicher bin, schreibe ich das auch dazu. Insbesondere bei Fragen, die niemand sonst beantwortet und ich wenigstens die Idee einer Antwort habe.
da chatgpt kein recht am text hat(da es kein mensch ist)
ChatGPT hat kein Urheberrecht an den generierten Texten, das stimmt. Eine Plattform wie gutefrage.net könnte aber die Verwendung trotzdem verbieten. Stackoverflow hat das z.B. so gemacht.
und man es nicht nachweisen könnte, ob eine antwort von einem bot geschrieben wurde
Oft ist das doch sehr eindeutig, z.B. wenn eine sehr lange Antwort innerhalb von Sekunden nach der Frage veröffentlicht wird. Klar, "im Zweifel für den Angeklagten".
Danke für deine Einschätzung.
Ich sehe das ganz wie du.
Ich finde es sollte direkt erkannt und gelöscht werden. Beim mehrfachen verbreiten sollte man es mit einem 24h Bann bestrafen !
L.g. Jan
Ich finde persönlich dass man bei antworten sagen sollte dass sie von chatgpt verfasst sind, dann fände ich das okay.
Teilweise sind die hilfreich, teilweise nicht.
Dank der Software ChatGPT ist es möglich auf seine Fragen KI generierte Antworten zu bekommen und diese hier zu veröffentlichen.
so wie es bisher niemandem verboten wurde, selbst nach Antworten zu suchen, anstelle Fragen hier zu stellen, kann jeder zukünftig auch diese KI konsultieren
Die KI von ChatGPT zielt auf eine natürliche Sprachausgabe ab. Sie ist keine Suchmaschine und kein Generator von neuem oder abgeleiteten Wissen. Ferner wurde sie (aus Erfahrungen mit einer KI von Microsoft) so angelernt und konfiguriert, dass sie ethischen Diskussionen und Beurteilungen aus dem Weg geht, also übermässig bestrebt ist, neutral zu bleiben.
nun wenden wir uns GF oder anderen Social Media Plattformen zu: weswegen sind Leute hier? doch nicht, um den Weg zu Wikipedia gezeigt zu bekommen, wo Sachfragen beantwortet werden. Kopiere doch mal die Penisvergleichs-Fragen in ChatGPT, denkst du, die pubertierenden Jungs sind mit der Antwort zufrieden? Nimm die Fragen zu anderen Fetish von Users, die sich als jünger, älter, weisser, dunkelhäutiger o.ä. ausgeben, denkst du, diese sind mit den Antworten einer KI zufrieden? Nimm die Fragen nach Rezepten, wo Geschmäcker hinterfragt werden aber sich Laien auch gegenseitig auf die Schulter klopfen wollen, was auch keine KI befriedigen kann, weil die nämlich falsch antwortet, dass man Quark vorher kochen muss (eigene Erfahrung). Und auch User, die über Wehwehchen klagen, wollen eben klagen und bedauert werden, was ChatGPD nicht befriedigen kann
Nur frage ich mich wie fair ist das denjenigen gegenüber die hier teilweise seit Jahren nicht nur ...
Zum einen erkennt man derzeit noch recht schnell am Stil & Inhalt, dass es eine KI-Antwort ist, selbst wenn sie vom User noch kurz bearbeitet wird (zB künstlich paar Komma-Fehler eingefügt). Also liegt es an den Moderatoren, ob/wie sie darauf reagieren. Zum anderen wird das, was du mit Fairness ansprichst, auch jetzt schon ausgehebelt, da gewisse Leute Wissen als das eigene verkaufen, was nur ergoogelt und zusammen kopiert ist, ohne Quellen zu kennzeichnen. "unfair" wird es genau dann, wenn sie sich durch gewisse Titel hier oder im Forum Privilegien herausnehmen, bzw. auch "gefährlich" wenn die Aussagen zB bei medizinischen Themen oder Ernährung nicht korrekt sind. Unterscheidet sich diese "Fairness" dann zu der, wenn eine ChatGPT Antwort kopiert wird? Beide mal belügt er/sie andere und sich selbst, etwas zu sein, was er/sie nicht ist. Doch das ermöglicht die Anonymität in den Social Media.
Eine richtige Antwort wird immer besser sein, allein, weil ChatGPT manche sachen nicht lösen kann(emotionale faktoren, bilder,( logik)). Zudem kann ein mensch sachen simpler erklären, da er den menschen der fragt irgendwie versteht, und Vielleicht. weiss was das problem im verstehen ist.
Ach und wenn ChatGPT etwas nicht weiss, kann es auch passieren, das irgendein müll raus kommt, den es sich „ausgedacht“ hat
LG
Dafür habe ich ja ein Beispiel angehängt.
Es ist für mich nicht zu erkennen gewesen das diese Antwort nicht vom User selbst geschrieben wurde.
und das ist das problem, wie soll man solch eine moderation durchführen, ob die antwort vom bot ist, oder irgendwer einfach wirklich zu viel zeit hatte
Natürlich ist das ein Problem und eine Lösung kann ich nicht anbieten.
Daher stell ich ja auch diese Frage.
Inzwischen erkenne ich ChatGPT-Antworten ziemlich sicher. Ich hatte aber auch schon Zweifelsfälle in beiden Richtungen.
Zum einen hat (vermutlich) ChatGPT zu einem technischen Problem eine wirklich korrekte Antwort gegeben. Da wusste ich nicht, ob ich die Richtigkeit der Antwort (als Community-Experte) bestätigen soll. Ich habe es nicht getan.
Zum anderen kam mal eine sehr ausführliche Antwort, bei der bei mir schon ChatGPT-Alarm war. Aber der Nutzer hat zum Schluss extra geschrieben, dass die Antwort nicht von ChatGPT ist. Ich habe ihm (oder ihr) geglaubt.
Gerade zu Themen, wo man den Wahrheitsgehalt prüfen kann (Mathe, Physik, Technik) erzählt ChatGPT gerne mal den allergrößten Unsinn. Aber das in gutklingenden, grammatisch und rechtschreiblich korrekten Sätzen.
Aber manchmal hat ChatGPT wirklich auch Lichtblicke.
problem ist, kann man nicht einfügen, da chatgpt kein recht am text hat(da es kein mensch ist) und man es nicht nachweisen könnte, ob eine antwort von einem bot geschrieben wurde, da es ein textgenerator ist, dessen antwort auch bei gleichem Fragesatz variiren kann