Ich fange am besten mit einem generierten Beispiel an, damit klar ist, was Sache ist:
Frage:
Ein Würfel wird zweimal geworfen ,wie hoch ist die wahrscheinlich ,dass die Summe der beiden Zahlen drei ist?
Antwort:
Es gibt insgesamt 36 mögliche Ergebnisse, wenn ein Würfel zweimal geworfen wird. Die einzige Möglichkeit, dass die Summe der beiden Zahlen 3 ist, ist wenn beide Würfe die Zahl 1 ergeben. Da jeder Wurf eine Wahrscheinlichkeit von 1/6 hat, die Zahl 1 zu ergeben, ist die Wahrscheinlichkeit, dass die Summe der beiden Zahlen 3 ist, 1/6 * 1/6 = 1/36.
Dieser Text klingt doch wie ein ganz normaler Text, oder?
Aber Moment Mal:
Die einzige Möglichkeit, dass die Summe der beiden Zahlen 3 ist, ist wenn beide Würfe die Zahl 1 ergeben.
Das was hier steht ist kompletter Unsinn.
Der Text klingt auf dem ersten Blick plausibel, bei genaueren Hinsehen sieht man aber, dass der Text inhaltliche Fehler enthält.
Dieser Text wurde nämlich nicht von einem Menschen geschrieben, sondern von einer künstlichen Intelligenz: chatGPT.
Man muss einfach nur ein Text in die Eingabe reinschreiben, und die KI spuckt etwas aus, was aussieht, als ob es passen würde. Betonung auf aussehen.
Und genau das ist ein Problem, welches auch hier aufgetaucht ist. Seit gestern sind mir hier öfters Antworten aufgefallen, die sich Plausibel anhören, aber dann auf dem zweiten Blick als totalen Schwachsinn herausstellen. Da diese Beträge so realistisch geschrieben sind, werden sogar einige (unter anderem auch die Fragensteller) getäuscht. Blöd ist, nur, dass der Fragestellers meist nicht das nötige Fachwissen hat, um selbst zu prüfen, ob alles stimmt, weswegen er dann denkt, dass es ein ganz normaler Text ist.
Erst ein Appel:
Passt bei den Antworten mehr auf, nur weil es aussieht, dass ein Mensch die Geschrieben hat, muss es nicht bedeuten, dass die ein Mensch geschrieben hat. Bei den Kommentaren nachzuhaken hilft auch nicht wirklich, da die KI extra dazu da ist, um Gespräche zu führen. Man kann somit damit auch antworten auf die Kommentare generieren, die Plausibel klingen, aber auch wieder Humbug sind (ist heute auch schon passiert).
Und nun meine Frage:
Sind euch auch schon solche Antworten aufgefallen und und ist eure Meinung dazu, dass Leute das hier auf der Plattform machen?
PS: ich habe schon mehrmals diese Antworten gemeldet, und dabei klar gemacht, dass die Computergeneriert sind, und die Meldungen wurden aufgehoben ohne die Antworten zu löschen. Das ist meiner Meinung nach sehr gefählich, da diese Leute schneller solche Antworten generieren können, als Experten oder Leute, die sich auskennen, diese fehlerhaften Antworten finden und richtigstellen können.
Außerdem: wer hat schon lust mit jemanden zu diskutieren, ob was falsch ist, wenn sich am Ende rausstellt, dass der andere nur eine KI ist?
Das nervt einfach.