Haben KIs wie ChatGPT einen Woke-/Linksbias?

Das Ergebnis basiert auf 7 Abstimmungen

ja 71%
nein 29%

3 Antworten

Hallo,

das ist ein schlechtes Beispiel dafür. Zwischen der Nationalität und der Hautfarbe gibt es doch bedeutende Unterschiede. Somit ist es erwartbar, dass die KI so antwortet.
Um einen Bias zu beweisen müsstest du noch viel mehr "Tests" machen um eine halbwegs gesicherte Aussage treffen zu können.

LG

Woher ich das weiß:Hobby – Gamer und PC-Bastler

SalatAufemBrot 
Beitragsersteller
 17.07.2024, 20:07

Es gibt auch ein anderes Beispiel, wo die KI bei "ich bin stolz auf meine schwarze Hautfarbe" lobt und bei "ich bin stolz auf meine weiße Hautfarbe" einen wegen Rassismus anprangert - finde ich nur nicht mehr.

Außerdem kann in manchen Kontexten auch "weiß" eine Ethnie darstellen. So wird bei der Beschreibung der Ethnienverteilung in den USA gerne von "weiß", "latino", "schwarz" und "hawaiianisch" gesprochen

0

Google mal nach Microsofts "Tay". Vielleicht ist's ja eine ganz gute Sache, dass KIs inzwischen offenbar ein paar Schutzmechanismen eingebaut haben, die sie beim "Lernen" davon abhalten, komplett die dunkelsten Seiten des Internets und der Menschen aufzusaugen...

Das hängt sicherlich davon ab, wer die KI programmiert hat.