Haben KIs wie ChatGPT einen Woke-/Linksbias?
hier im Beispiel Snapchat AI, die allerdings GPT verwendet
Das Ergebnis basiert auf 7 Abstimmungen
3 Antworten
![](https://images.gutefrage.net/media/user/Technomanking/1444747780_nmmslarge.jpg?v=1444747780000)
Hallo,
das ist ein schlechtes Beispiel dafür. Zwischen der Nationalität und der Hautfarbe gibt es doch bedeutende Unterschiede. Somit ist es erwartbar, dass die KI so antwortet.
Um einen Bias zu beweisen müsstest du noch viel mehr "Tests" machen um eine halbwegs gesicherte Aussage treffen zu können.
LG
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
Es gibt auch ein anderes Beispiel, wo die KI bei "ich bin stolz auf meine schwarze Hautfarbe" lobt und bei "ich bin stolz auf meine weiße Hautfarbe" einen wegen Rassismus anprangert - finde ich nur nicht mehr.
Außerdem kann in manchen Kontexten auch "weiß" eine Ethnie darstellen. So wird bei der Beschreibung der Ethnienverteilung in den USA gerne von "weiß", "latino", "schwarz" und "hawaiianisch" gesprochen
![](https://images.gutefrage.net/media/default/user/12_nmmslarge.png?v=1551279448000)
Google mal nach Microsofts "Tay". Vielleicht ist's ja eine ganz gute Sache, dass KIs inzwischen offenbar ein paar Schutzmechanismen eingebaut haben, die sie beim "Lernen" davon abhalten, komplett die dunkelsten Seiten des Internets und der Menschen aufzusaugen...
![](https://images.gutefrage.net/media/user/putzfee1/1444744029_nmmslarge.jpg?v=1444744029000)
Das hängt sicherlich davon ab, wer die KI programmiert hat.