Hallo,
ein weiteres Argument gegen die Benutzung von KI ist das Risiko einer technologischen Singularität. Das heißt, dass die KI so schlau wird, dass sie Gefühle/Emotionen entwickeln kann oder Herrschaft über die Menschheit erlangen kann, ohne die Menschen dafür zu brauchen.
Wissenschaftler hatten in einer Studie herausgefunden, dass KI aktuell das größte Risiko für einen Weltuntergang darstellt.
----------------------
Dennoch sollte man hierbei natürlich beachten, dass ein solches Szenario trotzdem unwahrscheinlich bleibt. Dennoch sollten Maßnahmen ergriffen werden, um KI regulieren zu können.
Beste Grüße
QuizzerFifi
Referenz: br.de