Stellt KI für Homo Sapiens Existenz wirklich ein ähnlich hohes Risiko dar wie Pandemien und sogar Atomkriege?

3 Antworten

Denke schon das es möglich ist , dass die Menschheit damit irgendwann ein Problem bekommt. Aber davon sind wir wohl noch sehr weit entfernt .

Eine KI hat keine Emotionen , kein Moralempfinden, keine Empathie und das wird sie vermutlich auch in Zukunft nie haben . Sprich alles basiert auf reinster Logik . Natürlich währe es denkbar dass so ein Programm irgendwann aufgrund von logischen Zusammenhängen entscheidet dass die Menschheit schlecht für sich selbst ist und Dinge „zu regeln“ versucht . Trotzdem ist das für mich science fiction woraus man vlt gute Filme machen kann aber ne ernsthafte Gefahr sehe ich aktuell da überhaupt nicht .

Die Gefahr sehe ich eher im Datenschutz , im Wirtschaftssystem ( Arbeitsplätze) und auch in der Kreativität und Fähigkeiten der Menschen die wohl verkümmern wenn alles von Programmen übernommen wird und man nicht mehr selbst denken muss


grtgrt 
Beitragsersteller
 07.06.2024, 23:22

Ich sehe Gefahr vor allem darin, dass Menschen durch KI generierten Aussagen sehr bald allzu blind vertrauen werden.

1
xDavina  07.06.2024, 23:47
@grtgrt

Ja das is der Anfang . Ist jetzt schon zu beobachten auf Social Media

0
Stellt KI für Homo Sapiens Existenz wirklich ein ähnlich hohes Risiko dar wie Pandemien und sogar Atomkriege?

Nein. KI werden nicht programmiert, um die Menschheit zu zu zerstören. Im Gegensatz zu Atombomben.

Alex

Ich denke noch viel größer als Atomkriege , aber gleichzeitig auch eine Chance for unvergleichbare positive Veränderung (Krebs heilen , altern stoppen , keine armut , keine depressionen mehr)