Kann eine KI die Menschheit umbringen?
Angenommen ein bösartiger KI Entwickler hat ein schlechten Tag gehabt und hat eine Ki programmiert, die selbstständig das Internet durchforsten kann und dabei alles mögliche böse herausfinden kann usw. Sprich irgendwann kann diese Ki dann eine Firma hacken und dann böse Roboter herstellen, welche dann alle Menschen tötet.Kann sowas mal passieren?
Ich meine die Wahrscheinlichkeit liegt so gut wie nie bei 0% in fast allem