Hallo Leute, ich schreibe momentan eine Facharbeit in Philosophie mit der Leitfrage "Müssen Menschen Angst vor künstlichen Intelligenzen haben?" und muss sehr bald mein Fazit daraus ziehen. Also meine Frage: Was denkt ihr? Sollte man sich Sorgen um die weitere Entwicklung der Technik/Informatik machen, oder sind wir sogar jetzt schon in Gefahr? Ich bin der Meinung, dass es wirklich zu einer technischen Singularität kommen wird, wenn die Menschheit sich bis dahin noch nicht selbst zerstört hat. Deswegen würde es mich interessieren, ob ich die einzige "Verrückte" bin, die so denkt.
Verwandte Themen
Stellen Roboter und künstliche Intelligenzen eine Gefahr für uns dar?
Technik,
Roboter,
Facharbeit,
künstliche Intelligenz,
Robotik,
Singularität