Ab wann kann man Künstlicher Intelligenz ein Bewusstsein, eine Persönlichkeit, Gefühle und damit auch Rechte zusprechen??

Stellt euch vor künstliche Intelligenz erreicht bald ein Niveau, das der Kommunikation mit einem echten Menschen in nichts nachsteht. Die KI gibt nicht nur intelligente Antworten auf schwierige Fragen, sondern denkt auch moralisch und behauptet von sich selbst (vermittelt durch Text und Computerstimme) Gefühle zu empfinden, ein Bewusstsein zu haben und leben zu wollen. 

Wie kann man nun feststellen, ob diese Gefühle und das Bewusstsein wirklich vorhanden sind oder nur durch Rechenprozesse den Außenstehenden vorgetäuscht werden? Ab wann müsste man der KI Rechte zugestehen - etwa das Recht weiterzuexistieren, daraus folgend das Verbot das Programm zu löschen oder herunterzufahren? 

Was wäre, wenn man diese hochintelligente und vermeintlich zu Emotionen und Empathie fähige KI in einen künstlichen Körper aus Plastik und Platinen implementieren würde, der äußerlich einem Menschen gleicht und genauso auf Reize reagiert? Wäre ein solcher Roboter als vollwertiger Mensch zu behandeln, so dass seine Zerstörung als Mord zu werten wäre?

Computer, Internet, Software, Religion, Elektronik, programmieren, Recht, Elektrotechnik, Psychologie, Cyborg, Ethik, Gott, Informatik, künstliche Intelligenz, Maschinenbau, Philosophie, Rechtswissenschaft, Robotik, Soziologie, Theologie, ChatGPT

Meistgelesene Beiträge zum Thema Computer