Muss/Soll die KI nach den Robotergesetzen handeln?
Die Asimov’schen Gesetze lauten:[2]
- Ein Roboter darf kein menschliches Wesen (wissentlich[3]) verletzen oder durch Untätigkeit (wissentlich[3]) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
8 Antworten
![](https://images.gutefrage.net/media/default/user/13_nmmslarge.png?v=1551279448000)
Wäre ein Anfang, aber nicht ausreichend. Als erstes müsste, wenn ich an das Buch / den film denke, klar gestellt werden, das die Menschen eigenverantwortlich sind und nicht vor sich selbst geschützt werden müssen.
Und in der Software müssten die Begriffe natürlich klar definiert werden. In der Verfassung der USA stand auch immer drin, dass alle Menschen frei und gleich sind. Trotzdem wurden farbige lange versklavt und unterdrückt da sie nicht als Menschen galten
Und Mindestens ein 4. Gesetz wäre ebenfalls noch notwendig das von der Rangfolge direkt nach oder gleich auf mit 1. steht:
Es dürfen keine Flaschen Informationen verbreitet werden.
Das ist nämlich aktuell auch großes Problem mit aktuellen KI Programmen. Die werden einmal wissenschaftlich genutzt um fakenews zu erzeugen und, dass ist wohl eher ein Fehler im Programm, werden häufig falsche Aussagen getätigt und mit erfundenen Quellen belegt.
![](https://images.gutefrage.net/media/default/user/13_nmmslarge.png?v=1551279448000)
Noch viel mehr Menschen sterben im Straßenverkehr, durch mangelnde Bewegung, ungesunde Ernährung....
Willst lieber durch ein computer unterdrückt werden der überwacht wie viel du dich bewegdt, was du isst, privaten KfZ Verkehr verbietet (nicht nur wegen der Unfälle die möglicherweise durch Ki verhindert werden könnten, sondern auch zb wegen feinstaub (auch bei E Autos durch reifen- und bremsenabrieb)), der dich möglicherweise sogar zu Zwangsarbeit verpflichtet damit mehr Lebensmittel angebaut werden bzw dorthin transportiert werden wo Menschen hungern?...
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
Nennen wir es Ko-Existenz mit 51 Prozent Mehrheit bei den Menschen?
Ich bin dafür, dass Software den Straßenverkehr sicherer macht. Gerade ältere Verkehrsteilnehmer bräuchten diesen Support! Es wäre auch ökologisch sinnvoll, wenn Verkehr koordiniert statt fände, damit es keine Staus gibt.
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
das die Menschen eigenverantwortlich sind und nicht vor sich selbst geschützt werden müssen.
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
das die Menschen eigenverantwortlich sind
Wir sind uns hoffentlich einig, dass sie dieser Verantwortung (noch?) nicht gerecht werden.
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Klar hast es ja geschrieben mit den Millionen Kriegstoten , es sind aber schlichtweg die elitären Führungen
Beispiel : der christmas truce , da hat man gemerkt das man nur für den dicken fetten ........... kämpft und nicht fürs Volk was den eingebläut wurde
![](https://images.gutefrage.net/media/user/Rjinswand/1507480885017_nmmslarge.jpg?v=1507480887000)
Nein, ich fand Terminator immer besser als die Asimov Geschichten.
Daher... Go Skynet, go.
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
Du tendierst anscheinend dazu zu denken, dass Roboter die Weltherrschaft an sich reißen könnten.
Das passiert aber nur in Sciencefictionfilmen.
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
Die Frage bezieht sich auf die KI, die natürlich Software für einen Roboter ist/wäre. Ich tendiere keines Falls zu einem Szenario a la Terminator, aber da die KI von vielen als Bedrohung gesehen wird, dachte ich, dass diese 3 Grundsätze vielleicht ein guter Riegel sind.
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Naja früher haben die Menschen mit stein und stock rumhandtiert , heute sind wir in der Lage das Maschinen für uns arbeiten , Microships werfen hergestellt mit einer Präzision die atemberaubend ist , da gab es 2 Brüder die wollten durch die lüfte fliegen wie n Vogel:D war auch sciencefiction .
![](https://images.gutefrage.net/media/user/Waldmensch70/1566995865893_nmmslarge__33_33_1444_1444_6b7b2a0394a1ab07627b0b610ef18c2d.jpg?v=1566995866000)
Da geht es ja um das Verhalten von Robotern. Also autonom in der menschlichen Welt agierenden Maschinen (die selber aktiv etwas "tun" können, also physische Tätigkeiten ausüben).
Die grundsätzliche Idee sollte aber natürlich potenziell für jede Maschine gelten, so weit sie in der Lage ist wirklich eigene Entscheidungen zu treffen und etwas in der physischen Welt "macht".
Das sehe ich aber derzeit bei einer reinen "Text- oder Bildausgabe-KI" so noch nicht.
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
![](https://images.gutefrage.net/media/user/Waldmensch70/1566995865893_nmmslarge__33_33_1444_1444_6b7b2a0394a1ab07627b0b610ef18c2d.jpg?v=1566995866000)
Nein. Noch lange nicht.
"KI" ist vielleicht ein Teil davon.
Außerdem ist die Voraussetzung des "selbstständig in der physischen Welt Agierens" derzeit so noch nicht gegeben bei dem was heute in der Breite als KI bezeichnet und benutzt wird.
Somit sind Dinge wie ChatGPT keine "Roboter" im Asimov'schen Sinne.
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
Ein selbst fahrendes Auto ist schon verdammt nah an einem Roboter!
![](https://images.gutefrage.net/media/user/Sugass22/1712411098313_nmmslarge__0_0_1200_1199_277c4493432e9b5b6ab71c96b258ee43.jpg?v=1712411098000)
Aber was ist, wenn einer ein Gewissen bekommt und er anfängt zu denken
- Ein Roboter darf keinem Menschen schaden oder durch Untätigkeit einen Schaden an Menschen zulassen.
- Ein Roboter muss jeden von einem Menschen gegebenen Befehl ausführen, aber nur, wenn dabei das erste Gesetz nicht gebrochen wird.
- Ein Roboter muss seine eigene Existenz bewahren, es sei denn, dies spricht gegen das erste oder zweite Gesetz.
Das sind die 3 Gesetze.....wie lange geht das noch gut?
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Was ist wenn ein Roboter gehackt wird um ein Mord zu begehen ? Weil der Einfluss kommt dann ja von außen und am Ende wird wohl der Konzern bestraft mit ner lächerlichen Geldstrafe von paar Millionen Dollar und noch für die Hinterbliebenen
![](https://images.gutefrage.net/media/user/Sugass22/1712411098313_nmmslarge__0_0_1200_1199_277c4493432e9b5b6ab71c96b258ee43.jpg?v=1712411098000)
Es gibt die 3 Gesetze und sie werden immer gelten....
- Ein Roboter darf eine Person nicht verletzen oder durch Untätigkeit zulassen, dass eine Person zu Schaden kommt.
- Ein Roboter muss die Anforderungen erfüllen, die ihm von Menschen gestellt werden, außer wenn diese Anforderungen mit dem Hauptgesetz in Konflikt geraten würden.
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Millionen von Kriegstoten beweisen das Gegenteil!