Muss/Soll die KI nach den Robotergesetzen handeln?

8 Antworten

Wäre ein Anfang, aber nicht ausreichend. Als erstes müsste, wenn ich an das Buch / den film denke, klar gestellt werden, das die Menschen eigenverantwortlich sind und nicht vor sich selbst geschützt werden müssen.

Und in der Software müssten die Begriffe natürlich klar definiert werden. In der Verfassung der USA stand auch immer drin, dass alle Menschen frei und gleich sind. Trotzdem wurden farbige lange versklavt und unterdrückt da sie nicht als Menschen galten

Und Mindestens ein 4. Gesetz wäre ebenfalls noch notwendig das von der Rangfolge direkt nach oder gleich auf mit 1. steht:

Es dürfen keine Flaschen Informationen verbreitet werden.

Das ist nämlich aktuell auch großes Problem mit aktuellen KI Programmen. Die werden einmal wissenschaftlich genutzt um fakenews zu erzeugen und, dass ist wohl eher ein Fehler im Programm, werden häufig falsche Aussagen getätigt und mit erfundenen Quellen belegt.


Still 
Beitragsersteller
 07.06.2024, 09:14
das die Menschen eigenverantwortlich sind und nicht vor sich selbst geschützt werden müssen.

Millionen von Kriegstoten beweisen das Gegenteil!

1
Stefan1248  07.06.2024, 09:25
@Still

Noch viel mehr Menschen sterben im Straßenverkehr, durch mangelnde Bewegung, ungesunde Ernährung....

Willst lieber durch ein computer unterdrückt werden der überwacht wie viel du dich bewegdt, was du isst, privaten KfZ Verkehr verbietet (nicht nur wegen der Unfälle die möglicherweise durch Ki verhindert werden könnten, sondern auch zb wegen feinstaub (auch bei E Autos durch reifen- und bremsenabrieb)), der dich möglicherweise sogar zu Zwangsarbeit verpflichtet damit mehr Lebensmittel angebaut werden bzw dorthin transportiert werden wo Menschen hungern?...

0
Still 
Beitragsersteller
 07.06.2024, 09:34
@Stefan1248

Nennen wir es Ko-Existenz mit 51 Prozent Mehrheit bei den Menschen?

Ich bin dafür, dass Software den Straßenverkehr sicherer macht. Gerade ältere Verkehrsteilnehmer bräuchten diesen Support! Es wäre auch ökologisch sinnvoll, wenn Verkehr koordiniert statt fände, damit es keine Staus gibt.

0
Gogosativa  17.06.2024, 10:31
@Still

Es sind nicht die Menschen, es sind die elitären Strukturen

0
Gogosativa  17.06.2024, 10:38
@Still

das die Menschen eigenverantwortlich sind und nicht vor sich selbst geschützt werden müssen.

0
Still 
Beitragsersteller
 17.06.2024, 10:51
@Gogosativa
das die Menschen eigenverantwortlich sind

Wir sind uns hoffentlich einig, dass sie dieser Verantwortung (noch?) nicht gerecht werden.

0
Gogosativa  17.06.2024, 10:58
@Still

Klar hast es ja geschrieben mit den Millionen Kriegstoten , es sind aber schlichtweg die elitären Führungen

Beispiel : der christmas truce , da hat man gemerkt das man nur für den dicken fetten ........... kämpft und nicht fürs Volk was den eingebläut wurde

0

Nein, ich fand Terminator immer besser als die Asimov Geschichten.

Daher... Go Skynet, go.

Du tendierst anscheinend dazu zu denken, dass Roboter die Weltherrschaft an sich reißen könnten.

Das passiert aber nur in Sciencefictionfilmen.


Still 
Beitragsersteller
 07.06.2024, 09:12

Die Frage bezieht sich auf die KI, die natürlich Software für einen Roboter ist/wäre. Ich tendiere keines Falls zu einem Szenario a la Terminator, aber da die KI von vielen als Bedrohung gesehen wird, dachte ich, dass diese 3 Grundsätze vielleicht ein guter Riegel sind.

0
Chink1  07.06.2024, 09:16
@Still

Warum sollte es eine Bedrohung sein?

0
Still 
Beitragsersteller
 07.06.2024, 09:20
@Chink1

Weil jetzt schon nicht mehr sofort und klar erkennbar ist, was von Menschen und was vonKI verfasst wird. Mit Fake-News könntest du z.B. eine Wahl gezielt und so schnell beeinflussen, dass es für eine Korrektur zu spät ist.

0
Gogosativa  17.06.2024, 10:49

Naja früher haben die Menschen mit stein und stock rumhandtiert , heute sind wir in der Lage das Maschinen für uns arbeiten , Microships werfen hergestellt mit einer Präzision die atemberaubend ist , da gab es 2 Brüder die wollten durch die lüfte fliegen wie n Vogel:D war auch sciencefiction .

0

Da geht es ja um das Verhalten von Robotern. Also autonom in der menschlichen Welt agierenden Maschinen (die selber aktiv etwas "tun" können, also physische Tätigkeiten ausüben).

Die grundsätzliche Idee sollte aber natürlich potenziell für jede Maschine gelten, so weit sie in der Lage ist wirklich eigene Entscheidungen zu treffen und etwas in der physischen Welt "macht".

Das sehe ich aber derzeit bei einer reinen "Text- oder Bildausgabe-KI" so noch nicht.


Still 
Beitragsersteller
 07.06.2024, 08:54

KI wäre/ist ja die Software eines Roboters.

1
Waldmensch70  07.06.2024, 09:50
@Still

Nein. Noch lange nicht.

"KI" ist vielleicht ein Teil davon.

Außerdem ist die Voraussetzung des "selbstständig in der physischen Welt Agierens" derzeit so noch nicht gegeben bei dem was heute in der Breite als KI bezeichnet und benutzt wird.

Somit sind Dinge wie ChatGPT keine "Roboter" im Asimov'schen Sinne.

0
Still 
Beitragsersteller
 07.06.2024, 11:54
@Waldmensch70

Ein selbst fahrendes Auto ist schon verdammt nah an einem Roboter!

0

Aber was ist, wenn einer ein Gewissen bekommt und er anfängt zu denken

  1. Ein Roboter darf keinem Menschen schaden oder durch Untätigkeit einen Schaden an Menschen zulassen.
  2. Ein Roboter muss jeden von einem Menschen gegebenen Befehl ausführen, aber nur, wenn dabei das erste Gesetz nicht gebrochen wird.
  3. Ein Roboter muss seine eigene Existenz bewahren, es sei denn, dies spricht gegen das erste oder zweite Gesetz.

Das sind die 3 Gesetze.....wie lange geht das noch gut?


Gogosativa  17.06.2024, 10:55

Was ist wenn ein Roboter gehackt wird um ein Mord zu begehen ? Weil der Einfluss kommt dann ja von außen und am Ende wird wohl der Konzern bestraft mit ner lächerlichen Geldstrafe von paar Millionen Dollar und noch für die Hinterbliebenen

0
Sugass22  17.06.2024, 17:24
@Gogosativa

Es gibt die 3 Gesetze und sie werden immer gelten....

  1. Ein Roboter darf eine Person nicht verletzen oder durch Untätigkeit zulassen, dass eine Person zu Schaden kommt.
  2. Ein Roboter muss die Anforderungen erfüllen, die ihm von Menschen gestellt werden, außer wenn diese Anforderungen mit dem Hauptgesetz in Konflikt geraten würden.
  3. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
0