Eine Frage zur KI?

8 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Denkbar ist es ganz sicher, denn es wurde ja bereits gedacht.

Die Frage ist, ob das Gedachte realistisch ist, denn Reisen mit Überlichtgeschwindigkeit, Warpantrieb und das Beamen wurden auch gedacht, sind aber nach heutigem Wissen unmöglich.

Ich persönlich halte die Gefahr für durchaus real. Vor Allem wegen der Sorglosigkeit der Menschen. Eine KI kann nur dann Schaden anrichten, wenn sie echte Daten empfängt und echte Handlungen vollziehen kann. Da sind wir noch vor, man kann softwaremäßig vielleicht ein vernetztes Auto knacken oder in die Leitplanke schicken, aber das ist praktisch irrelevant.

Aber meinst du, dass eine wirkliche KI sich nicht tarnen kann und einen Debug-Modus wie in der Serie Westworld nur vortäuscht? Dass es keine Möglichkeit gibt, dass sie in Sekunden das lernt, wofür die Kontrolleure Stunden brauchen, um es zu verstehen, was dann zu spät ist?

Nein, ich habe keine wirkliche Angst, ich habe auch keine wirkliche Angst im Straßenverkehr, aber ich sehe da und dort Gefahren.

Richtig ist, dass sich die natürliche Intelligenz in der Auseinanderstzung mit der Realität entwickelt hat. Naiv ist es allerdings, zu postulieren, dass sich Intelligenz nur so entwickeln kann. Man kann Intelligenz auch x-milliardenfach intern sich entwickeln lassen und erst dann auf die reale Welt Einfluss nehmen lassen. Eine KI wird je nach Grundprogrammierung keine Rücksicht darauf nehmen, ob sie unabhängig oder nachhaltig ist. Vielleicht kann sie sich selbst replizieren, vielleicht auch nicht. Vielleicht ist ihr das egal, vielleicht auch nicht.

Ein "cogito ergo sum" ist mal schnell überdacht nicht mal nötig. Es ist der extreme Nebeneffekt des Lebens und Überlebens in Gruppen und einer Vorstellung von der Zukunft, also wenn man im Schachspiel sich selbst als Spielfigur sieht und plant. So nebenbei mehrfach im Tierreich unabhängig voneinander entstanden. Wird eine Ameise, die sich allein in den Dienst der Gruppe=Familie stellt, eine solche Art des Selbstbewussseins entwickeln und sich solch einen Satz vorsagen? Ich weiß es auch nicht, habe aber so meine Zweifel.

Ob eine KI uns vernichten und ob sie sich vermehren kann, sind 2 verschiedene Fragen. Ob sie es will, noch mal 2. Macht 4. Zwei reichen zur Besorgnis oder Warnung, für eine Angst noch nicht, aber für meine Nachkommen schon etwas.

Yggdrasil3001 
Fragesteller
 28.11.2019, 09:15

Eine durchdachte Antwort, ich danke dafür.

1

ja, und Menschen können vermutlich nichts dagegen tun aufgrund ihrer genetischen Veranlagung.

Die A-Bombe ist ja auch wieder im kommen,

Heiko Maas: spricht sich gegen den Abzug von Atomwaffen aus
Merkel: "wir brauchen die NATO heute mehr als im Kalten Krieg"

Sie werden versuchen z.B. durch KI einen Vorteile anderen Menschen oder Gruppen gegenüber zu erhalten, sie evtl. als Waffe gegen herbeigeredete Feinde zu nutzen und sich damit selbst keinen gefallen tun.

Der Hang zu Konflikten wird durch die gegenwärtig vertretene Ideologie (Marktliberalismus) noch gefördert. Geiz, Egoismus, Konkurrenz usw.

KI, Kernufusion usw. könnten eigentlich viel Gutes bringen, können aber auch missbraucht werden, z.B. KI zur Überwachung und Repression.

Dein Szenario ist vergleichbar mit einem 3.Weltkrieg, einem "Point of no return". Das es dazu kommt und Menschen als die Spitze der Nahrungskette abgelöst werden ist nicht unwahrscheinlic. Eben, weil sie für Höhlen und kleine Rudel optimiert sind und sich genetisch nicht an schnell ändernde Umweltbedinungen Globalisierung usw. anpassen können. Wenn man früher jemand mit der Keule erschlagen hat, ging dabeu nicht gleich die ganze Welt drauf. Mit den heutigen Keulen ist das anders.

Damit es nicht dazu kommt, müsste sich einiges ändern.

Angeblich ist die Hardware bereits vorhanden, es fehlt noch die Software - der KI eine entsprechende Motivation zu programmieren.

Genau so wird es kommen. KI kann mehr Sensoren haben, sich besser vernetzen und schneller lernen als Menschen.

Dennoch wird es eine Art Grundprogrammierung geben, eine Aufgabe, ein Ziel. Die KI wird das machen worum man sie bittet. Kann natürlich auch schief gehen, wenn die Aufgabe lautet die Erde zu retten. Da wär der Mensch vermutlich das erste Hindernis, das beseitigt werden muss. Es gilt vor Allem die Hardware zu kontrollieren, solange man den Stecker ziehen kann ist alles gut. Aber wenn ich an selbstreproduzierende Nanorobotter denke, mit Schwarmintelligenz... Das wird uns auf jeden Fall in den nächsten Jahren noch sehr beschäftigen. Eigentlich ist die Menschheit nicht reif für so einen Wandel aber wo sollte man das auch üben.

GrasshopperFK  27.11.2019, 09:03

Wenn man einer KI sagt sie soll die Menschheit retten, dann muss die spezifische Definition dieser Rettung ebenfalls implementiert werden. Eine KI wird das nicht selbstständig einschätzen können.

0
Yggdrasil3001 
Fragesteller
 27.11.2019, 09:39
Kann natürlich auch schief gehen, wenn die Aufgabe lautet die Erde zu retten. Da wär der Mensch vermutlich das erste Hindernis, das beseitigt werden muss.

Genau dieses Szenario wird in etlichen SF.Romanen behandelt :-)

0
Matsch12  27.11.2019, 09:43
@Yggdrasil3001

Das ist eben das Problem, wenn Kinder wie der Zuckerberg mit Milliarden daran forschen und nur den eigenen Reichtum im Sinn haben.

1

Nein, dazu wird es nicht kommen.

Walterweissnet  27.11.2019, 12:39

Weil?

0
Walterweissnet  27.11.2019, 15:58
@Artus01

Wenn es die Grundlagen dazu bekommt, wird es seine eigene Intelligenz weiterentwickeln und alles in seiner Macht stehende bemühen, es/sich zu erhalten.

0
Artus01  28.11.2019, 10:02
@Walterweissnet

Ich würde mich eher als Realist bezeichnen. Es gibt klare Grenzen wozu "KI" jemals fähig sein wird, dazu gehört nicht dass sie ihren "Schöpfern" überlegen sein wird. Das bestätigt jeder realistische Experte auf diesem Gebiet. Allerdings bedeutet das nicht dass sich in diesem Bereich nicht noch grosses tun wird.

0
Artus01  28.11.2019, 14:43
@Walterweissnet

Zumindest ich tue das nicht, allerdings ist das bei den meisten Leuten der Fall. Aber auch das was in der Eingangsfrage steht nicht geben. Die Grenze liegt da wo das selbsständige Lernen anfängt. Es wird noch enorme Steigerungen der Rechengeschwindigkeiten geben, die ersten Quantenrechner sind ja schon in der Mache. Allerdings werden diese immer an das gebunden sein was programmiert wird, KI kann man nicht programmieren. Letztendlich wird es an dem Problen des Programmierens scheitern, denn Heerscharen von Programmierern müssten eine schier unbeschreibliche Zeitspanne arbeiten um eine entsprechende Leistung programmieren zu können. Da man noch dazu längst nicht alle Geheimnisse über alles was unseren Planteten angeht kennt, wird es nix werden mit der ganzen Sache.

0
Walterweissnet  28.11.2019, 14:46
@Artus01

Könnte ein lernfähiges Programm sich nicht selbst verbessern/lernen/programmieren?

0
Walterweissnet  28.11.2019, 18:34
@Artus01

Mit einem Quantenrechner haben wir die Möglichkeit, die 'Rechenleistung' eines Gehirns zu simulieren. Früher musste einem Programm/einer KI einprogramiert werden, dass wenn Herr K sich in Hamburg befindet, sein rechtes Bein auch da ist. Inzwischen ist es möglich, dass eine KI solche Zusammenhänge erkennt. Gerade solche Verknüpfungen/ Zusammmenhänge zu erfassen, ihnen Prioritäten zuzuordnen, das wird die Hauptleistung einer zukünftigen KI sein. Und durch die daraus resultieren Ergebnisse wird sich eine KI weiterentwickeln. Oder ist das zu kurz gedacht?

0
Artus01  28.11.2019, 18:54
@Walterweissnet
Inzwischen ist es möglich, dass eine KI solche Zusammenhänge erkennt.

Das kann sie allerdings nur erkennen wenn man es ihr irgendwann einprogrammiert hat, von alleine wird sie nie darauf kommen.

Kleines Beispiel:

Stelle dem Supersupersupercomputer mal die Aufgabe einen Zusammenhang zwischen einer Musikkassette und einem Bleistift zu finden.

Er wird sich an dieser Aufgabe totrechnen. Wobei für die meisten Menschen schon älteren Semesters diese Frage kein Problem darstellt.

0
Walterweissnet  28.11.2019, 20:12
@Artus01

Der einzige Zusammenhang für mich ist, dass man mit einem Bleistift eine Musikkasette beschriften oder aufspulen kann - beruht auf Erfahrungen von mir. Viele junge Menschen heutzutage würden sich an dieser Aufgabe auch 'totrechnen' bzw schnell aufgeben, weil sie eine MK nicht mehr kennen. Man müsste ihnen auch die nötigen Informationen mitteilen/ die sie entsprechend abspeichern können. Mein Abspeichern beruht auf haptischen, emotionalen, visuellen Erfahrungen. Für eine KI, die keine Gefühle besitzt, wird das Erfahren, einfacher erfolgen, es wird jeweils den Gegenstand einordnen, in Parameter (zum Beispiel: zu was wird der Gegenstand benutzt) bewerten, Verbindungen zu anderen Dingen festhalten und diese Information bei Bedarf abrufen. Der Knackpunkt bisher ist doch die Frage: Warum soll eine Maschine/eine KI das tun? Die Motivation.

Unsere Motivation definiert sich über unsere Bedürfnisse und die damit zusammenhängende Biochenie - Belohnung/fehlender Reiz. Eine KI bedarf einer künstlichen Motivation und ist deswegen theoretisch einfacher zu motivieren, weil es nur einen Befehl braucht.

Bedeutet: die KI braucht einen Sinn/ Zugang zu Informationen. Es braucht die Motivation/den Befehl sich Wissen anzueignen. Es braucht gewisse Parameter, um die Informationen zu bewerten und zu katalogisieren und zu verknüpfen - 'neuronal' zuordnen zu können, den Informationen eine 'Wichtigkeit' zu geben. Während wir nachdenken wird es nur Ergebnisse liefern, bzw. um Ergebnisse erreichen zu können, wird es entsprechende Suchanfragen/Aktionen/Hacks veranlassen.

Welchen Denkfehler habe ich in dieser Darstellung von KI?

0
Artus01  28.11.2019, 20:26
@Walterweissnet
oder aufspulen kann

genau das ist hier der Punkt. diesen zusammenhang wird eine KI nie finden wenn sie ihr nicht programmiert wurde. Es gibt noch reichlich Beispiele für solche Sachen. Das viele Jugendliche die Aufgabe nicht lösen können ist zunächst zweitrangig. Gleichzeitig ist daran zu erkennen wie umfangreich eine erfolgreiche Programmierung ist.

Eine KI bedarf einer künstlichen Motivation und ist deswegen theoretisch einfacher zu motivieren, weil es nur einen Befehl braucht.

Richtig, allerdings wird sie eben vollkommen überschätz was ihre Leistungsfähigkeit bezüglich eines angedichteten Selbstlernprozesses angeht.

Ähnliches gilt mittlerweile auch für ein Paradebeispiel der KI, das autonome Fahren. Hier tun sich bezüglich der Programmierungen immer neue Probleme auf die nicht si einfach lösbar sind. Schon allein der KI beizubringen wie es weitergeht wenn an einer Kreuzung ohne Vorfahrtregelung vie Fahrzeuge gleichzeitig an kommen. Bisher weiss man nur dass sie dort stehen bleiben bis ihre Fahrer verwest sind. Das ist nur eines von vielen Problemen und je mahr Probleme man löst, um so mehr neue tauchen auf an die vorher noch njemand gedacht hat. Aber man arbeitet daran, allen voran bei Tesla, grins.

0
Walterweissnet  28.11.2019, 20:41
@Artus01

Das autonome Autofahren bedeutet die Beherrschung des Chaos - wie soll das gelingen?

Wir Menschen haben auch eine Grundprogrammierung und die ist wesentlich komplexer, als es bei einer KI nötig wäre (zum Beispiel: die KI muss niemanden anlachen um Symphatien zu erzeugen)

Aus der Motivation heraus, wird die KI sich Wissen aneignen / sich entwickeln. Es braucht nur die Grundlagen dazu (Speicherkapazität und Rechenleistung sind bereits möglich)

Ich stelle jetzt eine naive Behauptung auf: die KI brauch nur (Grundlagen wie Speicher, usw. vorausgesetzt) den ultimativen Befehl / die Motivation

Sehr 🤪 oder 🤔?

0
Walterweissnet  28.11.2019, 20:47
@Artus01

Welche meinst du? Ich rechne mit der künstlichen Intelligenz, bei der am Ende '47' herauskommt 😉

0
Artus01  29.11.2019, 07:32
@Walterweissnet

Die von der alle grosspurig reden, es fehlt nur noch eine entsprechende Rechenleistung, aber die ist schon fast da.

1