Könnte es wirklich sein, dass schon in wenigen Jahren der Zugriff auf dann aktuelle (extrem mächtige) KI ebenso wichtig wie Zugriff auf Atomwaffen sein wird?

6 Antworten

Ich habe mir den ersten Link durchgelesen und selten eine solche vage drohende Sammlung von Allgemeinplätzchen gesehen.

Superintelligenzen haben wir schon lange. Seit zwei Jahrzehnten hat kein menschlicher Großmeister gegen einen Rechner eine Chance.

Die Plattitüden, die du erzählst, und die diesem farblosen ersten Artikel nicht mal zu entnehmen sind, beschreiben keine andere Welt, als sie in den Terminator Filmen schon beschrieben werden.

Computersysteme, die selbständig lernen und denken und die Kontrolle übernehmen.

Dann müssen wir eben dafür sorgen, dass sie diese Kontrolle nicht übernehmen, wie bisher auch.


grtgrt 
Beitragsersteller
 08.07.2024, 07:53

Der Mann weiß offensichtlich schon, wovon er spricht (und ist nicht nur KI-Experte, sondern auch ausgebildeter Wirtschaftswissenschaftler, wenn ich das richtig verstanden habe). OpenAI hat ihn gefeuert, da er mit seiner Meinung nicht hinterm Berg halten wollte.

Eine seiner Aussagen ist:

Warum US-China-Zusammenarbeit notwendig ist

In einem ausführlichen Gespräch mit Dwarkesh Patel hebt Aschenbrenner die Bedeutung einer strategischen und kooperativen Herangehensweise zwischen den USA und China hervor. Er betont, dass eine fehlende Zusammenarbeit zu einem destabilisierten internationalen Umfeld führen könnte, was die Risiken einer unkontrollierten AGI-Entwicklung erhöhen würde. Aschenbrenner plädiert für eine globale Kooperation, um die Herausforderungen der AGI gemeinsam zu bewältigen und das Potenzial dieser Technologie verantwortungsvoll zu nutzen.

Quelle: https://alphaavenue.ai/magazin/technology/leopold-aschenbrenner-eine-neue-stimme-in-der-debatte-um-die-agi/

0
Hinkelsteiner  08.07.2024, 08:13
@grtgrt

Falls ich harsch gesprochen habe, Pardon.
Es ging mir nur um die Sache.

Sicher hat der Mann Ahnung.
Aber er vertritt eine Außenseitermeinung.
Andere Experten, die ebenfalls wissen, wovon sie reden, vertreten eine andere.

Und noch immer bewegen wir uns im Bereich der Allgemeinheiten und nicht über den Level von Terminator I und II hinaus.

0
grtgrt 
Beitragsersteller
 08.07.2024, 08:18
@Hinkelsteiner

Die Zukunft vorherzusagen, ist nie mit Sicherheit möglich. Dennoch sollte man sich bemühen, zu sehen, was im Bereich des Möglichen liegt.

0
grtgrt 
Beitragsersteller
 08.07.2024, 08:22
@grtgrt

Wie er sagt, sei, auf was er aufmerksam macht, auch keineswegs nur seine eigene Meinung.

0
grtgrt 
Beitragsersteller
 08.07.2024, 10:49
@Hinkelsteiner

Wie könnte man denn präziser werden, wenn man auf die Meinung eines Fachmanns aufmerksam macht, selbst aber nicht KI-Experte ist?

0
Hinkelsteiner  08.07.2024, 12:04
@grtgrt

Erstmal Phrasen vermeiden.

Die Zukunft vorherzusagen, ist nie mit Sicherheit möglich. Dennoch sollte man sich bemühen, zu sehen, was im Bereich des Möglichen liegt.

Sagt 0 aus.

Wie er sagt, sei, auf was er aufmerksam macht, auch keineswegs nur seine eigene Meinung.

Ist wieder selbstverständlich angesichts von zigtausend IT-Fachleuten.

Und damit ist meine Lust auf weitere Unterhaltung erschöpft.

0

Hallo nein.

Eine Superintelligente A.I. wird uns niemals merken lassen,

dass sie uns ständig kontrolliert und manipuliert.

Also sie würde sehr subtil agieren.

Sonst wäre sie ja nicht superintelligent.

Solange man nicht grundsätzlich und nachhaltig gegen alle Regeln verstößt.

Beispiele:

Wenn man sich weigert mit Handy herum zu laufen.

Oder sich keinen Chip einpflanzen lässt.

Hansi


grtgrt 
Beitragsersteller
 08.07.2024, 07:17

Falsch, denn: Was man "superintelligente KI" nennt, ist noch lange keine, die Bewusstsein hätte. Das erst wäre sog. "starke KI", die es aber wohl nie geben wird.

1
Kerner  08.07.2024, 07:20
@grtgrt

Da wäre ich mir nicht so sicher.

Hansi

0
grtgrt 
Beitragsersteller
 08.07.2024, 07:59
@Kerner

Sie könnte nur, wie die Intelligenz biologischer Lebewesen auch, per Emergenz zustandekommen. Eben dann aber wäre sie selbst durch Menschen nicht kontrollierbar. Es wäre KI dann lediglich zu einer weiteren Art von Objekten geworden, in denen sie auftritt.

1

Tja, die Menschheit ist dumm und feiert sich auch noch selbst bei der Entwicklung von Skynet.

Wir brauchen weltweit Gesetze, die die Entwicklung von solchen KIs verbieten, und zwar rigoros!

Woher ich das weiß:eigene Erfahrung – Bin seit den 80ern Computer und Computerspielefan.

grtgrt 
Beitragsersteller
 08.07.2024, 07:27

Zu solchem Verbot wird es nie kommen, da es nicht durchsetzbar wäre. Wir, Homo Sapiens, muss schon lernen. die Werkzeuge, die er baut, auch zu kontrollieren. Wenn nicht, wird er untergehen.

0
Könnte es wirklich sein...

Wer kann das schon wissen.

"Künstliche Intelligenz" (KI) können nicht so sein, wie andere Lebewesen, wie wir Menschen. Der Grund hierfür ist meiner Meinung nach, dass die KI keine Psyche, und Gefühle empfinden. KI können nur hierzu rechnen und können keine Gefühle und Psyche dazu beitragen.

Ich habe auch bereits über dieses Thema mit meinen kleiner Bruder geredet, da er in einer IT-Branche arbeitet und sein Fachabitur in diese Richtung macht.


grtgrt 
Beitragsersteller
 08.07.2024, 02:46

Das ist völlig richtig.

Richtig ist aber auch, dass KI in ihrer Mächtigkeit (und den Möglichkeiten nach, die sie bietet, auch Waffen zu automatisieren, ähnlich wie autonom fahrende Autos) wirklich auch nahezu beliebig mächtige Waffe wird darstellen können.

Sie muss deswegen nicht Bewusstsein haben wie Menschen (oder auch andere Lebewesen).

2