Sollten normale Menschen überhaupt Zugang zu umfassenderen KI-Systemen haben?
Mit umfassenderen KI-Systemen meine ich große Sprachmodelle wie ChatGPT.
Natürlich erweisen sich diese im Alltag oft als hilfreich und werden mit größeren Datenmengen immer mehr Aufgaben erledigen können.
Gleichzeitig sehe ich viele Probleme darin, dass die Allgemeinheit Zugang zu diesen KI-Systemen hat:
Das KI-System lernt durch jede Anfrage dazu. Nur wird beispielsweise ChatGPT mittlerweile viel stärker von den normalen Nutzern, als von Experten trainiert. Dadurch präferiert ChatGPT gut klingende Antworten vor richtigen Antworten. Dazu insbesondere folgende Frage: Wie bewerten Sie das Risiko, dass mehr Halluzinationen und Falschinformationen dadurch entstehen, dass KI-Systeme durch die Allgemeinheit falsch trainiert werden?
Hinzu kommt der enorme Stromverbrauch, der mit der Entwicklung von KI-Systemen einhergeht. Dieser wird natürlich mit der Weiterentwicklung von KI-Systemen, gerade mit dem Ziel einer "General AI" immer weiter ansteigen. Jede Anfrage eines Nutzers bei ChatGPT verbraucht um einiges mehr Strom als beispielsweise eine Google-Anfrage und die Nutzerzahlen von ChatGPT steigen sehr schnell.
Zudem sollte man auch den gesellschaftlichen Faktor betrachten. Viele Schüler lassen ihre Hausaufgaben mittlerweile von ChatGPT bearbeiten. Es ist möglich ganze Hausarbeiten von Sprachmodellen schreiben zu lassen. Bald soll man sich mit KI-Systemen wie mit einem Menschen unterhalten können. Wo besteht da für die jüngere Generation noch ein Lernanreiz? Wie können zukünftig noch Leistungen, die zuhause erbracht werden, bewertet werden können? Werden menschliche Interaktionen in Zukunft "unnötig"?
Ich sehe viele Vorteile bei "Narrow AI" und dem Zugang von entsprechenden KI-Systemen für die jeweiligen Experten. Ich glaube, es ist aber deutlich geworden, dass ich der momentanen Entwicklung großer Sprachmodelle für die Allgemeinheit sehr kritisch gegenüber stehe. Mich würde daher Ihre Einordnung sehr interessieren. Insbesondere im Hinblick auf die Qualität der Trainingsdaten, die durch normale Nutzer verschlechtert wird.
1 Antwort
![](https://images.gutefrage.net/media/user/MichaelFoertsch/1715929949690_nmmslarge__123_0_401_401_ce33c652898bf6aa71f8b58421625575.jpg?v=1715929950000)
Ich denke, diese Frage stellt sich eigentlich nicht mehr. Mit LLaMA 3, Falcon 2, Mistal und einigen anderen sind Modelle, die nicht ganz auf dem Niveau von GPT-4/ChatGPT, aber nahe dran sind, öffentlich und für jedermann verfügbar. Sie werden von einer großen Gemeinschaft genutzt und weiterentwickelt.
Der Geist damit aus der Flasche, und wohl nicht mehr reinzubekommen.
Was das „Das KI-System lernt durch jede Anfrage dazu“ angeht: Das stimmt so nicht. ChatGPT bzw. die Modelle dahinter sind iterativ trainierte Modelle. Sie lernen nicht kontinuierlich. Sondern sie werden einmal komplett mit sehr, sehr vielen Daten trainiert, dann mit weiteren Daten verfeinert und dann für die Nutzung eingesetzt. Zwar sammelt OpenAI Nutzungsdaten und protokolliert, wie und wofür ChatGPT genutzt wird, aber diese Daten fließen nicht sofort ein, sondern erst für das nächste Training – z.B. vom Training der KI-Version GPT-4 auf GPT-4o.
ChatGPT wird also nicht von „normalen Benutzern“ oder der Öffentlichkeit trainiert. Die Daten, mit denen ChatGPT beziehungsweise die dahinter stehenden Modelle trainiert werden, werden von OpenAI ausgewählt. Darunter ist viel Literatur, viel wissenschaftlicher Inhalt, aber natürlich auch viel Fragwürdiges, was sich etwa auf Reddit findet.
Zu deinen anderen Teilfragen bezüglich der Verwendung durch Schüler und den Energieverbrauch: Ich habe auf spezifische Fragen von anderen Benutzern zu diesen Themen bereits ausführlich geantwortet.
Vielleicht möchtest du sie dort nachlesen : )