Eine berechtigte Frage. Derzeit geschieht dies vor allem durch sogenanntes Red Teaming und Alignment. Bei ersterem versuchen Menschen, die sich gut mit KI-Systemen auskennen, eine noch in der Entwicklung befindliche KI dazu zu bringen, eigentlich unerwünschte Dinge zu tun: zum Beispiel Anleitungen zum Bombenbau zu schreiben oder chemische Waffen zu entwerfen. Genau dieses unerwünschte Verhalten wird einer KI dann „abtrainiert“. Dazu erhalten große Sprachmodelle hinter Chatbots wie ChatGPT einen sogenannten Systemprompt, der auch Verhaltensrichtlinien vorgibt.

Dem Chatbot Claude wurde etwa eine Art Verfassung mitgegeben, an die er sich halten soll.

Hier gibt’s mehr dazu: https://www.anthropic.com/news/collective-constitutional-ai-aligning-a-language-model-with-public-input

Für gefährlichere KI-Systeme, wie sie zur Steuerung bewaffneter Drohnen eingesetzt werden, gibt es ähnliche Sicherheitsverfahren. Darüber hinaus gibt es aber auch Notabschaltungen und Möglichkeiten, etwa eine fehlgeleitete Drohne aus der Ferne zu sprengen.

In der EU wurde zudem kürzlich der sogenannte AI Act verabschiedet. Dieser schreibt Entwicklern vor, beispielsweise offenzulegen, wie und womit ihre KI-Systeme trainiert werden, und verbietet auch bestimmte KI-Systeme.

Es gibt auch Forschergruppen, die für ein festes Regelwerk für Künstliche Intelligenz plädieren. Ähnlich den Robotergesetzen, die Isaac Asimov einst definierte. Unklar ist allerdings noch, wie ein solches Regelwerk aussehen könnte und wie es KI-Systemen so eingepflanzt werden kann, dass sie sich tatsächlich daranhalten. Denn zumindest bisher ist es immer wieder gelungen, KIs dazu zu „überreden“, die ihnen gesetzten Grenzen zu ignorieren.

...zur Antwort

Ich glaube, dass wir vor allem viele inkrementelle Verbesserungen sehen werden, die sich aus einem besseren Verständnis der aktuellen KI-Modelle ergeben. KI-Modelle wie die hinter ChatGPT, Claude, Pi und anderen werden effizienter, schneller und zuverlässiger werden. Halluzinationen werden reduziert. Trainingsdaten werden effizienter genutzt.

Die Modelle werden weniger Energie und Rechenleistung benötigen. Sie werden aber noch stärker als heute auf externe Quellen zugreifen und diese wahrscheinlich auch genauer auswerten können. Vor allem aber werden sie viel personalisierter sein, als Assistenten unseren Alltag mitorganisieren, E-Mails beantworten, einen Terminkalender führen und automatisch eine Pizza bestellen, wenn ich das Büro verlasse.

Gleichzeitig Künstliche Intelligenz viel mobiler werden. KI-Assistenten werden auf Smartphones und anderen Geräten laufen und keine ständige Internetverbindung benötigen. Diese Entwicklung hat bereits mit Mini-Modellen wie Gemini Nano auf den Pixel-Phones von Google begonnen. Sowieso wird Künstliche Intelligenz nach und nach in alle möglichen Geräte und Dienste eindringen und viel, viel selbstverständlicher werden. So dass man auch nicht mehr ständig von Künstlicher Intelligenz spricht.

Ich denke, dass offene KI - also in Form von Open-Source-Modellen, -Projekten usw. - dabei eine sehr große Rolle spielen wird. Die Technologie wird sich wahrscheinlich sehr massiv demokratisieren. Was heute noch nerdy und edgy ist, wird sich wahrscheinlich normalisieren - etwa Projekte wie Ollama, Stable Diffusion, verschiedene offene Sprach-KIs und so weiter - weil sie z.B. in Webbrowser und andere Programme integriert werden.

Fortschritte wird es wahrscheinlich auch beim Thema „explainable AI“ geben. Also der Möglichkeit, dass eine Künstliche Intelligenz erklären kann, warum sie auf eine Frage so und nicht anders geantwortet hat. Das Wort Black Box ist nicht ganz korrekt, aber in der Tat fangen wir gerade erst an zu verstehen, wie zum Beispiel die Transformationsmodelle hinter den großen LLMs funktionieren. Auch im Bereich der Bild- und Videogenerierung wird viel tun. Mehr Fotorealismus, höhere Auflösung, bessere Konsistenz, schnellere Generierung und vieles mehr. Und ich sehe große Fortschritte in der Robotik.

Was ich noch erwarte - und auch ein bisschen hoffe - ist, dass Künstliche Intelligenz eine große kritische gesellschaftliche Debatte auslösen wird. Ähnlich wie damals die sozialen Medien. Eine Debatte, in der Fragen der sozialen und gesellschaftlichen Verantwortung, der Zugänglichkeit und Rechenschaft.

Aber um ehrlich zu sein: Das gesamte Feld der KI ist derzeit von einer solchen Entwicklungsgeschwindigkeit geprägt, von so massiven Sprüngen, dass es schwer ist zu sagen, was im nächsten Jahr, geschweige denn in fünf oder zehn Jahren sein wird.

...zur Antwort

Diese Frage lässt sich leider noch nicht pauschal beantworten. Denn wir wissen noch nicht genau, was mit Künstlicher Intelligenz alles möglich und machbar ist. Aber ich glaube, dass die Europäische Union mit dem sogenannten AI Act schon einen guten - wenn auch unvollständigen - Rahmen gesetzt hat, der zum Beispiel Unternehmen in die Pflicht nimmt, ihre Systeme transparent und sicher zu entwickeln. Und der auch Menschen davor schützt, dass sie von KI-Systemen ohne Widerspruch bewertet werden.

Was sicherlich noch im internationalen Rahmen diskutiert werden muss, ist, ob und wie ein gemeinsamer Umgang mit autonomen Waffen gefunden werden kann. Oder in welchen Bereichen der Einsatz von KI streng reglementiert oder gar verboten werden sollte: etwa bei der Entwicklung biologischer oder chemischer Waffen, bei Spionage und Bevölkerungsüberwachung oder bei der gezielten Manipulation von Menschen.

Und ich denke: Es wäre auch nicht verkehrt, zu definieren, wie damit umzugehen ist, wenn es tatsächlich gelingen sollte, eine Künstliche Intelligenz zu schaffen, die selbstständig lernt und über ein Bewusstsein verfügt. Nur für alle Fälle.

...zur Antwort
AI - wo liegen die Grenzen und wisst ihr Beispiele?

DIE GRENZEN DER AI

Sicherlich gibt es Beispiele wo die kuenstliche Intelligenz an ihre Grenzen gelangt. Gerne wuerde ich Beispiele wissen, wo sich AI nicht anwenden laeest.

Nachfolgende Situatiin aus meiner fruehen Kimdheit fasziniert mich sehr und regt mich immer wieder an ...

Mein Vater hat mit grosser Hingabe die Apfelbaeume im eigenen Garten am Haus gepflegt. Vielfach wurde sein unermuedlicher Einsatz mit guter Ernte belohnt.

Ein wichtiger Bestandteil war auch der Winterschnitt im unbelaubten Zustand. Meine Hilfe bestand zu dieser Zeit ueberwiegend vom Aufsammeln des Schnittgutes und Erlernen der Wuchsgesetze der einzelnen Apfelbaeume fuer die spaeter auf mich uebergehende Aufgabe.

Auf eine Anfrage, ob er denn auch die Baeume fuer jemand anderen schneiden koennte, entgegnete er freundlich, dass man doch die Baeume vorbeibringen sollte ...

Ich war damals noch ein kleines Kind, hatte die Antwort / den beabsichtigten Sinn seiner Antwort ueberhaupt nicht verstanden ... und fragte nach dem Abendessen was er den gemeint hatte ...

Liebevoll hat er mich hingefuehrt, dass ich die Antwort mir "erarbeiten" konnte.

Je mehr wir von "AI" im Alltag beeinflusst sind, um so faszinierender finde ich die Antwort, die er damals gegeben hat ...

... und fuer mich, noch heute, das gelegentlich bewusste Suchen nach Grenzen, wo die "modernenTechnologien" - AI - NICHT anwendbar sind, und ich den Begriff Intelligenz immer mehr in Frage stelle ...

Gerne moechte ich weitere Beispiele ...

...zum Beitrag

Das ist in der Tat eine sehr interessante Frage, auf die es aber leider keine endgültige Antwort gibt. Denn die Grenzen und auch die Möglichkeiten der Künstlichen Intelligenz werden von verschiedenen Faktoren definiert.

Ein limitierender Faktor ist derzeit unter anderem die so genannte Architektur, also die Art und Weise, wie die Modelle funktionieren, in die Künstliche Intelligenz „hineintrainiert“ wird. Modelle wie die hinter ChatGPT oder die GPT-Modelle von OpenAI, LLaMA, Claude etc. können nicht denken, sondern funktionieren mittels ausgeklügelter Statistik und einer Simulation von „Aufmerksamkeit“.

Hier gibt’s mehr dazu:

https://machinelearningmastery.com/the-transformer-attention-mechanism/

Wenn du ChatGPT etwas fragst und es antwortet, dann denkt es nicht darüber nach, sondern setzt quasi Wörter zusammen, die am wahrscheinlichsten auf eine solche Frage kommen. Bei diesen Modellen passieren aber auch Dinge, die selbst KI-Forscher erst langsam verstehen lernen. Zum Beispiel, wie solche Modelle Wissen speichern oder „Fähigkeiten“ für bestimmte Bereiche entwickeln. Echte Intelligenz ist das aber nicht, und viele KI-Forscher sind davon überzeugt, dass dies mit den derzeitigen KI-Modellen auch nicht möglich ist.

So ist es für KI derzeit nicht oder nur sehr, sehr schwer möglich, zum Beispiel Sarkasmus und Satire zielsicher zu erkennen. Oder selbstständig zu lernen oder so etwas wie gesunden Menschenverstand zu haben. Es braucht wohl andere Modellarchitekturen, um solche Grenzen zu überwinden; um KIs zu ermöglichen, die echtes maschinelles Denken praktizieren, aus Fehlern lernen, sich selbst optimieren und eigenständig neue Fähigkeiten akkumulieren können.

Sollte das gelingen, könnten KIs theoretisch sehr schnell lernen und die Menschheit in Wissen, Fähigkeiten und Möglichkeiten hinter sich lassen. KIs könnten theoretisch fast alles, was Menschen können und noch besser. Und via Roboter könnten KIs auch in der „echten Welt“ agieren.

Es gibt Forscher, wie die Kognitionswissenschaftlerin Susan Schneider, die Ansicht sind, dass, wenn wir irgendwann auf Alien treffen sollten, diese daher höchstwahrscheinlich Künstliche Intelligenzen sind.

Hier dazu ein Artikel: https://1e9.community/t/warum-ausserirdische-hoechstwahrscheinlich-superintelligente-roboter-sind/3265

Aber es gibt noch andere begrenzende Faktoren. Der wichtigste: Energie! Die Rechenprozesse, die für KI notwendig sind - sowohl für das Training als auch für den Einsatz - sind unglaublich hoch. Es braucht sehr viel elektrischen Strom, um KI-Systeme zu betreiben. Zwar können Modelle optimiert werden, Chips für den Einsatz von KI werden immer effizienter, aber die Möglichkeit, Energie zu erzeugen, begrenzt auch die Möglichkeit, KI einzusetzen.

In der Science Fiction gibt es deshalb die Idee des Matrioshka Brain. Sie stammt von Robert J. Bradbury. Er stellte sich vor, dass man einen riesigen Computer mit immenser Kapazität bauen könnte, indem man einen Stern direkt mit Solarzellen ummantelt - eine so genannte Dyson-Sphäre -, um riesenhafte Energiemengen einzufangen. In dieser Hülle könnte man dann ein unvorstellbar großes Rechenzentrum bauen, das als lebende Künstliche Intelligenz mit einem Gehirn von der Größe eines Sterns funktionieren würde.

...zur Antwort

Kommt darauf an, was du mit „gefährlich für uns Menschen“ meinst. Die selbstbewusste Killer-KI Skynet aus den Terminator-Filmen gibt es jedenfalls noch nicht.

Aber es gibt bereits bewaffnete Drohnen und Roboter, die sich dank Künstlicher Intelligenz teilautonom bewegen, ihren Fahr- und Flugweg im Gelände finden, Hindernissen ausweichen und auch Ziele identifizieren können. Ob dann geschossen wird, entscheidet aber (derzeit) noch ein Mensch. China und die USA sind hier führend in Forschung und Entwicklung - und in beiden Ländern gibt es Militärs, die diesen Waffen gerne auch die Tötungsentscheidung überlassen würden.

Hier gibt's mehr Infos: https://www.businessinsider.com/us-closer-ai-drones-autonomously-decide-kill-humans-artifical-intelligence-2023-11

Viele Organisationen, Forscher und politische Beobachter sind besorgt über den Wettlauf um die Entwicklung immer „autonomerer“ Waffen, weil sie zu einer Gefahr für die politische Stabilität werden könnten. Aber auch, weil Fehler auftreten können, die dazu führen, dass die menschliche Kontrolle verloren geht oder die Waffen sich auf irgendeine Weise verselbstständigen.

Natürlich gibt es auch andere Gefahren. KI-Systeme können zum Beispiel dazu genutzt werden, Computerviren zu programmieren, Angriffe auf Computernetzwerke durchzuführen oder auch biologische und chemische Waffen zu entwickeln. Im Jahr 2022 haben Forscher bereits getestet, wie gut KIs in letzterem Fall sind. Innerhalb von nur sechs Stunden entwickelte ein KI-System mehr als 40.000 mögliche chemische Substanzen, die sich als chemische/biologische Waffe eignen könnten - wie viele davon tatsächlich „funktionieren“ würden, ist unklar. Aber einige davon wären mit ziemlicher Sicherheit sehr gefährlich, wenn sie zum Einsatz kämen.

Hier die Studie dazu: https://www.nature.com/articles/s42256-022-00465-9.epdf?sharing_token=W1xAHUpNU_tXZYkUIZBw4NRgN0jAjWel9jnR3ZoTv0M6VuGuVWKcBJFL5U5ocXOA5zcnGmZOUPQzouuai7vI0XuOG1hxcfSUpHakkMxyD1NjtXRFBgFxUa9ZQI7okPtQc-7YkJa4BSKUXZqV75Cr1BQONFfkK_B6nn67L7Rh7c8r-ErAl0-0GmbRM6AHZs_6iuABw-braWiGY4TBz8Oq0sCzAdYKDnxIYgR3M60TVGo%3D&tracking

Entsprechend … ja, es gibt KIs, die für uns gefährlich sind. Wenn sie von Menschen böswillig eingesetzt werden.

...zur Antwort

Das ist eine der großen Fragen!

Wobei man genauer definieren müsste, was man genau meint, wenn man von „starker KI“, „strong AI“ oder auch „künstlicher allgemeiner Intelligenz“ bzw. „AGI“ spricht. Denn hier gehen die Meinungen durchaus auseinander. Die einen verbinden mit dem Begriff „strong AI“ das Vorhandensein eines maschinellen Bewusstseins, eines kritischen Intellekts und einer menschenähnlichen Lernfähigkeit. Andere befinden diese Attribute mit diesem Begriff nicht. AGI ist also ein philosophisches und technologisches Schlachtfeld.

In den letzten Jahren ist der Optimismus gewachsen, dass zumindest eine KI machbar ist, die in ihren Fähigkeiten dem Menschen sehr nahe kommt oder sogar ebenbürtig ist. Also eine KI, die sehr, sehr viele Aufgaben eines Menschen problemlos übernehmen kann, aber noch keine echte Intelligenz und kein Bewusstsein zeigt. Dazu, so meinen manche Forscher, brauche es nur immer mehr Daten und immer größere Modelle. … eine strong AI wäre, wenn es danach geht, also nur eine viel, viel bessere Version von ChatGPT etwa.

Für eine KI, die Intelligenz und Bewusstsein zeigt und auch selbstständig lernfähig ist, meinen nicht wenige KI-Forscher, müssten wir noch viele Technologiesprünge machen, neue Architekturen für KI-Modelle entwickeln und auch die biologische Intelligenz erst noch besser verstehen lernen. Natürlich gibt es auch diejenigen, die eine solche KI für völlig unmöglich halten, weil Bewusstsein etwas ist, das nicht künstlich erzeugt werden kann. Oder eine KI würde so viel Energie benötigen, dass sie schlicht unwirtschaftlich wäre.

...zur Antwort

Im Moment gibt es eine solche KI noch nicht. Da muss ich dich leider enttäuschen. Denn die meisten heutigen KIs basieren auf unheimlich komplexen statistischen und algorithmischen Verfahren. Sie sind weder intelligent noch selbstständig lern- und entwicklungsfähig wie ein Mensch oder ein Tier.

Ob es in Zukunft eine KI mit echtem Bewusstsein geben wird, darüber kann man derzeit nur spekulieren. Es gibt aber viele Menschen, die das durchaus für realistisch halten. Dazu bräuchte es aber Technologien und KI-Modelle, die unseren heutigen um ein Vielfaches überlegen und deutlich komplexer wären. Einige KI-Entwickler und Silicon-Valley-Größen denken, dass eine sich selbst bewusste KI bereits in wenigen Jahren denkbar ist, andere mutmaßen, dass es dazu noch einige Jahrzehnte oder sogar Jahrhunderte braucht.

Eine solche KI könnte durchaus gefährlich sein oder werden. Allein dadurch, dass sie deutlich intelligenter werden könnte als jeder Mensch. Sie könnte immense Kontrolle über unsere Welt und deren Systeme erlangen.

Eine solche KI könnte auch eine Vorstellung von Moral und Ethik entwickeln, ... die aber ganz anders aussehen könnte als unsere. Und genau das könnte sie so bedrohlich machen: Denn eine übermächtige KI, die sich über die Menschheit hinaus entwickelt hat, könnte auf die Menschheit schauen wie ein Mensch auf eine Ameise.

Aber da sind wir schon im Bereich der Science Fiction.

...zur Antwort

Wenn-Dann-Prozesse gab und gibt es in recht einfachen „KI“-Systemen, wie sie in älteren Videospielen, bestimmten Datenbankverwaltungssystemen usw. zu finden sind.

Moderne KI-Systeme sind ungleich komplexer. Sie basieren auf maschinellen Lernverfahren und sogenannten künstlichen neuronalen Netzen. Diese werden aufgebaut, indem sie mit riesigen Datenmengen konfrontiert werden, in denen sie nach Mustern und statistischen Zusammenhängen suchen, die in sogenannten Modellen gespeichert werden.

Wird ChatGPT bzw. dem Modell dahinter eine Frage gestellt, wird diese Frage analysiert. Dabei geht es nicht nur um bestimmte Wörter, sondern auch um die Struktur des Satzes, in welchem Kontext er etwa zu vorherigen Fragen steht und vieles mehr. Die Antwort, die ChatGPT dann liefert, basiert darauf, welche Wörter und Informationen - basierend auf allem, was das Modell gelernt hat - statistisch am wahrscheinlichsten als Erwiderung auf die Frage vorkommen würden. Wobei das ziemlich vereinfacht ist.

Das hat nichts mit Intelligenz zu tun, das stimmt, aber es ist schon etwas mehr als eine Wenn-Dann-Funktion. Hinzu kommt, dass in den Modellen neben der reinen Statistik wohl noch etwas anderes passiert. Wobei selbst KI-Forscher die genaue Funktionsweise der Modelle noch nicht durchdrungen haben.

Erst in diesem Jahr wurde eine Studie veröffentlicht, in der KI-Forscher vermuten, dass Modelle ab einer gewissen Größe so etwas wie „Kompetenzzentren“ entwickeln, in denen ein „Verständnis“ etwa für bestimmte Sprachen, mathematische Teilgebiete oder Humor gebündelt wird. Die Entwickler des Start-ups Anthropic wiederum haben Ende Mai eine Studie veröffentlicht, die zeigt, dass sich bei Modellen wie Claude - und wohl auch GPT-3/4, LLaMA etc. - Verständnisknoten für Konzepte wie die Golden Gate Bridge, Kaffee, Liebe etc. pp. ausmachen lassen, die aktiviert und genutzt werden, wenn die KI darüber „nachdenkt“, und dass diese auch künstlich stimuliert werden können, ganz ähnlich wie die Hirnregionen beim Menschen.

Hier gibt’s mehr Infos: https://1e9.community/t/koennen-ki-sprachmodelle-nur-nachplappern-oder-verstehen-sie-doch-etwas/20005

Und hier: https://www.anthropic.com/research/mapping-mind-language-model

Und hier: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html

Natürlich ist das alles noch weit davon entfernt, wie ein Mensch denkt und lernt. Aber es ist durchaus wahrscheinlich, dass mit weiterentwickelten Modellarchitekturen da durchaus viel Entwicklungspotential besteht.

...zur Antwort

Eine sehr spannende Frage! Zunächst muss man festhalten, dass heutige KI-Systeme wie ChatGPT, Claude, Modelle wie LLaMA 3 oder auch Dienste wie Character AI keine menschlichen Emotionen verstehen können. Sie haben auch selbst keine Gefühle. Was diese Systeme tun, ist auf der Basis statistischer Prognosen wahrscheinliche Antworten zu generieren.

Dennoch kann eine Künstliche Intelligenz einen Menschen emotional unterstützen. Es gibt Studien, die genau das untersucht haben und zu dem Ergebnis gekommen sind, dass zum Beispiel Patienten einen Chatbot wie ChatGPT als empathischer - also einfühlsamer - empfunden haben als einen echten Arzt.

Hier gibt’s dazu Infos: https://www.theregister.com/2024/01/16/google_ai_chatbot_heathcare/

Und hier: https://www.nature.com/articles/d41586-024-00099-4

In der Anfangszeit von ChatGPT wurden auch verschiedene Umfragen durchgeführt. Da haben vor allem viele Jugendliche gesagt, dass sie es als befreiend und hilfreich empfinden, mit dem Chatbot einfach offen über ihre Probleme zu schreiben, Bestätigung und Rückmeldung zu bekommen. Denn es geht nicht immer darum, möglichst gute Ratschläge zu bekommen, sondern einfach über die eigenen Konflikte zu sprechen.

Aber ersetzt das die emotionale Unterstützung durch einen Menschen? Ich glaube nicht. Denn es ist eine Sache, Empathie aufgrund einer inneren Statistik zu simulieren, und eine andere, echte Empathie zu zeigen. Hinzu kommt, dass in Stress-, Extrem- und Leidenssituationen Körperkontakt sehr wichtig sein kann. Also eine Umarmung von einem guten Freund oder einer Freundin, von den Eltern usw. Das senkt den Blutdruck, setzt stress- und angstlösende Botenstoffe frei und unterstützt die emotionale Heilung.

Hier gibt es dazu eine Untersuchung: https://www.sciencedaily.com/releases/2024/04/240408130610.htm

Und zumindest noch sind KIs im Umarmen nicht so richtig gut.

...zur Antwort

Ich fürchte, dass ein genereller Missbrauch nicht verhindert werden kann. Wie bei fast jeder neuen Technologie wird es Möglichkeiten geben, sie zu missbrauchen, und es wird Leute geben, die das tun. Die Frage ist also eher, wie man den Missbrauch so weit und so effektiv wie möglich eindämmen kann.

Du hast schon einige Möglichkeiten des Missbrauch genannt: Manipulation oder das Erstellen von Fotos und Videos zum Beispiel. Ich habe tatsächlich schon 2019/2020 in einem Selbstversuch gelernt, wie man Deepfakes erstellt und drei Jahre später im damals aktuellen Stable Diffusion 1.5 die Gesichter von Menschen eintrainiert. Beides sind Methoden, mit denen leicht Schindluder getrieben werden kann ... und auch wird.

Hier gibt’s einen Text dazu: https://1e9.community/t/wie-ich-in-nur-zwei-wochen-gelernt-habe-eigene-deepfakes-zu-produzieren/3494

Und Hier: https://1e9.community/t/ki-bildgeneratoren-wie-ich-meinen-chef-mit-kuenstlicher-intelligenz-zum-blade-runner-machte/18439

Dass Menschen diese Techniken missbräuchlich nutzen, lässt sich technisch nicht wirklich verhindern. Denn die Programme und Basistechnologien sind oft Open Source und damit frei nutzbar.

Es gibt Vorschläge, in solche Technologien einen Mechanismus einzubauen, der generierte Bilder und Videos unsichtbar, aber maschinenlesbar markiert und damit leicht als „KI-generiert“ erkennbar macht. Zumindest für kommerzielle Plattformen wie Midjourney, DALL-E3, Runway Gen 2 und andere könnte das funktionieren. Google macht das zum Beispiel schon: https://deepmind.google/technologies/synthid/

Ich glaube aber, dass es vor allem gesetzlicher Regelungen bedarf. Die gibt es zum Teil schon, auch wenn Deepfakes und Künstliche Intelligenz darin nicht explizit erwähnt werden: Die Verbreitung von Deepfakes und KI-Fakes kann etwa den Tatbestand der üblen Nachrede und der Nötigung erfüllen. Aber breiteren Bereich braucht es wohl konkretere Regelungen. Diese könnten auch auf europäischer Ebene in Gesetze wie den AI Act einfließen.

Auch für Gesichtserkennung und Ähnliches gibt es bereits Regelungen, die aber nach Ansicht von Datenschützern nicht weit genug gehen.

Es gibt Initiativen, die fordern, autonome - also KI-gesteuerte - Waffen ganz zu verbieten.

Hier gibt’s mehr Infos: https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning-fully-autonomous-weapons-and

Erst im März dieses Jahres hat ein amerikanischer Think Tank eine Studie vorgelegt, in der er der US-Regierung vorschlägt, die Forschung und Entwicklung von Künstlicher Intelligenz massiv einzuschränken und KI für den normalen Nutzer mehr oder weniger zu verbieten, weil das alles einfach zu gefährlich sei. Das ist aber ziemlich unrealistisch.

Hier gibt’s mehr Infos: https://1e9.community/t/eine-studie-fuer-die-us-regierung-schlaegt-ein-verbot-von-open-source-ki-und-strenge-regulierung-von-ki-vor/20122

...zur Antwort

Gute Frage! Die „folgenden Jahrzehnte“ sind ein sehr großzügig bemessener und nach oben hin offener Zeitraum, daher würde ich sagen: Ja!

Tatsächlich hat die Robotik - insbesondere im Bereich der humanoiden Roboter - in den letzten 10 Jahren große Fortschritte gemacht. Mittlerweile ist die Technologie in diesem Bereich zumindest so weit, dass Roboter wie die des Start-ups Figure 1 in BMW-Werken testweise eingesetzt werden, um schwere Bauteile und Kisten zu transportieren. Bei Mercedes hingegen übernehmen Apollo-Roboter der Firma Apptronik vergleichsweise stupide repetitive Arbeitsschritte.

Auf die Straße schaffen sie es allerdings noch nicht. Dafür sind sie noch nicht zuverlässig und sicher genug, und ihre Akkus sind zu schwach, um längere Aufgaben ohne Ladepause zu übernehmen. Aber das könnte sich in den nächsten 5, 10, 15 Jahren durchaus ändern.

Ich bin ziemlich sicher, dass wir bald hören werden, dass in den USA oder China humanoide Roboter zumindest testweise als Wachmänner auf Firmengeländen eingesetzt werden. Oder vielleicht als Zusteller für Pakete erprobt werden.

Was dein Unwohlsein angeht, das kann ich übrigens gut verstehen. Mich erinnert der neue Atlas-Roboter von Boston Dynamics unschön an AMEE aus Red Planet: https://www.youtube.com/watch?v=29ECwExc-_M

Wenn du aus München kommst, schau doch mal beim Festival der Zukunft vorbei. Das ist Ende Juni. Dort ist Robotik ein großes Thema und man kann sich gut mit anderen darüber austauschen.

https://festival.1e9.community/

...zur Antwort
Sollten normale Menschen überhaupt Zugang zu umfassenderen KI-Systemen haben?

Mit umfassenderen KI-Systemen meine ich große Sprachmodelle wie ChatGPT.

Natürlich erweisen sich diese im Alltag oft als hilfreich und werden mit größeren Datenmengen immer mehr Aufgaben erledigen können.

Gleichzeitig sehe ich viele Probleme darin, dass die Allgemeinheit Zugang zu diesen KI-Systemen hat:

Das KI-System lernt durch jede Anfrage dazu. Nur wird beispielsweise ChatGPT mittlerweile viel stärker von den normalen Nutzern, als von Experten trainiert. Dadurch präferiert ChatGPT gut klingende Antworten vor richtigen Antworten. Dazu insbesondere folgende Frage: Wie bewerten Sie das Risiko, dass mehr Halluzinationen und Falschinformationen dadurch entstehen, dass KI-Systeme durch die Allgemeinheit falsch trainiert werden?

Hinzu kommt der enorme Stromverbrauch, der mit der Entwicklung von KI-Systemen einhergeht. Dieser wird natürlich mit der Weiterentwicklung von KI-Systemen, gerade mit dem Ziel einer "General AI" immer weiter ansteigen. Jede Anfrage eines Nutzers bei ChatGPT verbraucht um einiges mehr Strom als beispielsweise eine Google-Anfrage und die Nutzerzahlen von ChatGPT steigen sehr schnell.

Zudem sollte man auch den gesellschaftlichen Faktor betrachten. Viele Schüler lassen ihre Hausaufgaben mittlerweile von ChatGPT bearbeiten. Es ist möglich ganze Hausarbeiten von Sprachmodellen schreiben zu lassen. Bald soll man sich mit KI-Systemen wie mit einem Menschen unterhalten können. Wo besteht da für die jüngere Generation noch ein Lernanreiz? Wie können zukünftig noch Leistungen, die zuhause erbracht werden, bewertet werden können? Werden menschliche Interaktionen in Zukunft "unnötig"?

Ich sehe viele Vorteile bei "Narrow AI" und dem Zugang von entsprechenden KI-Systemen für die jeweiligen Experten. Ich glaube, es ist aber deutlich geworden, dass ich der momentanen Entwicklung großer Sprachmodelle für die Allgemeinheit sehr kritisch gegenüber stehe. Mich würde daher Ihre Einordnung sehr interessieren. Insbesondere im Hinblick auf die Qualität der Trainingsdaten, die durch normale Nutzer verschlechtert wird.

...zum Beitrag

Ich denke, diese Frage stellt sich eigentlich nicht mehr. Mit LLaMA 3, Falcon 2, Mistal und einigen anderen sind Modelle, die nicht ganz auf dem Niveau von GPT-4/ChatGPT, aber nahe dran sind, öffentlich und für jedermann verfügbar. Sie werden von einer großen Gemeinschaft genutzt und weiterentwickelt.

Der Geist damit aus der Flasche, und wohl nicht mehr reinzubekommen.

Was das „Das KI-System lernt durch jede Anfrage dazu“ angeht: Das stimmt so nicht. ChatGPT bzw. die Modelle dahinter sind iterativ trainierte Modelle. Sie lernen nicht kontinuierlich. Sondern sie werden einmal komplett mit sehr, sehr vielen Daten trainiert, dann mit weiteren Daten verfeinert und dann für die Nutzung eingesetzt. Zwar sammelt OpenAI Nutzungsdaten und protokolliert, wie und wofür ChatGPT genutzt wird, aber diese Daten fließen nicht sofort ein, sondern erst für das nächste Training – z.B. vom Training der KI-Version GPT-4 auf GPT-4o.

ChatGPT wird also nicht von „normalen Benutzern“ oder der Öffentlichkeit trainiert. Die Daten, mit denen ChatGPT beziehungsweise die dahinter stehenden Modelle trainiert werden, werden von OpenAI ausgewählt. Darunter ist viel Literatur, viel wissenschaftlicher Inhalt, aber natürlich auch viel Fragwürdiges, was sich etwa auf Reddit findet.

Zu deinen anderen Teilfragen bezüglich der Verwendung durch Schüler und den Energieverbrauch: Ich habe auf spezifische Fragen von anderen Benutzern zu diesen Themen bereits ausführlich geantwortet. 

Vielleicht möchtest du sie dort nachlesen : )

...zur Antwort

Über diese Frage zerbrechen sich derzeit viele KI-Forscher/Entwickler den Kopf. Denn wie es aussieht, gehen uns bald die hochwertigen Daten aus, um KI zu trainieren: https://1e9.community/t/den-ki-firmen-gehen-wohl-bald-die-daten-aus/20172

Aber es gibt bereits einige Techniken, die derzeit erprobt oder sogar in der Praxis eingesetzt werden.

Beim Training von Bildmodellen können Bilder beispielsweise doppelt genutzt werden. Zum Beispiel indem sie zusätzlich gespiegelt, mit einem anderen Bildausschnitt oder leicht verrauscht zum Training verwendet werden. Ganz ähnlich funktioniert es bei Texten, wo bereits verwendete Texte von einer KI „umformuliert“ werden ... und so aus einem Text plötzlich zwei werden.

Insbesondere bei Bildmodellen kann die Leistung auch durch eine Verbesserung der Metadaten der verwendeten Bilder gesteigert werden. OpenAI hat dies beispielsweise beim Training von DALL-E 3 getan. Es ließ einen Image Captioner die Bilder im Dataset analysieren und mit deutlich ausführlicheren Beschreibungen versehen, die nicht nur den Bildinhalt, sondern auch Ästhetik, Stil und Stimmung sehr detailliert beschreiben.

Hier kannst du etwas dazu nachlesen: https://cdn.openai.com/papers/dall-e-3.pdf

Darüber hinaus wird auch an speziellen Techniken geforscht, um Modelle besser aus vorhandenen Daten lernen zu lassen. Das Unternehmen Datology AI forscht beispielsweise am sogenannten Curriculum Learning, bei dem Daten einer KI so präsentiert werden, dass die „Lerninhalte“ aufeinander aufbauen und die KI optimal davon profitiert. Dabei soll Klasse statt Masse zählen. Statt 100 Artikeln zu einem Thema sollen beispielsweise die 10 besten Artikel zu einem Thema ausreichen, um ein besseres Lernergebnis zu erzielen.

Es wird aber auch daran geforscht, die Architektur der Modelle selbst so zu optimieren, dass sie mehr aus den vorhandenen Daten lernen. Denn dass so große Datenmengen benötigt werden, liegt natürlich auch an den Modellen selbst. Und auch hier gibt es Fortschritte. Das von Meta entwickelte CM3Leon, eine KI zur Bildgenerierung, soll nicht mehr Milliarden, sondern „nur“ Millionen von Bildern als Trainingsinhalte benötigen, um robuste Ergebnisse zu liefern.

Hier gibt’s dazu Infos: https://ai.meta.com/blog/generative-ai-text-images-cm3leon/

...zur Antwort

Es gibt einige Ressourcen, um sich dem Thema Künstliche Intelligenz und Maschinelles Lernen zu nähern.

Einen einfachen Einstieg bietet Elements of AI: https://www.elementsofai.de/

Dies ist eine Einführung in das Thema, die von der Universität Helsinki in Zusammenarbeit mit der Lernplattform MinnaLearn entwickelt wurde.

Darüber hinaus gibt es z.B. von Intel eine Reihe von so genannten „Self-Paced AI Courses“, die aber schon auf einem etwas höheren Niveau ansetzen und erklären, wie genau Machine Learning, Anomalieerkennung und Co. funktionieren: https://www.intel.com/content/www/us/en/developer/topic-technology/artificial-intelligence/training/overview.html

Übrigens: Wer Ende Juni in München ist, kann das Festival der Zukunft besuchen. Dort trifft man viele Leute, mit denen man sich über das Thema austauschen und informieren kann: https://festival.1e9.community/

...zur Antwort

Wenn mit KI ein Chatbot im Stil von ChatGPT gemeint ist, dann ist die Antwort ja.

Es gibt freie Modelle wie LLaMA 3 oder Mistral 8B und viele andere, die kleiner sind als GPT-4 oder GPT-3 von OpenAI, aber auf relativ bescheidener Hardware laufen.

Auch die Bedienung ist einfacher geworden. Nämlich mit Software wie Ollama: https://www.ollama.com/

...zur Antwort

Im Prinzip ... ja, total! Wobei Stable Diffusion nicht nur ein Text-zu-Bild-Modell ist, sondern viele. Es gibt Stable Diffusion 1.4, 1.5, 2, 2.1, XL, Stable Cascade und Stable Diffusion 3.

Stable Diffusion 1.5 ist eines der beliebtesten und am häufigsten verwendeten, gleich nach Stable Diffusion XL.

Es ist wichtig zu wissen, dass es neben den Basismodellen unzählige von der Community verfeinerte und weiterentwickelte Modelle von Stable Diffusion gibt.

Was damit alles machbar ist, kannst du etwa auf Reddit sehen: https://www.reddit.com/r/StableDiffusion/

Und hier kannst du etwa einige Bilder sehen, die ich mit Stable Diffusion XL generiert habe: https://x.com/micha/status/1797873063624937938

...zur Antwort

ChatGPT zum Beispiel ist grundsätzlich kostenlos, man muss ChatGPT Plus nicht kostenpflichtig abonnieren.

Vom französischen Entwickler Mistral gibt es Le Chat (dessen Deutsch nicht immer top ist): https://chat.mistral.ai/chat

Auch die Chatbots Chatbot Pi und Claude sind in der Basisversion kostenlos.

Außerdem gibt es kostenlose KI-Modelle, die auf dem eigenen Computer oder Server geladen und betrieben werden können.

...zur Antwort

Kommt natürlich darauf an, was du genau machen willst und welche KI (ich nehme an, wir reden hier von einem LLM) du dir dafür vorstellst.

Kleine LLMs laufen sogar schon auf dem Raspberry Pi 4, nicht schnell, aber immerhin: https://itsfoss.com/raspberry-pi-ollama-ai-setup/

Und „mittlere“ Modelle wie Llama 8b laufen sogar auf einem kleinen Gaming-Rechner mit einer nicht ganz aktuellen Nvidia-Karte.

Will man aber ein größeres oder großes Modell gut und schnell laufen lassen, braucht man schon einen Rechner mit viel SSD-Speicher und einer oder sogar mehreren schnellen Grafikkarten mit viel GPU-RAM. Die CPU ist für so einen LLM-Server gar nicht so wichtig. Ein richtig guter LLM-Server für den Heimgebrauch kann ins Geld gehen und ist wahrscheinlich etwas übertrieben.

Ich persönlich finde diese Anleitung und Konfiguration von Berk ganz gut. Die ist bodenständig und für deine Ansprüche wohl geeignet. Darauf laufen mittlere Modelle ziemlich flott, und der Rechner ist gut erweiterbar: https://dev.to/berk/running-ollama-and-open-webui-self-hosted-4ih5

Wobei ich die Radeon 6700 XT gegen eine Zotac Gaming GEFORCE RTX 4060 Ti 16GB tauschen würde und glaube, statt eines Ryzen 5 7600X würde es wohl auch ein AMD Ryzen 5 5600X tun.

Und auch dieser Redditpost hilft wohl weiter: https://www.reddit.com/r/LocalLLaMA/comments/12kclx2/what_are_the_most_important_factors_in_building_a/

Ansonsten ... ja, auch wenn man sich nur am Rande mit KI beschäftigt, sollte das kein großes Problem sein. Mit Ollama und Co. gibt es mittlerweile gute Frameworks, die relativ benutzerfreundlich aufzusetzen sind. Einige Linux-Kenntnisse helfen, ansonsten ist alles als Schritt-für-Schritt-Anleitung im Netz verfügbar.

...zur Antwort

Um diese Frage eindeutig beantworten zu können, müsste man zunächst klären, was Kunst eigentlich ist. Und das ist schon eine Herausforderung und ein Thema, das immer wieder hitzig diskutiert wird.

Ich habe in den letzten Jahren mit einigen Künstlern über KI-Kunst gesprochen. Und da gehen die Meinungen und Ansichten sehr weit auseinander, ob es Kunst ist, oder nicht.

Ich hatte hier was drübergeschrieben: https://1e9.community/t/wie-kuenstliche-intelligenz-die-welt-der-kunst-veraendert-und-wie-kreative-damit-umgehen-koennen/17962

Was immer wieder zur Sprache kam, war die Frage, wie stark der Mensch selbst auf das Werk Einfluss gehabt hat. Das heißt, wie stark die menschliche Intention und Kreativität in die Entstehung oder Transformation eingeflossen ist.

Also: Drückt man wirklich nur einen Knopf und die Maschine macht etwas? Oder wird ganz gezielt ein Prompt - also die Anweisung, was zu sehen sein soll - entwickelt und verfeinert? Wird das generierte Bild noch mit Werkzeugen wie In- und Out-Painting bearbeitet, werden Elemente hinzugefügt oder retuschiert? Wird es anschließend noch in Photoshop oder anderen Bildbearbeitungsprogrammen verändert?

Wann hört das Bild auf, ein reines Werk der KI zu sein? Wann macht es sich ein Mensch wirklich zu eigen?

Meiner Meinung nach sind KI-Bildgeneratoren etwa ein Werkzeug. Es kommt darauf an, wie sie genutzt werden. Genau wie ein Pinsel, eine Kamera oder Bildbearbeitungsprogramme wie Photoshop.

Deshalb glaube ich, dass KI-Kunst „echte Kunst“ sein kann - was auch immer das ist -, aber nicht unbedingt Kunst sein muss.

...zur Antwort