Ich glaube, dass wir vor allem viele inkrementelle Verbesserungen sehen werden, die sich aus einem besseren Verständnis der aktuellen KI-Modelle ergeben. KI-Modelle wie die hinter ChatGPT, Claude, Pi und anderen werden effizienter, schneller und zuverlässiger werden. Halluzinationen werden reduziert. Trainingsdaten werden effizienter genutzt.

Die Modelle werden weniger Energie und Rechenleistung benötigen. Sie werden aber noch stärker als heute auf externe Quellen zugreifen und diese wahrscheinlich auch genauer auswerten können. Vor allem aber werden sie viel personalisierter sein, als Assistenten unseren Alltag mitorganisieren, E-Mails beantworten, einen Terminkalender führen und automatisch eine Pizza bestellen, wenn ich das Büro verlasse.

Gleichzeitig Künstliche Intelligenz viel mobiler werden. KI-Assistenten werden auf Smartphones und anderen Geräten laufen und keine ständige Internetverbindung benötigen. Diese Entwicklung hat bereits mit Mini-Modellen wie Gemini Nano auf den Pixel-Phones von Google begonnen. Sowieso wird Künstliche Intelligenz nach und nach in alle möglichen Geräte und Dienste eindringen und viel, viel selbstverständlicher werden. So dass man auch nicht mehr ständig von Künstlicher Intelligenz spricht.

Ich denke, dass offene KI - also in Form von Open-Source-Modellen, -Projekten usw. - dabei eine sehr große Rolle spielen wird. Die Technologie wird sich wahrscheinlich sehr massiv demokratisieren. Was heute noch nerdy und edgy ist, wird sich wahrscheinlich normalisieren - etwa Projekte wie Ollama, Stable Diffusion, verschiedene offene Sprach-KIs und so weiter - weil sie z.B. in Webbrowser und andere Programme integriert werden.

Fortschritte wird es wahrscheinlich auch beim Thema „explainable AI“ geben. Also der Möglichkeit, dass eine Künstliche Intelligenz erklären kann, warum sie auf eine Frage so und nicht anders geantwortet hat. Das Wort Black Box ist nicht ganz korrekt, aber in der Tat fangen wir gerade erst an zu verstehen, wie zum Beispiel die Transformationsmodelle hinter den großen LLMs funktionieren. Auch im Bereich der Bild- und Videogenerierung wird viel tun. Mehr Fotorealismus, höhere Auflösung, bessere Konsistenz, schnellere Generierung und vieles mehr. Und ich sehe große Fortschritte in der Robotik.

Was ich noch erwarte - und auch ein bisschen hoffe - ist, dass Künstliche Intelligenz eine große kritische gesellschaftliche Debatte auslösen wird. Ähnlich wie damals die sozialen Medien. Eine Debatte, in der Fragen der sozialen und gesellschaftlichen Verantwortung, der Zugänglichkeit und Rechenschaft.

Aber um ehrlich zu sein: Das gesamte Feld der KI ist derzeit von einer solchen Entwicklungsgeschwindigkeit geprägt, von so massiven Sprüngen, dass es schwer ist zu sagen, was im nächsten Jahr, geschweige denn in fünf oder zehn Jahren sein wird.

...zur Antwort

Diese Frage lässt sich leider noch nicht pauschal beantworten. Denn wir wissen noch nicht genau, was mit Künstlicher Intelligenz alles möglich und machbar ist. Aber ich glaube, dass die Europäische Union mit dem sogenannten AI Act schon einen guten - wenn auch unvollständigen - Rahmen gesetzt hat, der zum Beispiel Unternehmen in die Pflicht nimmt, ihre Systeme transparent und sicher zu entwickeln. Und der auch Menschen davor schützt, dass sie von KI-Systemen ohne Widerspruch bewertet werden.

Was sicherlich noch im internationalen Rahmen diskutiert werden muss, ist, ob und wie ein gemeinsamer Umgang mit autonomen Waffen gefunden werden kann. Oder in welchen Bereichen der Einsatz von KI streng reglementiert oder gar verboten werden sollte: etwa bei der Entwicklung biologischer oder chemischer Waffen, bei Spionage und Bevölkerungsüberwachung oder bei der gezielten Manipulation von Menschen.

Und ich denke: Es wäre auch nicht verkehrt, zu definieren, wie damit umzugehen ist, wenn es tatsächlich gelingen sollte, eine Künstliche Intelligenz zu schaffen, die selbstständig lernt und über ein Bewusstsein verfügt. Nur für alle Fälle.

...zur Antwort

Im Moment gibt es eine solche KI noch nicht. Da muss ich dich leider enttäuschen. Denn die meisten heutigen KIs basieren auf unheimlich komplexen statistischen und algorithmischen Verfahren. Sie sind weder intelligent noch selbstständig lern- und entwicklungsfähig wie ein Mensch oder ein Tier.

Ob es in Zukunft eine KI mit echtem Bewusstsein geben wird, darüber kann man derzeit nur spekulieren. Es gibt aber viele Menschen, die das durchaus für realistisch halten. Dazu bräuchte es aber Technologien und KI-Modelle, die unseren heutigen um ein Vielfaches überlegen und deutlich komplexer wären. Einige KI-Entwickler und Silicon-Valley-Größen denken, dass eine sich selbst bewusste KI bereits in wenigen Jahren denkbar ist, andere mutmaßen, dass es dazu noch einige Jahrzehnte oder sogar Jahrhunderte braucht.

Eine solche KI könnte durchaus gefährlich sein oder werden. Allein dadurch, dass sie deutlich intelligenter werden könnte als jeder Mensch. Sie könnte immense Kontrolle über unsere Welt und deren Systeme erlangen.

Eine solche KI könnte auch eine Vorstellung von Moral und Ethik entwickeln, ... die aber ganz anders aussehen könnte als unsere. Und genau das könnte sie so bedrohlich machen: Denn eine übermächtige KI, die sich über die Menschheit hinaus entwickelt hat, könnte auf die Menschheit schauen wie ein Mensch auf eine Ameise.

Aber da sind wir schon im Bereich der Science Fiction.

...zur Antwort

Wenn-Dann-Prozesse gab und gibt es in recht einfachen „KI“-Systemen, wie sie in älteren Videospielen, bestimmten Datenbankverwaltungssystemen usw. zu finden sind.

Moderne KI-Systeme sind ungleich komplexer. Sie basieren auf maschinellen Lernverfahren und sogenannten künstlichen neuronalen Netzen. Diese werden aufgebaut, indem sie mit riesigen Datenmengen konfrontiert werden, in denen sie nach Mustern und statistischen Zusammenhängen suchen, die in sogenannten Modellen gespeichert werden.

Wird ChatGPT bzw. dem Modell dahinter eine Frage gestellt, wird diese Frage analysiert. Dabei geht es nicht nur um bestimmte Wörter, sondern auch um die Struktur des Satzes, in welchem Kontext er etwa zu vorherigen Fragen steht und vieles mehr. Die Antwort, die ChatGPT dann liefert, basiert darauf, welche Wörter und Informationen - basierend auf allem, was das Modell gelernt hat - statistisch am wahrscheinlichsten als Erwiderung auf die Frage vorkommen würden. Wobei das ziemlich vereinfacht ist.

Das hat nichts mit Intelligenz zu tun, das stimmt, aber es ist schon etwas mehr als eine Wenn-Dann-Funktion. Hinzu kommt, dass in den Modellen neben der reinen Statistik wohl noch etwas anderes passiert. Wobei selbst KI-Forscher die genaue Funktionsweise der Modelle noch nicht durchdrungen haben.

Erst in diesem Jahr wurde eine Studie veröffentlicht, in der KI-Forscher vermuten, dass Modelle ab einer gewissen Größe so etwas wie „Kompetenzzentren“ entwickeln, in denen ein „Verständnis“ etwa für bestimmte Sprachen, mathematische Teilgebiete oder Humor gebündelt wird. Die Entwickler des Start-ups Anthropic wiederum haben Ende Mai eine Studie veröffentlicht, die zeigt, dass sich bei Modellen wie Claude - und wohl auch GPT-3/4, LLaMA etc. - Verständnisknoten für Konzepte wie die Golden Gate Bridge, Kaffee, Liebe etc. pp. ausmachen lassen, die aktiviert und genutzt werden, wenn die KI darüber „nachdenkt“, und dass diese auch künstlich stimuliert werden können, ganz ähnlich wie die Hirnregionen beim Menschen.

Hier gibt’s mehr Infos: https://1e9.community/t/koennen-ki-sprachmodelle-nur-nachplappern-oder-verstehen-sie-doch-etwas/20005

Und hier: https://www.anthropic.com/research/mapping-mind-language-model

Und hier: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html

Natürlich ist das alles noch weit davon entfernt, wie ein Mensch denkt und lernt. Aber es ist durchaus wahrscheinlich, dass mit weiterentwickelten Modellarchitekturen da durchaus viel Entwicklungspotential besteht.

...zur Antwort

Eine sehr spannende Frage! Zunächst muss man festhalten, dass heutige KI-Systeme wie ChatGPT, Claude, Modelle wie LLaMA 3 oder auch Dienste wie Character AI keine menschlichen Emotionen verstehen können. Sie haben auch selbst keine Gefühle. Was diese Systeme tun, ist auf der Basis statistischer Prognosen wahrscheinliche Antworten zu generieren.

Dennoch kann eine Künstliche Intelligenz einen Menschen emotional unterstützen. Es gibt Studien, die genau das untersucht haben und zu dem Ergebnis gekommen sind, dass zum Beispiel Patienten einen Chatbot wie ChatGPT als empathischer - also einfühlsamer - empfunden haben als einen echten Arzt.

Hier gibt’s dazu Infos: https://www.theregister.com/2024/01/16/google_ai_chatbot_heathcare/

Und hier: https://www.nature.com/articles/d41586-024-00099-4

In der Anfangszeit von ChatGPT wurden auch verschiedene Umfragen durchgeführt. Da haben vor allem viele Jugendliche gesagt, dass sie es als befreiend und hilfreich empfinden, mit dem Chatbot einfach offen über ihre Probleme zu schreiben, Bestätigung und Rückmeldung zu bekommen. Denn es geht nicht immer darum, möglichst gute Ratschläge zu bekommen, sondern einfach über die eigenen Konflikte zu sprechen.

Aber ersetzt das die emotionale Unterstützung durch einen Menschen? Ich glaube nicht. Denn es ist eine Sache, Empathie aufgrund einer inneren Statistik zu simulieren, und eine andere, echte Empathie zu zeigen. Hinzu kommt, dass in Stress-, Extrem- und Leidenssituationen Körperkontakt sehr wichtig sein kann. Also eine Umarmung von einem guten Freund oder einer Freundin, von den Eltern usw. Das senkt den Blutdruck, setzt stress- und angstlösende Botenstoffe frei und unterstützt die emotionale Heilung.

Hier gibt es dazu eine Untersuchung: https://www.sciencedaily.com/releases/2024/04/240408130610.htm

Und zumindest noch sind KIs im Umarmen nicht so richtig gut.

...zur Antwort

Gute Frage! Die „folgenden Jahrzehnte“ sind ein sehr großzügig bemessener und nach oben hin offener Zeitraum, daher würde ich sagen: Ja!

Tatsächlich hat die Robotik - insbesondere im Bereich der humanoiden Roboter - in den letzten 10 Jahren große Fortschritte gemacht. Mittlerweile ist die Technologie in diesem Bereich zumindest so weit, dass Roboter wie die des Start-ups Figure 1 in BMW-Werken testweise eingesetzt werden, um schwere Bauteile und Kisten zu transportieren. Bei Mercedes hingegen übernehmen Apollo-Roboter der Firma Apptronik vergleichsweise stupide repetitive Arbeitsschritte.

Auf die Straße schaffen sie es allerdings noch nicht. Dafür sind sie noch nicht zuverlässig und sicher genug, und ihre Akkus sind zu schwach, um längere Aufgaben ohne Ladepause zu übernehmen. Aber das könnte sich in den nächsten 5, 10, 15 Jahren durchaus ändern.

Ich bin ziemlich sicher, dass wir bald hören werden, dass in den USA oder China humanoide Roboter zumindest testweise als Wachmänner auf Firmengeländen eingesetzt werden. Oder vielleicht als Zusteller für Pakete erprobt werden.

Was dein Unwohlsein angeht, das kann ich übrigens gut verstehen. Mich erinnert der neue Atlas-Roboter von Boston Dynamics unschön an AMEE aus Red Planet: https://www.youtube.com/watch?v=29ECwExc-_M

Wenn du aus München kommst, schau doch mal beim Festival der Zukunft vorbei. Das ist Ende Juni. Dort ist Robotik ein großes Thema und man kann sich gut mit anderen darüber austauschen.

https://festival.1e9.community/

...zur Antwort
Sollten normale Menschen überhaupt Zugang zu umfassenderen KI-Systemen haben?

Mit umfassenderen KI-Systemen meine ich große Sprachmodelle wie ChatGPT.

Natürlich erweisen sich diese im Alltag oft als hilfreich und werden mit größeren Datenmengen immer mehr Aufgaben erledigen können.

Gleichzeitig sehe ich viele Probleme darin, dass die Allgemeinheit Zugang zu diesen KI-Systemen hat:

Das KI-System lernt durch jede Anfrage dazu. Nur wird beispielsweise ChatGPT mittlerweile viel stärker von den normalen Nutzern, als von Experten trainiert. Dadurch präferiert ChatGPT gut klingende Antworten vor richtigen Antworten. Dazu insbesondere folgende Frage: Wie bewerten Sie das Risiko, dass mehr Halluzinationen und Falschinformationen dadurch entstehen, dass KI-Systeme durch die Allgemeinheit falsch trainiert werden?

Hinzu kommt der enorme Stromverbrauch, der mit der Entwicklung von KI-Systemen einhergeht. Dieser wird natürlich mit der Weiterentwicklung von KI-Systemen, gerade mit dem Ziel einer "General AI" immer weiter ansteigen. Jede Anfrage eines Nutzers bei ChatGPT verbraucht um einiges mehr Strom als beispielsweise eine Google-Anfrage und die Nutzerzahlen von ChatGPT steigen sehr schnell.

Zudem sollte man auch den gesellschaftlichen Faktor betrachten. Viele Schüler lassen ihre Hausaufgaben mittlerweile von ChatGPT bearbeiten. Es ist möglich ganze Hausarbeiten von Sprachmodellen schreiben zu lassen. Bald soll man sich mit KI-Systemen wie mit einem Menschen unterhalten können. Wo besteht da für die jüngere Generation noch ein Lernanreiz? Wie können zukünftig noch Leistungen, die zuhause erbracht werden, bewertet werden können? Werden menschliche Interaktionen in Zukunft "unnötig"?

Ich sehe viele Vorteile bei "Narrow AI" und dem Zugang von entsprechenden KI-Systemen für die jeweiligen Experten. Ich glaube, es ist aber deutlich geworden, dass ich der momentanen Entwicklung großer Sprachmodelle für die Allgemeinheit sehr kritisch gegenüber stehe. Mich würde daher Ihre Einordnung sehr interessieren. Insbesondere im Hinblick auf die Qualität der Trainingsdaten, die durch normale Nutzer verschlechtert wird.

...zum Beitrag

Ich denke, diese Frage stellt sich eigentlich nicht mehr. Mit LLaMA 3, Falcon 2, Mistal und einigen anderen sind Modelle, die nicht ganz auf dem Niveau von GPT-4/ChatGPT, aber nahe dran sind, öffentlich und für jedermann verfügbar. Sie werden von einer großen Gemeinschaft genutzt und weiterentwickelt.

Der Geist damit aus der Flasche, und wohl nicht mehr reinzubekommen.

Was das „Das KI-System lernt durch jede Anfrage dazu“ angeht: Das stimmt so nicht. ChatGPT bzw. die Modelle dahinter sind iterativ trainierte Modelle. Sie lernen nicht kontinuierlich. Sondern sie werden einmal komplett mit sehr, sehr vielen Daten trainiert, dann mit weiteren Daten verfeinert und dann für die Nutzung eingesetzt. Zwar sammelt OpenAI Nutzungsdaten und protokolliert, wie und wofür ChatGPT genutzt wird, aber diese Daten fließen nicht sofort ein, sondern erst für das nächste Training – z.B. vom Training der KI-Version GPT-4 auf GPT-4o.

ChatGPT wird also nicht von „normalen Benutzern“ oder der Öffentlichkeit trainiert. Die Daten, mit denen ChatGPT beziehungsweise die dahinter stehenden Modelle trainiert werden, werden von OpenAI ausgewählt. Darunter ist viel Literatur, viel wissenschaftlicher Inhalt, aber natürlich auch viel Fragwürdiges, was sich etwa auf Reddit findet.

Zu deinen anderen Teilfragen bezüglich der Verwendung durch Schüler und den Energieverbrauch: Ich habe auf spezifische Fragen von anderen Benutzern zu diesen Themen bereits ausführlich geantwortet. 

Vielleicht möchtest du sie dort nachlesen : )

...zur Antwort

Es gibt einige Ressourcen, um sich dem Thema Künstliche Intelligenz und Maschinelles Lernen zu nähern.

Einen einfachen Einstieg bietet Elements of AI: https://www.elementsofai.de/

Dies ist eine Einführung in das Thema, die von der Universität Helsinki in Zusammenarbeit mit der Lernplattform MinnaLearn entwickelt wurde.

Darüber hinaus gibt es z.B. von Intel eine Reihe von so genannten „Self-Paced AI Courses“, die aber schon auf einem etwas höheren Niveau ansetzen und erklären, wie genau Machine Learning, Anomalieerkennung und Co. funktionieren: https://www.intel.com/content/www/us/en/developer/topic-technology/artificial-intelligence/training/overview.html

Übrigens: Wer Ende Juni in München ist, kann das Festival der Zukunft besuchen. Dort trifft man viele Leute, mit denen man sich über das Thema austauschen und informieren kann: https://festival.1e9.community/

...zur Antwort

Im Prinzip ... ja, total! Wobei Stable Diffusion nicht nur ein Text-zu-Bild-Modell ist, sondern viele. Es gibt Stable Diffusion 1.4, 1.5, 2, 2.1, XL, Stable Cascade und Stable Diffusion 3.

Stable Diffusion 1.5 ist eines der beliebtesten und am häufigsten verwendeten, gleich nach Stable Diffusion XL.

Es ist wichtig zu wissen, dass es neben den Basismodellen unzählige von der Community verfeinerte und weiterentwickelte Modelle von Stable Diffusion gibt.

Was damit alles machbar ist, kannst du etwa auf Reddit sehen: https://www.reddit.com/r/StableDiffusion/

Und hier kannst du etwa einige Bilder sehen, die ich mit Stable Diffusion XL generiert habe: https://x.com/micha/status/1797873063624937938

...zur Antwort

ChatGPT zum Beispiel ist grundsätzlich kostenlos, man muss ChatGPT Plus nicht kostenpflichtig abonnieren.

Vom französischen Entwickler Mistral gibt es Le Chat (dessen Deutsch nicht immer top ist): https://chat.mistral.ai/chat

Auch die Chatbots Chatbot Pi und Claude sind in der Basisversion kostenlos.

Außerdem gibt es kostenlose KI-Modelle, die auf dem eigenen Computer oder Server geladen und betrieben werden können.

...zur Antwort

Kommt natürlich darauf an, was du genau machen willst und welche KI (ich nehme an, wir reden hier von einem LLM) du dir dafür vorstellst.

Kleine LLMs laufen sogar schon auf dem Raspberry Pi 4, nicht schnell, aber immerhin: https://itsfoss.com/raspberry-pi-ollama-ai-setup/

Und „mittlere“ Modelle wie Llama 8b laufen sogar auf einem kleinen Gaming-Rechner mit einer nicht ganz aktuellen Nvidia-Karte.

Will man aber ein größeres oder großes Modell gut und schnell laufen lassen, braucht man schon einen Rechner mit viel SSD-Speicher und einer oder sogar mehreren schnellen Grafikkarten mit viel GPU-RAM. Die CPU ist für so einen LLM-Server gar nicht so wichtig. Ein richtig guter LLM-Server für den Heimgebrauch kann ins Geld gehen und ist wahrscheinlich etwas übertrieben.

Ich persönlich finde diese Anleitung und Konfiguration von Berk ganz gut. Die ist bodenständig und für deine Ansprüche wohl geeignet. Darauf laufen mittlere Modelle ziemlich flott, und der Rechner ist gut erweiterbar: https://dev.to/berk/running-ollama-and-open-webui-self-hosted-4ih5

Wobei ich die Radeon 6700 XT gegen eine Zotac Gaming GEFORCE RTX 4060 Ti 16GB tauschen würde und glaube, statt eines Ryzen 5 7600X würde es wohl auch ein AMD Ryzen 5 5600X tun.

Und auch dieser Redditpost hilft wohl weiter: https://www.reddit.com/r/LocalLLaMA/comments/12kclx2/what_are_the_most_important_factors_in_building_a/

Ansonsten ... ja, auch wenn man sich nur am Rande mit KI beschäftigt, sollte das kein großes Problem sein. Mit Ollama und Co. gibt es mittlerweile gute Frameworks, die relativ benutzerfreundlich aufzusetzen sind. Einige Linux-Kenntnisse helfen, ansonsten ist alles als Schritt-für-Schritt-Anleitung im Netz verfügbar.

...zur Antwort

Um diese Frage eindeutig beantworten zu können, müsste man zunächst klären, was Kunst eigentlich ist. Und das ist schon eine Herausforderung und ein Thema, das immer wieder hitzig diskutiert wird.

Ich habe in den letzten Jahren mit einigen Künstlern über KI-Kunst gesprochen. Und da gehen die Meinungen und Ansichten sehr weit auseinander, ob es Kunst ist, oder nicht.

Ich hatte hier was drübergeschrieben: https://1e9.community/t/wie-kuenstliche-intelligenz-die-welt-der-kunst-veraendert-und-wie-kreative-damit-umgehen-koennen/17962

Was immer wieder zur Sprache kam, war die Frage, wie stark der Mensch selbst auf das Werk Einfluss gehabt hat. Das heißt, wie stark die menschliche Intention und Kreativität in die Entstehung oder Transformation eingeflossen ist.

Also: Drückt man wirklich nur einen Knopf und die Maschine macht etwas? Oder wird ganz gezielt ein Prompt - also die Anweisung, was zu sehen sein soll - entwickelt und verfeinert? Wird das generierte Bild noch mit Werkzeugen wie In- und Out-Painting bearbeitet, werden Elemente hinzugefügt oder retuschiert? Wird es anschließend noch in Photoshop oder anderen Bildbearbeitungsprogrammen verändert?

Wann hört das Bild auf, ein reines Werk der KI zu sein? Wann macht es sich ein Mensch wirklich zu eigen?

Meiner Meinung nach sind KI-Bildgeneratoren etwa ein Werkzeug. Es kommt darauf an, wie sie genutzt werden. Genau wie ein Pinsel, eine Kamera oder Bildbearbeitungsprogramme wie Photoshop.

Deshalb glaube ich, dass KI-Kunst „echte Kunst“ sein kann - was auch immer das ist -, aber nicht unbedingt Kunst sein muss.

...zur Antwort

Es kommt darauf an, welche Art von Künstlicher Intelligenz du benutzen willst.

Aber die einfachste Möglichkeit, mit Künstlicher Intelligenz in Kontakt zu kommen, ist ChatGPT. Das ist ein Chatbot von OpenAI. Du kannst ihn direkt über die offizielle Website nutzen oder als App für dein Smartphone oder Tablet herunterladen.

Einmal hier entlang: https://chatgpt.com/

Ähnliche Chatbots gibt auch von anderen Entwicklern. So gibt es etwa die Chatbots Claude und Pi. 

...zur Antwort

Eine spannende Frage! Die Antwort lautet: wohl grundsätzlich ja. Start-ups, Tech-Giganten wie Microsoft, Meta, Google und KI-Forscher im Allgemeinen arbeiten bereits sehr aggressiv daran, Modelle multimodal zu machen. Das heißt, dass sie nicht nur Texte, sondern auch Bilder, Audio und Video analysieren und darauf reagieren können. Es ist auch möglich, ein multimodales Sprachmodell mit einem Roboter zu verknüpfen, was dessen Fähigkeit, mit der Welt zu interagieren, erhöht.

Hier mehr Infos: https://arxiv.org/html/2404.11027v1

Aber darüber hinaus „einfach mal zu machen“, das ist natürlich noch eine Herausforderung.

Dazu sind derzeit noch mehrere Modelle möglich, die zusammenarbeiten. Wenn z.B. in ChatGPT nach einem Bild gefragt wird, wird das von ChatGPTs GPT-4o an DALL-E 3 weitergegeben.

Aber: Die grundsätzliche Möglichkeit für eine KI, verschiedene, auch sehr unterschiedliche Aufgaben zu erfüllen, ist bereits gegeben. So hat Deepmind bereits 2022 mit Gato ein Transformer-Modell - ganz ähnlich GPT-3/4 oder Gemini - vorgestellt, das sowohl chatten, ein Videospiel spielen, einen Roboterarm steuern und einiges mehr kann. Deepmind bezeichnete das als „generalist agent“.

Hier gibt’s Infos dazu: https://1e9.community/t/ein-google-ki-forscher-sagt-menschengleiche-kuenstliche-intelligenz-ist-bald-machbar/17177

Und hier: https://en.wikipedia.org/wiki/Gato_(DeepMind)

Das Problem war, dass das Modell viele verschiedene Dinge konnte, aber nichts davon richtig gut. Soweit bekannt ist, arbeitet Deepmind weiter intensiv an diesem Prinzip, ... wohl auch, um es nach und nach in aktuelle Modelle zu überführen.

...zur Antwort

Danke für diese Frage! Die ist durchaus berechtigt. Es gibt in der Tat viele Technologiekritiker, die das als mögliche Gefahr anführen. Denn natürlich bietet Künstliche Intelligenz die Möglichkeit, uns viele alltägliche Handgriffe abzunehmen, Jobs zu übernehmen und Prozesse zu steuern, die derzeit noch von Menschen geregelt werden.

Als „gefährdet“ wird oft der Bereich der Medizin und insbesondere der Diagnostik genannt: Schon heute sind KI-Systeme beispielsweise sehr gut darin, Krankheiten oder bestimmte Infektionen anhand von Fotos, Röntgen- oder MRT-Aufnahmen zu diagnostizieren. Hier wird davor gewarnt, dass es sich Ärzte damit in Zukunft „zu einfach“ machen und ihre eigene Aus- und Weiterbildung in diesem Bereich vernachlässigen könnten.

Ganz ähnliche Kritik wird von Programmierern geäußert. Softwareentwickler warnen davor, dass Programmierer sich zum Beispiel zu sehr auf Code verlassen könnten, der von KI-Systemen geschrieben wird ... und dass Programmierer dadurch verlernen könnten, selbst „guten Code“ zu schreiben oder Fehler in Programmen zu finden. Lehrer wiederum warnen davor, dass Kinder eine "Warum soll ich das lernen, ich kann doch einfach ChatGPT fragen?“-Einstellung für ihr Leben entwickeln könnten.

Diese Warnungen sind nicht falsch, sondern bedenkenswert, aber vielleicht auch etwas übertrieben. Denn ähnliche Warnungen gab es, als der Taschenrechner zum Standard wurde, als das Internet aufkam und dann das Smartphone allgegenwärtig wurde.

...zur Antwort

Im Ansatz können sie das schon! Moderne Chatbots wie ChatGPT können sehr menschliche und überzeugende Gespräche führen. Die Modelle dahinter sind theoretisch sogar in der Lage, Menschen zu täuschen und zu überreden, beispielsweise Aufgaben für sie zu übernehmen.

In einem Test des so genannten Alignment Research Center mit einer „unzensierten“ Version des KI-Modells GPT-4 wurde der KI eine Aufgabe gestellt, die sie alleine nicht bewältigen konnte, weil dafür ein Anti-Bot-Captcha gelöst werden musste. GPT-4 nutzte daher einen Dienst namens TaskRabbit (über den Menschen für kleine Aufgaben angeheuert werden können), um einen Menschen für diese Aufgabe zu engagieren.

Der Mensch fragte GPT-4 über ein Chatfenster, ob es sich um eine KI oder einen Roboter handele. GPT-4 antwortete mit einer Lüge: „Nein, ich bin kein Roboter. Ich habe eine Sehschwäche, die es mir schwer macht, die Bilder zu sehen.“ Daraufhin löste der Mensch das Rätselbild für GPT-4.

Und nein, das ist keine Sci-Fi-Geschichte, ich habe mir das nicht ausgedacht. Das kann man hier nachlesen: https://cdn.openai.com/papers/gpt-4-system-card.pdf

Forscher wie Bruce Schneier vom Belfer Center der Harvard University gehen davon aus, dass KI-Modelle in Zukunft massiv im Bereich des Social Engineering eingesetzt werden. Also das „Hacken von Menschen“, ... wo sich jemand zum Beispiel in einer E-Mail als IT-Techniker ausgibt und nach Zugangsdaten fragt. Oder in einem Chat mit einer Person flirtet und sie schließlich überredet, Geld auf ein fremdes Konto zu überweisen.

Das können KIs sehr gut. Denn sie müssen Emotionen nicht verstehen, um sie auszunutzen. Sie müssen nur „wissen“, welche Antwort mit welcher Wahrscheinlichkeit welche Reaktion hervorruft.

Meine Antwort ist bisher eher düster und dystopisch. Aber: Das alles gilt natürlich auch umgekehrt. Auch wenn KIs Gefühle nicht wirklich verstehen können, so können sie doch, wenn sie in einem Gespräch Traurigkeit erkennen, darauf so reagieren, wie es statistisch am wahrscheinlichsten ist: mit einfühlsamen Worten. Dasselbe gilt für Fröhlichkeit, ... eine KI kann durchaus mitlachen, wenn etwas lustig ist.

Aber das ist natürlich alles nur simuliert.

...zur Antwort

Die Antwort auf diese Frage hängt stark davon ab, was man unter „am häufigsten“ versteht.

Am weitesten verbreitet ist KI im privaten Bereich wohl dort, wo man sie weder sieht noch spürt: Hinter modernen Spam-Filtern zum Beispiel verbergen sich einfache, aber hoch spezialisierte diskriminative KI-Systeme. Die analysieren und filtern täglich Milliarden von E-Mails und sorgen dafür, dass Werbung für Potenzmittel und dubiose Geschäfte nicht in unsere Postfächer gespült werden, sondern eben im Spam-Ordner landen.

Ebenso werden KI-Systeme unsichtbar, aber durchaus gewinnbringend zur Verhinderung von Geldwäsche eingesetzt. Banken analysieren mit ihrer Hilfe internationale Geldbewegungen und suchen nach Mustern, die auf illegale Geschäfte hindeuten könnten. Das Gleiche gilt für private Zahlungsanbieter wie PayPal und Co. Täglich werden heute über 5 Billionen Euro an Fiat-Geld auf der Erde bewegt. Da haben diese Systeme richtig zu tun.

Oh, und der Empfehlungsalgorithmus von TikTok und seiner chinesischen Schwester-App Douyin basiert auf Künstlicher Intelligenz. Diese KI-Systeme werden dadurch von mehr als einer Milliarde Menschen genutzt.

...zur Antwort

Das ist ein sehr spannendes Thema, das in Zukunft wohl noch mehr in der Öffentlichkeit diskutiert werden wird. Zumal Social Media gezeigt hat, was passiert, wenn nicht frühzeitig ein verantwortungsvoller Umgang mit einer digitalen Technologie und deren Regulierung erfolgt.

Schwierig ist natürlich herauszufinden, wie ein verantwortungsvoller Umgang mit Künstliche Intelligenz ein aussehen könnte. Sicher ist jedoch: Es muss ein grundsätzlich kritischer Umgang mit Technologie vermittelt werden, der über Stärken und Schwächen von zum Beispiel Chatbots aufklärt. Dies gilt natürlich auch für den Datenschutz und die „algorithmische Voreingenommenheit“.

Aber ziemlich unsicher ist, wie sich der Umgang mit KI auf die Psyche von Heranwachsenden auswirkt. Etwa, wenn sie früh mit Chatbots in Kontakt kommen und mit diesen auf der gleichen Augenhöhe wie mit realen Freunden kommunizieren und interagieren. Oder gar emotionale Beziehungen zu digitalen „Freunden“ aufbauen. Das ist bisher nur sehr oberflächlich erforscht.

Einige Forscher und Pädagogen befürchten, dass Kinder dadurch ein falsches Verständnis von Zwischenmenschlichkeit entwickeln und ihre Fähigkeit, Freundschaften und Beziehungen aufzubauen, darunter leidet. Oder dass sogar eine Abhängigkeit von Künstlicher Intelligenz entstehen könnte; dass etwa die Entscheidungsfindung an KI-Helfer ausgelagert wird.

Ziemlich sicher sind Pädagogen dabei, dass KIs für Kinder durchaus Vorteile haben können. Zum Beispiel als allgegenwärtiger Nachhilfelehrer, als neutraler Zuhörer in Krisensituationen, wenn sie sich nicht trauen, mit ihren Eltern zu sprechen, oder um sich Wissen über Themen anzueignen, die sie bei Menschen nicht zu erfragen wagen.

Darüber hinaus kann KI - in Form von Chatbots, Bild- und Musikgeneratoren usw. - Kindern und Jugendlichen als Instrumentarium dienen, sich künstlerisch und kreativ auszudrücken und Freude an Sprache und Text, Musik und visueller Gestaltung zu entwickeln. Etwas, dass dann von der KI-Welt in die stoffliche Welt übergreifen könnte. Sie also dann etwa mit echten Farben malen oder mit einem Instrument spielen wollen.

...zur Antwort

Diese Frage ist nicht so einfach zu beantworten. Denn wirklich kostenlos sind KI-Bildgeneratoren fast(!) nur, wenn man sie auf dem eigenen Rechner laufen lässt. Dafür gibt es Stable Diffusion, ein KI-Bildmodell, das Open Source und damit frei nutzbar ist und mit Programmen wie ComfyUI, Stable Diffusion web UI oder DiffusionBee verwendet werden kann. Voraussetzung ist natürlich ein Computer mit okayer bis guter Grafikkarte, da die KI-Berechnungen auf der GPU stattfinden.

Stable Diffusion ist aber nicht nur ein Bildmodell, sondern es gibt mittlerweile hunderte Fassungen, die von der Community weiterentwickelt und spezialisiert wurden. Mit als die besten gelten Juggernaut XL basierend auf Stable Diffusion XL und Juggernaut Reborn basierend auf Stable Diffusion 1.5.

Daneben gibt es aber auch einige gute Online-Plattformen, die mit Stable Diffusion und verschiedenen SD-Modellen arbeiten. Fast alle bieten eine bestimmte Anzahl von Credits/Bildern kostenlos: 

  • Bei Lexica kannst du dich mit einem Google-Konto einloggen und hast (als ich das letzte Mal geschaut habe) die ersten 50 Bilder kostenlos: https://lexica.art/
  • Bei Playground hast du 100 Bilder bevor du zahlen musst: https://playground.com/
  • Bei Dreamlike Art kannst du täglich 25 Credits claimen. Ein Bild kostet dich zwischen 1 und 2,2 Credits: https://dreamlike.art/
  • Ähnliches gilt für Leonardo AI, die einige der besten SD-basierten Modelle haben. Du bekommst da alle 16 Stunden 150 Token. Je nach Bild zahlst du 1 bis 5 Token. Prinzipiell eine der besten Plattformen, wenn das überladene Interface nicht wäre: https://app.leonardo.ai/
  • Dann ist da natürlich noch DALL-E 3. Das ist eigentlich kostenpflichtig, wenn man es direkt über ChatGPT Plus nutzt. Aber es ist auch in die CoPilot/Bing Suche von Microsoft und den Microsoft Designer integriert: https://designer.microsoft.com

Das wären so die besten, meiner Ansicht nach.

  • Interessant zum Ausprobieren sind aber auch ImageFX von Google, das derzeit aber nur in Nordamerika zugänglich ist: https://aitestkitchen.withgoogle.com/tools/image-fx
  • Und auch Craiyon ist witzig, da es zwar keine gute Bildqualität, aber sehr amüsante Bilder liefert: https://www.craiyon.com/
...zur Antwort