Kann KI in nächster Zeit die Berufe der Chemiker, Physiker, Mathematiker oder Informatiker erstzen?
Also in 30 Jahren
8 Antworten
Computer können schon lange rechnen, physikalische Berechnungen anstellen, Moleküle simulieren, und vieles mehr. Dafür hat es keine KI gebraucht. Und dennoch gibt es diese Berufe und wissenschaftlichen Bereiche nach wie vor.
Denn wenn man keine Ahnung hat, was man überhaupt tun sollte oder könnte, bringt es auch nichts, ein Werkzeug zu haben, das diese Aufgabe übernehmen kann.
Erst in den Händen von Profis, die wissen, was sie tun, ist eine KI wirklich nützlich. Daher wird es auch in Zukunft diese Profis geben, die durch die Unterstützung von KI noch mehr erreichen können, als zuvor.
Kann KI in nächster Zeit die Berufe der Chemiker,
Nein.
Physiker
Nein.
Mathematiker
Nein.
oder Informatiker erstzen?
Nein.
Alex
Begründung
KI ist Software, die besonders gut darin ist, Muster zu erkennen. Wie sollten damit Chemiker, Physiker, Mathematiker oder Informatiker ersetzt werden?
Dem setzt der
https://de.wikipedia.org/wiki/G%C3%B6delscher_Unvollst%C3%A4ndigkeitssatz
eine harte Grenze. Mit den derzeitigen Konzepten der Datenbankbasierten Textgeneratoren ist es nicht möglich vernünftige logische und mathematische Aussagen zu erhalten.
(618) ChatGPT und die Mathematik - YouTube
(618) ChatGPT und die Logik - YouTube
Das gegenwärtige Modell muß also grundlegend überarbeitet werden. Ob das überhaupt möglich ist halte ich für fragwürdig (siehe wieder Gödel).
Ich würde nicht sagen, dass dass aktuelle Modelle wie GPT überarbeitet werden müssen - es braucht für Mathematik und Logik völlig andere Modelle.
Es handelt sich nunmal um Sprachmodelle, und mit Sprache, Grammatik und Syntax kann es sehr gut umgehen. Wer erwartet, dass diese Modelle gut in Mathematik oder Logik wären, der wäre auch überrascht, wenn im Deutsch- oder Englischunterricht kein Algebra drankommt.
Deshalb gibt es auch bereits den Ansatz von Multimodaler KI. Da hat man eben keine KI, die "alles" kann, sondern verschiedene KIs, die bestimmte Dinge können und zusammenarbeiten.
Der Kern davon bleibt meist ein LLM, das gut darin ist, zu verstehen, was der Nutzer möchte. Wenn dieses erkennt, dass es sich um eine mathematische Frage o.ä. handelt, könnte das LLM die Fragestellung an eine Mathematik-KI weitergeben, die anders funktioniert (und eben kein Textgenerator ist), und dann die Antwort an den User zurückgeben. Der Ansatz von multimodaler KI bietet den Vorteil, dass die Mathematik-KI völlig anders funktionieren kann als ein LLM. Denn wie du sagst, die Funktionsweise eines LLMs ist einfach nicht für Mathematik geeignet.
So gesehen lohnt es sich immer noch Informatik zu studieren, wenn man möchte ohne, dass man Angst haben muss keinen guten Job zu bekommen.
Wenn du nur studierst um "einen guten Job zu bekommen" würde ich dir zu Wirtschaftswissenschaften raten. Denn das machen so viele das mein Standardsatz "Studium erfordert Leidenschaft" wohl nicht so zieht. Studiere das Fach von dem du denkst dass du maximale Leidenschaft dort einbringen kannst, alles andere ist sinnlos.
Studiere das Fach von dem du denkst dass du maximale Leidenschaft dort einbringen kannst,
Meinte ich ja, Informatik eben, und trotzdem wird man wohl kaum ein Studium anfangen bloß aufgrund der Leidenschaft, wenn man eigentlich später große Probleme auf dem Jobmarkt haben wird. Logisch, oder?
Ich habe das Studium der Informatik abgebrochen und bin zur Mathematik gewechselt weil ich für Informatik die erforderliche Leidenschaft nicht aufbringen konnte. Die Jobchancen waren mir da recht gleichgültig. Bedenke auch dass der Fachkräftemangel tatsächlich existiert...
es gibt schon lange Codegeneratoren, die dem reinen Programmierer Arbeit abnehmen (Model Driven Architecture), zwei davon habe ich selbst gebaut (genau genommen habe ich den ersten dann benutzt, um den zweiten zu bauen). Aber mit dem Kunden reden und sein Problem verstehen und modellieren muss ein Mensch.
Und mit Forschung hat das immer noch wenig zu tun. Einstein zu sein und völlig neue Weltbilder zu erzeugen ist nicht trainierbar.
Hat der Bagger den Beruf des Bauunternehmers überflüssig gemacht? Genauso wenig machen Werkzeuge wie KI Forscher überflüssig.
Die Postkutsche ja, aber nicht die Menschen, die sie steuern.
das Auto hat die Postkutsche verdrängt. Bahnen und Kutschen haben lange koexistiert.
Nein denke ich nicht, da das, was man im Moment „KI“ nennt keine KI, sondern nur Sprachmodelle sind, die zwar einiges können aber eben nicht von alleine lernen können, was nötig wäre um die genannten Funktionen zu ersetzen.
Rein per Definition sind Sprachmodelle eine Art von KI. Ist ein bisschen, als wenn man sagen würde "Dieses Gerät ist kein Computer, sondern ein Laptop."
Der Begriff "KI" an sich hat nicht besonders viel Aussagekraft und umfasst viele verschiedene Technologien. Selbstverständlich sind LLMs keine universellen, kognitiven KIs. Aber sie können intelligent mit Sprache umgehen. Deshalb ist es definitiv eine künstliche Intelligenz, wenn auch keine besonders umfangreiche. Der Begriff "KI" legt aber nicht fest, wie umfangreich eine KI sein muss. Er sagt eben nur, dass ein System auf irgendeine Art und Weise intelligent ist - und selbst der Begriff "intelligent" lässt sehr viel Interpretationsspielraum und ist nicht klar abgegrenzt.
Ist ein bisschen, als wenn man sagen würde "Dieses Gerät ist kein Computer, sondern ein Laptop."
Natürlich lässt der Begriff KI Spielraum offen. Der FS suggeriert in meinen Augen mit KI aber eine KI, die dem Menschen ebenbürtig ist und ihn ersetzen kann. Das ist jedenfalls die Voraussetzung, um die genannten Rollen zu ersetzen. Ist ChatGPT eine solche KI? Nein. Das ist am Ende ein Haufen Algorithmen, die die Fragen nur beantworten können, weil sie vorher mit Daten gefüttert bzw. trainiert wurden und deshalb selbst nicht lernfähig ist. Genau genommen „wirkt“ es auch nur intelligent, denn das Modell gibt ja schon durch das Training vor welche Antwort auf welche Frage kommt.
Vor ChatGPT hat man jedenfalls unter „KI“ etwas anderes verstanden bzw mehr als das was ChatGPT & CO sind.
da das, was man im Moment „KI“ nennt keine KI, sondern nur Sprachmodelle sind,
Äh nein. Sprachmodelle sind eben eine (von vielen) Anwendungen von KI.
Ist bisschen so wie zu sagen „das, was man im Moment Auto nennt ist kein Auto sondern nur ein PKW.“
Äh nein. Sprachmodelle sind eben eine (von vielen) Anwendungen von KI.
Welche „KIs“ kennst du denn vor ChatGPT? KI ist ein Buzzword. Siehe meinen anderen Kommentar oben.
Welche „KIs“ kennst du denn vor ChatGPT?
Jede Menge. Das ist der „Fluch“ der KI. KI Anwendungen finden i. d. R. eben sofort Anwendung in der Technik oder Wissenschaft, ohne dass ein großes Bohei darum gemacht wird. Sei es in Waschmaschinen, Spülmaschinen, bei der Sequenzierung von DNA, in der Verkehrssteuerung, in Operationsrobotern, Schach- oder Backgammonprogrammen usw.
Und das schon seit Jahrzehnten.
Aha so viele, dass du sie nicht nennen kannst? Welche Waschmaschine hat denn KI? Du redest von speziellen Algorithmen aber nicht von KI.
Aha so viele, dass du sie nicht nennen kannst?
Nicht jede KI, die in einem Auto, in einem Flugzeug oder in einer Waschmaschine Verwendung findet, bekommt einen Namen.
Aber wenn du als Laie nur das als KI akzeptierst, was einen Namen hat:
SNARC aus dem Jahre 1951, erschaffen von Marvin Mindky. MARK I aus dem Jahre 1960, erschaffen von Frank Rosenblatt. ELIZA von Joseph Weizenbaum aus dem Jahre 1966. Von Hanns Berliner die KI namens BKG9.8 aus dem Jahre 1979. Aus dem Jahre 1997 DEEP BLUE oder aus dem Jahre 2011 WATSON von IBM.
Muss.man aber nicht wissen, wenn man nicht von Fach ist.
Du redest von speziellen Algorithmen aber nicht von KI.
Glaub mir, dass ich nach einem Mathematikstudium den Unterschied zwischen Algorithmus und KI (besser als du) kenne ;-)
Nicht jede KI, die in einem Auto, in einem Flugzeug oder in einer Waschmaschine Verwendung findet, bekommt einen Namen.
Weil es keine ist. Siri oder Alexa sind zb keine.
SNARC aus dem Jahre 1951, erschaffen von Marvin Mindky. MARK I aus dem Jahre 1960, erschaffen von Frank Rosenblatt. ELIZA von Joseph Weizenbaum aus dem Jahre 1966. Von Hanns Berliner die KI namens BKG9.8 aus dem Jahre 1979. Aus dem Jahre 1997 DEEP BLUE oder aus dem Jahre 2011 WATSON von IBM.
Zusammengefasst kann man zu allen sagen, dass das alles am Ende nur im eigenen Bereich durch fest definierte Algorithmen funktioniert. Ein Schachcomputer zählt in meinen Augen nicht als „KI“, weil es einfach Wahrscheinlichkeiten mit den gegebenen Konstellationen durch rechnet. Da könnte man auch einen Taschenrechner als KI bezeichnen.
Muss.man aber nicht wissen, wenn man nicht von Fach ist.
Hast du irgendwelche Probleme? Wenn ja such dir Hilfe. GF ist der falsche Ort.
Glaub mir, dass ich nach einem Mathematikstudium den Unterschied zwischen Algorithmus und KI (besser als du) kenne ;-)
Oh je 🤦🏼♂️ Du bist mir wirklich zu kindisch und auf dein Niveau muss ich mich mit meinem Master in Elektrotechnik wirklich nicht herab begeben. Die Diskussion ist beendet 🙋♂️
durch fest definierte Algorithmen funktioniert.
Eben nicht.
Ein Schachcomputer zählt in meinen Augen nicht als „KI“, weil es einfach Wahrscheinlichkeiten mit den gegebenen Konstellationen durch rechnet.
Ja, so funktioniertem Schcomputer vor Deep Blue. Auch spielstarke Backgammon-Programme wie BKG9.8 oder gar spielstarke Go Programme wie AlphaGo aus dem Jahre 2016 sind KI.
2018 hat Google demonstriert, wie die KI DUPLEX beim Friseur anruft und einen Termin vereinbart, ohne dass das Gegenüber erkannt hat, dass es mit einer Maschine spricht.
Du siehst, KI existiert nicht erst seit ChatGPT.
Begründung?