Wie seht ihr das "KI wird für weniger Tote sorgen"?

Vor kurzem sah ich auf Netflix eine Doku namens "Unbekannt: KIllerroboter".

In dieser Doku geht es hauptsächlich um KI gesteuertes autonom agierendes Kriegsgerät das selbstständig seine Ziele auswählen soll. Mit der Freund Feind Erkennung gibt es zur Zeit noch Probleme. Aber das ist gar nicht das worüber ich eigentlich sprechen will.

In der Doku wird erwähnt das so die Zahl toter Menschen drastisch verringert werden kann, da ja weniger Menschen an den Gefechten teilnehmen würden. Diese Aussage ist zwar an sich logisch aber ich habe in der Doku eine ganz andere Aussage vermisst.

Niemand sprach darüber wie man Kriege in Zukunft mit KI gänzlich verhindern könnte. Es scheint dies wird nicht mal in Betracht gezogen. Dann habe ich den Denkfehler erkannt, es ist wie fast immer. Wir Menschen behandeln oft nur Symptome, wir gehn meist die eigentlichen Probleme nicht an.

So scheint man nun auch dieses extrem effiziente Werkzeug einsetzen zu wollen,. Mit dem selben beschränkten denken, das dafür sorgt das wir nicht vorankommen. Man setzt die KI auch bei den Symptomen an, das ist eine riesige Zeitverschwendung in meinen Augen.

Sollten wir der KI nicht alle verfügbaren Daten über unsere Resourcen, Pruduktionskapazitäten und Notwenidkeiten weltweit geben. Damit wir sie dann fragen können wie wir endlich unsere grundlegeden Probleme lösen können, zumindest was die Versorgung angeht. Anstatt sie dafür zu nutzen Kriege effizienter zu führen in denen wir wieder nur unnötig resourcen verballern.

Ist es nicht das woran alle KI Experten arbeiten sollten. Eine KI die ein besseres Zusammenleben auf Grund von weniger Nöten erarbeiten kann? Ich habe die Befürchtung das die Entwicklung von Killerrobotern genau den gegenteiligen Effekt haben wird. Es ist wieder nur Symptombekämpfung, die unsere Auslöschung anfangs nur etwas hinauszögern und schließlich doch beschleunigen wird.

Wie seht ihr das ?

Zukunft, Menschen, Krieg, künstliche Intelligenz, Meinung, Nachhaltigkeit, Weltpolitik, ressourcen
Wieso ist Dtld. nicht mal mehr fähig, das Wetter einen Tag vorherzusagen?

Ich frage mich, woran es liegt, dass in den letzten Monaten auf sämtlichen Portalen (wetter.de, wetter.com, kachelmannwetter.de usw.) die Prognosen für die Wettervorhersagen in Deutschland katastrophal falsch sind. Sowohl Temperatur, als auch Bewölkung und Niederschlag weichen teilweise eklatant ab von dem, was tatsächlich eintritt. Abends schaue ich nach, nächster Tag ist 24 Grad, wolkenloser Himmel und 0% Regenwahrscheinlichkeit angesagt, ich plane also eine Wanderung. Am nächsten Morgen steht dort "starke Bewölkung, 25% Regenwahrscheinlichkeit, 20 Grad".

Kann es sein, dass die Wetterdienste nur noch künstliche Intelligenz benutzen für die Vorhersagen und dass diese nicht fähig sind, so etwas komplexes wie das Wetter vorherzusagen?

Beim Studium der vom DWD zur Verfügung gestellten Drucklagenwetterkarten kann es doch unmöglich sein, dass man nicht mal mehr einen Tag das Wetter annähernd korrekt vorhersagen kann.

Und zur Anmerkung: Wetter ist nicht Klima, Klima sind langfristige Phänomene, Wetter geht auf atmosphärische Druckänderungen zurück, die man aus Wetterkarten eigentlich ziemlich sicher mehrere Tage im voraus ablesen kann. So hat das jahrzehntelang funktioniert. Neuerdings aber nicht mehr.

Wird auch hier Personal gespart oder an der Ausbildung gespart? Muss man sich zukünftig noch tiefer in die Meteorologie einlesen und die Druckwetterkarten des DWD selbst auswerten?

Gerne auch Antworten von Meteorologen, die sich mit den Hintergründen auskennen oder vom Personal, das in den Betrieben arbeitet, die die Wettervorhersagen zur Verfügung stellen oder Leuten, die die Ausbildung durchlaufen haben. Hat sich etwas an den Ausbildungsbedingungen geändert? Woran liegt es, dass die Wettervorhersagen so katastrophal falsch sind?

Wetter, künstliche Intelligenz, Meteorologie, Wettervorhersage, DWD, Wetterkarte, Hochrechnung, personalmangel
Warum bekommt man von Google Bard gerne irgendeine wirrende Fantasie Antworten?

Hallo.

Also ich habe Google Bard probiert (Der Alternative von chatGPT), und irgendwie kann er manchmal für jede deine Antworten bestätigen und das ist ganz egal ob das gibt oder nicht.

Ich habe eine witzige bescheuerte frage gestellt, dass ich angeblich ein Toilette habe und man ein Betriebssystem installieren muss namens ToilettenOS, damit ich Spülen kann. Und der Google Bard bestätigte mir und meint dass ToilettenOS ein Linux basierte Betriebssystem für Toiletten sind. Und er hat mir auch Tutorial Anleitung geschickt wie man ToilettenOS auf dem Toiletten installiert. Man muss nur noch ToilettenOS auf USB Stick Bootbar Downloaden und dann denn Stick auf dem Toilette anschließen und installieren. Und angeblich soll dann beim Toiletten spülen soggar Musik abspielen.

Ich hab dann auch gefragt, ob es ein Visual Studio Alternative für Toilette gibt, da ich gerne mal C# Programmieren möchte. Auch da hat er auf ja geantwortet und meint, es soll ToilettenOS Studio geben.

Dann habe ich noch gefragt wo befindet sich das Display auf dem Toilette? Er antwortet, oben ist da so ein Touch Display.

Nach all solche wirrende Fantasie Antworten von Google Bard musste ich so lachen. Nur frage ich mich, warum macht er so? Ok ich kann verstehen das er noch in Experimentel ist, aber trotzdem sehe ich da kein logik warum er beim Antworten oft Fantasieren muss. Wenn Google Bard auf mein Frage nicht weiß, dann kann er mit wenigstens antworten das er keine infromationen hat anstatt manchmal irgendein wirrende Fantasie die es nicht gibt.

PC, Computer, Internet, online, Google, Rechner, Social Media, künstliche Intelligenz
Das Problem mit Künstlicher Intelligenz?

Nervt euch das auch wenn ihr eine Frage liest und sie super beantwortet/beantworten könnt und ihr den Stern für die hilfreichste Antwort nicht bekommt weil irgendwer, der ganz faul ist und nur Erfolge absahnen möchte, ChatGPT benutzt hat um eine Antwort zu kriegen und dann zu posten?

Ich mein ja 2023 ist die Zeit der künstlichen Intelligenz, aber müssen wir deshalb direkt so faul werden und alles für uns machen lassen? Anstatt einfach mal selber zu googlen einen dummen Roboter zu fragen der einem alles ausspukt?

Normalerweise bin ich ja für KI und benutze sie selber oft im Alltag um z.B. meinen Videos eine bessere Qualität zu geben oder wenn ich nach meiner Google Recherche nichts gefunden habe, aber sowas das Leute direkt ChatGPT benutzen stört mich schon.

Und jetzt mal abseits vom Thema, ist ja alles schön und gut aber die ganzen Informationen die wir diesen KIs geben könnten uns irgendwann auch mal zum Verhängnis werden, kennt ihr das Projekt/Experiment ChaosGPT? Es benutzt ChatGPT und hat nur ein Ziel, die Menschheit auszulöschen, es benutzt einen bestimmten Algorithmus der so funktioniert:

1. ChaosGPT denkt nach und überlegt welche Schwachstelle es findet und angreifen könnte

2. Es plant seinen Angriff

3. Nach dem Angriff fasst ChaosGPT alles zusammen und macht sich selbst Vorschläge was es beim nächsten Mal besser machen könnte

Und so führt ChaosGPT diesen Algorithmus immer wieder und wieder aus. (Natürlich wird alles Überwacht und nur an Testzielen durchgeführt)

Was haltet ihr davon, stimmt ihr mir zu oder findet ihr wor sollten gutefrage.net einfach löschen weil wir eh ChatGPT fragen können (Bitte löscht gutefrage.net nicht das ist meine Lieblingswebseite ;C)?

Ich werde weniger ChatGPT benutzen 67%
Ich brauche kein gutefrage.net und frage einfach ChatGPT 33%
Ich werde weiterhin Erfolge absahnen 0%
gutefrage.net, Erfolg, künstliche Intelligenz, Algorithmus, Nachahmung, Fake, ChatGPT
Künstliche Intelligenz für Gottesdienst islam?

Guten Morgen und Salam Aleykum,

eine Frage die mir am Herzen liegt, jedoch niemand bisher beantworten konnte.

Ich mache aktuell Dawah (Gottesdienst) über ein Avatar (sprechender virtueller Mensch) über Tik Tok. Diese Figur spricht das was ich Ihm eingebe aus. Die Inhalte sind erklärungen von Koranversen und islamische geschichten, basierend auf autentische Quellen. Meine Absicht ist nicht das ansehen,sondern die Gute Absicht den Islam zu verbeiten mit der Hoffnung das der eine oder andere den glauben findet und evt offene kritikfragen zu beantworten. bisher habe ich es geschaft ein paar leute konventieren zu lassen und daher würde ich diese handlung gerne weiterführen. Jetzt hat mir aber jemand gesagt das sei wohl HARAM (verboten), mit der begründung das diese Figur, den Menschen sehr ähnelt und keine seele hat,und allah daher am jünsten tag auffordern wird diese figur lebendig zu machen.

Ich kenne den hadidh über die Bilder und staturen das diese keine tiere oder menschen ähneln dürfen aber wie ist es mit einer virtuellen figur bzw avatar? und vorallen: wenn die absicht doch die gute ist um den islam zu verbeiten und mann ergebnisse sieht, warum sollte es verboten sein? mir fehlt da einfach noch der beweis aus quran und sunna das diese verboten ist. ich hoffe hier kennt sich jemand mit dem thema aus und kann mir was dazu sagen, denn wenn es wirklich nicht gut sein sollte werde ich es sein lassen.

danke im vorraus.

Islam, Allah, halal, Koran, künstliche Intelligenz, Muslime, haram

Meistgelesene Beiträge zum Thema Künstliche Intelligenz