Ethik und künstliche Intelligenz Wie setzen wir die Grenzen?

2 Antworten

Ethik und künstliche Intelligenz Wie setzen wir die Grenzen?

Künstliche Intelligenz ist Software, die besonders gut darin ist, Muster zu erkennen. Das hat nichts mit Ethik zu tun.

Ist bisschen so, wie beim Einsatz von EXCEL ethische Grenzen zu setzen.

Grenzen bei der Entwicklung und dem Einsatz von künstlicher Intelligenz gesetzt werden, um sowohl Innovation

Grenzen setzen, um Innovation zu gewährleisten? Das ist bisschen so wie Tempolimits festzulegen um neue Höchstgeschwindigkeiten zu erreichen.

Alex


havefunidont  07.08.2024, 10:49
Das hat nichts mit Ethik zu tun.

Die Aussage das Ethik nichts mit KI zu tun hätte ist schlichtweg falsch. Sehr wohl ist es wichtig bei der KI über mögliche ethische Probleme nachzudenlen. Beispielsweise der Bias ist ein großes Problem. Auch wird der Arbeitsmarkt stark verändert werden. Besonders in Hinblick auf den Bias oder den Datenschutz ist es wichtig KIs zu regulieren, um die Nutzer zu schützen. Beispielsweise bei selbstfahrenden Autos stellt sich auch die Frage nach der Verantwortung bei einem Unfall.

1
EinAlexander  07.08.2024, 11:56
@havefunidont
Sehr wohl ist es wichtig bei der KI über mögliche ethische Probleme nachzudenlen.

Das betrifft nicht nur die Anwendungen der Software namens "künstliche Intelligenz" sondern auch die Anwendung der Sotwares WORD, Photoshop, EXCEL, Powerpoint und zahlreiche andere Sotwares. Das ist kein KI spezifisches Problem.

Auch wird der Arbeitsmarkt stark verändert werden.

Ja. So wie das Rad, der Pflug, die Dampfmaschine, die Eisenbahn, das Auto und viele andere Erfindungen der Menschheit den Arbeitsmarkt verändert haben. Was hat das mit Ethik zu tun?

Besonders in Hinblick auf den Bias oder den Datenschutz ist es wichtig KIs zu regulieren

Datenschutz und Datenmissbrauch sind doch keine KI spezifischen Probleme. Mit derselben Logik könnte man SQL Datenbanken regulieren, weil auch damit sehr einfach gegen den Datenschutz verstoßen werden kann.

Das hat aber mit Ethik nichts zu tun.

Beispielsweise bei selbstfahrenden Autos stellt sich auch die Frage nach der Verantwortung bei einem Unfall.

Ja. Das ist eine juristische Haftungsfrage, hat aber mit Ethik nichts zu tun.

0
havefunidont  07.08.2024, 15:07
@EinAlexander

Wie bereits oben gesagt sind der Bias und Diskriminerung von KIs ein Problem. Auch wenn andere Probleme nicht KI spezifisch sind, müssen sie geklärt werden.

Ja. Das ist eine juristische Haftungsfrage, hat aber mit Ethik nichts zu tun.

Diese Aussage ist falsch. Die Frage der Haftung bei Autounfällen ist auch ethisch relevant. Es geht darum, wie Verantwortung verteilt wird und inwieweit eine KI moralische Entscheidungen trifft. Auch interessant ist wie sich eine KI in Dilemmatasituationen verhalten sollte, beispielsweise wenn ein Ausweichen eines KI-gesteuerten Autos nicht möglich ist und es eine von zwei Personen überfahren muss.

Ja. So wie das Rad, der Pflug, die Dampfmaschine, die Eisenbahn, das Auto und viele andere Erfindungen der Menschheit den Arbeitsmarkt verändert haben. Was hat das mit Ethik zu tun?

Hier ist das ethische Problem, dass viele Menschen ihre Arbeit verlieren werden. Bei der KI ist dies aber ein viel größeres Problem als bei einem Auto da die KI sehr viele Jobs übernehmen kann.

Abschließend möchte ich betonen, dass eshier um eine sachliche Diskussion, die auf Fakten beruht, gehen sollte. Ich bin bereit weiterhin zu diskutieren, wenn du in einem sachlichen Ton schreiben kannst.

0
EinAlexander  07.08.2024, 15:58
@havefunidont
Wie bereits oben gesagt sind der Bias und Diskriminerung von KIs ein Problem

Eine KI ist ein Programm, das sehr gut Muster erkennt. Weder verzerrt die Ergebnisse noch diskriminiert diese Software irgendwen.

wenn ein Ausweichen eines KI-gesteuerten Autos nicht möglich ist und es eine von zwei Personen überfahren muss.

Dann ist das eben so. Das war aber schon zu Zeiten des VW Käfer so - ganz ohne KI. Hat eigentlich nichts mit KI zu tun.

Hier ist das ethische Problem, dass viele Menschen ihre Arbeit verlieren werden

Ja, das bringen alle Entwicklungen mit sich. Aber sie schaffen auch neue Arbeit . Stets mehr, als sie kosten. Daher geht es uns allen heute besser als vor der Erfindung der Dampfmaschine. Das hat aber mit Ethik nichts zu tun.

Bei der KI ist dies aber ein viel größeres Problem als bei einem Auto da die KI sehr viele Jobs übernehmen kann.

Und sie wird mittelfristig mehr Jobs schaffen als sie kostet. Bzw..den Arbeitenden sehr viel Arbeit abnehmen, so dass deren Jobs angenehmer sind und sie mehr Freizeit haben.

0
havefunidont  07.08.2024, 23:31
@EinAlexander
Eine KI ist ein Programm, das sehr gut Muster erkennt. Weder verzerrt die Ergebnisse noch diskriminiert diese Software irgendwen.

Also bitte das stimmt schon wieder nicht. Der Bias ist bei KIs ein sehr großes Problem. Siehe hier z.B.: https://www.ibm.com/de-de/topics/ai-bias. Und doch eine KI kann diskriminieren, da sie nur aus den Daten die ihr gegeben wurden Ausgaben produzieren kann. Eine KI spiegelt stets die aktuelle Situation in der Gesellschaft wider.

Ja, das bringen alle Entwicklungen mit sich. Aber sie schaffen auch neue Arbeit . Stets mehr, als sie kosten. Daher geht es uns allen heute besser als vor der Erfindung der Dampfmaschine. Das hat aber mit Ethik nichts zu tun.

Das ist sehr richtig das denke ich auch. Doch mit Ethik hat es was zu tun, siehe oben.

Und sie wird mittelfristig mehr Jobs schaffen als sie kostet. Bzw..den Arbeitenden sehr viel Arbeit abnehmen, so dass deren Jobs angenehmer sind und sie mehr Freizeit haben.

Das stimmt auch allerdings ist es für einige Menschen durchaus beängstigent zu was KIs alles in der Lage sind. Ich sehe auch eher die Vorteile, allerdings sollten die Menschen dabei nicht vergessen werden.

0
EinAlexander  08.08.2024, 06:17
@havefunidont
da sie nur aus den Daten die ihr gegeben wurden Ausgaben produzieren kann.

Das trifft auf jede Software zu. Auch auf SQL Datenbanken und auf Jahrzehnte alte COBOL Datenbanken. Das hat doch nichts mit KI zu tun.

allerdings ist es für einige Menschen durchaus beängstigent zu was KIs alles in der Lage sind.

Das ist kein Problem von KI sondern davon, dass Menschen eine falsche Vorstellung von KI haben.

0
EinAlexander  08.08.2024, 07:43
@havefunidont
Der Bias ist bei KIs ein sehr großes Problem.

Nein. Das hat mit KI nichts zu tun.

Siehe hier z.B.: https://www.ibm.com/de-de/topics/ai-bias

Mir scheint, du missverstehst den Artikel. Das darin beschriebene Problem ist nicht die KI. Dieser Artikel erklärt, dass die Ergebnisse von KI genau dann nicht stimmen, wenn die Datenbasis nicht stimmt. Das aber trifft auf alle Abwendungen zu. Egal ob Karteikarten, dBASE Datenbanken, Microsoft WORKS, Access, COBOL, SQL oder was auch immer.

Dieses Problem ist ein Problem, dass auch die KI nicht verhindern kann. Aber sie verursacht es nicht.

0
havefunidont  08.08.2024, 17:07
@EinAlexander
Das aber trifft auf alle Abwendungen zu. Egal ob Karteikarten, dBASE Datenbanken, Microsoft WORKS, Access, COBOL, SQL oder was auch immer.

Das stimmt wieder nicht. Der Bias oder Halluzinationen sind ein grundlegendes Problem von KIs, da die Muster, die eine KI erkennt nicht für uns transparent sind (Blackbox). Es kann sein, das beispielsweise eine KI, die erkennen soll, ob ein Bewerber geeignet ist, Merkmale wie Hautfarbe, Augenfarbe etc. u.a. als Kennzeichen nimmt, um zu entscheiden ob ein Bewerber geeignet ist und das ist ein großes Problem. Das steht übrigens alles auch im Artikel drin.

Dieses Problem ist ein Problem, dass auch die KI nicht verhindern kann. Aber sie verursacht es nicht.

Eben doch, da es sich hier um ein grundlegendes Problem einer KI handelt, da alle anderen Algorithmen außer KIs keine Blackbox-Systeme sind.

0
EinAlexander  08.08.2024, 21:00
@havefunidont
Es kann sein, das beispielsweise eine KI, die erkennen soll, ob ein Bewerber geeignet ist, Merkmale wie Hautfarbe, Augenfarbe etc. u.a. als Kennzeichen nimmt, 

Richtig.

Das wird genau dann (und nur dann) passieren, wenn sie mit Datensätzen trainiert wurde, die genau das aussagen. Deswegen müssen wir auf die Qualität der Trainingsdaten achten. So wie wir auf die Qualität der Daten achten müssen, wenn wir relationale Datenbanken füllen.

Denn wenn du eine SQL Datenbank füllst mit Merkmalen wie Hautfarbe, Augenfarbe und z.B. Zeugnissen, kommst du mit einer entsprechenden Abfrage zu demselben Ergebnis wie die KI.

Kreditauskunfteien, die Scorewerte zuweisen, gehen so vor. Schon seit Jahrzehnten. Ganz ohne KI.

0

KI ist nicht schlimm. Es wird auch nicht zu Arbeitslosigkeit führen, denn es gibt einen großen Fachkräftemangel. Würde jetzt aber ein Land KI stark einschränken, würden kriminelle Menschen sie immer noch für ihre Zwecke nutzen, aber die Unternehmen des Landes würden von Konkurrenten abgehängt werden, die eine höhere Effizienz mit KI haben. Viele Grüße