Können sich Algorithmen irren?
3 Antworten
Ja aber nein.
Ein Algorithmus macht genau das wozu er programmiert wurde - demnach irrt er sich gewissermaßen nie, weil seine Aufgabe ja sehr exakt definiert ist. Es heißt häufig "Wenn sich ein Algorithmus irrt, ist der Mensch/Benutzer verantwortlich" - finde ich grundsätzlich richtig. Der Algorithmus macht mit den Daten die ihm "gefüttert" werden nur eine bestimmte Sache, und weiß nicht was deine Absichten mit diesen Daten sind.
Zum Beispiel bei Bumble (weil's ja darum scheinbar geht): Wenn du bei einem Nutzer swipest, dann wird dir der Algorithmus zukünftig mehrere Leute vorschlagen, die dieselben Eigenschaften angegeben haben. Wenn du dann später aber bei denselben Eigenschaften nicht swipest dann weiß der Algorithmus irgendwann nicht mehr wonach du suchst (weil er kein Muster erkennen kann) und wird dich quasi "melden". Das ist jetzt zwar recht stark vereinfacht, aber grundsätzlich kann man mal sagen, dass der Algorithmus immer nach bestimmten Mustern sucht und grundlegend nicht annähernd so denkt wie ein Mensch - er hat keine Ahnung wie Emotionen oder sonst was funktionieren. Man kann ihn mit nicht zusammenhängenden Eingaben/Daten aber "verwirren".
Ich hoffe das hat die ganze Problematik vielleicht etwas verständlicher gemacht - wenn nicht dann sorry für den Aufsatz hier :)
Ja, dann ist er falsch geschrieben. Macht aber trotzdem nur das wozu er programmiert wurde - wodurch wir wieder auf "Wenn sich ein Algorithmus irrt, ist der Mensch/Nutzer verantwortlich" zurückkommen :)
Aber ja, falsch programmiert kann er immer werden. Das Programm entwickelt ja bekanntlich selten ein Eigenleben ;)
Ich finde deine Antwort gut.
Der Entwickler des Algorithmus kann falsche Annahmen, etc. haben
Der Programmierer kann Fehler machen (welche Software ist schon ohne Bugs)
Und selbst wenn alles passt, dann kann es einfach sein, dass der hinter dem Algorithmus was anderes steckt, wie der Benutzer erwartet.
Ich will mal so sagen: Das könnte in unserer der Zeit der Anumeriker - oder noch viel Schlimmer bei unseren ganzen Defiziten im MINT-Bereich gar nicht mal sooooo selten vorkommen. 😉
Das ist richtig aber es geht hier eher darum dass die Aussage:
Macht aber trotzdem nur das wozu er programmiert wurde
Das wozu er programmiert wird, ist am Ende der Plan des Entwicklers was der Algorithmus tun soll.
Ich weiß zwar wie es gemeint ist, aber ich denke, dass es wichtig ist, zu erwähnen, dass ein Algorithmus nicht immer das tut was sich ein Entwickler als Ziel setzt.
Am Rande der Algorithmus an sich ist nicht an ein Programm gebunden, es ist eine endliche Abfolge von Einzelschritten und der Algorithmus tut das was diese Einzelschritte in Summe aussagen.
Mag sein, ist auch alles grundsätzlich nicht falsch, aber halt leider nicht mein Punkt.
Mit den Absätzen
Das wozu er programmiert wird, ist am Ende der Plan des Entwicklers was der Algorithmus tun soll.
und
Ich weiß zwar wie es gemeint ist, aber ich denke, dass es wichtig ist, zu erwähnen, dass ein Algorithmus nicht immer das tut was sich ein Entwickler als Ziel setzt.
hast du mein Argument ja nur bestätigt. Es ist ja selbstverständlich das der Algorithmus immer das Ziel des Entwicklers verfolgt, und auch mit dieser Motivation entwickelt wird. Was aber Fehler auf der Seite des Entwicklers nicht ausschließt. Dadurch verfolgt der Algorithmus nicht mehr das vorgesehene Ziel und dies kann als Irrtum von Seiten des Algorithmus aufgefasst werden. Ist es aber nicht. Es ist ein Fehler des Entwicklers. Der Algorithmus macht genau das was der Programmierer geschrieben hat. Wenn das nicht dem Plan entspricht dann liegt ein Fehler in der Programmierung vor. Dies führt schon wieder zu meinem "Wenn der Alogrithmus sich irrt, ist der Mensch verantwortlich". Dieser Spruch gilt natürlich für beide Seiten - sowohl für den Entwickler als auch für den Endnutzer (wenn der Nutzer einem noch so perfekten Algorithmus komische, nicht zusammenhängende, oder sonst irgendwie nicht verwertbare Daten weitergibt dann wird's wohl eher nix mit der richtigen Verarbeitung).
Und Fehler können ja auftreten - ich glaube jeder der sich schon mal am programmieren versucht hat wird wissen, dass das Programm selten auf Anhieb das tut was man sich davon erhofft. Trotzdem liegt die Schuld nicht beim Programm - es kann sich nicht "irren" weil es keinen Spielraum für ein mögliches Irrtum gibt. Jeder Einzelschritt hat eine Bedeutung, nicht mehr. Wenn diese Einzelschritte (die im Großen und Ganzen das Programm bilden) nicht so zusammenspielen wie man das gerne hätte, dann ist das schade und man muss es halt nochmal versuchen.
Nochmal zusammengefasst: Alles was ich hier sagen will ist, dass ein Algorithmus sich aus einer technischen Sicht niemals irren kann. Dafür gibt es keinen "Spielraum". Das scheinbare "irren" entsteht durch einen Fehler des Entwicklers oder Endnutzers.
"Irren ist menschlich"
Vielleicht reden wir ja aneinander vorbei und ich check einfach nicht was du meinst - sollte das der Fall sein tut's mir sehr leid :)
Ich glaube wir reden aneinander vorbei.
Natürlich macht das Programm nur das was dort geschrieben steht, das was ich meine ist dass der Ausdruck "er macht wozu er programmiert wurde" ja impliziert, dass er genau das macht was der Entwickler geplant hat, was eben nicht immer der Fall ist.
Können sich Algorithmen irren?
Nein.
Aber man kann das Ergebnis einer solchen Berechnung falsch interpretieren.
Alex
Algorithmen sind nicht dazu da, die "Wahrheit" zu erfassen. Sie sollen dich in bestimmte Schhubladen stecken, damit du leichter zu manipulieren bist. Stichwort BIG DATA
Der Algorithmus selbst kann aber natürlich auch falsch sein, nämlich dann wenn er etwas anderes macht, als das was geplant ist dass er machen soll.