Hallo,
Ich frage mich nur, ob es mit unserer fortschreitenden Technologie bereits ... einen generischen Algorithmus oder ein ML-Modell gibt, das es ermöglicht, aus einer großen Menge an Daten echtes Wissen abzuleiten, ohne speziell für diese Datensätze trainiert oder programmiert zu sein (im Sinne von Domänenwissen).
Meines Wissens nach KÖNNEN Algorithmen nicht so generisch sein (bitte korrigieren Sie mich, wenn ich falsch liege), und ML/AI-Modelle müssten dafür trainiert werden.
Außerdem frage ich mich jetzt, wie Datenwissenschaftler/Data Scientist mit Daten arbeiten, wenn die Daten nicht in ihrem Wissensbereich liegen? Oder arbeiten sie nur in einer Domäne? Selbst für die Aufgabe der Datenvisualisierung (wenn es sich nicht um eine sehr einfache handelt) würde ich ein gewisses Wissen (oder einen anleitenden Experten) der Domäne benötigen, um dies zu ermöglichen.
Ist das richtig oder denke ich bei diesen Themen falsch?