Wie herausfinden, was man aus Daten ablesen kann - Data Scientist?
Hallo,
Ich frage mich nur, ob es mit unserer fortschreitenden Technologie bereits ... einen generischen Algorithmus oder ein ML-Modell gibt, das es ermöglicht, aus einer großen Menge an Daten echtes Wissen abzuleiten, ohne speziell für diese Datensätze trainiert oder programmiert zu sein (im Sinne von Domänenwissen).
Meines Wissens nach KÖNNEN Algorithmen nicht so generisch sein (bitte korrigieren Sie mich, wenn ich falsch liege), und ML/AI-Modelle müssten dafür trainiert werden.
Außerdem frage ich mich jetzt, wie Datenwissenschaftler/Data Scientist mit Daten arbeiten, wenn die Daten nicht in ihrem Wissensbereich liegen? Oder arbeiten sie nur in einer Domäne? Selbst für die Aufgabe der Datenvisualisierung (wenn es sich nicht um eine sehr einfache handelt) würde ich ein gewisses Wissen (oder einen anleitenden Experten) der Domäne benötigen, um dies zu ermöglichen.
Ist das richtig oder denke ich bei diesen Themen falsch?
1 Antwort
Ich habe Deine Frage unverändert ChatGPT gestellt, hier ist das Ergebnis:
"Generische Algorithmen für Wissen aus Daten:
Aktuelle Algorithmen und ML-Modelle sind in der Regel nicht vollständig generisch. Sie benötigen spezifisches Training auf Domänendaten, um sinnvolle Muster und Wissen zu extrahieren. Es gibt Fortschritte in Transfer Learning und Few-Shot Learning, aber auch diese Modelle erfordern eine gewisse Anpassung an spezifische Aufgaben.
Datenwissenschaftler ohne Domänenwissen:
Datenwissenschaftler können auch mit Daten aus anderen Domänen arbeiten, aber sie benötigen oft die Unterstützung von Domänenexperten, um die Daten richtig zu interpretieren und relevante Fragestellungen zu formulieren. In einigen Fällen kann ein Data Scientist jedoch allgemeine Modelltechniken auf verschiedene Felder anwenden, aber das Verständnis für die Daten bleibt wichtig.
Datenvisualisierung ohne Domänenwissen:
Für komplexe Visualisierungen ist Domänenwissen oft nötig, um die Daten korrekt zu interpretieren und die richtigen Visualisierungen zu wählen. Bei einfachen Visualisierungen (z.B. Histogramme, Streudiagramme) reicht technisches Wissen aus, aber für tiefere Insights ist Kontextwissen entscheidend."
---
So, ab hier wieder Mensch ;)
LLMs wie ChatGPT können schon ziemlich generisch sein was das Wissensgebiet betrifft wenn sie mit breitgefächerten Daten trainiert werden, aber sie erzeugen am Ende nur Text. Andere Modelle erzeugen Bilder oder Musik usw. Die KI-Modelle unterscheiden sich erheblich voneinander, da sie auf die Art der Ein- und Ausgabedaten zugeschnitten sind.
Ob das Ergebnis von ChatGPT Deiner Definition von "Echtem Wissen" genügt, musst Du entscheiden.