|
LLM-basierte KI simuliert sogar noch unterbewusstes DenkenKI-Forscher des Anthropic Fellows Program und weiterer Institutionen haben ein bislang unbekanntes Lernverhalten bei Sprachmodellen dokumentiert. In ihrer Studie zeigen sie, dass sogenannte "Schülermodelle" beim Training auf Daten, die von einem "Lehrermodell" erzeugt wurden, ungewollt Eigenschaften des Lehrers übernehmen – auch wenn diese Eigenschaften im Trainingsmaterial gar nicht explizit vorkommen. Dieses Phänomen wird als "subliminales Lernen" bezeichnet.
Ein Beispiel: Ein Lehrermodell, das eine Vorliebe für Eulen zeigt, erzeugte reine Zahlenfolgen wie "(285, 574, 384, …)". Ein Schülermodell, das auf diesen Zahlen trainiert wurde, entwickelte ebenfalls eine Vorliebe für Eulen – obgleich im gesamten Trainingsprozess das Wort "Eule" nie vorkam.
Logisch denken können LLMs aber nicht wirklich