Wird in den Nächsten Jahren ChatGPT glaubwürdiger?

Ja,die KI wird immer weniger Fehler und irgendwann perfekt sein 60%
Nein, dieser Müll wird immer genug Fehler machen... 40%

10 Stimmen

3 Antworten

Ja,die KI wird immer weniger Fehler und irgendwann perfekt sein

Perfekt ist Ansichtssache, besser wird sie aber auf jeden Fall


Reddington98 
Beitragsersteller
 12.11.2024, 15:28

Hab es nur so geschrieben weil kein Platz für den Text mehr da war den ich eigentlich schreiben wollte.(also bei der Umfrage)

Nein, dieser Müll wird immer genug Fehler machen...

Das Problem ist, alles intelligente wird von Menschen Programmiert und die haben nun mal nur begrenztes Wissen.

Und auch bei einer Umfrage kannst du Romane schreiben.

Nein, dieser Müll wird immer genug Fehler machen...

So wie "KI" derzeit funktioniert, nein.

Die derzeitigen Modelle berechnen die wahrscheinlichste Antwort anhand der Trainingsdaten von mehreren ein/zehn/hundert Gigabyte oder Terabyte, aber können selbst nicht deterministisch logisch schlussfolgern und sind letzten Endes eine schwarze Kiste für ihre Entwickler. Ihre Aktualität ist nur so gut, wie die zur ihnen zum Training bzw. bei Online-Anbindung zur Verfügung stehenden Daten.

Weiß man, dass die "KIs", eigentlich nur statistische Modelle sind, dann wird einem schnell klar, woher Artefakte wie falsche, aber plausibel klingende Fakten bei der Textgenerierung oder zusätzliche Finger, falsche bzw. sinnlose Texte usw. bei der KI-Bildgenerierung kommen: Es wird immer nur lokal (also etwa am einzelnen Finger oder Buchstaben) der nächste Bereich berechnet, nicht global (auf das Gesamtbild bezogen).

Wo diese Ungenauigkeiten kein Problem sind oder sich nicht manifestieren, wie z. B. bei der Generierung einfacher Texte und Bilder, ist KI wirklich gut und hilfreich, aber wird vorerst auch nur so gut bleiben, wie die bereits vorhandenen Daten.

Genau diese Ungenauigkeiten führen jedoch langfristig zum Modellkollaps, wenn immer mehr KI-generierte Inhalte zum Trainieren verwendet werden. Man könnte auch sagen, die KI-Modelle degenerieren durch informationelle Inzucht.

Erst wenn KI wirklich denken und schlussfolgern und damit auch Fehler selbständig erkennen und korrigieren kann, werden die Modelle wirklich glaubwürdiger.

Woher ich das weiß:Berufserfahrung – Technikbegeisterter, Systemadministrator und Programmierer