Werden sich KI wie ChatGpt selbst zerbomben?

4 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Ja. Das ist durchaus ein Problem dessen sich die Entwickler bewusst sind. Das wird vorallem dann zu einem wirklichen Problem wenn die Ergebnisse der KIs so gut sind das die Menschen oder Prozesse die die Daten zum Training filtern nicht mehr zwischen KI und Echt unterscheiden können.

Je nach Einsatz der KI kann das aber ganz vermieden werden. Für z.b. Musik KI kannst du immer Musiker anheuern die eben Trainingsdaten für die KI erzeugen.

Problematisch wird es dann wenn die KI Daten aus dem Netz nimmt. Die eben dann nicht korrekt gefiltert werden.

Auf Dauer wird das zu einer Verschlechterung der KIs führen. Da eben die Qualität der Trainingsdaten Abnimmt. Und somit schlechtere Ergebnisse herauskommen. Fehler verstärken sich so mit der zeit und weile.

Aber Vieleicht findet die Branche mittel und Wege genau das zu umgehen.

Lies dich mal in das Thema "Dead internet theory" ein.

Da geht es um genau das.

KI generiert Content und die KI liest diesen Content und lässt sich davon inspirieren. Die KI generiert daraufhin neuen Content und liest diesen Content wieder und generiert wieder und liest wieder und generiert wieder...

Am Ende bleibt ein langweiliger Einheitsbrei.

Dann kehren die Menschen wieder zu echten Menschen und zu echtem Content zurück.

Woher ich das weiß:Berufserfahrung – Selbstständig als Grafik- und Webdesigner

Es gibt ITler, die fortwährend die KI verfeinern.

Wenn Bilder, Lieder, Präsentationen, Webseiten, in Zukunft ganze Filme und Videospiele per KI erstellt werden können in hoher Qualität, ist KI unaufhaltsam.

Deswegen steht KI ja auch für "Künstliche Idiotie".