Ist ChatGPT/KI ein Segen oder eher eine Katastrophe?

4 Antworten

Vom Fragesteller als hilfreich ausgezeichnet
ChatGPT/KI

zwei Begriffsverwirrungen in einem Wort.

KI ist

- ein Übersetzungsfehler von AI - artificial intelligence. Intelligence heißt einfach nur Nachrichtenverarbeitung, wie in Central Intelligence Agency (und dass die mit Intelligenz nichts am Hut haben, weiß wohl jeder).

- eine lose Sammlung adaptiver Verfahren, bei denen der Programmierer nicht jeden Schritt vordenken muss, sondern wo sich das System selbst gegen äußere Signale abgleicht (machine learning). Das gibt es schon lange, die Verfahren wurden teils entwickelt noch bevor es Computer gab, die sie hinreichend schnell verarbeiten konnten. Wenn ich heute meiner Krankenkasse eine AU-Bescheinigung schicke, erkennt das Scansystem dort automatisch, dass das eine AU ist und kein Rentenantrag; Klassifikatoren sind der Hauptanteil von sog. KI, und Klassifikatoren sind in vielen Feldern der Produktion und Forschung nützlich.

- nur dann gefährlich, wenn man ihr mehr zutraut als sie leisten kann. Jeder, der in einem autonomen Fahrzeug die Hände vom Lenkrad nimmt, tut das.

Sie ist auch dann gefährlich, wenn sie zum Fälschen von Artefakten missbraucht wird. Der Rest ist Science Fiction. Nicht vor künstlicher Intelligenz muss man Angst haben, sondern vor menschlicher Dummheit.

ChatGPT ist auch nur ein komplexer Papagei, der wortreich angelesene Texte aus zahlreichen Quellen zusammenfasst, von denen es glaubt, dass sie zu der Frage passen - das verlangt nicht Intelligenz, jeder Politiker kann das. Solche Automatismen machen nur Leute überflüssig, die ihre Dummheit bisher hinter Gequatsche verbergen konnten und im Grunde schon immer überflüssig waren.

Picus48 
Fragesteller
 09.01.2024, 02:53
Nicht vor künstlicher Intelligenz muss man Angst haben, sondern vor menschlicher Dummheit.

Das hat Dir den Stern gewonnen! Auch wenn ich nicht unbedingt in jeder Hinsicht mit allem konform gehe.

0
Nach meiner Erfahrung liefert die künstliche Intelligenz in meinem Fachbereich, der Chemie, weit überwiegend Müll.

Ehrlich? Gerade in der Pharmaindustrie wird künstliche Intelligenz doch regelrecht dafür gefeiert, dass es diverse chemische Kombinationen analysiert und gezielt dafür eingesetzt werden kann um die Entwicklung für neue Wirkstoffe massiv zu verkürzen.

Grundsätzlich ist KI erstmal nichts anderes, als ein Tool welches statistische Analysen vornimmt. Dies mussten wir früher mit viel Aufwand selbst programmieren. Das führte dazu, dass man sie mittels verschiedenster Modelle dazu nutzen kann, um eine verbesserte Form der Suchmaschine zu generieren.

Letztlich hängt es vom Einsatz ab, ob es ein Segen oder eine Katastrophe ist. Bei deep fake ist es eine Katastrophe. Bei jeglicher Form der Produktivitätssteigerung ein Segen.

Wie beim Küchenmesser auch: Bei vorgesehenen Gebrauch ein Segen, bei falscher Handhabung eine Katastrophe.

Wieso hat man daher so hohe Erwartungen an die KI? Sind wir da einfach zu naiv?

Die meisten ja, denn sie denken der Begriff KI impliziert eine wirkliche Intelligenz. Letztlich ist es aber nur ein Taschenrechner, der auf Grundlage der erhaltenen Parameter und den Trainingsdaten die wahrscheinlichste Antwort ausspuckt.

Es steckt aber kein Verstand dahinter, der Dinge kombinieren und logisch zusammensetzen kann. Daher wie gesagt: Nicht mehr als eine frisierte Version einer Suchmaschine.

Woher ich das weiß:Studium / Ausbildung – Diplom Wirtschaftsinformatiker
Picus48 
Fragesteller
 08.01.2024, 02:51
Ehrlich? 

Jja, ehrlich. warum sollte ich hier Unfug erzählen? Einfachste Fragen zum pH-Wert von Lösungen werden von ChatGPT selbst nach mehrfachem Hinweis auf Fehlberechnungen nicht richtig beantwortet. Insofern ist der auch nicht kurzfristig lernfähig.

1
GuteAntwort2021  08.01.2024, 02:56
@Picus48

Du fragtest nach ChatGPT/KI. Ich habe allgemein für KI geantwortet, nicht im speziellen für ChatGPT:

Bei ChatGPT musst du die Frage so formulieren, dass ein Kleinkind sie verstehen könnte. Bei Berechnungen hingegen solltest du komplett darauf verzichten, denn ChatGPT hat keinen Taschenrechner implementiert. Das heißt die Zahlen die du bekommst, basieren auf irgendwelchen Werten aus den Trainingsdaten.

Diese können zufällig korrekt sein, zum Beispiel wenn deine exakte Frage Teil der Trainingsdaten war, aber darauf verlassen kannst du dich nicht. Du kannst aber z. B. fragen, wie etwas berechnet wird und bekommst die Formel dazu.

Insofern ist der auch nicht kurzfristig lernfähig.

Nein, ist es nicht. Wäre auch ziemlich extrem, wenn jedes mal das Modell mit neuen Trainingsdaten erweitert werden würde, so bald es eine falsche Antwort geliefert hat. Besonders bei Berechnungen! Denn wie gesagt, hat es keinen Taschenrechner integriert.

0
Halbrecht  08.01.2024, 03:05
@GuteAntwort2021

Das ist aber schon mehr als seltsam . Keinen TR ? Wieso gibt es nicht mal einen Hinweis darauf, dass Zahlenwerte eher über den Daumen gepeilt sind.

Und in der Tat : CG ist nicht für wissenschaftliches Antworten ausgelegt . Das zumindest haben die Hersteller auch gesagt

Meiner Einschätzung nach , dient CG nur dazu , die KI hoffähig zu machen

1
GuteAntwort2021  08.01.2024, 03:12
@Halbrecht
Meiner Einschätzung nach , dient CG nur dazu , die KI hoffähig zu machen

Es gibt weit mehr Nutzungsaspekte von CGPT, als nur die naturwissenschaftlichen Hausaufgaben von faulen Schülern/Studenten zu erledigen.

Es ist in erster Linie ein Modell zum Generieren von Texten. Genau das ist seine Disziplin. Wenn du ein Küchenmesser zum Bohren von Löchern nutzt, darfst du dich nicht wundern, dass es nicht allzu geil funktioniert.

0
Halbrecht  08.01.2024, 03:18
@GuteAntwort2021

Mag sein . Aber was ist ,wenn man weiß , dass CG im Prinzip unzuverlässig oder gar falsch ist ? Warum sollte man so etwas nutzen ? Es sei denn , eine KI ist speziell trainiert . Und CG scheint trotz auch nicht dazuzulernen .

Die kann z.B kaum zwischen definierten Begriffen wie aus der Physik die Kraft unterscheiden und Kraft als Metapher

PS : Und warum kein TR dabei ? Ist das so schwer , den zu integrieren ?

1
Picus48 
Fragesteller
 08.01.2024, 03:18
@Halbrecht

Es geht nicht um rechnen mit einem TR. Sondern um das Verständnis von elementaren wissenschaftlichen Zusammenhängen. Rechnen kann er/es/sie ja, versteht aber keine Puffergleichungen oder die zeitunabhängige Schrödingergleichung..

0
Halbrecht  08.01.2024, 03:22
@Picus48

 Rechnen kann er/es/sie ja
Na ja , ich habe bei GF schon erlebt , wie CG nicht mal 1013*415 rechnen konnte

Und , nochmal mit dem Zusatz, dass es keine Verteidigung von CG ist , für Puffer und Katzen ist CG nicht konzipiert worden

Vielleicht sollten die Menschen eher erfahren , wo CG wirklich was leisten kann .

.

PS kleine Anekdote : Ein seriöser User bei GF berichtete , dass eine ins Private zielende Frage ihm eine zweite Schwester andichtete

1
GuteAntwort2021  08.01.2024, 03:29
@Halbrecht
Aber was ist ,wenn man weiß , dass CG im Prinzip unzuverlässig oder gar falsch ist ?

Wie gesagt, es ist ein Modell was Texte generieren soll. Nirgendwo steht, dass dies auf Fakten basieren muss.

Es ist nur die Erwartungshaltung von vielen, dass man jetzt eine KI hat die man alles fragen kann und nebenbei mäht sie noch den Rasen, geht für einen arbeiten und sagt ihm die nächsten Lottozahlen voraus.

Die kann z.B kaum zwischen definierten Begriffen wie aus der Physik die Kraft unterscheiden und Kraft als Metapher

Natürlich nicht, ein Computermodell ist ja auch nicht intelligent. Nur weil KI im Namen steckt, heißt das doch lange nicht, dass auch wirklich Intelligenz vorhanden ist.

PS : Und warum kein TR dabei ? Ist das so schwer , den zu integrieren ?

Es ist nicht seine Aufgabe! Du kannst aber zum Beispiel Bing + ChatGPT nutzen, die Antworten dort sind häufig passender.

Zum Rechnen lohnt sich aber auch das nicht! Denn es kann das Wissen nicht korrekt anwenden. Schließlich steckt keine Intelligenz dahinter, geschweige denn die Fähigkeit logisch Aspekte zu kombinieren!

0
Picus48 
Fragesteller
 09.01.2024, 02:47
@GuteAntwort2021
Nirgendwo steht, dass dies auf Fakten basieren muss.

Oh Schmerz! Auf was wollen wir uns denn sonst verlassen, wenn nicht auf Fakten? Auf Zeus, Zarathustra, Mohammed, Jesus oder sonstige Unheilbringer wie Trump oder Putin?

0
GuteAntwort2021  09.01.2024, 03:04
@Picus48
Oh Schmerz! Auf was wollen wir uns denn sonst verlassen, wenn nicht auf Fakten?

Viele denken, dass sie mit ChatGPT ein allumfassende und sprechendes Lexikon an die Hand bekommen haben. Dem ist nicht so - daher auch meine Antwort bezüglich deiner Nachfrage der Naivität.

Die meisten haben eine falsche Erwartungshaltung an das was ChatGPT ist und was es für einen tun kann! Dich offenbar eingeschlossen. 😉

Auf Zeus, Zarathustra, Mohammed, Jesus oder sonstige Unheilbringer wie Trump oder Putin?

Auf den Trainingsdaten des Modells. Dazu gehören dann leider auch Fakenews, auch wenn Maßnahmen vorgenommen wurden, um diese zu reduzieren.

Hinzu kommen oft Fehler der Nutzer. Es hat keinerlei Intention, Intellekt oder die Möglichkeit, logische Rückschlüsse zu führen. Seine Antworten generiert er aus den Eingabeparametern. Je weniger Parameter gegeben sind, desto unwahrscheinlicher bekommt man die Antwort, nach der man gesucht hat!

Anders ausgedrückt: Formuliere deine Anfrage mit ausreichend Details! Und erwarte nicht, dass es für dich rechnen oder Wissen irgendwie anwenden kann oder sowas: das ist in den Trainingsdaten nicht gegeben.

0

Die KI kann je nach Verwendung beides sein, Segen oder Katastrophe, so wie z.B. Sprengstoff: nützlich im Tunnelbau, schädlich als Bombe.

Der Begriff KI darf nicht überbewertet werden. Trotz erstaunlicher Resultate geht eine KI beim Beantworten einer Frage rein statistisch vor und sucht diejenigen Antworten zusammen, die im Internet am häufigsten vorkommen. Diese werden als "richtig" angesehen. Für die weitgehend korrekte und fehlerfreie Sprache wird die KI (vergl. Algorithmen und neuronale Netzwerke) mit unzähligen Sätzen trainiert.

Der Begriff KI existiert übrigens schon fast so lange, wie es Computer gibt. Die heutigen Fortschritte beruhen hauptsächlich auf der gesteigerten Leistungsfähigkeit der Systeme und den Verbesserungen in der Sprachverarbeitung (Sprachgenerierung).

Wenn eine KI Müll liefert, ist sie schlicht mit zuwenig oder falschen Daten (ev. auch Fake) trainiert worden. Erst mit genügend richtigen Daten wird das Ergebnis brauchbar. "Mist rein, Mist raus" galt und gilt auch heute noch generell für Computer.

Woher ich das weiß:Recherche
Ralph1952  08.01.2024, 17:51

Ich hoffe, ich konnte dir helfen und ein gutes 2024!

0
Ralph1952  09.01.2024, 10:45

Soll eine KI Tiere erkennen (z.B. Pferde) muss sie zuvor mit vielen ähnlichen Bildern gefüttert (trainiert) werden und wenn ein Artikel zu einem bestimmten Thema entstehen soll, müssen die entsprechenden Daten zuvor ebenfalls in Form unzähliger ähnlicher Texte eingegeben werden.

0

Für Leute, die wissen wie das Tool zu nutzen ist auf jeden Fall ein Segen.

Halbrecht  08.01.2024, 02:35

Meinst du Picus48 ist zu ungeschickt , blöd , dumm, um CG zu bedienen ?

0
JoritVasGer  08.01.2024, 02:37

... Denn wie du richtig sagst, wenn du nach spezifischem Wissen fragst, kommen aktuell noch teils falsche Antworten raus. Vor allem praktisch ist es, Texte zu korrigieren, umzuschreiben oder auch mal Allgemeinwissen abzufragen oder den Start in eine Recherche zu finden. Doch da viele ChatGPTs Antworten noch als wahr ansehen, kann das schon ein Fluch sein. Bei wichtigem und komplexem Wissen immer selbst nochmal recherchieren.

1
Picus48 
Fragesteller
 08.01.2024, 02:42
@JoritVasGer

So sehe ich das in etwa auch. Was ist, wenn derartige Fehler bei der Justiz passieren? Oder im Bereich der Medizin? Oder.. oder...?

0
JoritVasGer  08.01.2024, 02:45
@Picus48

Richtig! OpenAI lässt mittlerweile immer gut Warnungen mitgehen, doch das Vertrauen in die Richtigkeit ist zu groß. Zum Glück nimmt die Richtigkeit mit der Zeit zu. 😅

0