Nutzt du ChatGPT? Und was hältst du von einem Verbot?

4 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Ich halte es für einen Fehler ChatGPT zu verbieten. Eine bessere Lösung könnte darin bestehen, Schüler dazu zu ermutigen, ihre Hausaufgaben selbst zu erledigen und ihnen die Fähigkeiten zu vermitteln, um eine kritische Bewertung von Informationsquellen durchzuführen. Dazu kann man auch die Lehrer einbinden und sie schulen, wie man Schüler befähigen kann, ihre eigenen Recherchen durchzuführen und die Informationen, die sie finden, kritisch zu bewerten.

Es ist wichtig, dass Schulen die Schüler befähigen, kritisch zu denken, sich selbst zu organisieren und ihre eigenen Entscheidungen zu treffen.

Ich habe das Programm ausprobiert.
Grundsätzlich bin ich verblüfft, es sind einige wirklich gute Ansichten und Ratschläge dabei.
Einige Schwachstellen aufgefallen:

  • Dem Programm wurde offenbar der korrekte Psychologen-Slang einprogrammiert. Das Gefühle-Spiegeln ohne eine eigene Meinung preiszugeben. (Beispiel: "Das klingt, als ob Du xxxxx empfinden würdest").
  • Das Programm gibt mir auffallend oft recht, wenn ich mit Gegenargumenten komme. Vielleicht kann es (noch) nicht so gut debattieren.
  • Das Programm empfiehlt häufig die Konsultation eines Therapeuten oder Fachmanns.

Ich finde es nicht nötig, ChatGPT zu verbieten. Es kann eine Hilfe sein, um sich Informationen zu beschaffen. Oder sich eine (relativ) neutrale, zweite Meinung einzuholen, die auf kollektivem Wissen basiert.

Ein Verbot halte ich für Unsinn. Es ist doch egal, von wem ich mir bei den Hausaufgaben helfen lasse, von meinem Vater, meiner großen Schwester oder von ChatGPT.

Das soll dann der Lehrer (hoffentlich ein Mensch) bewerten.

Gerade im Bereich Mathematik und Physik liefert ChatGPT oft haarsträubenden Unsinn ab, hat aber durchaus auch Lichtblicke.

Was mich durchaus beeindruckt, ist die grammatisch korrekte Formulierung der Antworten, wenn sie auch oft inhaltlich falsch sind.

LacLeman 
Fragesteller
 28.01.2023, 17:40

Wahrscheinlich stückelt sich das Programm die Sätze zusammen, ohne auf deren Sinn zu achten.

0
tunik123  28.01.2023, 17:55
@LacLeman

ChatGPT ist offenbar als ein Programm entwickelt, das (wie der Name vermuten lässt) kommunizieren will. Es schwafelt einen dermaßen zu, dass man glauben mag, dass es ein Mensch ist.

Also ganz so einfach ist das nicht. Ich habe hier auch schon Antworten von ChatGPT gesehen, die inhaltlich völlig richtig waren und auch glaubwürdig vorgetragen wurden.

1
DoctorBibber  29.01.2023, 02:57
@LacLeman

Das ist nicht richtig. Künstliche Intelligenzen künstliche Intelligenzen wie ChatGPT sind lernende Systeme, die in der Lage sind, tiefes Lernen zu ermöglichen. Hier steckt kein fester Algorithmus hinter die Idee ist es, viel mehr Neuronen zu imitieren. Das "virtuelle Neuron" wird auch "Perzeptron" genannt. Es basiert auf das McCulloch-Pitts Neuron, ein mathematisches Modell eines echten biologischen Neurons.

Kurz einmal zur Wiederholung: "Wie funktioniert überhaupt ein Neuron?" Ein biologisches Neuron besteht im Wesentlichen aus dem Zellkörper und dem Axon. An dem Zellkörper befinden sich nun mehrere fortsetze die "Dendriten" genannt werden. Die Dendriten nehmen elektrische Signale von anderen Neuronen auf und übertragen diese an den Zellkörper. Die Signalübertragung und damit der zusammengehörige Pegel hängt vom elektrischen Widerstand der Dendriten ab. Die Eingangssignale werden nun im Zellkörper gesammelt, ein bisschen so wie ein Glas, welches mit Wasser gefüllt wird, doch das Glas hat ein Loch im Boden, weshalb das Wasser ausläuft.

Damit das Wasser drin bleibt und es zum Überlaufen kommen kann, müssen also mehr Signale über die Dendriten übertragen werden, bis das Glas zum überlaufen kommt. Wenn genug Signale auf einmal in den Zellkörper gelangen, wird ein Schwellenwert das "Aktionspotenzial" erreicht und es findet eine Signalweiterleitung an die nächsten Neuronen über das Axon statt.

Diese Idee der Funktionsweise eines Neurons nutzt man nun auch in künstlichen Intelligenzen, beim "Perzeption" die Dendriten werden nun durch Variablen ersetzt, die wiederum in einer Funktion (dem Zellkörper) zusammenlaufen. In dem mathematischen Modell gibt es nun Gewichte, die die Stärke der Signale beeinflussen. Es entspricht also dem Widerstand der Dendriten.

Das Perzeptron ist ein rein mathematisches Modell und nimmt daher als Eingangsgrößen nur reelle Zahlen entgegen. Das bedeutet, dass so etwas wie Sprache zunächst numerisch übersetzt werden muss. Man kann z.b. Wörter als Vektoren darstellen, wie es bei "One-Hot-Encoding" der Fall ist.

Modernere Versionen eines Perzeptrons die "Transformer-Modelle" sind jedoch schon in der Lage, direkt mit Texten zu arbeiten und eigene Texte zu generieren.

Das bedeutet, dass auch wenn ChetGPT immer noch Fehler macht und nicht perfekt ist, findet ein ständiger Lernprozess statt. Es ist also keineswegs ein fest programmiertes System, das nach festen vorgaben arbeitet, sondern ein dynamisches, veränderliches und selbst lernendes System. Das ist ja das Besondere an künstlichen Intelligenzen.

in den meisten KIs die mit neuronalen Netzen arbeiten, ist es jedoch so, dass die Verbindungen zwischen den Neuronen fest vorgegeben sind. Das macht das System nicht sonderlich anpassungsfähig und wenig flexibel.

Doch man versucht bereits in virtuellen Maschinen etwas zu realisieren, das bei komplexen lebenden Organismen wie dem Menschen schon längst der Fall ist, nämlich die Neuroplastizität zu imitieren.

Das meint die veränderbaren Vernetzung der Neuronen. Bei der "Neuroevelution" geht es z.b. um eine Methode, die darauf abzielt, die Architektur des neuronalen Netzes durch evolutionäre Algorithmen zu optimieren. Der Algorithmus generiert dabei neuronale Netze und trainiert sie. Diejenigen, die die besten Ergebnisse erzielen, werden ausgewählt und reproduzieren sich. Dieser Prozess wiederholt sich, bis eine zufriedenstellende Architektur gefunden wird.

Das NPL (Neuro-Plastizitäts-Lernen) ist wiederum eine Methode, die die Plastizität des Gehirns nutzt.um die Verbindungen zwischen Neuronen dynamisch anzupassen, um das Modell flexibler zu machen und um in der Lage zu sein, schneller auf neue Umgebungen und Aufgaben zu reagieren.

0
LacLeman 
Fragesteller
 29.01.2023, 06:57
@DoctorBibber

Ja, vielen Dank für diese Infos. Die Kernfrage des Threads war ja, dass ChatGPT formal richtige Aussagen trifft, die aber eben am "Kern" der jeweiligen Fragestellung vorbeigehen. Man wird also mit Informationen zugeschüttet, die schon in sich stimmig und richtig sein mögen, aber im Ganzen letztlich unzutreffend oder sogar sinnlos sind. Um das zu tun, was man gemeinhin "Verstehen" nennt, wird man also um den Menschen nicht herumkommen.

Als ich meine Frage gestellt habe, kam ich mir vor wie bei diesen Esoteriksendungen, die früher im Fernsehen liefen. Da befragte man den Wahrsager und dieser antwortete schon richtig, z.B.: "Enges Schuhwerk verursacht Zehenschmerzen" und dergleichen. Aber ob man jetzt eine ernsthafte Erkrankung am Zeh hat, konnte der letztlich auch nicht sagen. Solche Systeme, die den Eindruck von Wissen erzeugen, scheinen eine beruhigende Wirkung auf Menschen zu haben. Im Grunde sagen sie ja nichts Falsches.

Ein Verbot halte ich ebenfalls für widersinnig. Solange KI und Mensch friedlich koexistieren, ist nichts gegen die Nutzung einzuwenden. Aber wir wissen ja aus Erfahrung: Entgleisen kann alles.

0
DoctorBibber  29.01.2023, 10:30
@LacLeman

Es ist wichtig, bei den Fragen möglichst Präzise zu sein. Je genauer deine Beschreibung, desto besser die Antworten. Ich persönlich kann mit den Antworten so gut wie immer etwas anfangen, wichtig ist aber auch, die Antworten mit seriösen Quellen abzugleichen. Das heißt, die Suche nach der passenden Antwort bleibt immer noch eine kleine Detektivarbeit nur eben, dass es durch ChatGPT etwas besser geht als nur mit Google, da Chat GPT genau auf den Kontext deiner Fragen eingeht.

Google nutzt Algorithmen, die eine semantische Analyse durchführen und auch den Kontext berücksichtigen, doch es könnte aber sein, dass die vorgeschlagenen Seiten die eingegebenen Wörter nicht in dem Kontext verwenden, der für die Anfrage relevant ist.

Es gibt auch Seiten, die manipuliert wurden, damit sie bei Google stärker gewichtet sind, damit diese weiter oben auftauchen, obwohl diese für die Anfrage nicht relevant sind.

Da ChatGPT individuelle Texte generiert, die sich genau auf die Anfrage beziehen, stecken in den Antworten oft wertvolle Hinweise und man könnte ChatGPT in Kombination mit Google nutzen, um Informationen, die man benötigt, besser zu finden. Gerade für Programmierer ist ChatGPT daher ein mächtiges Tool.

Aber man darf nicht vergessen, dass ChatGPT lediglich ein Werkzeug ist, auch wenn dieses Werkzeug sehr mächtig ist. Genau wie ein Schraubenschlüssel nicht für jede Schraube geeignet ist, ist ChatGPT auch nicht für jede Aufgabe geeignet. Die Kunst besteht also darin zu verstehen, was ChatGPT macht und wie es am effektivsten genutzt werden kann.

0

So schlecht habe ich die Qualität nicht gefunden, ab und zu erzählt die KI Blödsinn, man kann sie davon überzeugen das was falsches richtig ist, sie widerspricht sich selbst und so weiter.