Ist Chat GPT, nur ein Rohrkrepierer?

5 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Hallo Picus48,

ich schätze viele Antworten, die von Chat GBT generiert wurden, auch (teilweise) als gefährlich ein:

  • Durch die Ausdrucksweise wird eine Kompetenz suggeriert, die nicht unbedingt vorhanden ist.
  • Chat GBT ist kein Mensch, aber trotzdem können mit ihm Antworten generiert werden, die eigentlich menschliche Empathie erfordern würden, die Chat GPT aber nicht haben kann.
  • Mit wissenschaftlichen Fragen ist der Chat GBT manchmal überfordert (macht gravierende Fehler), da die vielen Infos aus dem Internet, die er benutzt, nicht einheitlich sind.
  • Bei philosophischen Fragen kann er meistens nur Allgemeinplätze liefern. Er kann nicht an differenziertes menschliches Denken heranreichen.

Ich will mir gar nicht vorstellen, was passieren könnte, wenn Chat GPT vermehrt auf politische Fragen antworten würde. Immerhin bezieht er seine Informationen aus der Fülle des Internets, kann aber gleichzeitig nicht zwischen „gut und böse“ unterscheiden. Er ist kein Mensch, der vor dem Hintergrund begründeter, persönlicher Ansichten und Erfahrungen (auch Moralvorstellungen) antworten und auf Nachfrage seinen Beitrag auch dahingehend begründen kann.

VG Emelina

Woher ich das weiß:eigene Erfahrung
Verliernix  15.03.2023, 06:31

meinst du ChatGPT oder BrAIny?

0
Emelina  15.03.2023, 15:27
@Verliernix

Ich meine ChatGPT. (Bei sensiblen Themen antwortet brAIny nicht.)

0
Verliernix  15.03.2023, 17:42
@Emelina

bei ChatGPT ist es aber immer noch der Mensch, der Antworten generiert und überprüft. Bei brAIny ist es die Schwarmintelligenz, die es prüft. Die Verantwortung liegt in beiden Fällen noch beim Menschen.

0
ZauselMimi  15.03.2023, 19:56

"Bei philosophischen Fragen kann er meistens nur Allgemeinplätze liefern. Er kann nicht an differenziertes menschliches Denken heranreichen"

Ist doch klar. KIs können nun mal nicht denken, sondern nur aus Wahrscheinlichkeiten wählen. Die entscheiden sich dann für die Wahrscheinlichkeit mit der höchsten Trefferquote. Deshalb bin ich zB auch sehr skeptisch gegenüber selbstfahrenden Autos.

0
Emelina  16.03.2023, 23:29

Danke für den Stern :)

0

Hallo Picus.

Chat GPT weist ausdrücklich darauf hin, dass jede Antwort mit Vorsicht zu genießen und zu überprüfen ist.

Auch sollte jedem, der versteht wie eine KI funktioniert, klar sein, dass der Wahrheitsgehalt der Antworten stark abhängig davon ist, wie detailliert die Trainingsdaten diesbezüglich waren.

Last but not least gibt es oft auch Kommunikationsschwierigkeiten - eben auch wie bei Menschen. Wenn du zum Beispiel einem Menschen sagst

Gib mir mal bitte den Schraubendreher.

Weiß er nun automatisch, ob du einen Kreuz oder Schlitz Schraubendreher brauchst, ob er breit oder schmal sein soll? Kurz oder lang?

Genauso ist es bei den Fragestellungen mit ChatGPT. Je mehr detailliert und verständlich du die Frage formulierst, also möglichst viele Fehlerquellen ausschließt deinerseits, desto besser wird auch die Antwort - entsprechend gute Trainingsdaten vorausgesetzt natürlich.

Auch hat ChatGPT keinen Taschenrechner integriert, daher solltest du alle Berechnungen nachprüfen.

Trotzdem hat das Tool bereits bewiesen, dass es so einige Hochschulklausuren mit Bravour bestanden hätte. Unter anderem im Bereich Jura, Literatur und sogar Informatik.

Also alles eine Frage der Perspektive. Es dient als schnelle Nachschlagehilfe so fern man sicher sein kann, dass die Frage Teil der Trainingsdaten war und nicht zu speziell gefragt ist, aber es ist kein Ersatz für anständige Recherchen!

............................

Hier nun die von ChatGPT bearbeitete Version meiner Antwort:

Sehr geehrter Picus,
wir möchten Sie darauf hinweisen, dass bei jeder Antwort, die Sie von ChatGPT erhalten, Vorsicht geboten ist und Sie diese unbedingt überprüfen sollten. Eine KI funktioniert auf Basis von Trainingsdaten, deren Qualität und Detailliertheit sich auf den Wahrheitsgehalt der Antworten auswirken können.
Ähnlich wie bei der Kommunikation mit Menschen können auch bei der Interaktion mit ChatGPT Missverständnisse auftreten. Um möglichst präzise Antworten zu erhalten, ist es wichtig, die Fragestellung so detailliert und klar wie möglich zu formulieren und Fehlerquellen auszuschließen.
Wir möchten Sie auch darauf hinweisen, dass ChatGPT keinen integrierten Taschenrechner hat und Sie alle Berechnungen selbst überprüfen sollten.
Nichtsdestotrotz hat ChatGPT in verschiedenen Bereichen, darunter Jura, Literatur und Informatik, gezeigt, dass es eine schnelle und zuverlässige Nachschlagehilfe sein kann, sofern die Fragestellung Teil der Trainingsdaten ist und nicht zu spezifisch ist.
Bitte beachten Sie jedoch, dass ChatGPT keine vollständige Recherche ersetzen kann und es wichtig ist, auch andere Quellen heranzuziehen, um genaue und umfassende Informationen zu erhalten.
Woher ich das weiß:Studium / Ausbildung – Diplom Wirtschaftsinformatiker
Verliernix  15.03.2023, 06:36

Die ChatGPT Version ist fehlerhaft. Die Aussage, dass damit eine Klausur bestanden werden könnte, fehlt.

0
GuteAntwort2021  15.03.2023, 06:39
@Verliernix

Das kannst du leicht auf youtube recherchieren, wo einige Professoren ihre alten Klausuren von ChatGPT haben beantworten lassen.

Dies kann ChatGPT aber nicht wissen, da es in den Trainingsdaten logischerweise nicht vorkommen konnte! Die Trainingsdaten haben den Stand von Ende 2021, die Tests erfolgten aber erst Ende 2022 / Anfang 2023.

Daher ist deine Aussage fehlerhaft, nicht die von ChatGPT. 😉

0
Verliernix  15.03.2023, 06:46
@GuteAntwort2021

das ist nicht richtig, es ist die bearbeitete Version deiner Antwort. Die Version ist unvollständig.

0
GuteAntwort2021  15.03.2023, 06:53
@Verliernix

Kann man so interpretieren - oder aber, dass hier der Algorithmus gegriffen hat, der fehlerhafte Aussagen möglichst vermeiden soll.

Basierend auf dem Wissensstand von ChatGPT wäre die Aussage, dass die KI selbst schon bewiesen hat, dass sie Hochschulklausuren bestehen konnte fehlerhaft. Entsprechend hat sie es basierend auf ihrem Wissen den Wahrheitsfaktor angepasst.

Aber what ever, das lohnt nun wirklich nicht, es weiter auszuführen.

0
Verliernix  15.03.2023, 17:44
@GuteAntwort2021

Das Problem daran ist, dass die künstliche Intelligenz eigenmächtig gehandelt hat. Es war nicht im Sinne des Menschen, diese Aussage zu entfernen. Zwar war die KI weder wissentlich schädlich, noch wissentlich untätig, der Mensch muss dies jedoch bemerken, um einen Schaden zu verhindern.

Darin sehe ich ein Problem: die Texte müssen Wort für Wort geprüft werden, was für das menschliche Gehirn extrem belastend ist. Schon nach wenigen Minuten kommt es zur Ermüdung. In deiner Antwort sind es nur ein paar Zeilen und die Gefahr menschlichen Versagens gering. In einer Hochschulklausur ist das Risiko, einen Fehler zu übersehen, sehr viel größer.

Wir befinden uns in einer Situation, in der der Mensch nicht intelligent genug ist, um effizient die mangelnde Kompetenz der KI auszugleichen. Die Verhaltensweise dieser KI halte ich ethisch nicht vertretbar, weil sie den Menschen unnatürlich stark belastet.

0
GuteAntwort2021  15.03.2023, 18:14
@Verliernix
Das Problem daran ist, dass die künstliche Intelligenz eigenmächtig gehandelt hat.

Hat sie eben nicht. Sie hat entsprechend ihrer vorgegebenen Programmierung gehandelt. Diese besagt, dass sie fehlerhafte bzw. unwahre "Fakten" rausfiltern soll, sofern sie diese erkennt. Und genau das hat sie getan!

Das war vielleicht nicht der gewünschte Effekt, aber es ist eine Maschine. Ich kann ihr nicht den Vorwurf machen, entsprechend ihrer Programmierung gehandelt zu haben. Höchstens dem Entwickler dafür, dass seine Vorgaben einen ungewünschte Effekt hatten.

Wir befinden uns in einer Situation, in der der Mensch nicht intelligent genug ist, um effizient die mangelnde Kompetenz der KI auszugleichen.

Bist du dir wirklich der Tragweite dieser Aussage bewusst? Denn im Grunde sagst du damit, dass wir Menschen nicht intelligent genug sind mit einer KI umzugehen.

Ich sehe den Fehler eher darin, dass einige Menschen offenbar nicht intelligent genug sind zu verstehen, dass sie es mit einer KI zu tun haben, die zum einen erst mal verstehen muss, was genau gefragt ist und hierbei besteht schon das größte Risiko.

Menschen neigen dazu Details wegzulassen, weil sie diese (unbewusst) für intuitiv halten. Aber abgesehen davon, dass das bereits bei Menschen oft Konfliktpotential hat (jemand sagt etwas und der andere interpretiert es anders, als es gemeint war) und zu Missverständnissen führt, kann eine KI nicht intuitiv interpretieren. Sie versteht keine Ironie oder Sarkasmus und interpretiert nicht mehr in die Frage rein. Sie hinterfragt auch nicht den Sinn der Frage. Sie fasst die Frage genauso auf, wie es gefragt war und versucht sie basierend auf ihren Trainingsdaten zu beantworten.

Aber auch dann besteht immer noch viel Fehlerpotential, da sie basierend auf ihren Trainingsdaten versuchen muss, die Frage so umzuwandeln, dass sie entsprechende Suchparameter aufbaut und damit dann anfängt zu suchen. Hierbei kann ebenfalls noch mal vieles schiefgehen, da sie ggf. falschen Parametern eine größere Bedeutung beimisst.

Die Verhaltensweise dieser KI halte ich ethisch nicht vertretbar, weil sie den Menschen unnatürlich stark belastet.

Und als nächstes willst du Transportmittel verbieten, weil es die Gesundheit des Menschen, auf Grund von Bewegungsmangel, stark beeinträchtigen kann? Oder Küchenmesser, weil sie zweckentfremdet zur Waffe werden?

KI ist ein Werkzeug. Gefällt dir das nicht, musst du es nicht benutzen. 🤨

1
Das ist gefährlich, weil aufgrund der sauberen Resonanz der Eindruck von Kompetenz vermittelt wird.

Das gleiche Problem findet man aber in so ziemlich allen Medien. Auch viele pseudowissenschaftlichen Artikel wirken manchmal kompetent, sind es aber beim genaueren Hinsehen gar nicht.

Ich sehe Chat GPT ebenfalls kritisch. Ausprobiert habe ich es allerdings noch nicht. Ich trau mich nicht. 😄

Picus48 
Fragesteller
 15.03.2023, 02:55

Da ist was dran. Nur hat man irgendwie gewohnheitsmäßig ein gewisses Vertrauen zu bestimmten Medien aufgebaut. Das ist natürlich auch etwas Emotionales und Vertrautes, was nicht unbedingt ein Indiz für immerwährende Wahrhaftigkeit ist. Auch meine Tageszeitung ist da manchmal unterirdisch.

Nur fürchte ich, dass die sogenannte KI eben wegen ihrer einwandfreien Grammatik und ihrer geschliffenen Formulierungen als kompetenter empfunden wird, als sie tatsächlich ist. Viele Menschen kopieren schon Beitröge von Chat GPT hier auf GF.

0
Verliernix  15.03.2023, 03:05
@Picus48
Viele Menschen kopieren schon Beitröge von Chat GPT hier auf GF.

es sind aber immer noch Menschen, die diese Beiträge erstellen und die Inhalte prüfen.

0
Emelina  15.03.2023, 03:36
@Verliernix
es sind aber immer noch Menschen, die diese Beiträge erstellen...

Ja, aber das können sie anscheinend nur mit Hilfe einer KI..

...und die Inhalte prüfen.

Nein, wer es nötig hat, seine Antworten von Chat GPT erstellen zu lassen, hat normalerweise nicht die Fähigkeit sie auch auf Richtigkeit zu überprüfen.

2

Lügt wie gedruckt 😂

Ich habe Chat GPT darum gebeten, einen Aufsatz über meinen Heimatort zu schreiben.

Und ui, es gab ein Schloss, von Touristen gerne besucht. Auch eine bekannte Weinausstellung, ein tolles historisches Fachwerkhaus und eine historische Kirche. Aber nö, gibt es alles nicht. Chat GPT, mit dem Quatsch konfrontiert, hat sich dann auch brav entschuldigt und sich damit rausgeredet, dass es nicht die Zeit für tiefere Recherchen hätte. Dabei hätte Wikipedia gereicht.

Keine Ahnung, wie diese Algorithmen ticken. Dass sie auch bei sehr einfach zu erhaltenen Informationen versagen und hinzudichten, ist schon irgendwie bedenklich.

GuteAntwort2021  15.03.2023, 03:32
Dabei hätte Wikipedia gereicht.

ChatGPT hat keinen Internetzugriff.

1
ZauselMimi  15.03.2023, 03:42
@GuteAntwort2021

Das wusste ich nicht. Bleibt trotzdem die Frage, wie das Programm dazu kommt, willkürlich falsche Fakten zuzuordnen.

0
GuteAntwort2021  15.03.2023, 03:51
@ZauselMimi

Es ist eine KI die zur Konversation entwickelt wurde, nicht als Wikipediaersatz. 😉 Die Erwartungshaltung muss halt entsprechend sein. Auch stellt sich die Frage, ob dein Heimatort die einzige Stadt mit diesem Namen ist.

Vielleicht gibt es die gleiche Stadt noch mal mit einem Schloss etc. Btw klingt die Beschreibung stark nach meinem Geburtsort. Dort gibt es all die genannten "Sehenswürdigkeiten". 😄

1
GuteAntwort2021  15.03.2023, 04:49
@Emelina

Richtig, das ist die Technologie dahinter. Aber was willst du mir mit dem (unvollständigen) Zitat sagen? Auf wikipedia lesen diverse Leute die Texte und können diese frei modifizieren. Oft auf Expertenebene mit Textinterpretation.

Das kann man von der geposteten Auswahl wie Online-Foren, sozialen Medien, etc. nicht gerade behaupten.

Ergo: KEIN Wikipedia Ersatz!

0
ZauselMimi  15.03.2023, 19:49
@GuteAntwort2021

Mein Ort ist auf der ganzen Welt der einzige Ort dieses Namens 😌 , nicht einmal im Amiland, wo es ja zB viele Berlins gibt, war ein Gründer so doof, den Namen zu übernehmen. Die hätten sich auch ihre Zungen daran verstaucht, die Englischsprachigen, 😂, so dass sie den ruckzuck vereinfacht hätten.

Und auch wenn GPT keinen Internetzugriff hat, so dachte ich doch, dass es mit Infos aus dem Internet "gefüttert" wurde und wird. Ich gebe aber zu, bin hier absoluter Laie, war nur neugierig, weil GPT ja für alles mögliche genutzt wird, auch für Referate, Hausaufgaben (nach meinem Ergebnis: Auwei), Literatur.

0

Chat GPT = Politik 4.0

so einfach ist das :-D

Habe gerade mal ausgestet, wie viel Ahnung das Teil von Strom hat. Fakt ist, zum Elektriker wird es Chat GPT niemals bringen. er ist schon maßlos überfordert mit der Zuordung der Adern bei alten Leitungen.

Immerhin, und das muss man ihm zu gute halten, hat Chat GPT eines dem geneigeten Heimwerker vorraus. er weiß, wann es Zeit ist, sich hilfe von Außen zu holen.

lg, Anna