Hat Chat-GPT eine Meinung?

Das Ergebnis basiert auf 28 Abstimmungen

Chat-GPT ist absolut neutral 50%
Chat-GPT hat eine Meinung 50%
Was ist Chat-GPT? 0%

18 Antworten

Vom Fragesteller als hilfreich ausgezeichnet
Chat-GPT hat eine Meinung

Nämlich jene der Trainingsdaten. Die Entwickler können sich zwar die Trainingsdaten auswählen, der Algorithmus ändert daran aber kaum etwas.

Somit hat ChatGPT selbst zwar keine Meinung, wird aber durch seine Trainingsdaten entsprechend beeinflusst.

Und da die Trainingsdaten von ChatGPT in 2021 aufhören, ist die Bundeskanzlerin für ChatGPT immer noch Angela Merkel.


vanOoijen 
Fragesteller
 19.01.2023, 18:51

Sehr hilfreich. Vielen Dank.

0
vanOoijen 
Fragesteller
 19.01.2023, 18:55

Allerdings erklärt es nicht, warum es einen Artikel zu den Silvester-Krawallen mitsamt Äußerungen von Angela Merkel schreibt.

Das sind schlimme Fake-News und lässt mich böse Folgen ahnen.

Ich bin definitiv kein Freund dieser KI.

0
Lezurex  19.01.2023, 19:09
@vanOoijen

Wenn ich nach Silvester-Krawallen frage, erhalte ich als Antwort jene aus 2015/16. Das gabs ja nicht nur an diesem Silvester. Bist du dir sicher, dass du jene von vergangenem Silvester meinst? ChatGPT dürfte die nämlich noch gar nicht kennen.

0
vanOoijen 
Fragesteller
 20.01.2023, 19:40
@Lezurex

Scheinbar kann man hier keine Screenshots einstellen. Aber ich bin auch erst seit 4 Tagen angemeldet. Könnte ich Dir Screenshots zeigen, verstündest Du, was ich meine.

Ich habe 2 von Chat-GPT geschrieben Artikel, die sich konkret auf Silvester 22/23 beziehen.

Allerdings habe ich bisher nur auf Englisch mit Chat-GPT kommuniziert. Der Fehler trat auf, als ich wollte, dass Chat-GPT einen Artikel einer deutschen, sozialistischen Nischenzeitung schreibt.

Bei der NY-Times (also in derem Stil als Kurzmeldung) hab es den Angie-Fehler nicht.

Aber den Unterschied zwischen 2015/16 Köln und 22/23 Berlin kennt es sehr wohl.

Daher passt die Erklärung mit Datenmaterial von 2021 nicht.

0
vanOoijen 
Fragesteller
 20.01.2023, 19:57
@Lezurex

Frag mal Folgendes: Write an Article in junge Welt Style about the migrant riots in Berlin on new year's eve.

0
Lezurex  20.01.2023, 20:57
@vanOoijen

Wenn du darauf mit "When exactly did that happen?" nachhakst, schreibt er, dass das ein Artikel über ein hypothetisches Ereignis war.

Hier die Antwort im Wortlaut:

"I apologize, my previous response referred to a hypothetical situation of migrant riots in Berlin on New Year's Eve and not an actual event. My knowledge cutoff is 2021 and I could not find any information regarding any riots that took place specifically on New Year's Eve in Berlin involving migrants."

Man kann ChatGPT also auch dazu auffordern, einen Artikel über Menschen auf dem Pluto zu schreiben und das wird dann auch gemacht, egal ob das wahr oder falsch ist.

0
DomeLPs  22.02.2023, 22:50

Wusste ich gar nicht ich habe mich mit dieser KI nicht so sehr beschäftigt aber ist die KI nicht in der Lage mit Daten umzugehen mit denen sie durch Benutzern gefüttert wird wenn sie also mehrere politische Gespräche führt und mehrere Personen ihr mitteilt dass jetzt nun mal Olaf Scholz Bundeskanzler ist ist sie nicht in der Lage dies dann selbstständig zu lernen aus technischer Sicht wäre das ja durchaus möglich

0

Der Bot ist ein Algo, er hat keine Meinung.

Dergleichen wurde schon im BTX verwendet, einstmals Telekom.
Man "füttert" den Inhalt mit Texten und lässt eine Schleife ablaufen.
Das der Bot nicht "lernen" kann, ist er kann er nicht neutral sein.

Nicht ohne Grund hat MS den Algo für seine Cloudanwendungen freigegeben, damit er jeweils angepasst werden kann, hinsichtlich seiner Verwendung.


TechPech1984  19.01.2023, 06:01

jedes system hat ein BIAS was von menschenlernt und somit hat das ding eine meinung , in diesem fall sogar noch schlimmer , es ist definitiv geregelt bzw restricted . sie ist sich ihrer meinung nur nicht bewusst .

1
vanOoijen 
Fragesteller
 19.01.2023, 18:50
@TechPech1984

So denke ich auch. Deshalb heißt die Frage ja auch nicht: "Hat Chat-GPT ein Bewusstsein, oder eine EIGENE Meinung".

Das hat der Bot natürlich nicht, trotzdem habe ich Restriktionen bei Fragen erlebt und Begründungen dafür.

Imo ist es sehr hypersensibel, sobald es Diskriminierung nur "wittert", so wie woke Studierende eben sind. Ich finde man merkt in welchem Geist das geschrieben wurde.

1
Chat-GPT hat eine Meinung

Es kommt darauf an mit welchen Informationen das Programm gefüttert wurde. Es hat die Meinung die in diesen Informationen enthalten sind.

Woher ich das weiß:Berufserfahrung – Startup zum weltweiten Unternehmen entwickelt.
Chat-GPT ist absolut neutral

ChatGPT ist ein Sprachmodell, das wie ein Papagei einfach nur das wiedergeben von Informationen gelernt hat, dies basiert auf grundlegenden Regeln und nicht auf einer eigenen Interpretation und Meinung des Systems, es erstellt Inhalte auf regeln und mathematischen Wahrscheinlichkeiten. Für eine Meinung müsste es tiefer gehen, es müsste Bedeutungen und zusammenhänge lernen zu verstehen und zu interpretieren und gegeneinander abzuwägen.

Fragst du das System etwas wo es keine Richtigen Daten zu hat, würfelt es informationen zusammen die in dem Lernset der Daten bis 2021 enthalten waren, die da eventuell passen könnten, daraus entsteht aber keine Meinung sondern zufällige Stellungen. Für eine Meinung wäre eine persönliche Ansicht, eine Überzeugung und daraus abgeleitet eine Einstellung dazu nötig, das würde ein Bewusstsein voraussetzen das in einem Sprachmodell das mittels Daten informationen ausgibt so nicht existiert.

Chat-GPT ist absolut neutral

Der algorithmus an sich ist neutral. Die software (gpt3) ist offen aber die Datensätze wurden mit dem internet trainiert und repräsentieren die Meinung des Internet inklusive dort herschende Vorurteile