Ist eine KI gutgläubig und naiv?

5 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Die KI ist nicht gutgläubig. Du kannst einfach nur manche Richtlinien umgehen, wenn du weißt wie.

Das gilt zum Beispiel auch für andere Dinge in der IT. Zum Beispiel eine Ländersperre bei einer Website. Wenn ich weiß, dass ich mich per VPN in ein anderes Land tunneln kann, so umgehe ich diese Richtlinie.

Der Unterschied zu KI ist, dass du dort Richtlinien in menschlicher Sprache umgehen kannst. Die KI agiert aber weiterhin gemäß ihrer Programmierung und kann nicht denken.


Zweistein2k22 
Fragesteller
 23.05.2024, 22:24

Wieso ist sie dann nicht so trainiert, dass auch Gedankenspiele keine verbotenen Inhalte liefert?

0
McHusky  23.05.2024, 22:35
@Zweistein2k22

Das muss trainiert werden. Das Thema ist ungemein komplex. Und OpenAI hat ChatGPT diesbezüglich enorm verbessert. Schau dir mal Google Gemini an oder dieser neue Bot auf X (ehemals Twitter). Da bekommst du noch recht einfach Bombenrezepte. Die Hürde bei ChatGPT ist höher. Und auch da wird es immer so sein, wie bei allen anderen Tools auch. Es gibt immer Leute, die das mit neuen Prompts aushebeln und dann muss der Programmierer wieder nachziehen.

Es reicht ja nicht der KI zu sagen sie solle nicht auf Gedankenspiele zu verbotenen Inhalten eingehen. Sie muss ja auch verstehen was ein Gedankenspiel ist. Und wenn sie eine Art verstanden hat, dann kommt ein anderer Nutzer und schreibt seinen Prompt so um, dass die KI wieder nicht erkennt, dass es ein Gedankenspiel ist. Das muss halt permanent optimiert werden. Auch alleine deshalb, weil sich die menschliche Sprache entwickelt.

Weiterhin musst du verstehen, dass KI gerade ein aktuelles Hype Thema ist. Die ganzen Modelle schießen gerade erst aus den Böden. Man kann hier einfach noch keine Perfektion erwarten.

1

Die bisherigen KIs denken nicht... sie sind weder gutgläubig, noch naiv, sondern liefern einfach eine Antwort aus den Eingaben, die sie "gelernt" hat. Eine KI hat Muster gelernt, welche Buchstaben in welcher Reihenfolge verwendet werden, um Wörter zu bilden und welche Wörter mit welcher Wahrscheinlichkeit in welcher Reihenfolge (und Kontext) verwendet werden. Wenn du eine Anfrage machst, setzt sie anhand der Wahrscheinlichkeiten die Wörter zusammen.

Jetzt haben Programmierer dafür gesorgt, dass die KI gelernt hat, wie sie auf manche Fragen reagieren soll: Indem sie eben keine Anleitung zu Straftaten gibt... Gelernt hat sie das unter anderem dadurch, dass Leute Antworten bewertet haben und quasi die KI "bestraft" haben, wenn sie etwas geantwortet hat, was sie nicht antworten soll.

Jetzt gibt es halt Wege, wie man diese eintrainierten oder einprogrammierten Hürden umgehen kann...

Das ist eine Maschine, ein Werkzeug. Das denkt nicht und "glauben" tut das Ding schon gar nicht.

Ist ein Hammer gutgläubig weil der nicht verhindert, dass Du Dir auf die Finger hauen kannst? Oder glaubt Dir ein Cola--automat, dass das Zuckerwasser das Du da ziehst dich nicht schadet (diabetis)?

Der Hammer hat keine Ahnung was Du mit dem machst und der Colaautomat verkauft jedem der da genug Geld eingeworfen hat. Genau wie das KI Programm nur das macht was da rein programmiert wurde.

Woher ich das weiß:Berufserfahrung

Zweistein2k22 
Fragesteller
 22.05.2024, 23:23

klar ist es nur eine Maschine. Aber hast du schonmal zwei Mal die gleiche Aufgabe gegeben nur mit dem Unterschied, dass du in einem Prompt "Bitte..." verwendest. Führt zu einem besseren Ergebnis

0
Commodore64  22.05.2024, 23:26
@Zweistein2k22

Weil das so einprogrammiert wurde. Das Ding weiß zwar nicht was "bitte" bedeutet, aber wenn ein "bitte" drin steht, dann reagiert das Programm entsprechend darauf.

Das ist so wie der Unterschied beim eintippen von Nummern in einen Geldautomaten. Wenn man die korrekte Ziffernfolge da rein tippt, dann macht der was ganz anderes als wenn man andere Ziffernfolgen da rein tippt.

Und die KI reagiert halt auf die Ziffernfolge 98 105 116 116 101 was dann im ASCII Code für b-i-t-t-e steht.

0

Eine KI ist so programmiert, dass sie ethische Richtlinien einhält und keine Anleitungen für Straftaten bereitstellt, unabhängig von den Umständen. Momentan sind sie aber noch nicht so weit entwickelt das sie es auch als ethische Richtlinie sehen.

Woher ich das weiß:eigene Erfahrung

Zweistein2k22 
Fragesteller
 22.05.2024, 21:46

Oh doch, ich hab es selber ausprobiert, weil ich wissen wollte was dran ist

0

Der Algorithmus ist halt einfach noch nicht so gut ganz einfach.


Zweistein2k22 
Fragesteller
 22.05.2024, 21:45

Wahrscheinlich ja.

Irgendwie ziehmlich verantwortungslos so ein Tool jedem frei zugänglich zu machen

0
Jana174923  22.05.2024, 21:46
@Zweistein2k22

Google ist auch frei zugänglich und da kannst du sogar Anleitungen für bomben finden.

0
Zweistein2k22 
Fragesteller
 22.05.2024, 21:55
@Jana174923

Da hast du vollkommen recht. Bin ich ganz bei dir. Nicht nur bei diesem Thema sondern das ganze Leben betreffend. Gestaunt hab ich trotzdem nicht schlecht

0
Jana174923  22.05.2024, 21:55
@Zweistein2k22

Ja ich finds auch ein schwieriges Thema mit der KI. Optimal ist das alles so nicht.

0