Künstliche Intelligenz – die neusten Beiträge

ChatGPD im Linux Terminal, Problem beim API Key eingeben?

ich@meinem Laptop:~$ ai 'bist du da?'
ERROR: missing API key
Please set the environment variable AI_PY_API_KEY or set api_key in /home/nitya_deva/.config/ai-py/config.json
ich@meinem Laptop:~$ ai 'bist du da?'
Traceback (most recent call last):
 File "/usr/local/bin/ai", line 533, in <module>
   main()
 File "/usr/local/bin/ai", line 144, in main
   chat_once(session, pm, args.prompt)
 File "/usr/local/bin/ai", line 152, in chat_once
   res_message = session.chat(user_message)
 File "/usr/local/bin/ai", line 402, in chat
   res_message, data, messages = self.create_completion(params_override=params_override)
 File "/usr/local/bin/ai", line 436, in create_completion
   raise RequestError(e.status, e.read().decode()) from None
__main__.RequestError: RequestError: 429, {
   "error": {
       "message": "You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors. ",
       "type": "insufficient_quota",
       "param": null,
       "code": "insufficient_quota"
   }
}

Das ist meine Ausgabe. Ich habe diese Anleitung verfolgt! Meine Telefonnummer registrierte ich bei ChatGPT, in Verbindung mit meinem Account, um den API Key zu bekommen. Bei diesem Befehl hier bin ich mir nicht ganz sicher, wohin die Datei .ai_py_config.json gespeichert werden soll.

echo '{"api_key":"<Your API key>"}' > ~/.ai_py_config.json

Ich habe die in den Ordnern: /home/ich/.config/ai-py und in: /usr/local/bin

Bitte verzeiht mein Unwissen. Ich bin ein Laie und wollte nur ChatGPT im Terminal nutzen.

(Linux Mint 21.3 Cinnamon)

Software, Linux, programmieren, cmd, Code, künstliche Intelligenz, Linux Mint, Mint, Progamm, ChatGPT

Laut einem Fachzeitschrift-Artikel kann ChatGPT unter Umständen halluzinieren, stimmt das, wenn ja, unter welchen Umständen?

ChatGPT selber antwortet darauf so:

Ja, das stimmt. "Halluzinationen" in Bezug auf KI-Modelle wie ChatGPT beziehen sich auf Situationen, in denen das Modell Informationen generiert, die ungenau, falsch oder im schlimmsten Fall völlig erfunden sind. Diese Phänomene können auftreten unter verschiedenen Umständen:
Unzureichende Datenbasis: Wenn das Modell auf eine Anfrage stößt, für die es nicht genügend Daten oder Beispiele in seinem Trainingssatz hat, kann es sein, dass es eine Antwort generiert, die nicht der Realität entspricht.
Komplexe oder mehrdeutige Fragen: Fragen, die schlecht formuliert sind oder mehrere Interpretationen zulassen, können dazu führen, dass das Modell die Bedeutung missversteht und eine falsche oder unpassende Antwort gibt.
Wissen über aktuelle Ereignisse: Da das Modell nur bis zu einem bestimmten Zeitpunkt (Oktober 2021 für GPT-3 und September 2021 für ChatGPT) trainiert wurde, kann es keine aktuellen Ereignisse oder Informationen verarbeiten, was zu Fehlern in den Antworten führen kann.
Kontextuelle Missverständnisse: Wenn der Kontext oder die vorhergehenden Informationen unklar sind, kann das Modell falsche Annahmen treffen und dadurch ungenaue Informationen liefern.
Kreative Aufgaben: Bei kreativen Anfragen oder wenn das Modell aufgefordert wird, Geschichten oder hypothetische Szenarien zu erstellen, kann es seine Vorstellungskraft einsetzen, was manchmal zu halluzinatorischen Ausgaben führt.
Die Halluzinationen sind ein aktives Forschungsfeld, und Entwickler versuchen, die Genauigkeit und Zuverlässigkeit der Antworten zu verbessern, um diese Probleme zu minimieren.

Bedenkt ihr diese Möglichkeit beim Nutzen von ChatGPT, wie schließt ihr/man aus, solchen Irrtümern anheim zu fallen? Wie merkt man sowas überhaupt?

künstliche Intelligenz, Halluzinationen, ChatGPT

Meistgelesene Beiträge zum Thema Künstliche Intelligenz