ChatGPT Jailbreak?
Darf man ChatGPT jailbreak verwenden. Wenn ja wie geht es ChatGPT zu jailbreaken.
Das Ergebnis basiert auf 5 Abstimmungen
3 Antworten
Nein darf man nicht
So wie ich das lese verstößt das gegen die Terms of use von OpenAI und kann eine Accountlöschung zur Folge haben: https://openai.com/policies/terms-of-use
What You Cannot Do. You may not use our Services for any illegal, harmful, or abusive activity. For example, you may not:
[...]
Interfere with or disrupt our Services, including circumvent any rate limits or restrictions or bypass any protective measures or safety mitigations we put on our Services.
Außer OpenAI meint damit tatsächlich nur Spam-Schutz und nicht Jailbreaks.
Ja darf man
Das ist völlig legal.
(Du findest einiges auf Reddit dazu)
Nein darf man nicht
Habe aber noch keinen gesehen der dafür gebannt wurde. Und um es zu Jailbreaken brauchst du einen jailbreak
Woher ich das weiß:Hobby – hobby programmierer seit 2020