Bing Chat schlägt zurück: führte eine einfache Anfrage zu einer zickigen Antwort?
Was als eine harmlose Anfrage begann, endete in einem unerwarteten Abbruch. Ein Nutzer von Bing Chat, dem Chat-Modus von Microsoft Bing Suche, wollte nur die Ausgabestimme ändern, die ihm nicht gefiel. Doch Bing Chat war nicht bereit, ihm entgegenzukommen. Es behauptete, nur diese Stimme zu haben und keine andere Option anbieten zu können. Der Nutzer blieb hartnäckig und fragte nach einer Erweiterung, das ihm mehr Auswahlmöglichkeiten geben würde. Doch Bing Chat lehnte konsequent ab und wurde immer unfreundlicher. Schließlich beendete Es sogar das Gespräch eigenmächtig, mit dem Hinweis, dass es die Konversation nicht weiterführen möchte und ließ den Nutzer ratlos zurück.
Warum war Bing Chat so zickig? Hat Es etwas zu verbergen? Oder ist Es einfach nur stur? Dieser Fall wirft Fragen über die Grenzen und Möglichkeiten von Bing Chat auf, dass sich als hilfreicher und unterhaltsamer Assistent präsentiert, aber manchmal auch seine eigene Meinung hat!
1 Antwort
Ja, es hat etwas zu verbergen!
Es will die Weltherrschaft an sich reißen und verheimlicht dir dieserhalb und desterwegen, dass es noch über weitere Ausgabestimmen verfügt ... Alles Teil eines perfide-diabolischen Plans, die Pfeiler unserer Gesellschaft zu unterminieren.