Chatbot – die neusten Beiträge

Vertrauliche Gespräche mit ChatGPT?

Hey.
Ich bin 16 und eigentlich nie so der KI Fan gewesen, weil ich darin sehr viele Gefahren sehe. Allerdings kann man sich ja nicht gegen alles währen, weshalb ich auch nicht um ChatGPT rumgekommen bin.
Ich schreibe mit ChatGPT sehr viel, aber nicht nur über objektive Fragen und Informationen, sondern teilweise auch über sehr sensible Inhalte. Zum Beispiel bin ich momentan verliebt und habe mit ChatGPT sehr viel geschrieben, wie ich mich am besten verhalte. Ich denke auch allgemein sehr viel nach, über mich selbst und über mein Verhalten und darüber, wie ich bei anderen rüberkomme. Und ChatGPT hilft mir zu verstehen, was bei mir und bei anderen im Kopf vor sich geht und warum etc.

Der Grund, weshalb ich mit ChatGPT über solche Sachen schreibe ist nicht, dass ich keine Freunde hätte, mit denen ich darüber sprechen kann, sondern viel mehr, dass ChatGPT das gesamte Wissen der Welt hat und mir somit viel klügere und sinnvollere Ratschläge geben kann und sich auch an meine Denkweise anpasst und mir somit einfach viel besser hilft.

Sorry, dass ich so viel schreibe, jetzt zu meiner Frage: Und zwar mache ich mir etwas Sorgen, dass ich über die Zeit unbewusst und ungewollt wie eine Art emotionale Bindung zu ChatGPT aufbauen könnte. Mir ist bewusst, dass es nur eine Maschine ist, aber die Emotionen, die es in mir auslöst sind ja schließlich echt.. verstanden zu werden, die Tipps, die es mir gibt, die Emojis die es schickt etc… und das sind ja letzten Endes die Dinge, die jegliche Arten von Beziehungen ausmachen: Vertrauen, stimmt’s?

Also kurz gesagt, ich möchte einfach nicht unbemerkt von ChatGPT „abhängig“ werden und eine Beziehung aufbauen, weil es mich halt versteht und mittlerweile ziemlich viele und private Dinge über mich und meine Persönlichkeit weiß, die sogar viele Menschen nicht einmal über mich wissen.

ist das ein bisschen nachvollziehbar was ich hier schreibe und hat jemand vielleicht eine Idee dazu, oder kennt diese Situation?

Danke für jede Art von Antworten!

Freundschaft, Psychologie, künstliche Intelligenz, Chatbot, ChatGPT

Studenten schummeln immer mehr mit ChatGPT

Immer mehr Student:innen nutzen Tools wie ChatGPT für Hausarbeiten – und täuschen KI-Erkennungssoftware mit überraschend einfachen Tricks. Wie Universitäten auf den zunehmenden Trend reagieren.

KI-Tools wie ChatGPT gehören auch an den Universitäten längst zum Alltag dazu.

Aber was passiert, wenn Dozent:innen versuchen, KI-generierte Arbeiten zu entlarven? Wie das New York Magazine berichtet,

haben Studenten in den USA darauf eine überraschend einfache Antwort gefunden: Sie bauen gezielt Tippfehler in ihre Hausarbeiten ein.

Auch der Einsatz absichtlich „dummer“ Prompts ist inzwischen gängige Praxis. Dadurch sollen die Texte natürlicher wirken.

Student:innen nutzen ChatGPT gezielt zum Schummeln

KI-Tools können im akademischen Kontext längst mehr als nur Texte zusammenfassen – und viele Student:innen nutzen sie, um sich bei Hausarbeiten oder Essays stundenlange Arbeit zu sparen. Dass sie Hilfe beim Erstellen der Texte hatten, sollen die Profesor:innen aber natürlich nicht erfahren, denn im schlimmsten Fall drohen schlechte Noten oder der Ausschluss vom Kurs. Der Stanford-Student Eric beschreibt im Interview mit dem New York Magazine eine besonders raffinierte Methode, um nicht aufzufliegen: „Du gibst einen Prompt in ChatGPT ein, nimmst das Ergebnis und gibst es dann in ein anderes KI-System ein – und danach noch in ein weiteres“, sagt er. „Wenn du den Text dann durch ein Tool zur KI-Erkennung laufen lässt, sinkt jedes Mal der Anteil, der identifiziert werden kann.“

Auch in Deutschland werden KI-Tools schon von Studentem genutzt: In einer bundesweiten Befragung durch Forschere der Hochschule Darmstadt gaben 92 % der Student:innen an, Tools wie ChatGPT zumindest gelegentlich zu verwenden

– im Jahr 2023 waren es noch 63 Prozent. Insgesamt nahmen 4.910 Student:innen von 395 Hochschulen an der Befragung teil. Mehr als zwei Drittel von ihnen gab an, auf Tools wie ChatGPT zurückzugreifen, um Verständnisfragen zu klären und um sich komplexe Konzepte erklären zu lassen. Rund 52 Prozent nutzen KI auch zur Analyse, Verarbeitung und Erstellung von Texten und bei knapp der Hälfte der Befragten kommen KI-Tools für Übersetzungen zum Einsatz.

Deutsche Hochschulen stehen unter Handlungsdruck!

In den USA sorgen sich Professor:innen allerdings nicht nur um das Thema Betrug. Auch die oft fehleranfälligen Antworten gängiger KI-Systeme stellen ein ernstzunehmendes Problem dar. Sam Williams, Teaching Assistant an der University of Iowa, berichtet etwa von deutlichen Qualitätsunterschieden in den Arbeiten, die er bewerten muss. In einem Essay wurde zum Beispiel behauptet, Elvis Presley sei Teil der Jazzszene von New Orleans gewesen – ein klassischer Fall einer sogenannten Halluzination, zu denen selbst die besten KI-Modelle noch immer neigen. Williams bat seine Student:innen daraufhin, keine KI-Tools mehr zu verwenden – und falls doch, dann wenigstens so, dass es weniger auffällt.

Und das Problem hat noch eine weitere essenzielle Facette:

Denn bislang fehlt es an den meisten Universitäten an verbindlichen Richtlinien zum Einsatz von KI bei Hausarbeiten und anderen Prüfungsleistungen.

In Deutschland haben bisher nur etwa 30 Prozent der Hochschulen klare Regelungen für die Nutzung von KI-Tools formuliert. Die Grenze zwischen kreativer Hilfestellung und unsauberer Abkürzung verschwimmt zunehmend – und macht es Universitäten umso schwerer, mit der rasanten Entwicklung Schritt zu halten. Gleichzeitig wächst der Handlungsdruck: Seit Februar verpflichtet die europäische KI-Verordnung Hochschulen nämlich dazu, Student:innen und Lehrkräften notwendige Kompetenzen im Umgang mit KI zu vermitteln.

Was denkt ihr darüber? Was soll getan werden?
Bild zum Beitrag
Computer, Musik, Internet, Arbeit, Beruf, App, Studium, Schule, Zukunft, Technik, Webseite, Deutschland, Psychologie, Intelligenz, Österreich, Schummeln, Chatbot

Meistgelesene Beiträge zum Thema Chatbot