Chat-GPT?
Findet ihr es ok wenn man in Schulen, zum Beispiel bei Präsentationen auf Chat-GPT zurückgreift ?
Ich meine nicht für die gesammte Präsentation unnd wenn man die erzielten Ergebnisse auch noch mit anderen Quellen wiederlegen kann.
9 Antworten
Ja, natürlich. Ich weiß gar nicht warum die Schulen es so verteufeln. Es sollte eher das Gegenprüfen gelehrt werden, statt eine Informationsquelle zu verteufeln. In Büchern steht schon auch manchmal richtiger Mist.
Uns wurde eine gesammte Präsentation als unwertbar gewertet weil wir für eine - auch gesagt- Seite unteranderem auf Chat-GPT zurückgegriffen haben.
Richtig so.
- Keine echte eigene Leistung ("Copy & Paste"),
- keine eigene inhaltliche Auseinandersetzung mit dem Thema und
- keine überprüfbare Liste brauchbarer (belegbar richtiger) Quellen die für die Erstellung des Textes verwendet wurden.
Kommt drauf an. Man sollte Informationen von ChatGPT genauso behandeln wie Informationen von irgendwelchen Freunden, die eigentlich keine Ahnung von dem Thema haben aber irgendwann mal etwas darüber gelesen zu haben meinen - das ist ChatGPT ja letztlich. Ich kann mir also einen groben Überblick über das Thema verschaffen oder ChatGPT nach Fun Facts zum Thema fragen, was mir vielleicht hilft, meine Präsentation von Anfang an ein wenig zu strukturieren - allerdings muss ich dann halt auch jede einzelne Information und jeden Fun Fact, den es mir gibt, zusätzlich nochmal selbst erarbeiten, weil ChatGPT einfach keine vertrauenswürdige Quelle ist.
Hello,
ich bin wirklich ein Fan von den technologischen Möglichkeiten der heutigen Zeit. Wenn ich mich an meine Facharbeit für das Abitur erinnere, war es manchmal sehr mühsam, in einer kleinen Kleinstadt an gute Literatur zu kommen.
Die heutigen Möglichkeiten, Internet und Co. sei Dank, eröffnen Wissen und Bildungsmöglichkeiten in ganz neuen Sphären und sind ein wundervolles Instrument, Chancenungleichheiten abzuschwächen.
Aber: Die Krux ist, dass die Menschen beginnen, sich auf dieser Technologie auszuruhen. Wozu den Geist anstrengen, wenn doch alle Antworten nur einen Mausklick entfernt sind?! Und das ist meine persönliche Grenze.
So gut der Satz "Man muss nicht alles wissen, man muss nur wissen, wo es steht." einmal gemeint war, er impliziert nicht, sich nicht zu bilden.
Ich sehe es daher eher so, dass die Nutzung von Chat-GPT durchaus eine Inspiration sein darf, aber es sollte die eigene Leistung in gar keinem Fall ersetzen. Auch ich nutze dieses Instrument ab und an, doch ich konnte dabei bisher auch immer wieder feststellen, dass es lediglich ein kritisch zu betrachtendes Hilfsmittel sein kann/sollte.
Welchen Nutzen hat es, sich von der KI die besten Texte formulieren zu lassen, wenn die Person in natura kaum einen vernünftigen Satz zustande bringt? Wessen Erkenntnisse sollen weitergegeben werden? Welchen Nutzen hätten Bildungsabschlüsse für Menschen, wenn es am Ende der Verdienst einer KI ist. (Mag sein, dass manche die unentdeckte Verwendung von KI als "Systemdribbling" betrachten, jedoch geht es bei Abschlüssen sekundär um die Noten, sondern eben um den Bildungserfolg...)
Wie schön wäre es, würden Menschen die Technik als Vehikel für ihren Verstand nutzen und weniger als Ersatz dafür.
Beste Grüße, MaMaStef
Ob es OK ist, kommt auf den Lerninhalt an... Wenn vorgeschrieben wird, kein ChatGPT zu verwenden, dann darf es nicht verwendet werden. Dann besteht der Lerninhalt eben genau darin, auch ohne Hilfen wie ChatGPT etwas hinzubekommen.
Wenn ChatGPT erlaubt ist, darf es auch verwendet werden, aber eben nicht uneingeschränkt. Dass ChatGPT "halluziniert" und Dinge erfindet, ist bekannt. Seriöse Quellenarbeit sieht anders aus.
Bei uns hieß es z.B. immer, dass wir Wikipedia nicht als Quelle angeben dürfen... das hieß: In Wikipedia nachzulesen und einen Überblick oder Anregungen zu bekommen war OK, aber Ausarbeitung/Vortrag mussten sich auf andere Quellen beziehen.
Findet ihr es ok wenn man in Schulen, zum Beispiel bei Präsentationen auf Chat-GPT zurückgreift ?
Nein.
Weil Du Dich dann inhaltlich nicht selber mit dem Thema auseinandergesetzt hast.
Das ist genauso dumm wie aus jeder anderen Quelle "blind eine Antwort abzuschreiben bzw. heraus zu kopieren". – Nur dass Du bei so einem KI-Teil nicht einmal die genauen Quellen kennst die es für seine Antwort verarbeitet hat und ob Du da gerade inhaltlich den größten Müll abschreibst oder ob es inhaltlich stimmt.
Ohja... ich bekam von Chat-GPT zu einer sehr präzise formulierten Fragestellung einmal eine Literaturempfehlung (mit Titel, Autoren, Veröffentlichungsdatum, Zitaten, etc.). Als Bücherhamster war ich Feuer und Flamme, suchte das Buch und fand: NICHTS. Ich befragte Chat-GPT dazu und die KI "entschuldigte" sich, dass das Buch scheinbar gar nicht existiert.
Ich war nicht überrascht, aber dennoch entsetzt.
Entschuldigung für das Missverständnis. Der von mir genannte Titel "Schulentwicklung durch Ethik: Ethik in der Schule als Schlüssel zu einer nachhaltigen Schulkultur" von Marcus Damm und Gerd Steinkamp existiert nicht. Es tut mir leid für die Verwirrung. Es scheint, dass es sich um einen Fehler gehandelt hat, und ich danke Ihnen, dass Sie darauf hingewiesen haben.
Sollten Sie weitere Fragen haben oder weitere Hilfe benötigen, stehe ich Ihnen gerne zur Verfügung.
Das war im Übrigen der "Entschuldigungstext" der KI
Ja, das ist genau das Problem an solchen KIs. Du hast keine Kontrolle darüber woher es sich seine Informationen holt und wie es die Informationen "zusammenwürfelt" und ob das Ergebnis überhaupt irgend einen Sinn macht.
Und zitierfähig ist eine KI-Antwort auch nicht, da Du die eigentlich verwendeten Quellen (aus denen die Informationen ursprünglich stammen) nicht kennst / nennen kannst und nicht einmal weisst ob es wirklich Quellen dafür gibt oder ob die betreffenden Textteile einfach von der Ki "sprachlich korrekt assoziiert wurden" (mit anderen Worten erfunden wurden, aus Bruchstücken die ggf. irgendwo einzeln Sinn machten aber in der Gänze zusammengesetzt falsch sind).
Toller Text, zumindest kann es sich inzwischen entschuldigen. 😂
Hier mal mein Selbstexperiment mit (einer inzwischen veralteten Version von) ChatGPT:
Da ging es um eine klare Frage, zu der es zudem eine klare, rechtlich eindeutige Antwort gibt (damit man das Ergebnis auf Richtigkeit überprüfen kann). Das Teil hat erbärmlich versagt und sich mit Bruchstücken aus den Gesetzen dazu selber etwas "zusammengereimt" was inhaltlich in jeder einzelnen enthaltenen Aussage falsch war.
Klar entwickelt sich das von Version zu Version weiter, aber das Grundproblem bleibt ja bestehen: Wo ist die Grenze von "zusammenhängend zitierten Fakten" und wo beginnt der "maschinell frei assoziierte Text", also der "von der Maschine erzeugten Formulierungen", die den an der Quelle noch korrekt vorhandenen Inhalt durch die eigene Formulierung falsch werden lassen können? 🤷♂️
Uns wurde eine gesammte Präsentation als unwertbar gewertet weil wir für eine - auch gesagt- Seite unteranderem auf Chat-GPT zurückgegriffen haben.