ChatGPT um Antworten zu generieren?
Ich fange am besten mit einem generierten Beispiel an, damit klar ist, was Sache ist:
Frage:
Ein Würfel wird zweimal geworfen ,wie hoch ist die wahrscheinlich ,dass die Summe der beiden Zahlen drei ist?
Antwort:
Es gibt insgesamt 36 mögliche Ergebnisse, wenn ein Würfel zweimal geworfen wird. Die einzige Möglichkeit, dass die Summe der beiden Zahlen 3 ist, ist wenn beide Würfe die Zahl 1 ergeben. Da jeder Wurf eine Wahrscheinlichkeit von 1/6 hat, die Zahl 1 zu ergeben, ist die Wahrscheinlichkeit, dass die Summe der beiden Zahlen 3 ist, 1/6 * 1/6 = 1/36.
Dieser Text klingt doch wie ein ganz normaler Text, oder?
Aber Moment Mal:
Die einzige Möglichkeit, dass die Summe der beiden Zahlen 3 ist, ist wenn beide Würfe die Zahl 1 ergeben.
Das was hier steht ist kompletter Unsinn.
Der Text klingt auf dem ersten Blick plausibel, bei genaueren Hinsehen sieht man aber, dass der Text inhaltliche Fehler enthält.
Dieser Text wurde nämlich nicht von einem Menschen geschrieben, sondern von einer künstlichen Intelligenz: chatGPT.
Man muss einfach nur ein Text in die Eingabe reinschreiben, und die KI spuckt etwas aus, was aussieht, als ob es passen würde. Betonung auf aussehen.
Und genau das ist ein Problem, welches auch hier aufgetaucht ist. Seit gestern sind mir hier öfters Antworten aufgefallen, die sich Plausibel anhören, aber dann auf dem zweiten Blick als totalen Schwachsinn herausstellen. Da diese Beträge so realistisch geschrieben sind, werden sogar einige (unter anderem auch die Fragensteller) getäuscht. Blöd ist, nur, dass der Fragestellers meist nicht das nötige Fachwissen hat, um selbst zu prüfen, ob alles stimmt, weswegen er dann denkt, dass es ein ganz normaler Text ist.
Erst ein Appel:
Passt bei den Antworten mehr auf, nur weil es aussieht, dass ein Mensch die Geschrieben hat, muss es nicht bedeuten, dass die ein Mensch geschrieben hat. Bei den Kommentaren nachzuhaken hilft auch nicht wirklich, da die KI extra dazu da ist, um Gespräche zu führen. Man kann somit damit auch antworten auf die Kommentare generieren, die Plausibel klingen, aber auch wieder Humbug sind (ist heute auch schon passiert).
Und nun meine Frage:
Sind euch auch schon solche Antworten aufgefallen und und ist eure Meinung dazu, dass Leute das hier auf der Plattform machen?
PS: ich habe schon mehrmals diese Antworten gemeldet, und dabei klar gemacht, dass die Computergeneriert sind, und die Meldungen wurden aufgehoben ohne die Antworten zu löschen. Das ist meiner Meinung nach sehr gefählich, da diese Leute schneller solche Antworten generieren können, als Experten oder Leute, die sich auskennen, diese fehlerhaften Antworten finden und richtigstellen können.
Außerdem: wer hat schon lust mit jemanden zu diskutieren, ob was falsch ist, wenn sich am Ende rausstellt, dass der andere nur eine KI ist?
Das nervt einfach.
Wer sollte daran Interesse haben?
Woran?
Hast du Beweise für deine Behauptung?
Lese die Antworten die schon geschrieben wurden, sowie meine Kommentare.
Ziehst du denn gar nicht die Möglichkeit in Betracht, dass es einfach uninformierte Menschen gibt?
Nein, die Texte sind offensichtlich nicht von einem Menschen geschrieben worden. Selbst Stackoverflow hat die KI verboten, da die so viele Probleme bereitet hat.
10 Antworten
Ich finde es nicht wild wenn man eine KI nutzt um eine Frage zu beantworten solange man die Antwort der KI vorher durchprüft und entsprechend abändert falls was nicht passt.
Die KI kann ein wertvolles Hilfsmittel sein. Aber ja es ist absolut nicht richtig fehlerhafte aussagen einer KI zu nehmen und diese zu teilen. Die KI ist als Hilfsmittel und nicht als lösungsmittel gedacht.
Ja, genau, wenn die Beiträge korrekt sind, dann habe ich auch kein Problem damit. Aber nur unter der Bedingung dass man dann auch schreibt, dass man es generiert hat.
Man kann die KI darauf hinweisen, dass der Text Fehler hat. Dafür muss man aber den Text vorher gründlich lesen und sich mit dem Thema auskennen.
Jetzt gerade werden aber die Beiträge nichtmal korrekturgelesen, sonst würden keine beiträge rauskommen, die von mir genannten Fehler haben.
Ich habe schon Antworten zu medizinischen Fragen gesehen, und zu jemanden zu Selbstmordgedanken.
Welchen Sinn hat beim Auto der Spurhalteasistent wenn man trotzdem noch seine hände immer wieder am Lenkrad haben muss?
Es ist ein Hilfsmittel. Es ist dafür gemacht dich zu unterstützen, nicht dir die Arbeit komplett abzunehmen.
Wer sich blind auf irgendwas verlässt wird früher oder später immer ein Problem bekommen egal bei was
Welchen Sinn hat beim Auto der Spurhalteasistent wenn man trotzdem noch seine hände immer wieder am Lenkrad haben muss?
Überhaupt keinen.
Es ist ein Hilfsmittel. Es ist dafür gemacht dich zu unterstützen, nicht dir die Arbeit komplett abzunehmen.
Es ist nicht mal ein Hilfsmittel. Wenn etwas schiefgeht,
bin ich alleine schuld. Genauso wie ohne das "Hilfsmittel".
Naja also ich habe die KI bereits sehr hilfreich gefunden.
Habe ein paar Programme die ich gecoded habe vereinfachen lassen und die Zeilen kommentieren lassen damit man sich im Code schneller zurecht findet. Hätte ich das selbst alles gemacht wären es mehrere Stunden Arbeit gewesen, jetzt waren es nur 30-40min weil ich nur überprüfen musste und Kleinigkeiten verbessern musste.
Es ist eine absolut geniale Hilfe die ich nicht mehr missen will.
PS: ich habe schon mehrmals diese Antworten gemeldet, und dabei klar gemacht, dass die Computergeneriert sind, und die Meldungen wurden aufgehoben ohne die Antworten zu löschen
Dazu muss man wissen , dass GF den fachlichen Inhalt der Antworten nicht beurteilen will und daher Meldungen nutzlos sind ( außer (vielleicht) man meldet 1+1=3 )
Andererseits sollten die Meldungen passieren in der intrinsisch gespeicherten Hoffnung , dass die G od F athers der zentralen Moderation GFs , dafür sensibilisiert werden und vielleicht mal explizit Stellung nehmen .
Was kann man tun : Die KI-Antworten auf Fehler durchsehen , so wie man es bei anderen Antworten auch tut ( mir selbst unterlaufen ja auch Fehler ) und den Antworter bitten ,die Quelle offenzulegen und ihn anschließend darauf hinweisen ,dass KI keinen guten Willen hat und ihr Fehler schietegal sind .
.
Antwort wird fortgesetzt , es wurde gerade festgestellt , dass mein Speicherbank 0912a:2002b einen elektrischen Schaden hat . Erst reparie . Un Ak auc lee.
Ich wollte mich heute wegen eines Updates kompilieren.
'identifier' is not a member of forward referenced struct 'identifier'
Ging leider schief und ich bleib bei der alten Version. Die tut es auch ...
Ja, das hier ist eine Frage-Antwort-Plattform von Menschen für Menschen.
Wenn man einen computergenerierten Text will, würde man direkt bei wikipedia gucken.
Ich finde es unangenehm zu wissen, dass hier KI eingesetzt wird...gar nicht mal nur wegen der möglichen Fehler (Menschen machen ja bekanntlich auch Fehler), sondern vor allem, weil ich mich getäuscht fühle, wenn ich mit jemandem rede, der gar kein Mensch ist. Das hinterlässt für mich ein sehr ungutes Gefühl und wenn das häufiger vorkommt, hätte ich keine Lust mehr hier auf GF Fragen zu stellen.
ChatGPT um Antworten zu generieren?
Wer sollte davon profitieren, die Ressourcen einer KI dafür zu ver(sch)wenden, um Antworten auf GF zu schreiben?
Niemand.
ist die Wahrscheinlichkeit, dass die Summe der beiden Zahlen 3 ist, 1/6 * 1/6 = 1/36.
das ist ein Flüchtigkeitsfehler, wie er einem Menschen passiert. Aber niemals einer KI passieren würde.
Damit ist dein vermeintlicher Beleg, eine KI habe diese Antwort verfasst, tatsächlich ein Beleg dafür, dass speziell diese Antwort eben nicht von einer KI verfasst wurde.
Alex
Wer sollte davon profitieren, die Ressourcen einer KI dafür zu ver(sch)wenden, um Antworten auf GF zu schreiben?
Es gibt sehr viele Leute die Dinge Machen, die nicht profitabel sind.
das ist ein Flüchtigkeitsfehler, wie er einem Menschen passiert. Aber niemals einer KI passieren würde.
Nö das ist ein Flüchtigkeitsfehler von der KI, da die die Falsche Annahme
Die einzige Möglichkeit, dass die Summe der beiden Zahlen 3 ist, ist wenn beide Würfe die Zahl 1 ergeben.
Gemacht hat. Das ist kein Flüchtigkeitsfehler.
Damit ist dein vermeintlicher Beleg, eine KI habe diese Antwort verfasst, tatsächlich ein Beleg dafür, dass speziell diese Antwort eben nicht von einer KI verfasst wurde.
Ich werde doch selbst wissen, ob ich den Text mit chatGTP generiert habe, oder? :)
Wer sollte davon profitieren, die Ressourcen einer KI dafür zu ver(sch)wenden, um Antworten auf GF zu schreiben?
Das ist oft schlicht Trollerei.
das ist ein Flüchtigkeitsfehler, wie er einem Menschen passiert. Aber niemals einer KI passieren würde.
Doch! ChatGPT kann nicht rechnen...
Doch schon, wenn mat ChatGTP darauf Hinweis, dass was falsch gemacht wurde. Die KI hat theoretisch Zugriff auf Python um Sachen zu rechnen. Da es aber ein Sprachmodell ist, und in der Testphase ist, macht es natürlich Fehler.
Bei falschem Gebrauch und ohne Korrektur, kann. Natürlich nur Unsinn rauskommen.
Das war auch etwas pauschalisiert. ChatGPT kann dir sogar eine Linux-Shell faken, aber es spuckt halt ad hoch oftmals mathematischen Unsinn aus. Und viele Tautologien.
Hallo Jangler13,
inhaltlich kann jeder antworten, was er oder sie möchte, sofern es den Community Richtlinien und den deutschen Gesetzen entspricht. Der Einsatz von KI Technologie verstößt nicht gegen die Gutefrage Community Richtlinien.
ich habe schon mehrmals diese Antworten gemeldet, und dabei klar gemacht, dass die Computergeneriert sind, und die Meldungen wurden aufgehoben ohne die Antworten zu löschen
Ob computergeneriert, aus dem Internet, aus dem Studium oder einfach Erfahrung, jeder wählt sich seine Informationsquelle selbst aus. Sofern es dem Fragesteller oder der Fragestellerin hilft, ist doch alles gut. Da sollte sich niemand einmischen.
Das hier ist eine Fragen-Community und keine wissenschaftliche Redaktion :D Man sollte nicht alles auf die Goldwaage legen.
Auch KI ist nicht per se schlecht, sogar manchmal besser, als manch sinnfreie Antwort hier.
Genieß’ dein Leben.
LG
inhaltlich kann jeder antworten, was er oder sie möchte, sofern es den Community Richtlinien und den deutschen Gesetzen entspricht.
Genau aus diesem Wird, wird genau diese Thematik demnächst von den CMs besprochen.
Ob computergeneriert, aus dem Internet, aus dem Studium oder einfach Erfahrung, jeder wählt sich seine Informationsquelle selbst aus. Sofern es dem Fragesteller oder der Fragestellerin hilft, ist doch alles gut. Da sollte sich niemand einmischen.
Normalerweise sollte man aber angeben woher man das wissen hat. Wenn man einfach den Text einer KI Copy Pastet, ohne es klar zu machen, sind für den Fragesteller irreführend, da er denkt, dass die Antwort von jemanden kennt der sich auskennt. Die KI ist aber fehlerhaft.
Zum Beispiel können Antworten entstehen, wo behauptet wird, dass tan(x) nie größer als 1 werden kann (Disclaimer: das Beispiel steht nicht in Zusammenhang zu den Antworten, die eine Bestimmte Person unter einer anderen Frage generiert hat) was eine offensichtliche Falschinformation ist, die nicht hilfreich ist, sonder für den Fragestellern schädlich ist, weil es damit enden kann, dass der Fragensteller glaubt, dass es stimmt.
Mich stört es nicht, wenn die KI genutzt wird, wenn 1. Abgegeben wird, dass die KI benutzt wurde und 2. Wenn zumindest vorher korrekturgelesen wurde, und man das auch nur postet, wenn man den Text auch selbst geschrieben hat, damit man bei rückfragen auch erklären kann was da steht.
Man hätte sonst genauso gut den Link zur KI schicken können, und sagen können "hey, wirf deine Frage da rein und fertig". Was im Grunde eine "Google doch selbst" Frage ist.
Das hier ist eine Fragen-Community und keine wissenschaftliche Redaktion :D Man sollte nicht alles auf die Goldwaage legen.
Man sollte aber zumindest erwarten können, dass die Antworten von einem Menschen sind. Sonst hätte ich die KI fragen können, die mir dann direkt die Fehlerhaften Antworten liefert, die die Nutzer hier generieren.
Auch KI ist nicht per se schlecht, sogar manchmal besser, als manch sinnfreie Antwort hier.
Nur Sinn viele der KI antworten auch sinnfrei (siehe tan(x) nicht größer als 1), sind aber viel schwerer als solche zu identifizieren, wodurch dann die Antworten nicht unterscheidbar sind von denen, wo wirklich jemand schreibt, der Ahnung hat und sich die mühe gibt.
Und noch was: einfach so fremde fragen in die KI zu werfen ist moralisch verwerflich, da die alle Inputs als Trainungsdaten für die KI benutzt werden. Und das ohne Einverständnis vom Fragesteller. Wenn man seinen Account bei OpenAi erstellt, macht man auch klar, dass man damit einverstanden ist. Von Fragensteller haben die die Einverständnis nicht. Man füttert also die KI mit Daten, die OpenAI nichtmal Nuten darf. Super.
Normalerweise sollte man aber angeben woher man das wissen hat
Dazu ist niemand verpflichtet. Nicht jeder kann nach deinen Prinzipien leben.
Was im Grunde eine "Google doch selbst" Frage ist.
Eine KI ist nicht Google. Eine KI versteht auch komplexere Sachverhalte, nimmt jedoch Daten aus dem Internet.
was eine offensichtliche Falschinformation ist, die nicht hilfreich ist, sondern für den Fragestellern schädlich ist, weil es damit enden kann, dass der Fragensteller glaubt, dass es stimmt.
Das ist Forum, keine wissenschaftliche Redaktion. Auch falsche Antwort gehören dazu, sei es mit oder ohne KI.
Nur sind viele der KI antworten auch sinnfrei
Nein, die KI gibt keine sinnfreien Antworten. Sie kann in manchen Fällen Fehler machen, aber das ist nicht sinnfrei.
einfach so fremde fragen in die KI zu werfen ist moralisch verwerflich
Alle Fragen sind hier öffentlich zugänglich. Oh nein, Gutefrage nutzt diese sogar für Werbezwecke, wie unmoralisch. Du merkst gar nicht was du da schreibst.
Diese Wichtigtuerische kann ich absolut nicht abhaben. Wenn jemand seine Information aus Google nimmt, meldest du dann auch die Antwort?
Alle Fragen sind hier öffentlich zugänglich. Oh nein, Gutefrage nutzt diese sogar für Werbezwecke, wie unmoralisch. Du merkst gar nicht was du da schreibst.
Bei GuteFrage hat der Nutzer aber die TOS akzeptiert, wo steht was Gutefrage machen darf oder auch nicht. Bei OpenAi hingegen nicht. Die haben die Frage da ja nicht abgeschickt sondern auf Gutefrage.
Nein, die KI gibt keine sinnfreien Antworten. Sie kann in manchen Fällen Fehler machen, aber ist nicht sinnfrei.
Ach, das sollte ich Mal den Ganzen Forschern auf Twitter sagen, die gerade dabei sind, die Grenzen von der KI zu testen, wo ganz klar ist, dass die manchmal kompletten Unsinn erzählt.
Das ist Forum, keine wissenschaftliche Redaktion. Auch falsche Antwort gehören dazu, sei es mit oder ohne KI.
Antworten sollen hilfreich sein. Das ist bei Fehlerhaften Antworten, bei denen vorher nicht geprüft wird, ob diese Fehlerhaft sind, nicht gegeben.
Dazu ist niemand verpflichtet. Nicht jeder kann nach deinen Prinzipien leben.
Wenn du Fremde Texte nutzt, solltest du auch angeben, woher du diese hast. Der Text der KI gehört nicht dir, sondern OpenAi.
Lange nicht mehr einen solchen Menschen erlebt.
Das Nutzen von KI verstößt nicht gegen Richtlinien. Die Antworten der KI basieren auf wissenschaftlichen Veröffentlichungen, Presseartikeln und sonstigen seriösen Quellen. Auch das nutzen der KI Antwort stellt lizenzrechtlich kein Problem dar.
Nochmals. Man kann nicht jeden User auf Quelloffenlegung drängen. Das ist und bleibt ein Forum. Das ist keine Enzyklopädie.
PS: Bitte verzichte auf falsche Themen Tags um mehr Aufmerksamkeit zu generieren!
Unpassende habe ich auch schon bereits ausgeblendet, denn sowas geht gar nicht.
Das ist sehr weit hergeholt. Du schreibst über eine KI und nutzt Tags wie Religion, die dann User wie ich entfernen müssen, weil sich manch Student langweilt.
Welchen Sinn hat eine KI, wenn man ihre
Beiträge immer überprüfen muss?