Also nchweisen ist so ne sache.
Es könnte proplematiscch sein weil am ende fehler da sind, die probleme machen selbst wenn ai unentdeckt belibt.:
z.b. keine zuwenig belege, fachlich falsch, usw
Dann natürlich zur eigentlichen sache, erkennbarkeit von ai.
Auch wenn viele behaupten es wäre so einfach ein detektor zu verwenden, ist es jedoch nicht.
Im gegensatzt zu programmen die plagiate erkennen, indem sie einfach deinen text mit einer masse an texten usw vergleichen, und dann am ende auch mauell verifiziert werden kann,, funktioniert das bei ai nicht so einfach.
Es gibt keine datenbank oder so mit allen ai generierten sachen, wie oben, sondern man versucht eine andere ai bzw anlogritmen den text zu geben, welche bestimmte characterisitken vergleicht.
Falls du das jetzt auch ein wenig dubios findest, dann liegst du korrekt. Das problem ist halt dass damit nicht nachgewiesen werden kann ob der text mit ai geschrieben wurde. Naja, es kann ggf, und unter vorbehalt nur gesagt weren dass der text zu einem gewissen prozen und einer gewisssen warscheinlichkeit merkmahle enthellt, die ggf ein LLM usw auch produziert.
Und dann haben wir auch noch ein weiteres problem, denn woher wissen wir denn dass diese einschätzung korrekt ist? OpenAI beitet kein solches tool an. Also sollen wir jetzt einer firma vertrauen, welche nur profitiern kann wenn die erkennung positiv ist (denn wenn es tendenziell mehr "kein ai" ergebnisse gibt, warum sollte man dann geld für ein produkt ausgeben, da ja das problem doch nicht so groß ist wie man denkt) anstatt dem studenten?
Und da kommen wir ja auch noch zu nem anderen problem, denn selbst wenn wir ausgehen, dass etwas tatsächlich 100% merkmale einer ai aufweist und wir davon ausgehen dass diese einschätzung 100% korrekt ist, kann es ja immer noch sein, dass jemand z.b. etwas zietert (legitim) und das mit ai geschrieben wurde, also dass dei quelle ai benutzt hat, oder wenn der student einfach nur zufällig ähnlich schreibt wie die ai (was mir sogar öffter passiert).
Wo kann eine uni belegen dass tatsächlich ai verwendet wurde (ganz abgesehen von legitimen ntutzen von ai wie rechtschreibfeheler verbessern, usw).
Nun, also kann man nicht ai erkennen, zumindest so dass der nachweis die ggf. anfallenden konsequenzen rechtfertigt die der student bekommen würde?
Oder doch?
Stellen wir uns mal vor wir würden einfach mehr arbeit reinstecken. Und zwar könnte man vorhergehende arbeiten des studenten miteinander vergleichen. Gibt es jetzt zum beispeil merkmale die bei vielen vorhergehenden arbeiten aufgetreten sind und dem studenten zuzuschreiben sind, aber dise nicht/wenig in der verdächtigten arbeit auftreten, kann man zumindest zum schluss kommen, dass es möglich wäre dass die arbeit nicht selbst verfasst wurde.
Auch kann es passieren, dass relikte aus chat gpt auftauchen wie z.b. "Ok, hier die antwort wie ...", Besondere formatierungen, usw.
Sollten keine solchen relike vorhanden sein und auch keine große auffälligkeit der merkmale zwischen den arbeiten vorhandensein, müsste jeder besser sortierte anwalt in der lage sein, die sache als idiotisch und unbelegt darstellen.
Und in der regel sagt niemand was wenn man ai als hilfsmittel, zur quellenfindung, satzbau, structurierung usw verwendet. Aber ob man wirklich alles mit ai schreiben muss, weissss ich nicht...
Naja und ich glaube auch dass unsere gesetzte bestimmt paar Paragraphen haben die solch Detektoren den kämpf ansagen
https://www.uni-hannover.de/fileadmin/luh/content/online-lehre/LUH_KI-Detektoren_04.03.2025_mit_DOI.pdf