Glaubt ihr wirklich an die "Alleskönnende KI"?
Sobald man sich damit tatsächlich mal auseinandersetzt mit Personen, die weder Investoren sind, noch ein Offensichtlichen Vorteil haben würden wenn diese LLMs als besser dargestellt werden als sie schon sind, findet man schnell raus, dass das ein Witz ist.
Siehe: Die Maintainer von einer sehr bekannten Software bekommen KI Generierte CVEs, die zum großteil einfach scheiße erzählen, oder dass ein Programmierer, selbst nachdem er ein CVE gefunden hat, und es 100 mal durch eine KI gejagt hat, um spezifisch diese zu finden, diese nur 8 mal gefunden hat, und davon 28 mal etwas falsches geschrieben hat.
Und auch Anwälte müssen keine Angst vor ihrem Job haben
Und dann kommt der ganze scheiß mit AI Art, die von weißen Hetero cis Männern als "Die Lösung für Leute, die kein Geld haben, oder Körperlich behindert sind", beschrieben wird. Obwohl es bisher keine einzige solche Person gab, die sowas tatsächlich bestätigen konnte.
Ach, und das beste: Das ganze ist Wirtschaftlich nicht mal halbwegs Nachhaltig
Oder spezifischer für AGI: https://www.wheresyoured.at/optimistic-cowardice/
Dazu noch, dass diese KI Aktiv das ganze wissen auf unserer Welt verschmutzt und mehr Strom, Speicherplatz, Wasser, CO2, und Platz verbraucht als irgendwas anderes, und dabei auch ein Global Unregulierten Sklavenmarkt entstehen lässt, fragt man sich aber ernsthaft, wieso es noch Menschen gibt die noch nicht darauf gekommen sind, mal tatsächlich anzusehen, wie die Nutzer dieser KI, die davon Profitieren sollen, tatsächlich davon Profitieren.
11 Stimmen
3 Antworten
Selbst in den letzten Jahren gab es dort enorme Fortschritte und KI fährt eigentlich mit angezogener Handbremse. KI kann viel, darf aber wenig.
Ich sehe wie du den Hype, und auch dass es anscheinend Grenzen gibt was die jetzigen Modelle angeht. Die kann man eben nicht endlos verbessern indem man sie mit noch und noch mehr Daten fuettert, denn es gibt nicht mehr genug, das gesamte Internet ist schon aufgebraucht. ChatGPT 5 sollte ja schon lange rauskommen, aber das wird wieder und wieder verschoben.
Eine Loesung zum Datenmangel koennen evtl. synthetische Daten sein, d.h. von AI generierte, aber das funktioniert nur bei absoluten Sachen wie Mathematik, Code usw., in andere Feldern fuehrt synthetische Data zu Zusammenbruch der Modelle.
AGI - dafuer gibt es nicht mal eine einheitliche Definition, von daher eine Marketingsache. MIcrosoft und ChatGPT haben fuer AGI eine finanzielle Definition: wenn ChatGPT mind. 100 Mrd. Profit hat ist AGI erreicht (TechCrunch)
In meinen Augen viel weniger wahrscheinlich als spezifische Modelle, z.B. fuer bestimmte Felder in Chemie oder Medizin, und da sehe ich auch wie AI echte Vorteile bringen kann.
Was ChatGPT angeht, ich sehe schon wie sie die Wahl haben werden pleite zu gehen, oder die Daten der User zu verkaufen, und sie werden totsicher zweiteres waehlen. Deshalb wuerde ich ChatGPT nie etwas persoenliches anvertrauen.
Du hast doch selbst einen Artikel veröffentlicht wo etwas anderes geschrieben wird.
Ja die KI hat 8 mal einen Fehler entdeckt und die False positives waren enorm, sie hat aber auch einen Fehler gefunden den der Mensch nicht gefunden hat und das ist der springende Punkt hier.
Also es steckt da durchaus potential drinnen nur muss man sie eben auch wie ein Werkzeug einsetzen. Der beste Hammer nützt einer Person nichts wenn sie nie gelernt hat ihn richtig zu verwenden.
Die Person hat sie richtig verwendet. Sie hat auch einen Zero Day Exploit gefunden den nur die KI gefunden hat.
damit diese nicht 28 mal etwas falsches ausgibt
False positives sind bei solchen Analysen normal. Auch Virenscanner erkennen bei der heuristischen Analyse auch manchmal Software als Viren die keine ist.
Allerdings sind die über die Jahre so gut geworden dass diese False Positives praktisch kaum mehr relevant sind. Sofern die Scanner aber extrem eingestellt sind würden die auch 80% false positives haben aber dann auch Viren erkennen die andere nicht erkennen.
Da sieht man mal wieder wie wenig ahnung du hast
Bei einem Virenscanner kann so ein false positive mal vorkommen, es dauert ja auch nur wenige Minuten um nachzuschauen ob es echt ist, und dein PC ist auch keine kritische Infrastruktur.
Bei solchen großen Projekten dauert es pro Halluzination Stunden bishin zu tagen, um mal rauszufinden, ob sowas echt ist oder nicht. Siehe die Reportage über curl.
Mal ganz davon abgesehen, dass es bei solcher sehr kritischen Infrastruktur einfach nicht so viele false positives geben darf, weil es die Menschen desensibilisiert. In einem Krankenhaus würde man auch niemanden einstellen, der zu 97% nicht bescheid gibt wenn jemand ein herzinfalt hat, dafür aber zu 28% einfach mal falsche alarme setzt, weil man dann zu diesen begriffen desensibiliert wird.
Na komm wenn du mit so einer dummen Bemerkung um die Ecke kommst kannst du es auch gleich lassen....
Ich habe auch bewusst von Potential gesprochen:
Also es steckt da durchaus potential drinnen nur muss man sie eben auch wie ein Werkzeug einsetzen.
...und ne minute später hast du davon gesprochen, dass die Person das ja richtig eingesetzt hat
Also was ist es jetzt? Hat die Person sie nicht als Werkzeug verwendet, oder hat er es?
Und ich würde gerne wissen, womit ich so um die Ecke gekommen bin. Dass der junge der immer Wolf schreit nicht in kritische Infrastruktur gehört?
Da sieht man mal wieder wie wenig ahnung du hast
Es gibt sogenannten respektvollen Umgang.
Ja er hat das Tool richtig verwendet und ja die False Positive Rate ist zu hoch, aber auch normal für eine Anwendung in den Kinderschuhen, die frühen Virenscanner hatten das selbe Problem, aber durch die Entwicklung wurde das besser. Bestreitet doch niemand....
Es geht darum, dass die KI einen Bug gefunden hat den Menschen nicht gefunden haben. 10 Jahre mehr Entwicklung und dann hast du eben nur noch einen False Positive in 1000 Fällen und das ist das was ich gemeint habe als ich vom Potential gesprochen habe.
Also spar dir bitte deinen herablassenden Ton.
. 10 Jahre mehr Entwicklung
Siehe mein link zu wheres your ed at.
Es wird viel länger dauern, bis Menschen wieder so viele für sie legal nutzbare Daten generiert haben, dass die KI sich wieder so schnell entwickeln kann wie jetzt
Unter dem Link finde ich nichts, aber ist an sich nicht weiter von belang.
Eine KI gestützte Codeanalyse hat hier eindeutig Vorteile gezeigt die statische und heuristische Analysen nicht haben und es macht meines erachtens durchaus Sinn das ganze weiter zu verfolgen.
Möglicherweise kann man es auch mit einem hybriden Ansatz machen. KI Codeanalyse und anschließende Filterung der Ergebnisse um False Positives zu erkennen.
Der gefundene Bug, ein Klassischer use after free bei Multithreading ist eben für Menschen kaum ersichtlich und fällt auch bei klassischen Analysen kaum auf. Wenn die KI aber einen Pfad liefert wo das Problem liegt wie es getriggert werden kann etc kann eine andere Software das auf Plausibilität prüfen.
Ich glaub eher du hast keine Ahnung, find es lustig wie Leute rumätzen wenn ihnen das Ding nicht auf Anhieb die perfekte Lösung liefert. Es wurde ursprünglich nichtmal entworfen um überhaupt irgendwas komplexes lösen zu können, das produziert nur Text, der aber durch die irre Anzahl der Trainingsdaten oftmals sinnvoll ist und auch auf gewisse Weise etwas löst. Der weiß nicht ob er Fehler macht oder nicht, der weiß auch gar nicht was du fachlich von ihm willst. Und dafür und dafür dass man es (zumindest noch) kostenlos nutzen darf, ist es doch ein nettes Tool was unser Leben bereichert.
Bitte erkläre mir, wie die Person im Artikel dieses Werkzeug falsch verwendet hat.
Und natürlich wie man es "richtig verwendet" damit diese nicht 28 mal etwas falsches ausgibt.