KI Künstliche Ingtelligenz

4 Antworten

KI ist gut, um eintönige Arbeit zu abzugeben. Dafür gab es auch früher schon etwas, nennt sich Robot Process Automation. KI bringt da nur das "I" noch mit, aber das auch nicht automatisch gut.

Und ich kenne auch keinen Betrieb, der KI ausschließlich einsetzt (also die Menschen in diesem Bereich komplett ersetzt).

Erklärung:

Denn bei KI ist es wichtig zu hinterfragen, woher die Daten kommen. Denn eine KI, die nicht mit einem Kontext versehen ist, erfindet gerne etwas und das, was dabei rauskommt, ist in 70% der Fälle absolut unbrauchbar. Stell es Dir so vor:

Du fragst eine Person, die eine absolute Koryphäe (Experte) in Gebiet der Biologie ist (und in nichts anderem), ob er Dir die Merkmale des Impressionismus nennen kann. Statt zu sagen "sorry, dass weiß ich nicht." denkt sich KI was aus und verkauft Dir das als Fakten. Wenn Du diese Informationen nicht prüfst, eignest Du Dir falsches "Wissen" an.

Aber auch mit Kontext kann das, was KI Dir ausgibt, falsch sein. Denn wenn die Daten, mit denen die KI trainiert wurde (Kontext), biased (also voreingenommen) sind (also nicht neutral), dann wird auch die KI biased antworten. Auch hier muss jemand für die Richtigkeit der Antworten der KI sorgen.

Weiter:

KI darf keine Entscheidungen treffen können. Diejenigen, die das trotzdem so handhaben, gehen ein sehr großes Risiko ein. Allein deswegen braucht es jemanden, der die KI überprüft. Anders als Menschen ist eine KI nämlich nicht schuldfähig. Sie kann nicht zur Rechenschaft gezogen werden.

Es stimmt, dass KI in vielen Bereichen Arbeitsplätze obsolet macht. Es stimmt aber genauso, dass KI in mindestens diesen Bereichen ebenfalls Arbeitsplätze ändert (denn jemand muss die KI anwenden und auswerten können) oder gar neue schafft. Ich (arbeite in der IT) sehe, dass KI den Menschen die lästigen Arbeiten abnehmen oder erleichtern kann, aber wirklich kreative Aufgaben kann eine KI nicht übernehmen. Denn KI kann nicht über den Tellerrand hinaus schauen. KI kann das faken, klar. Aber es heißt nicht, dass sie zB tatsächlich kreativ ist.

Woher ich das weiß:Berufserfahrung – Langjährige Berufserfahrung in der IT

AlterLeipziger  16.06.2025, 18:40

Sehr gut erklärt, dem kann ich nur beipflichten.

Noeru  16.06.2025, 18:33

Derjenige, der diese Antwort negativ bewertet hat, möge das begründen.

medmonk  16.06.2025, 21:15
@Noeru

Ich habe deinen Beitrag so bewertet, weil er trotz deiner Tätigkeit in der IT entweder auf veraltetem Wissen basiert oder du dich bisher nicht tiefergehend mit den aktuellen Entwicklungen beschäftigt hast. Ganz gleich ob KI, andere Technologien oder Softwarelösungen - entscheidend ist immer, wie sie konkret implementiert werden. Damit steht und fällt alles - nicht nur was KI anbelangt.

Die Aussage, dass KI keine Entscheidungen treffen dürfe, ist mittlerweile überholt. In vielen Bereichen ist genau das längst Realität - und das nicht erst seit dem Hype um OpenAI/ChatGPT. Systeme/Umgebungen, in denen KI autonom agiert, gibt es seit Jahren: im algorithmischen Hochfrequenzhandel, in industriellen Prozessen oder als Dienste mit Retrieval-Augmented Generation. Ein weiteres Beispiel: KI mit Linux, Docker und Kubernetes - isoliert in Containern, wo sie eigenständig Teilprozesse steuert, ohne dass jemand direkt eingreift.

Natürlich kann man darüber diskutieren, wo KI beginnt und wo sie endet. Selbst wenn man klassische Algorithmen ausklammert und sich explizit nur auf die moderne Entwicklungen konzentriert, ist der Stand der Technik weiter, als du ihn hier beschrieben hast. Deine Darstellung erinnert eher an die Perspektive von Endanwendern oder das, was viele sich unter KI vorstellen, wenn sie einmal mit ChatGPT gehört oder nur darüber so bewusst mit einer KI interagiert haben.

Ja, KI kann halluzinieren - das ist ein reales Problem. Aber genau deshalb gibt es ja Konzepte wie Retrieval-Augmented Generation (RAG), bei denen die KI nur mit echten Daten aus definierten Quellen arbeitet. Kombiniert mit Determinismus (z. B. Temperatur 0), Source Grounding, Tools wie LangChain oder LlamaIndex oder der Einsatz von KI als reiner Parser sorgen dafür, dass ausschließlich belegbare/faktenbasierte Inhalte ausgegeben werden. Das setzt natürlich eine saubere Architektur und Konfiguration voraus - es reicht eben nicht, einfach ein LLM über eine API laufen zu lassen und zu hoffen, dass alles passt.

Entscheidend ist immer, wie weit man einer KI Entscheidungsfreiheit einräumt - und das lässt sich präzise steuern. Unternehmen wie z.B. Airobotics oder Kodiak Robotics zeigen, dass autonome Entscheidungen unter bestimmten Rahmenbedingungen nicht nur möglich, sondern auch zuverlässig sind. Sie nutzen dazu moderne Verfahren wie Computer Vision, neuronale Netze, Reinforcement Learning und/oder Sensorfusion, um flexibel und adaptiv auf die Umgebung zu reagieren. Ähnlich in anderen Branchen, Bereichen und Produkten.

Die Behauptung, KI könne keine kreativen Aufgaben übernehmen, stimmt so ebenfalls nicht. Das eine KI kein da Vinci, van Gogh oder Picasso 2.0 ist oder wird sollte allen klar sein. Aber sie übernimmt auch in diesem Feld längst eine Vielzahl von unterschiedlichen, kreativen Aufgaben. Dafür sind Vision-Modelle da sowie ein unterschiedliches Zusammenspiel über APIs und andere Tools.

Letztlich sollte man die Stärken und Schwächen der jeweiligen Modelle kennen und den Einsatz am konkreten Zweck orientieren: Welches Model eignet sich für welchen Anwendungsfall? Welche Eigenschaften sind entscheidend? Und wie stellt man u.a. sicher, dass eine KI nur auf bestimmte Daten/Quellen zugreifen kann/darf? Das funktioniert nur mit einem klar definierten Rahmen - technisch, organisatorisch, rechtlich aber auch ethisch. Meine Bewertung ist ja nicht gegen dich als Person gerichtet, sondern lediglich als Kritik per Klick zu verstehen.

LG medmonk

DasFloYT  16.06.2025, 22:49
KI darf keine Entscheidungen treffen können. Diejenigen, die das trotzdem so handhaben, gehen ein sehr großes Risiko ein.

Ich bin eher der Überzeugung, dass nicht die Entscheidungsfähigkeit an der KI gefährlich ist, sondern wie man sie entwickelt hat. Doof gesagt muss man den Code der KI "limitieren", so dass sie gewisse Grenzen nicht überschreiten kann.

Mit solchen Funktionen könnte sie gar keine Entscheidungen treffen, oder Grenzen überschreiten, die die Programmierer vorher ausgeklammert haben.

Liesche 
Beitragsersteller
 16.06.2025, 19:41

Mit Deiner Antwort komme ich schon eher zur Erkenntnis über KI, danke.

Vorweg möchte ich eins sagen:

Das, was wir und die Medien tagtäglich als "KI" bezeichnen, sind nicht mal im Ansatz KI-Modelle. Das sind viele Algorithmen die miteinander verknüpft werden und etwas maschinelles Lernen kann man auch noch finden. Von echten KI's sind wir noch Meilen entfernt.
(Der Einfachheit halber nutze ich trotzdem den Begriff KI im Folgenden.)

Im Kapitalismus geht es nun mal um effiziente und billige Unternehmensführung für maximalen Gewinnt im Unternehmen. Mitarbeiter müssen Pausen machen, wollen Urlaub und Gehalt und brauchen viel Equipment. Außerdem arbeiten sie nur 8h pro Tag. Eine KI kann permanent arbeiten, ohne Gehalt, Urlaub oder Pausen. Sie kann zum Beispiel aufwendige Büroarbeit, die Menschen Wochen kosten würde, in wenigen Minuten bis Stunden erledigen.

Was aber immer weggelassen wird: KI schafft auch neue Arbeitsplätze. Es gibt ein ganzes Berufsfeld, was sich nur um KI-Prompts dreht. Design, Softwareentwicklung und Verwaltung wurden dadurch viel besser. Von der Sicherheit ganz zu schweigen.

Ich denke, wir sollten KI als Ergänzung zum Menschen nutzen, eben auch weil unsere "KI's" noch fehleranfällig sind. Einfache Verwaltungsaufgaben hingegen können sie ruhig komplett übernehmen. Auf kurz oder lang werden sich aber viele Menschen auf dieser Welt weiterqualifizieren müssen, um mit der KI mit halten zu können.

Für meine Arbeit ist KI eine tolle Ergänzung. Angst um meinen Job habe ich nicht. Dass KI perfekt programmieren kann, werde ich vermutlich nicht mehr erleben.

Woher ich das weiß:Berufserfahrung – Fachinformatiker für Anwendungsentwicklung (C#, Java, ...)

KI gibt mittlerweile Antworten, die auf dem Level von Call-Center-Agenten liegen. Sobald Du wirklich ein Problem hast, kannst Du nichts damit anfangen. KI wiederholt immer dasselbe und hört nicht zu. Wie im Call-Center. Egal, was Du sagst, sie schicken Dir einen vorgefertigten Textblock zurück. Das kann ein Computer auch. Daher fliegt der Agent raus und der Computer übernimmt.

Woher ich das weiß:Berufserfahrung – ich arbeite schon sehr lange im EDV Bereich, viele Sparten

ja, das ist möglich. Ich entwickle seit letzten Jahr u.a. genau solche Lösungen.