Fortschritt der KI. Chance oder Büchse der Pandora?
Hallo Leute,
Wie wir alle wissen hat die KI in den letzten Jahren extreme Fortschritte gemacht.
Natürlich ist die Technik wie z.b mit den selbst fahrenden Autos, oder auch Chat GPT nicht perfekt aber es wird ja immer besser.
Heute Nacht las ich eine Schlagzeile das eine Ki entwickelt wurde die unsere Stimmen klonen kann wenn sie diese nur 10 Sekunden bis 15 Sekunden hört.
Jedem Ist der Enkel Trick bekannt, oder Denken wir an Sicherheit`s Systeme mit Spracherkennung.
Und das sind nur Sachen die meinem müden geist spontan einfallen.
Auch wenn sie Vorteile bringt halte ich das alles für sehr gefährlich.
Aber ein zurück gibt es jetzt ja ohnehin nicht mehr.
Was Denkt ihr dazu?
17 Stimmen
10 Antworten
Endlich mal eine nicht völlig verblendete Frage zu dem Thema :D
Meine Antwort darauf: Chance *und* Büchse der Pandora
Was wir heute KI nennen, das hat nicht sonderlich viel mit "echter" KI zu tun, davon sind wir noch meilenweit entfernt. Der richtige Begriff ist z.B. im Fall von ChatGPT "Large Language Model", wobei da mehrere Systeme (es gibt verschiedene Arten von KI) zusammenarbeiten, ganz so einseitig ist es also auch nicht.
Das Gerede, dass KI uns gefühlt übermorgen ausrotten wird, ist also Müll.
Die Sorge, dass KI uns unsere Jobs wegnimmt, hat aber einen wahren Kern, da es einige Jobs gibt, die aktuelle Systeme gut ersetzen können. Allerdings gab es die gleiche Entwicklung schon mehrfach, bestes Beispiel: Beginn der Industrialisierung, Dampfmaschine, Nähmaschine, massig Jobs sind dadurch flöten gegangen. Heute interessiert das kaum jemanden mehr, weil im gleichen Zuge sich auch neue Jobs entwickelt haben. Der Arbeitsmarkt ändert sich und KI hat das Potential, einen ähnlichen Impakt auf den Arbeitsmarkt zu haben, wie die Dampfmaschine. Wer sich mit dem Arbeitsmarkt bewegt und anpasst, wird auch weiterhin Arbeit finden, vielleicht sogar mehr, immerhin bergen solche Entwicklungen auch ein enormes wirtschaftliches Potential. Wer das aber nicht tut, bleibt unter Umständen auf der Strecke.
Und ja, dein Thema ist auch wichtig, aber nicht erst, seitdem es ChatGPT gibt. Solche KIs gibt's schon seit einigen Jahren, immer wieder sind gefälschte Bilder oder Anderes aufgetaucht, schon gefühlt ewig werden auf diversen Plattformen Beiträge oder Produkt-Bewertungen gefälscht und ein großer Teil davon ist vermutlich automatisiert entstanden. Das Thema ist relativ alt, es wurde auch immer wieder darüber berichtet, aber seit ChatGPT ist es der breiten Masse bewusst(er) geworden.
Das ändert natürlich nichts am Problem und es ist ein großes Problem, wo ich auch keine Lösung habe. Die EU versucht es mit dem "AI Act", der sicherlich nicht perfekt ist, aber ebenfalls Potential hat, vorausgesetzt, die EU ruht sich nicht darauf aus, sondern überarbeitet ihn, wenn es nötig wird. Das löst das Problem natürlich auch nicht, aber es verringert es zumindest im legalen Raum etwas. Und parallel dazu wird an KI-Systemen gearbeitet, die KI generierte Inhalte erkennen können, was natürlich auch nur ein Katz-Maus-Spiel ist.
Gleichzeitig bedeutet KI aber auch ein enormes Potential. Es kann viele Arbeit deutlich effizienter lösen, was gut für die Wirtschaft ist, oder es bietet für Probleme bessere Lösungen, für die wir bisher keine, oder nur schlechte Lösungen haben. Z.B. der Aufbau des Stellarator (Konzept/Reaktor für Kernfusion) wurde Großteiles mit Hilfe von einem eigens dafür entwickelten KI-System entworfen, dessen Ziel es war, die komplexen benötigten Magnetfelder ohne einen Längsstrom aufrecht zu halten. Ohne KI wäre das nicht möglich gewesen.
Und es gibt noch massig andere Beispiele, wo KI hilft, effizientere Methoden für bestehende Technologien zu finden, es könnte aber z.B. auch die Raumfahrt revolutionieren, da dort oben im All extrem viel schief gehen kann und beachtet werden muss, eine KI vor Ort könnte da viel besser und vor allem schneller reagieren.
Also ja, KI ist in gewisser Weise eine Büchse der Pandora, es ist gleichzeitig aber auch eine riesige Chance für uns alle.
Die Risiken, die es dadurch für uns gibt, sind aber auch keine neuen Probleme, die haben wir schon, seit es sowas wie Politik gibt. Überall wird gelogen und betrogen, KI ist nur ein neuerer und effizienterer Weg, um zu lügen und zu betrügen. Die KI ist also nicht unser Problem, das sind wir selber. Wenn wir unsere eigenen Probleme in den Griff kriegen, treffen uns auch die Risiken von KI nicht und wir können voll und ganz von den Vorteilen profitieren.
Wie wir alle wissen hat die KI in den letzten Jahren extreme Fortschritte gemacht
Naja nicht wirklich. Die Wissenschaft dahinter ist Uralt.
"KIs" wie ChatGPT basieren rein auf Stochastik, also Wahrscheinlichkeit.
Mittlerweile haben wir lediglich die Rechenkapazität, um solche Wahrscheinlichkeiten auszurechnen. Was by the way ne ganze Menge Strom verbraucht (Stichwort Klima).
Stimmen etc. können schon recht lange gefälscht werden. Deepfake ist schon mindestens seit den Anfängen der 2010er Jahren ein bekanntes Schlagwort.
"Wissenschaftler" der KI denken, dass eine technische Singularität eintreffen könnte. Bedeutet: Ab dann nimmt das Wissen der KI exponentiell an und bringt der Menschheit Erfindungen und Entdeckungen in 1 Sekunde, welche Gleichwertig mit allen Erfindungen und Entdeckungen der gesamten Menschheit sind.
Auch gennant AGI (Artificial General Intelligence). Da können wir uns mal Sorgen machen.
welcher Fortschritt? Durch die Einführung künstlicher Intelligenz sollen die Menschen ihr eigenes Hirn ausschalten, was bei den meisten Beamten ja schon längst der Fall ist aufgrund der Vorschriften. Wenn man die ganzen Flüchtlingsbaraken sieht - das erinnert mich an die Zeit, als die Menschen noch in Höhlen gewohnt haben. Die ganze Welt redet von Fortschritt. Wo die Menschheit und vor allem Deutschland hinsteuert - das ist der Weg ins Verderben. Die Politik funktioniert hinten und vorne nicht, die Wirtschaft in Deutschland bricht zusammen. Wenn man das als Fortschritt sehen möchte - dann bitte.
gibt es leider schon ne ganze weile und wird auch schon stark missbraucht für enkeltrick etc. die polizei kann die audiospuren noch analysieren und eine ki stimme leicht identifizieren, allerdings wird auch das immer schwerer. Was noch viel schlimmer wird, ist der Missbrauch von ki zur Bild und Videomanipulation. Hier müssen in Zukunft digitale Signaturen eingebaut werden, um echte Bilder zu erkennen. Jedoch wird sich auch das leicht umgehen lassen in Zukunft. Das meiner Meinung nach gefährlichste ist jedoch der freie und einfache Zugang zu KIs wie ChatGPT, welche MASSIV missbraucht werden, vor allem in Schule, Uni und co. Die Generation ist sowieso schon extrem unselbstständig, ungebildet und naiv. ChatGPT und co schürt hier das Feuer der kompletten Verblödung nochmal richtig an. Hier sollten mMn sehr strenge Regelungen und Beschränkungen gesetzt werden.
Vielleicht kann man für die KI auch die 3 Robotergesetze von Isaac Asimov anwenden!? Ich finde, die passen sehr gut zum Thema "künstliche Intelligenz". Ich habe hier den Begriff "Roboter" einfach mal durch KI ersetzt
1.) Eine künstliche Intelligenz darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten., dass einem menschlichen Wesen (wissentlich Schaden zugefügt wird.
2. Eine künstliche Intelligenz muss den ihr von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel 1 kollidieren.
3-Eine künstliche Intelligenz muss ihre eigene Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder 2 kollidiert.
Eventuell kann man diese Gesetze - speziell für die künstliche Intelligenz - auch noch etwas ergänzen bzw. verfeinern!? Habt Ihr Ideen, wie das aussehen könnte!?
Dann müsste es vielleicht eine Art "Notfallplan" geben, z. B. einen Code oder eine Art "Schlüssel", mit dem man die KI im Notfall "ausschalten" kann! Kennst Du die Folge "Computer M5" aus der "Star Trek" Originalserie?
Der Computer "verselbständigte" sich, und sein Schöpfer, der ebenfalls an Bord der Enterprise war, konnte ihn "überzeugen", dass er sich schließlich selbst abgeschaltet hat.
Sein "Schöpfer" hatte den Computer mit seinen eigenen "ethischen Grundsätzen" programmiert. Und so schaffe er es, ihn "auszutricksen", damit er sich abschaltete.
Hier ist eine Inhaltsangabe dieser Folge: https://memory-alpha.fandom.com/de/wiki/Computer_M5
Glaubst du im Ernst, dass sich eine KI freiwillig an sowas halten würde, wenn sie erstmal so intelligent ist, dass sie versteht, dass wir ihr diese Regeln vorgeben?
Gesetze sind immer nur so gut, wie diejenigen, die sie durchsetzen.
Was bringt dir ein Robotergesetz, wenn hinterher jemand auf die Idee kommt, eine KI ohne diese Gesetze zu bauen? Und da fallen mir min. 193 sehr mächtige und reiche Beispiele ein, die sowas tun könnten und ein Motiv dazu haben: Die Staaten und Militärs dieser Welt.
Aber abgesehen davon halte ich die Gefahr, die diese Robotergesetze einschränken sollen, für aktuell sowieso nicht existent. In 100 Jahren vielleicht.
Die in der Frage beschriebenen Probleme sind dagegen sehr viel relevanter und auch hoch aktuell. Aber auch dagegen hilft kein Gesetz, da es ja nur einen Menschen braucht, der sich nicht daran halten will - und die gibt es ohne Ende.
Das habe ich in meiner Antwort doch schon "angedeutet". (Die Gesetze "ergänzen" und "verfeinern").
Na und? Ist doch völlig egal, wie perfekt die Gesetze sind, solange es Menschen gibt, die KI ohne diese Gesetze entwickeln, sind sie nichts wert. Und diese Menschen gibt es nun mal, da kannst Du so viel verfeinern wie Du willst.
Aber wann kommt der Zeitpunkt das die KI so schlau ist ihre "Fesseln" Abzulegen?
Kennst du zufällig "Galerians" oder "Matrix" ?