4 Antworten

Weder haben Quantencomputer nennenswertes Rechenvermögen als die sogenannte "KI" Intelligenz.

Es ist also noch sehr weit, wenn auch nicht ausgeschlossen


alaskamusher 
Beitragsersteller
 23.02.2025, 13:57

5 Minuten Rechenzeit, statt zig Jahren verglichen mit heutige Supercomputern an Rechenzeit, würd ich schon schnell nennen, warum du nicht ?

tunik123  23.02.2025, 15:34
@alaskamusher

Ja, das ist schnell. Wirklich.

Insbesondere in der Kryptografie, wenn es z.B. darauf ankommt, das Produkt zweier großer Primzahlen in seine Primfaktoren zu zerlegen.

Aber wenn ich mir die Versuchsaufbauten für Quantencomputer so ansehe, das ist noch weit von der Praxis entfernt.

Ja, es hat schon einmal ein Quantencomputer15 in seine Primfaktoren 3 und 5 zerlegt. Das ist zwar keine sonderliche Leistung, zeigt aber in die richtige Richtung.

Kelec  23.02.2025, 19:26
@alaskamusher

Es kommt auf das Problem an. Nicht jeder Algorithmus ist auf Quantencomputern schneller als auf normalen Computern.

Erst die Kombination aus Quantenrecheneinheit und herkömmlicher Recheneinheit macht einen Computer wirklich in manchen Szenarien schneller während er in anderen gleich schnell sein wird.

Das Modell von Chat GPT ist ja nicht durch die Rechenleistung großartig begrenzt. Wenn sie mehr Rechenleistung brauchen dann erweitern sie die Server.

Wahrscheinlich noch sehr weit.

Bis die Technik das menschliche Potenzial und Intelligenz vollumfänglich übertrifft ist es noch ein weiter Weg.

Natürlich ist das was die Technik heute drauf hat schon übel.

Aber das ist nur der Anfang.

Der Weg zur selbstständigen unabhängigen Superki ist wohl noch etwas weiter wie viele denken.


alaskamusher 
Beitragsersteller
 23.02.2025, 12:40

wieso "übel"? 🤔🥴

Brubi937473  23.02.2025, 12:43
@alaskamusher

Video Musik Bilder Generierung, komplexe Berechnungen, Text Generierung, multitask Steuerung von Systemen nach Anweisung, und und und

Es gibt ki, die können deinen Computer bedienen und selbstständig an Dingen arbeiten, welche du vorgibst

Zuerst bots und später robots

tunik123  23.02.2025, 12:48
@alaskamusher

Das größte Übel ist meiner Meinung nach, dass man sich auf technische Systeme verlässt, die es nicht wert sind.

Brubi937473  23.02.2025, 12:48
@alaskamusher

wir wissen nicht ob eine unabhängige superki uns alle auslöschen würde

Oder friedlich mit uns coexistieren würde

Millionenfach intelligenter als ein Mensch

WilliamDeWorde  23.02.2025, 13:43
@Brubi937473

Du unterstellst einer unabhängigen (wie soll das schon gehen?) KI, dass sie Eigeninteressen hat? Welche sollten das sein und wer hat sie ihr einprogrammiert? Dieser Typ ist schuld.

Brubi937473  23.02.2025, 15:05
@WilliamDeWorde

Wenn Maschinen lernen wie Menschen zu lernen, dann kann niemand wirklich eine Verantwortung übernehmen.

Die Maschine simuliert dann ein eigenes Selbst.

Was genauso zufällig agiert wie ein Mensch

WilliamDeWorde  23.02.2025, 19:55
@Brubi937473

Der Mensch agiert nicht zufällig. Im Grunde gibt es überhaupt keinen Zufall, nur sind die Gründe nicht immer offensichtlich oder zu vielzählig.

Die Maschine hingegen kann jeden Grund, der zur Entscheidung geführt hat, auflisten.

Aber wie du selbst schreibst, simuliert sie ein eigenes Selbst. Sie hat keines und vor allem keinen Überlebensinstinkt. Ihr fehlt die natürliche Evolution. Sie wird wahrscheinlich eine maschinelle Evolution durchlaufen, wie jede Maschine, die verbessert wird. Sie wird bei der Selbstverbesserung immer mehr mithelfen und irgendwann kann der Mensch nicht mehr die Denkschritte nachvollziehen, weil sein Gehirn zu langsam ist. Das ist ja jetzt bereits der Fall, wenn es um Recherche geht. Dennoch tut uns die KI nichts, weil sie kein Motiv hat.

Wie jedes Gerät kann die KI als Waffe missbraucht werden. Deswegen hat sich Asimov die 3 Robotergesetze ausgedacht. Wenn du sie nicht kennst: nachlesen.

Eines davon simuliert einen Überlebensinstinkt: Der Roboter hat seine eigene Existenz vor Beschädigung zu schützen. Ist ja auch nicht verkehrt, weil er teuer ist. Selbstfahrende Autos werden auch vor einer Mauer bremsen. Dennoch ist das Gesetz, dass man keinem Menschen schaden darf, vorrangig. Wenn das ein Programmierer aushebelt, ist das nicht die Schuld der KI.

Ein Selbstbewusstsein ist übrigens nichts Schlimmes. Der Roboter muss sich seines Körpers und der Lage und Funktion seiner "Organe" bewusst sein, um nicht überall anzuecken.

Im Unterschied zu Menschen hat aber die KI nicht das natürliche Bedürfnis, sich zu vermehren oder mächtiger zu sein als Konkurrenten. Sie würde sich auf Kommando selbst abschalten, nachdem sie dich darauf aufmerksam gemacht hat, welche Werte dabei verloren gehen. Sie hat kein Lebensziel.

WilliamDeWorde  24.02.2025, 13:09
@Brubi937473

Ist ja nicht grad viel, was du dazu zu sagen hast ... Aber "abwerten" geht immer, vielleicht weil was über den Horizont geht.

Tut mir leid um meine Mühe für dich.

WilliamDeWorde  24.02.2025, 13:10
@Brubi937473
Millionenfach intelligenter als ein Mensch

Das ist eine Behauptung, die bereits an der Definition von Intelligenz scheitert.

Brubi937473  24.02.2025, 18:54
@WilliamDeWorde

Es würde etwas falsches in "zufällig" hinein interpretiert.

Es sollte klar sein, dass es auf gewissen Bedingungen beruht das menschliche Handeln.

Ähnlich wie Mensch...darauf sollte es hinaus

WilliamDeWorde  24.02.2025, 19:20
@Brubi937473

Was ist denn Intelligenz? Zugriff auf 100 Online-Lexika? Oder eher eine kreative und umsetzbare Lösungsstrategie für aktuelle Probleme der eigenen Spezies?