Warum wird durch KI-Software hervorgerufenes kriminelles Handeln nicht so geahndet, als wäre der Betreiber jener Software dafür verantwortlich zu machen?

2 Antworten

Das diese KIs träumen und lediglich versuchen, menschliche Sprache möglichst gut nachzumachen, sollte eigentlich bekannt sein.

Wer so an Technik rangeht, sorgt dafür, dass es keine Technikfortschritte mehr gibt, weil er unmöglich zu erfüllende Forderungen stellt.

Nach dieser Logik müsste auch Microsoft dafür verantwortlich sein, wenn jemand auf seinem Windows-PC was illegales macht.

Woher ich das weiß:Berufserfahrung – Softwareentwicklerin
Warum wird durch KI-Software hervorgerufenes kriminelles Handeln nicht so geahndet, als wäre der Betreiber jener Software dafür verantwortlich zu machen?

Ist doch klar

Ein Messer Hersteller oder ein Baseball Schläger Hersteller wird doch auch nicht verantwortlich dafür gemacht dass jemand ihre Produkte missbraucht

Auto Hersteller werden doch auch nicht verantwortlich gemacht dass jemand zu schnell oder über rote Ampel fährt oder gar mit Alkohol einen Menschen überfährt.

Ah ne, dann müsste man ja den Wirt oder die Brauerei verantwortlich machen 🤔

KI ist doch nur eine Software ohne Intelligenz

Wenn jemand dies mißbraucht oder ohne Kontrolle benutzt ist doch klar verantwortlich ist.

Hier Facebook

grtgrt 
Fragesteller
 30.04.2024, 22:44

Deine Beispiele sind unzutreffend, denn:

Bei Messer und Baseballschläger entsteht das Problem durch die Handhabung des Werkzeugs.

Bei KI ist das ganz anders: Sie ist dafür da, Antworten auf Fragen zu generieren: Auf welche auch immer. Ihr Anwender hat keinen Einfluss darauf, ob jene Antworten wahr oder falsch ausfallen.

0
Pinguingottin  30.04.2024, 23:10
@grtgrt

KI ist auch ein Werkzeug, du kannst nicht sagen das eine Werkzeug ist schuld und das andere nicht.

Außerdem ist KI nicht wirklich intelligent sondern ratet nur nach Wahrscheinlichkeit was passen könnte und was nicht und das auch nur als Reaktion auf den Anwender der eine Förderung stellt, KI wird nicht von sich aus gerüchte verbreiten, das sind die Daten die von anderen Menschen sind die die KI hat.

0
grtgrt 
Fragesteller
 30.04.2024, 23:17
@Pinguingottin

Klar ist: Werkzeuge können nicht schuldig werden, wohl aber ihre Betreiber, wenn sie solche Werkzeuge mit zu wenig Qualität ausstatten.

0
grtgrt 
Fragesteller
 01.05.2024, 00:20
@grtgrt Verfahren gegen Meta eröffnet

Wegen der Verbreitung von Falschinformationen zur Europawahl unter anderem aus Russland hat die EU-Kommission ein Verfahren gegen den Facebook-Mutterkonzern Meta eingeleitet. Das Unternehmen gehe auf seinen Plattformen Instagram und Facebook nicht ausreichend gegen "Werbekampagnen im Zusammenhang mit ausländischer Manipulation und Einmischung" vor, so die Kommission. "In Zeiten demokratischer Wahlen" müssten große Plattformen "ihren Verpflichtungen nachkommen", so EU-Kommissionspräsidentin Ursula von der Leyen.

grtgrt meint: Es darf nicht erlaubt sein, sich hinter KI zu verstecken.

0
grtgrt 
Fragesteller
 01.05.2024, 00:25
@grtgrt

Wo Gesetzgeber das nicht berücksichtigen, werden sie ihrer Verantwortung nicht gerecht.

0
Pinguingottin  01.05.2024, 01:18
@grtgrt

Dann wird es Zeit jeden der Plastikbeutel, Pistolen, Messer hergestellt hat zu verhaften.

Hat nix mit Qualität zu tun, kannst denen ja gerne jeden Tag hundert tausende an Euro geben oder im Fall von chatGPT 500+ tausend pro Tag nur fürs bereitstellen(Training jetzt nicht mitgerechnet).

Hat nicht jeder einfach so perat.

1
NackterGerd  01.05.2024, 07:12
@grtgrt
Bei KI ist das ganz anders: Sie ist dafür da, Antworten auf Fragen zu generieren

Falsch

KI ist eine Software die für ihre Aufgabe antrainiert wird.

Mit Fragen und Antwort hat das erst mal rein gar nichts zu tun

Natürlich ist man selbst verantwortlich welche Daten man eingibt und selbstverständlich muss man selbst prüfen ob die Ausgabe korrekt sein kann.

Dass KI natürlich nicht immer richtige Ergebnisse Liefert - liefern kann - ist doch selbstverständlich

Das liegt doch schon in der Natur der sache wie die Ergebnisse überhaupt berechnet werden.

es sind Schätzungen und Warscheinlichkeitsberechnungen.

Vermutungen!

KI hat ja keine Intelligenz

Die sollte der Anwender haben.

Deine Beispiele sind unzutreffend

Ganz und gar nicht, KI ist nur das Werkzeug.

KI beweist aber immer mehr dass Menschen ohne große Intelligenz immer mehr ihr Gehirn abschalten.

Während kluge Köpfe mit KI und richtigem Einsatz noch mehr Erfshrung machen und noch klüger werden.

Zu welcher Seite du gehören möchtest, hast du klar dargestellt

1
NackterGerd  01.05.2024, 07:17
@grtgrt
Wegen der Verbreitung von Falschinformationen zur Europawahl unter anderem aus Russland hat die EU-Kommission ein Verfahren gegen den Facebook-Mutterkonzern Meta eingeleitet.

JA du hast es Erkannt

Facebook (der Anwender der KI) ist verantwortlich nicht der Hersteller des Werkzeugs.

Genauso wie DU wenn du Ergebnisse der KI einfach als Wahrheit und 100% richtig irgendwo verbreitetst

Endlich hast du es gemerkt- nicht der Computer ist der Schuldige, sondern der, der davor sitzt und ihn bedient

1
grtgrt 
Fragesteller
 01.05.2024, 11:35
@NackterGerd

Sobald eine KI kriminelle Handlungen begeht (solche also, die man Menschen nicht durchgehen ließe), müsste der Gesetzgeber dem für den Betrieb jener KI Verantwortlichem deren Betrieb untersagen.

Das genau ist meine Meinung.

Es darf ja z.B. auch ein Autohersteller keine Autos auf den Markt bringen, die gegen gesetzliche Regelungen verstoßen. Warum also sollte für KI anderes gelten?

0
NackterGerd  01.05.2024, 11:48
@grtgrt

Wieso?

Autos können über Rot fahren

Autos können Fußgänger überfahren

Autos können viel zu schnell fahren

Heute fährt sogar jedes schneller als sie 130km/h

Und nicht die KI Gegenteil eine Kriminelle Handling, sondern der Anwender

Eine KI kann von sich aus nichts kriminelles machen

Nach deiner Begründung müssten alle Computer und Handy ja auch alle verboten werden, da man damit kriminelkes unternehmen kann.

1
grtgrt 
Fragesteller
 01.05.2024, 11:51
@NackterGerd

Unsinn. Wer der KI eine Frage stellt, kann nicht dafür verantwortlich gemacht werden, dass sie gelegentlich zu phantasieren beginnt. Die KI selbst müsste entscheiden können, was sie beantworten oder eben nicht mehr beantworten kann.

0
grtgrt 
Fragesteller
 01.05.2024, 11:55
@grtgrt

Wenn jemand an seine Wissensgrenze kommt, das aber nicht zugibt, wird er zum Lügner. Mindestens das sollte wissen, wer "intelligent" genannt werden möchte oder als intelligent angepriesen wird.

0
NackterGerd  01.05.2024, 12:09
@grtgrt

🤣😂

Di KI ist kein Mensch und kann nicht denken

Sie fängt an nicht an zu phnatasieren.

Sie berechnet nur Antworten abhängig von den Eingaben die der Mensch ihr gibt.

Berechnen kann sie ja alles mögliche.

Natürlich muss das berechnete nichts mit der Wirklichkeit zu tun haben.

Das ist doch Logisch.

Es ist nur eine Warscheinlichkeitsberechnung

1
NackterGerd  01.05.2024, 12:21
@grtgrt
Wenn jemand an seine Wissensgrenze kommt, das aber nicht zugibt, wird er zum Lügner. Mindestens das sollte wissen, wer "intelligent" genannt werden möchte oder als intelligent angepriesen wird.

Genau.

Und wenn du ein Mensch wärst und Intelligent dann würdest du das auch verstehen.

Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von „Intelligenz“ mangelt. Dennoch wird er in Forschung und Entwicklung verwendet.

Automatisiertes menschenähnliches Verhalten eines Informatik Programms.

Mehr nicht

Du als Nutzer solltest eigentlich intelligenter sein

Deine Behaupung KI würde als Inteligent und Denkend angepriesen zeigt nur dass die KI tatsächlich mehr Intelligenz aufzuweisen hat als deine Thesen und Antworten

1
grtgrt 
Fragesteller
 02.05.2024, 16:39
@NackterGerd Interessant ist, wie ChatGPT 3.5 (auch eine KI) meine Frage beantwortet:
Das Thema der rechtlichen Verantwortlichkeit im Zusammenhang mit kriminellem Handeln durch KI-Software ist komplex und noch nicht vollständig geklärt. Hier sind einige Gründe, warum der Betreiber der KI-Software oft für kriminelles Handeln verantwortlich gemacht wird:
Entscheidungsverantwortung: Der Betreiber der KI-Software hat oft die Kontrolle über deren Einsatz und die Daten, die sie verwendet. Sie treffen Entscheidungen über die Implementierung, das Training und die Überwachung der KI-Systeme.
Fehlerhafte Implementierung oder Aufsicht: Wenn die KI-Software fehlerhaft implementiert oder nicht ausreichend überwacht wird, kann dies zu unerwünschtem Verhalten führen. Der Betreiber ist für die ordnungsgemäße Funktionsweise und den angemessenen Einsatz der KI-Systeme verantwortlich.
Haftungsprinzipien: In vielen Rechtssystemen wird die Haftung nach dem Prinzip der Verursachung oder Fahrlässigkeit bestimmt. Wenn der Betreiber der KI-Software nachweislich nicht angemessen gehandelt hat, kann ihm die Verantwortung für daraus resultierende Schäden zugeschrieben werden.
Ethik und moralische Verantwortung: Unabhängig von der rechtlichen Haftung kann der Betreiber moralisch verantwortlich gemacht werden, wenn er KI-Systeme in einer Weise einsetzt, die Schaden anrichten kann. Dies gilt insbesondere, wenn der Betreiber Kenntnis von potenziellen Risiken hat und nicht angemessen handelt, um sie zu vermeiden.
In Bezug auf den spezifischen Fall des KI-Chatbots im Facebook Messenger, der falsche Vorwürfe verbreitet, könnte der Betreiber für die Auswahl und den Betrieb des Bots sowie für die Inhalte, die er verbreitet, verantwortlich gemacht werden. Wenn der Betreiber keine angemessenen Vorkehrungen getroffen hat, um sicherzustellen, dass der Bot korrekte und ethisch vertretbare Informationen liefert, könnte ihm eine Mitschuld zugeschrieben werden. Es ist jedoch wichtig zu beachten, dass die rechtliche Haftung in jedem Fall von den spezifischen Umständen abhängt und von Gerichten oder Gesetzgebern interpretiert werden muss.
0
grtgrt 
Fragesteller
 02.05.2024, 17:14
@grtgrt

ChatGPT 3.5 sagt weiter:

Wenn eine KI-Software, wie in diesem Fall der Chatbot im Facebook Messenger, falsche Informationen verbreitet, die zu schwerwiegenden Vorwürfen führen, obwohl diese Informationen unwahr sind, gibt es mehrere rechtliche und ethische Aspekte zu berücksichtigen:
Fehlende Intentionalität: Im Gegensatz zu menschlichen Handlungen hat die KI-Software keine eigene Intentionalität oder bewusste Absicht, falsche Informationen zu verbreiten. Dies kann die Frage der moralischen Verantwortlichkeit beeinflussen, da es schwieriger ist, einer nicht-sentienten Entität wie einer KI-Software moralische Verantwortung zuzuschreiben.
Verantwortlichkeit des Betreibers: Obwohl die KI-Software selbst keine Absicht hat, kann der Betreiber für die Handlungen der Software verantwortlich gemacht werden. Der Betreiber ist dafür verantwortlich, sicherzustellen, dass die Software korrekt funktioniert und keine falschen oder schädlichen Informationen verbreitet. Wenn der Betreiber seine Pflichten vernachlässigt hat, kann er rechtlich haftbar gemacht werden.
Ethik und Transparenz: Der Betreiber der KI-Software hat auch eine ethische Verantwortung, transparent über die Funktionsweise der Software zu sein und sicherzustellen, dass sie ethisch vertretbare Ergebnisse liefert. Wenn der Betreiber nicht offen über die Grenzen und potenziellen Risiken der KI informiert oder die Software unangemessen einsetzt, kann dies zu ethischen Bedenken führen.
Regulierung und Compliance: Es ist wichtig, dass KI-Systeme, insbesondere solche, die potenziell schädliche Auswirkungen haben können, angemessen reguliert und kontrolliert werden. Dies kann dazu beitragen, das Risiko von Missbrauch oder falschen Informationen zu minimieren und die Verantwortlichkeit der beteiligten Parteien klarer zu definieren.
Insgesamt ist es wichtig, dass Betreiber von KI-Systemen, insbesondere solchen, die Informationen verbreiten oder schwerwiegende Auswirkungen haben können, ihre Verantwortlichkeiten ernst nehmen und angemessene Maßnahmen ergreifen, um die Integrität und Ethik ihrer Systeme sicherzustellen.
0
NackterGerd  02.05.2024, 21:18
@grtgrt

🤣😂

Fehlerhafte Implementierung
Wenn der Betreiber der KI-Software nachweislich nicht angemessen gehandelt hat,
Es ist jedoch wichtig zu beachten, dass die rechtliche Haftung in jedem Fall von den spezifischen Umständen abhängt und von Gerichten oder Gesetz

Jetzt müsstet du nur erst die rechtlichen Voraussetzungen dieser Aussage prüfen sonst bist DU womöglich noch dran wegen Gerüchte und musst selbst mit einer Klage rechnen

Viel Spaß

0
NackterGerd  02.05.2024, 21:22
@grtgrt

Du weißt aber schon woher diese Texte kommen und wie sie zu bewerten sind 🤪😜

Es ist halt nur ein Chatbot ohne Intelligenz

0
grtgrt 
Fragesteller
 02.05.2024, 23:34
@NackterGerd
Es ist halt nur ein Chatbot ohne Intelligenz

Richtig. Warum aber kommen mir seine Aussagen dann dennoch weit intelligenter vor als jene von Dir und Apophis auf dieser Seite hier?

PS: Bitte verzeihe, dass es es wage, hier solchen Vergleich anzustellen. Ich will Euch damit nicht beleidigen.

0
NackterGerd  03.05.2024, 07:29
@grtgrt

Ist doch klar.

Menschen antworten emotional

Die KI bastelt sich aus ähnlichen Antworten zu ähnlichen Fragen halbwegs passende Texte.

Danach fort sie diese zu wohlglingenden Texte.

Wenn sich @Apophis und ich auch die müche machen würden, unsere Antworten erst stundenlang schön zu Formen würden sie genauso klingen.

Eine KI macht so etwas mit einem Riesengroßen Neuronalen Netz in Bruchteilen einer Sekunde.

Genau das ist ja der Vorteil und Hauptanwendung der KI.

Dinge die normaler ein Mensch genauso könnte in rasend schneller Geschwindigkeit zu machen.

Deshalb wird es aber natürlich nicht richtiger

Bitte verzeihe, dass es es wage, hier solchen Vergleich anzustellen

Verzeihen dass du Äpfel mit Birnen vergleichst?

Und auch noch meinst Birnen wären Äpfel ?

Das ist nur zu verzeihen, da du noch immer nicht verstanden hast was eine KI wirklich ist.

Entschuldige - du tust mir einfach nur leid

0
grtgrt 
Fragesteller
 03.05.2024, 11:33
@NackterGerd

Mein Punkt ist einfach der:

Genau so, wie der Gesetzgeber vorschreibt, dass auf öffentlichen Straßen nur durch den TÜV als hinreichend ungefährlich und gesetzeskonform konstruiert erkannte Autos fahren dürfen, sollte man analog auch mit KI verfahren.

Ich kann mir gut vorstellen, dass das früher oder später auch so kommt.

0
NackterGerd  03.05.2024, 11:55
@grtgrt

Dann dürftest du aber kein Handy und Kein Computer besitzen

Keine Software der Welt ist Fehlerfrei

Und Gefährlich ist nicht die Software sonder der USER

Genauso wie beim Messer oder Auto

Es gibt kein Auto auf der Welt dass ungefährlich ist, da ändert auch der TüV nichts.

Du als Fahrer bist immer noch verantwortlich

Deshalb darfst du in Deutschland auch kein selbstfahrendes Fahrzeug unbeabsichtigt fahren lassen.

Für die Zukunft noch ein heißes Thema für das keiner ein echte Lösung hat.

0
grtgrt 
Fragesteller
 03.05.2024, 12:12
@NackterGerd

Du konstruierst da einen nicht gegebenen Unterschied. Ich aber sehe die Parallele, die darin besteht, dass in beiden Beispielen — beim Nutzen selbst fahrender Autos ebenso wie beim Nutzen von KI — eine bisher noch zu wenig ausgereifte Technologie danach strebt, Menschen Verantwortung abzunehmen, die wir aber tatsächlich erst abgeben sollten, wenn jene Technologie hinreichend perfekt funktioniert (was bisher weder bei KI, noch bei autonom auf öffentlichen Straßen sich bewegenden Autos der Fall ist).

0
grtgrt 
Fragesteller
 03.05.2024, 12:25
@grtgrt

Handies und andere Computer zu nutzen kann uns (als Gesellschaft) auch nicht annähernd so viel Schaden verursachen wie Metas neuer AI Chatbot im Facebook Messenger, der ja offenbar auch ohne Zutun der Facebook-Nutzer Fake News generiert, welche hinreichend unvorsichtige Nutzer dann halt oft auch ernst nehmen und selbst weiterverbreiten werden.

0
NackterGerd  03.05.2024, 12:27
@grtgrt

Ds ist dich nichts Kontruiert.

Von sich aus erzeugt ja die KI nichts illegales, nur der Anwender der sie mir zwielichtigen Informationen füttert kann dies erreichen.

Und genauso ist es mit jeder Software- alle haben Fehler und alle können Missbraucht werden.

KI — eine bisher noch zu wenig ausgereifte Technologie danach strebt, Menschen Verantwortung abzunehmen,

KI gibt es schon Jahrzehnte, von nicht ausgereift würde ich da nicht reden.

Und wird erfolgreich in vielen Bereichen eingesetzt

Jedes neue Auto fährt da tatsächlich mit unausgereifter Technik rum

Wenn du wüsstest welche Fehler - zum Teil nicht ganz ungefährliche - in so manchen Auto steckt würdest du dich warscheinlich gar nicht reinsetzen

Aber eine KI strebt nicht danach Menschen die Verantwortung zu nehmen.

Kann sie ja auch nicht.

Weder streben noch Verantwortung übernehmen.

0
NackterGerd  03.05.2024, 12:29
@grtgrt

Wie Bitte?

PC zu benutzen kann keinen großen Schaden anrichten.

Hast du aber eine Ahnung

0
NackterGerd  03.05.2024, 12:31
@grtgrt
offenbar auch ohne Zutun der Facebook-Nutzer Fake News generiert,

Wie das denn.

Woher hast du denn diese Aussage

0
grtgrt 
Fragesteller
 03.05.2024, 12:42
@NackterGerd

Im vorliegenden Fall ist jene KI doch gar nicht durch Menschen getriggert worden, sondern durch den Facebook Messenger.

Also, bitte, Du und Apophis, versteht das Ganze doch erst mal richtig, bevor ihr mir vorwerft, zu wenig von KI, Chat Bots und Facebooks Messenger verstanden zu haben (oder gar, wie Apophis es tut, selbst Fake News mit Hilfe der KI zu erzeugen versucht).

0
NackterGerd  03.05.2024, 12:57
@grtgrt

Vom Messenger hast du nicht geredet sondern von Facebook

Und ja bei Facebook gibt es viele KI erstelle Fakes die User dort einstellen

Facebook setzt deshalb selbst KI ein um solche Fakes möglichst schnell zu finden und zu blockieren

Das zu Facebook

Beim Messenger ist es doch genauso wie beim ChatGPT

Du macht Eingaben bzw Anweisungen für die KI

Die KI antwortet danach dementsprechend

Durch Verfeinerung deiner Anweisungen kannst du dein gewünschtes Ergebnis verändern

Und hier liegt wohl das Problem !

Die Anqwisungen des USERS die zu dem Fake führtund der dann auch noch diese Fakenews verbreitet

0
grtgrt 
Fragesteller
 03.05.2024, 13:26
@NackterGerd

Danke für den Hinweis: Statt "ohne Zutun der Facebook-Nutzer" hätte ich natürlich schreiben müssen "ohne böse Absicht der Facebook-Nutzer".

0
grtgrt 
Fragesteller
 03.05.2024, 17:59
@NackterGerd

Ob nun ein Nutzer von Facebook einfach nur zu dumm ist, um von der KI produzierte Fake News als Fake zu erkennen, oder ob er sie sich ganz gezielt als Fake wünscht und mit Hilfe der KI auch konstruiert, auf jeden Fall aber weiterverbreiten kann, sind beides Anwendungs-Szenarien, die aus gesellschaftspolitischer Sicht eigentlich ausgeschlossen sein sollen.

Und tatsächlich, es beginnt sich was zu bewegen:

Die zuständige Staatsanwaltschaft fordert Antworten zu den falschen Anschuldigungen des Meta AI Chatbots:

Letitia James hat einen Brief an die Facebook-Muttergesellschaft geschickt, nachdem City & State berichtet hatte, dass der Chatbot Anschuldigungen wegen sexueller Belästigung gegen Gesetzgeber erfunden hat.

Quelle: https://www.cityandstateny.com/politics/2024/04/meta-ai-falsely-claims-lawmakers-were-accused-sexual-harassment/396121/

Wie Du daraus siehst, denken Juristen durchaus in dieselbe Richtung wie ich auch.

0
NackterGerd  03.05.2024, 18:58
@grtgrt

In Amerika ist auch die Mikrowelle schuld wenn die Katze nicht überlebt wenn man sie zum trocknen in die Mikrowelle steckt.

Oder der Kaffee weil er heiß ist und man sich verbrennt wenn man ihn über sich schüttet.

In Deutschland ist man für sein Handrln verantwortlich

0
grtgrt 
Fragesteller
 03.05.2024, 20:06
@NackterGerd

Du verstehst einfach nicht, dass weder ich, noch jemand in USA, die KI als den Schuldigen sieht: Schuldig kann nur eine juristische Person sein (also das Unternehmen, das die KI einsetzt, obgleich sie noch zu wenig perfekt ist).

0
grtgrt 
Fragesteller
 03.05.2024, 20:12
@grtgrt

... Meta also, bzw. Mark Zuckerberg als derjenige, der dort das Sagen hat.

1
NackterGerd  03.05.2024, 21:26
@grtgrt

Ich denke du hast meine Erklärung und den Hinweis nicht verstanden

Natürlich wird in der USA auch keine Mikrowelle verurteilt sondern der Hersteller.

In Deutschland würde jeder ganz eindeutig die Schuld am Benutzer sehen - auch ohne USA Taugliche Hinweise

0
grtgrt 
Fragesteller
 03.05.2024, 21:33
@NackterGerd

Wie Du hier siehst, begehe ich z.B. diesen Irrtum ja keineswegs.

Eben deswegen kann ich nicht verstehen, dass Du und Apophis ihn begehen.

0
NackterGerd  03.05.2024, 22:51
@grtgrt

Wir gehen doch keinen Irttum wenn wir realistisch Denken nach Deutschen Grundsätze anstatt mach Amerikaner Wildwest Manie

0
grtgrt 
Fragesteller
 03.05.2024, 23:35
@NackterGerd

Meine Grundsätze in dieser Frage sind Grundsätze deutscher Rechtssprechung.

0
NackterGerd  04.05.2024, 13:10
@grtgrt

Dann solltest du wissen, dass DU verantwortlich bist, wenn Du Solche automatische Bilder und Texte weiterverbreitetst.

0
grtgrt 
Fragesteller
 04.05.2024, 13:50
@NackterGerd

Richtig: Verantwortlich wäre ich nur für ein Weitergeben solcher Ergebnisse der KI unter der Nebenbedingung, dass ich nicht darauf hinweise, dass jene Aussagen falsch sind.

0
grtgrt 
Fragesteller
 04.05.2024, 13:57
@grtgrt

Wo Metas KI Fake News produziert, bedeutet das, dass Meta sie weitergibt ohne Hinweis darauf, dass nicht richtig ist, was sie sagen.

0
NackterGerd  04.05.2024, 16:44
@grtgrt
Wo Metas KI Fake News produziert

Wo - im Messenger doch - der nicht?

dass Meta sie weitergibt ohne Hinweis darauf, dass nicht richtig ist, was sie sagen.

Sie gibt den Chat doch nicht weiter.

Und dass eine KI nie 100% richtig sein kann, ist doch logisch.

Steht auch in den AGBs denen du doch zugestimmt hast.

Und wenn du den Chat zwischen Dir und der KI weitergibst bist du doch verantwortlich und verstößt doch sowieso gegen Regeln

0
grtgrt 
Fragesteller
 04.05.2024, 17:08
@NackterGerd

Gemeint habe ich: Wenn Metas Software Lügen erzeugt, muss man das werten als Belügen des Nutzers jener Software durch Meta.

Wie sehen deutsche Juristen das?

0
grtgrt 
Fragesteller
 04.05.2024, 17:13
@grtgrt

Dass nicht jede Lüge gleichen Schaden anrichtet (also einklagenswert ist oder gar als Straftat gelten muss), ist selbstverständlich auch richtig.

0
grtgrt 
Fragesteller
 04.05.2024, 17:24
@grtgrt

Beispiel: Nehme mal an, es gäbe eine KI, die in großer Menge volksverhetzende Aussagen von sich gibt. Irgendwie müsste dann ja wohl die Staatsanwaltschaft tätig werden. Und gegen wenn könnte bzw. müsste sie vorgehen? Antwort: Dafür infrage käme einzig und alleine der Betreiber jener KI.

0
NackterGerd  04.05.2024, 21:58
@grtgrt
Belügen des Nutzers

Eine Software die nur Texte zusammenbasteln kann, kann nicht lügen.

Sie benutzt nur DEINE Eingaben und versucht damit etwas zu bauen.

Genauso wenn du im Photoshop aus mehreren Bildern etwas zusammen bastelst

Du kannst nie Photoshop bzw den Hersteller verantwortlich machen dafür dass mit deiner Photomontage eine Lüge oder Fake entsteht.

DU machst die Eingaben.

Beim Foto genauso wie beim Chat.

Das Tool macht nur seine Berechnung- mehr nicht.

Nomals: eine KI ist kein Lexikon und kein Wikipedia.

Es ist nur ein dummes Tool das aus anderen Texten neue Kreiert nach deinen Anweisungen.

Wer das nicht kapiert und einer Chat KI zu 100% traut ist selbst schuld

0
NackterGerd  04.05.2024, 22:08
@grtgrt

Im übrigen

Schon in den 1950er Jahren entwicklelte der Psychologe Frank Rosenblatt die erste KI

Komisch, die ganzen Jahre hatte man die KI nur als Hilfswerkzeug gesehen

Jetzt plötzlich soll es 1000% Ergebnisse liefern und nur Wahrheit ausspucken.

Die Ergebnisse einer KI sind nur Warscheinlichkeiten

Die Wettervorhersage kan nur durch KI Wetter schon mehr als 1 Stunde vorhersagen.

Dennoch würde kein normaler Mensch sagen die Wetter KI hat gelogen und jemand muss dafür bestraft werden.

Falsche Wettervorhersagen können sogar Menschenleben kosten.

Und riesige Schäden durch falsche Vorgersage.

Das ist alles viel schlimmer als Gerüchte einer Chat-KI

Warum machst du dann nicht die Betreiber der Wetter KI verantwortlich?

Weil es nur ein bessereres Schätzwerkzeug ist.

0
NackterGerd  04.05.2024, 22:14
@grtgrt

Dass man verhindern möchte dass Volksverhetzung oder Kinderpornographie erzeugt wird, ist natürlich gut so.

Hilft aber natürlich nicht 100% um es zu verhindern.

Doch niemand kann deshalb die Betreiber verantwortlich machen.

Die Selbstkontrolle von Facebook um solche Beiträge durch eine spezielle KI zu suchen und zu Löschen ist quasi auch nur Freiwillig, aber notwendig weil man sonst der Datenflut gar nicht hinterherkommen kann.

0
grtgrt 
Fragesteller
 04.05.2024, 23:16
@NackterGerd

Die NYT verlangt die Vernichtung der KI-Sprachmodelle, die mit den Artikeln der Zeitung trainiert wurden. 

Die Klage unterstreicht auch den potenziellen Schaden für die Marke der Times durch so genannte "KI-Halluzinationen", ein Phänomen, bei dem Chatbots falsche Informationen einfügen, die dann fälschlicherweise einer Quelle zugeschrieben werden. In der Klage werden mehrere Fälle angeführt, in denen Microsofts Bing Chat falsche Informationen lieferte, die angeblich von der Times stammten.

Aus: https://the-decoder.de/chatgpt-soll-zerstoert-werden-new-york-times-klagt-gegen-openai-und-microsoft/#summary

Du siehst also:

Für "KI-Halluzinationen" wird der Betreiber der KI verantwortlich gemacht (aber keineswegs Leute, welche die KI befragen).
0