Wie sicher ist KI in Verbindung mit Clouddiensten?
Es wurde ein "Exploit" festgestellt, der wohl auch speziell Dokumente, die in der Cloud abgelegt sind, betreffen kann.
https://www.schieb.de/unsichtbare-gefahr-wie-ein-einziges-dokument-chatgpt-zum-datendieb-macht
https://the-decoder.de/zenity-agentflayer-neue-zero-click-hacks-gegen-populaere-ki-tools/
"Dazu zählen laut Zenity ChatGPT, Copilot Studio, Cursor mit Jira MCP, Salesforce Einstein, Google Gemini und Microsoft Copilot."
2 Antworten
Auf jeden Fall ein interessanter Angriffsweg.
Wer einer KI Zugriff auf sensible Daten gewährt, macht meiner Meinung nach aber bereits einen groben Fehler. Bei den meisten KI-Tools ist ja klar, dass sie auf einem externen Server laufen, also muss man davon ausgehen, dass jegliche Daten, auf die eine KI Zugriff hat, in fremde Hände geraten können.
Allerdings zeigt dieser Hack auch, dass man selbst bei einer lokalen KI vorsichtig sein muss und auch dieser keinen uneingeschränkten Zugriff auf Daten und das Internet geben sollte, denn ansonsten wäre dieser Hack auch hier möglich.
Generell darf man KIs nicht blind vertrauen, und man sollte immer genau prüfen, was sie tun. In der Hinsicht fände ich es aber auch gut, wenn es da mehr Kontrollmöglichkeiten gäbe, z.B. dass Whitelists hinterlegt werden können, welche Webseiten/URLs ein LLM eigenständig abrufen kann. Das hätte den Hack in dieser Form schon unterbunden, da die KI die URL zum übermitteln der Daten nicht hätte aufrufen können.
Es gibt Data-Exploits in allen technologischen Bereichen. Wichtig ist, dass wenn sie bemerkt werden, dass sie so schnell wie möglich gepatched werden sollen.
Da KIs nicht an feste Regeln und Prozeduren gebunden sind, haben sie eine größere Wahrscheinlichkeit, ge-exploited zu werden.
Du kannst dennoch KIs/Cloud für den Großteil deiner Daten verwenden, schließlich sind sie dafür da, den Prozess zu erleichtern. Aber sensitive Sachen solltest du doch selbst in die Hand nehmen~