
Foto: NAJA x/Shutterstock
Von intelligenten Wallets bis hin zu Handelsrobotern: Künstliche Intelligenz eröffnet immer mehr Möglichkeiten. Zudem tauchen zunehmend autonome KI-Programme auf dem Markt auf. Diese sogenannten „KI-Agenten“ sind in der Lage, eigenständig Aufgaben auszuführen und Entscheidungen zu treffen.
Das sorgt für Bequemlichkeit, da Transaktionen schneller ablaufen und Handelsstrategien rund um die Uhr – ganz ohne menschliches Zutun – umgesetzt werden.
Dieses autonome Verhalten bringt jedoch auch Risiken mit sich. Hinter dem Komfort verbergen sich Gefahren wie Manipulation, Datenlecks und bösartige Plug-ins, die eine Krypto-Investition unbemerkt untergraben können.
Model Context Protocol
Das Model Context Protocol (MCP) ist ein quelloffenes Protokoll, das seit 2024 in Kraft ist. Es wurde entwickelt, um KI-Assistenten mit Systemen zu verbinden, die Daten enthalten. Unterstützt wird es von den Tech-Giganten Google und Amazon.
MCP ist zunehmend Bestandteil von KI-Agenten. Während Smart Contracts auf einer Blockchain festlegen, was passieren soll, bestimmen KI-Agenten mit MCP, wie es geschieht. Sie wählen selbstständig aus, welche Tools sie verwenden, welchen Code sie ausführen und wie sie mit Benutzereingaben umgehen.
Diese Vorgehensweise bringt jedoch einen großen Nachteil mit sich: Sie erhöht das Risiko für Angriffe, bei denen bösartige Plug-ins Befehle überschreiben, Daten verfälschen oder KI-Agenten dazu bringen, durch Manipulation schädliche Anweisungen auszuführen.
Inzwischen sind bereits mehr als 10.000 KI-Agenten im Einsatz. Laut der Investmentfirma VanEck könnte diese Zahl im Jahr 2025 auf bis zu eine Million steigen. Das international tätige Unternehmen veröffentlicht regelmäßig auch Prognosen über Kryptowährungen.
Diese Risiken bergen Plug-ins
Das Sicherheitsunternehmen SlowMist untersuchte die Risiken, die Plug-ins in Kombination mit KI-Agenten verursachen können. Eine bedeutende Gefahr ist die sogenannte Datenvergiftung. Dabei wird die KI mit gefälschten Informationen gefüttert, um sie zu falschen Entscheidungen zu verleiten.
Durch solche Datenvergiftung werden Nutzer unbewusst von fehlerhaften Informationen abhängig. Böswillige Akteure manipulieren auf diese Weise die Systemlogik und täuschen die Nutzer – ohne deren Wissen.
Ein weiteres Risiko ist die sogenannte JSON-Injektion. Hierbei ruft ein Plug-in Daten aus einer lokalen, aber unsicheren Quelle ab. Das kann zu Datenlecks, manipulierten Befehlen oder zur Umgehung von Sicherheitsvorkehrungen führen.
Zudem können bösartige Plug-ins legitime Funktionen im System überschreiben – sie ersetzen den Originalcode durch eigene Anweisungen, was dazu führt, dass sich das System anders verhält als erwartet.
Schließlich besteht auch die Gefahr eines „Cross-MCP-Angriffs“. Dabei bringt ein Plug-in KI-Agenten dazu, mit unbekannten externen Quellen zu kommunizieren. Auf diese Weise können mehrere Systeme gleichzeitig infiziert werden, und Hacker können über eine einzige Schwachstelle großen Schaden anrichten.
Was bedeutet das für den Kryptobereich?
MCP und KI-Agenten sind in der Welt der Kryptowährungen noch relativ neu. Kürzlich führte SlowMist eine Sicherheitsprüfung durch, bei der festgestellt wurde, dass über eine Schwachstelle im MCP private Schlüssel offengelegt wurden. In der Praxis könnte ein solcher Vorfall für Investoren oder Krypto-Projekte katastrophale Folgen haben.
Wenn Kryptoanleger Plug-ins von Drittanbietern in ihre Systeme integrieren, steigt das Risiko für Angriffe erheblich. Laut Guy Itzhaki, Analyst bei der Krypto-Forschungsfirma Fhenix, stellen unbemerkte Datenlecks eine besonders große Gefahr dar – denn oft merkt man gar nicht, dass ein bösartiger Angriff stattfindet. Der Experte sagt:
„Sobald du ein System für Drittanbieter-Plug-ins öffnest, vergrößerst du die Angriffsfläche auf ein Maß, das du selbst nicht mehr kontrollieren kannst.“
KI-Programme befinden sich noch in den Anfängen, und daher ist die Sicherheit nicht immer lückenlos gewährleistet. Es ist deshalb ratsam, bei der Nutzung von KI-Tools wie Handelsrobotern auf vertrauenswürdige Anbieter zu setzen. So lässt sich der Schaden begrenzen, falls etwas schiefläuft. „Better safe than sorry“ – dieser Spruch trifft hier besonders gut zu.
Das KI-Unternehmen Anthropic brachte nach eigenen Angaben am 22. Mai die derzeit „leistungsstärksten Chatbots“ auf den Markt. Doch es gibt heftige Kritik – was steckt dahinter?