Ein neuer Bericht des bekannten Forschers Arthur Gervais zeigt, wie sogenannte AI Agents künftig automatisierte Angriffe auf Smart Contracts ermöglichen könnten. Die Forscher nennen das in dem Paper beleuchtete System A1 ein “agentisches System”. Dahinter steckt ein KI-Agent, der mithilfe großer Sprachmodelle wie ChatGPT selbstständig Code analysieren, Angriffsideen entwickeln, testen und schließlich konkrete Exploits umsetzen kann.
8,6 Millionen US-Dollar Schaden: KI mit hoher Erfolgsquote
Brisant ist vor allem, dass die künstliche Intelligenz dafür weder tiefe Fachkenntnisse noch Zugriff auf geheime Informationen benötigt. Bereits mit öffentlich zugänglichem Code und historischen Blockchain-Daten generierte A1 in Tests voll funktionsfähige Exploits, und das mit einer Erfolgsquote von 63 Prozent. In einem Fall gelang ein Angriff mit einem Schaden in Höhe von 8,59 Millionen US-Dollar. Die Kosten pro Versuch liegen bei teilweise nur einem Cent. Insgesamt identifizierte A1 sogar Schwachstellen mit einem potenziellen Gesamtwert von über 9,3 Millionen US-Dollar.
Die KI nutzt sechs spezialisierte Tools, um den Smart Contract zu analysieren sowie Informationen über den Zustand der Blockchain zu besorgen, und testet verschiedene Varianten eines Angriffs so lange, bis eine tatsächlich funktioniert. Am Ende steht ein Proof-of-Concept, also ein ausführbarer Angriff. In den Tests wurden echte Blockchain-Zustände aus historischen Blocknummern verwendet, um zu prüfen, ob die Angriffe in der Realität funktioniert hätten.
KI-System arbeitet rund um die Uhr
Wie schnell eine Schwachstelle entdeckt wird, ist sowohl für den Angreifer als auch für das Opfer entscheidend. Laut Studie gelingt ein Angriff fast immer, wenn die Sicherheitslücke sofort nach ihrer Entstehung erkannt wird. Wird sie hingegen erst eine Woche später gefunden, ist die Erfolgschance für den Angreifer deutlich geringer und liegt dann in vielen Fällen nur noch bei etwa 6 bis 21 Prozent. Wer zuerst agiert, gewinnt also, vor allem dann, wenn er KI einsetzt.
Dazu kommt ein wirtschaftliches Ungleichgewicht, das den Verteidigern das Leben schwer macht. Angreifer erzielen schon bei kleinen Schwachstellen mit einem Wert von rund 6.000 US-Dollar Gewinn. Für Verteidiger lohnt sich die Suche nach solchen Lücken oft erst ab einem Wert von 60.000 US-Dollar. Der Grund: Kosten für Sicherheitsprüfungen, Personal und Infrastruktur sind hoch, vor allem im Vergleich zu einem KI-System, das rund um die Uhr und für wenige Cent Verträge analysieren kann.
Fazit: Wendepunkt in der Blockchain-Sicherheit?
Die Forscher sehen in dem Experiment einen möglichen Wendepunkt in der Blockchain-Sicherheit. Während bisher menschliche Experten oder spezialisierte Tools zur Prüfung von Smart Contracts notwendig waren, könnten solche Systeme künftig vollautomatisiert und massenhaft eingesetzt werden. Die Technologie dahinter ist längst verfügbar und auch für Angreifer nutzbar. Schon heute lassen sich KI-Modelle wie GPT-4 oder Gemini Pro mit einfachen Programmierschnittstellen an Blockchain-Daten anbinden. Das senkt die Einstiegshürden erheblich.
Noch handelt es sich bei A1 um ein Forschungsprojekt. Die Erkenntnisse werfen allerdings ein Schlaglicht auf eine Entwicklung, die nicht mehr aufzuhalten scheint. KI wird zunehmend in der Lage sein, komplexe Angriffsszenarien selbst zu entwerfen. Wer sich davor schützen will, muss schneller, effizienter und oft auch kostspieliger reagieren oder selbst auf KI-gestützte Verteidigung setzen.
Quelle