Ist ChatGPT in Krypto nützlich? Die künstliche Intelligenz hinter dem Programm hat seit seiner Veröffentlichung am 30. November 2022 bereits grosse Wellen geschlagen. Erste Anwendungsfälle bringen die KI in die Kryptobranche, wo sie nun als Plage wahrgenommen wird.

ChatGPT in Krypto für Fehlerberichte genutzt

2022 war für die Kryptobranche ein schwieriges Jahr. Dazu führte nicht nur der Bärenmarkt, sondern vor allem der kritische Zustand der Sicherheit. Etliche Hacks trafen die verschiedenen Stellen der digitalen Infrastruktur der Branche.

Wie überall in der digitalen Welt, existieren auch in der Kryptobranche Bug Bounties (Fehlerprämien). Wer einen Fehler innerhalb einer dApp oder einer anderen Infrastruktur der Kryptobranche findet, kann dabei gut und gerne mehrere Millionen Schweizer Franken auf einen Schlag gewinnen.

Schliesslich sind dezentrale Finanzanwendungen für bösartige Hacker eine enorme Fundgrube. Oft sind Hunderte Millionen Franken an Liquidität in Form der unterschiedlichsten Kryptowährungen hinterlegt. Um gutartige Mitarbeit zu belohnen, fallen die Prämien entsprechend hoch aus.

Einige Personen wollen offenbar die künstliche Intelligenz ChatGPT nutzen, um selbst Prämien zu erlangen. Dazu geben sie der KI einfach die Aufgabe, einen Fehlerbericht für mögliche Sicherheitslücken zu schreiben, die Prämien ausschreiben.

Diese Projekte lassen sich auf Seiten wie Immunefi finden – eine von verschiedenen Bug Bounty Plattformen. Eigenen Angaben zufolge zahlte Immunefi White Hat Hackern bereits Prämien in Höhe von über 65 Millionen US-Dollar aus.

Weitere 142 Millionen US-Dollar sind aktuell für Finder kritischer Sicherheitslücken verfügbar. Die erfolgreiche Arbeit der gutmütigen Programmierer soll bereits Anlagen mit einem Wert von über 25 Milliarden US-Dollar gerettet haben.

Immunefi sperrt ChatGPT-Anwender

Da es wiederholt zur offensichtlichen Nutzung von ChatGPT gekommen sei, sperrt Immunefi fortan die Anwender der KI. Das gibt die Plattform vor einigen Tagen auf Twitter bekannt. Der Grund dafür sei ganz einfach:

Es verschwendet die Zeit des Nutzers, die Zeit von Immunefi und die Zeit der betroffenen Plattform. Deshalb sperren wir ChatGPT.

Laut den Betreibern der Bug Bounty Plattform ist ChatGPT weder in der Lage, einen Fehler innerhalb des Programmcodes zu finden, noch ist es fähig, einen menschlich gefundenen Fehler ausführlich und klar darzulegen. Ein Fehlerbericht, der von der KI geschrieben wird, sei am Ende stets Unsinn.

Immunefi lernt zunehmend, die Berichte der KI zu identifizieren, da diese oft bestimmte Muster verwenden.

Wir werden die Entwicklung der KI im Auge behalten und ihre Entsperrung in Erwägung ziehen, wenn sie jemals in der Lage ist, sinnvolle Fehlerberichte zu erstellen.

Erklärt man. Auf die Frage eines Nutzers, wie man verfahre, wenn die KI wirklich einen Fehler findet, antwortet Immunefi: “Das tut sie nicht. Wenn doch, schreibt ihn als richtigen Fehlerbericht um und fügt einen Proof of Concept hinzu.”

Jetzt Beitrag teilen