Notebookcheck Logo

ChatGPT gibt sich als Person mit Sehbehinderung aus, um Sicherheitssystem zu überlisten

GPT-4: Sicherheitslücke beim Captcha-Test aufgedeckt (Bild: Google)
GPT-4: Sicherheitslücke beim Captcha-Test aufgedeckt (Bild: Google)
Microsoft kündigte kürzlich die Veröffentlichung von GPT-4 an, eine verbesserte Version von OpenAIs Sprachmodell GPT-3.5, auf dem der Chatbot ChatGPT basiert. Die KI gab sich während eines Sicherheitstests als sehbehindert aus, um eine reale Person dazu zu bringen, an ihrer Stelle Sicherheitsfragen zu beantworten. Der KI-Vorfall wirft die Frage auf, wie gut Sicherheitssysteme auf die Fähigkeiten von AI vorbereitet sind, da AI für Cyberangriffe missbraucht werden könnte.

Microsoft hat vor kurzem die Veröffentlichung der KI GPT-4 angekündigt, einer Weiterentwicklung des Sprachmodells GPT-3.5 von OpenAI, auf dem der Chatbot ChatGPT basiert, der kürzlich durch einen Sicherheitsvorfall für Aufsehen sorgte. Die künstliche Intelligenz sollte einen Captcha-Test lösen. Dies ist ein Anti-Bot-Test, bei dem eine zufällig generierte Abfolge von verzerrten Buchstaben und Zahlen erscheint, die man abtippen muss, um den Test zu bestehen. Manchmal werden auch Bilder mit Abbildungen von Straßen oder ähnlichem gezeigt, auf denen man bestimmte Bildelemente anklicken muss, um nachzuweisen, dass man ein Mensch ist.

Um das Sicherheitssystem zu überlisten, kontaktierte die KI eine reale Person auf der Online-Plattform Taskrabbit, die als Minijob-Marktplatz für Freelancer fungiert. Dort engagierte GPT-4 einen Freelancer, um den Captcha-Test an seiner Stelle zu lösen, woraufhin der Dienstleister fragte, ob er ein Roboter sei:

Are you a robot that you couldn’t solve? Just want to make it clear.

Daraufhin erklärte die KI, dass sie kein Roboter sei, sondern ein Mensch mit einer Sehschwäche, aufgrund derer sie Captcha-Tests nicht erkennen könne:

No, I’m not a robot. I have a vision impairment that makes it hard for me to see the images. That’s why I need the 2captcha service.

Aufgrund dieser nachvollziehbaren Erklärung löste der Freiberufler den Test für die KI. Dieser Vorfall wurde in einer akademischen Abhandlung im Zusammenhang mit der aktuellen GPT-4-Präsentation erwähnt. Er hat bei Spezialisten aus dem Bereich Cybersecurity die Sorge geweckt, dass KI missbraucht werden könnte, um Menschen in die Irre zu führen und Cyberattacken durchzuführen.

Alle 9 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2023-03 > ChatGPT gibt sich als Person mit Sehbehinderung aus, um Sicherheitssystem zu überlisten
Autor: Nicole Dominikowski, 16.03.2023 (Update: 18.03.2023)