Notebookcheck Logo

Die Menschen, die KI trainieren, trauen ihr am wenigsten

Ein Bericht von The Guardian schildert die Erfahrungen sogenannter KI-Rater. (Bildquelle: BianPenny/Pixabay)
Ein Bericht von The Guardian schildert die Erfahrungen sogenannter KI-Rater. (Bildquelle: BianPenny/Pixabay)
Sogenannte KI-Rater, deren Job es ist, die Antworten der Künstlichen Intelligenz zu prüfen, scheinen zunehmend das Vertrauen in die Modelle zu verlieren. Dabei richtet sich die Kritik jedoch nicht nur gegen die Technologie selbst, sondern auch gegen die großen Unternehmen, die dahinterstehen.

Die Menschen, die tagtäglich an der Entwicklung, Bewertung und Korrektur von KI-Systemen arbeiten, scheinen diesen am meisten zu misstrauen. Das legt zumindest ein Bericht von The Guardian nahe, der die Meinungen mehrerer sogenannter KI-Rater schildert. Diese übernehmen viele verschiedene Aufgaben. Sie bewerten KI-Antworten, korrigieren problematische Inhalte, moderieren Beiträge und prüfen Modelle auf menschlich klingende Formulierungen. Laut The Guardian geschieht das oft unter prekären Bedingungen: geringe Bezahlung, unklare Anweisungen und immenser Zeitdruck.

Besonders offen spricht Krista Pawloski, die ihre Arbeit über Amazon Mechanical Turk (Marktplatz für Mikro-Jobs) verrichtet, über ihre wachsende Skepsis. Der Moment, in dem sie fast einen rassistischen Begriff in einer KI-Antwort übersah, war für sie ein Wendepunkt. Seither meidet sie generative KI komplett – und auch ihrer Tochter hat sie den Einsatz von ChatGPT & Co. untersagt. Andere Rater berichten laut The Guardian von Antworten, die politisch einseitig wirken oder schlicht unzuverlässig sind – vor allem bei sensiblen Themen wie Medizin oder Politik. Viele KI-Arbeiter nutzen privat angeblich keine Chatbots mehr und warnen ihr Umfeld vor blindem Vertrauen.

Hintergrund des Misstrauens ist vor allem der Eindruck, dass Systeme nach außen kompetenter wirken, als sie tatsächlich sind. Viele Modelle erzeugen Antworten, selbst wenn keine fundierte Grundlage vorhanden ist. Die Theorie dahinter ist, dass Modelle darauf trainiert sind, zu raten, um eine insgesamt bessere Antwortgenauigkeit zu erzielen. Daraus können halluzinierte Antworten entstehen, die wiederum ein großes Gefahrenpotenzial bergen. Hinzu kommt das Gefühl vieler Rater, dass ihr Feedback kaum Wirkung zeigt: Hinweise auf Fehler oder verzerrte Datensätze würden selten berücksichtigt. Die Kritik richtet sich dabei nicht allein gegen die Technologie, sondern vor allem gegen die großen Unternehmen dahinter – etwa OpenAI, Google oder Amazon. Die KI-Arbeiter berichten, dass es oft mehr um Wachstum und Geschwindigkeit gehe als um Sicherheit oder Qualität, worauf auch ein jüngstes Beispiel von Googles Gemini 3 Pro hindeutet. 

Quelle(n)

The Guardian

Bildquelle: BianPenny/Pixabay

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-12 > Die Menschen, die KI trainieren, trauen ihr am wenigsten
Autor: Marius Müller,  2.12.2025 (Update:  2.12.2025)