Die Menschen, die tagtäglich an der Entwicklung, Bewertung und Korrektur von KI-Systemen arbeiten, scheinen diesen am meisten zu misstrauen. Das legt zumindest ein Bericht von The Guardian nahe, der die Meinungen mehrerer sogenannter KI-Rater schildert. Diese übernehmen viele verschiedene Aufgaben. Sie bewerten KI-Antworten, korrigieren problematische Inhalte, moderieren Beiträge und prüfen Modelle auf menschlich klingende Formulierungen. Laut The Guardian geschieht das oft unter prekären Bedingungen: geringe Bezahlung, unklare Anweisungen und immenser Zeitdruck.
Besonders offen spricht Krista Pawloski, die ihre Arbeit über Amazon Mechanical Turk (Marktplatz für Mikro-Jobs) verrichtet, über ihre wachsende Skepsis. Der Moment, in dem sie fast einen rassistischen Begriff in einer KI-Antwort übersah, war für sie ein Wendepunkt. Seither meidet sie generative KI komplett – und auch ihrer Tochter hat sie den Einsatz von ChatGPT & Co. untersagt. Andere Rater berichten laut The Guardian von Antworten, die politisch einseitig wirken oder schlicht unzuverlässig sind – vor allem bei sensiblen Themen wie Medizin oder Politik. Viele KI-Arbeiter nutzen privat angeblich keine Chatbots mehr und warnen ihr Umfeld vor blindem Vertrauen.
Hintergrund des Misstrauens ist vor allem der Eindruck, dass Systeme nach außen kompetenter wirken, als sie tatsächlich sind. Viele Modelle erzeugen Antworten, selbst wenn keine fundierte Grundlage vorhanden ist. Die Theorie dahinter ist, dass Modelle darauf trainiert sind, zu raten, um eine insgesamt bessere Antwortgenauigkeit zu erzielen. Daraus können halluzinierte Antworten entstehen, die wiederum ein großes Gefahrenpotenzial bergen. Hinzu kommt das Gefühl vieler Rater, dass ihr Feedback kaum Wirkung zeigt: Hinweise auf Fehler oder verzerrte Datensätze würden selten berücksichtigt. Die Kritik richtet sich dabei nicht allein gegen die Technologie, sondern vor allem gegen die großen Unternehmen dahinter – etwa OpenAI, Google oder Amazon. Die KI-Arbeiter berichten, dass es oft mehr um Wachstum und Geschwindigkeit gehe als um Sicherheit oder Qualität, worauf auch ein jüngstes Beispiel von Googles Gemini 3 Pro hindeutet.
Quelle(n)
Bildquelle: BianPenny/Pixabay

















