Forscher warnen vor KI-Schwärmen, die eine künstliche öffentliche Meinung vortäuschen

Man stelle sich eine Welt vor, in der eine große Gruppe von Menschen über ein bestimmtes Thema spricht und es so online zum Trend macht. Oder eine Welt, in der diese Menschen öffentliche Personen unter Druck setzen oder sogar Fehlinformationen verbreiten können. Und nun stelle man sich eine Welt vor, in der diese „Menschen“ in Wirklichkeit KI-gesteuerte Profile sind, die im Einklang agieren und dabei individuelle menschliche Stimmen imitieren.
Vor dieser Gefahr warnen nun Wissenschaftler zahlreicher Institutionen weltweit in einer aktuellen Veröffentlichung im Fachjournal Science. Ein internationales Forschungsteam hat detailliert dargelegt, wie die Verschmelzung von großen Sprachmodellen (LLMs) mit Multi-Agenten-Systemen die Erstellung bösartiger KI-Schwärme ermöglicht. Im Gegensatz zu herkömmlichen, leicht identifizierbaren Copy-Paste-Bots bestehen diese fortschrittlichen Schwärme aus KI-gesteuerten Personas, die beständige Identitäten, ein Gedächtnis und koordinierte Ziele besitzen.
Sie können ihren Tonfall und ihre Inhalte dynamisch basierend auf menschlichen Reaktionen anpassen und dabei mit minimaler Aufsicht über mehrere Plattformen hinweg agieren. Die primäre Bedrohung durch diese Netzwerke ist die Erzeugung eines „synthetischen Konsenses“. Indem sie digitale Räume mit erfundenem, aber höchst überzeugendem Geplapper überfluten, erzeugen diese Schwärme die falsche Illusion, dass ein bestimmter Standpunkt universell akzeptiert wird.
Die Forscher merken an, dass dieses Phänomen das Fundament des demokratischen Diskurses gefährdet, da ein einzelner böswilliger Akteur sich als Tausende unabhängiger Stimmen ausgeben kann. Dieser anhaltende Einfluss geht über das Verschieben temporärer Meinungen hinaus, denn er kann die Sprache, Symbole und kulturelle Identität einer Gemeinschaft grundlegend verändern. Darüber hinaus droht dieser koordinierte Output, die Trainingsdaten regulärer KI-Modelle zu verfälschen, wodurch sich die Manipulation auf etablierte KI-Plattformen ausweitet.
Um dieser sich entwickelnden Bedrohung zu begegnen, argumentieren Experten, dass eine herkömmliche Moderation einzelner Beiträge nicht mehr effektiv ist. Abwehrmechanismen müssen darauf umgestellt werden, statistisch unwahrscheinliche Koordination zu identifizieren und die Herkunft von Inhalten zurückzuverfolgen. Die Forscher betonen zudem die Notwendigkeit, Verhaltenswissenschaften anzuwenden, um die kollektiven Aktionen von KI-Agenten bei Interaktionen in großen Gruppen zu untersuchen. Vorgeschlagene Lösungen umfassen den Einsatz datenschutzfreundlicher Verifizierungsmethoden, den Austausch von Beweisen über ein verteiltes „AI Influence Observatory“ und die Einschränkung finanzieller Anreize, die inauthentisches Engagement antreiben.
Quelle(n)
Science über Tech Xplore












