Sony, Microsoft und Nintendo arbeiten schon seit 2020 zusammen, um plattformübergreifend für mehr Online-Sicherheit und ein respektvolleres Miteinander unter Gamern zu sorgen. Angesichts wachsender Toxizität in Online-Spielen wollen die drei großen Konsolenhersteller ihre Bemühungen laut eines gemeinsamen Statements nun deutlich verstärken. Ziel der Initiative ist es, Hassrede, toxisches Verhalten und illegale Inhalte plattformübergreifend einzudämmen. Ein besonderer Fokus liegt dabei auf dem Schutz von Kindern und Jugendlichen.
Spieleplattformen sind heute stark miteinander vernetzt. Viele Spiele unterstützen mittlerweile Cross-Play sodass Spieler über Xbox Series X/S, PlayStation 5 und Nintendo Switch 2 (derzeit 460 Euro auf Amazon) trotz unterschiedlicher Konsolen miteinander interagieren können. Damit Gaming zugänglich, positiv und unterhaltsam bleibt, will man die Sicherheitsbestimmungen konsistent über alle Plattformen vereinheitlichen. Dabei setzen die Gaming-Riesen auf drei zentrale Säulen:
- Prävention: Einfach bedienbare Sicherheits- und Jugendschutzfunktionen sollen Spielern und Eltern mehr Kontrolle geben.
- Partnerschaft: Die Hersteller arbeiten neben ihrer eigenen Allianz mit externen Partnern aus Industrie, Forschung, Jugendschutz und Regulierung zusammen, um geeignete Standards zu entwickeln und Sicherheitswissen zu teilen.
- Verantwortung: Klare Meldewege, transparente Entscheidungen und abgestufte Sanktionen sollen Regelverstöße nachvollziehbar ahnden und gesetzliche Vorgaben konsequent umsetzen.
In der Community stößt das gemeinsame Statement auf gemischte Reaktionen. Auf Reddit wird die Kooperation der „großen Drei“ zwar grundsätzlich begrüßt, der konkrete Nutzen jedoch infrage gestellt. Viele Kommentare kritisieren die abstrakte Sprache und bemängeln fehlende, greifbare Maßnahmen. Häufig fällt der Vorwurf, es handle sich eher um ein PR- und Policy-Statement als um spürbare Verbesserungen im Alltag.
In der Praxis sollten die Ankündigung jedoch bedeuten, dass Spieler mit einer schnelleren und konsistenteren Bearbeitung von Meldungen rechnen dürfen – unabhängig davon, auf welcher Plattform ein Verstoß stattfindet. Problematische Inhalte sollten früher erkannt werden und Eltern mehr Kontrolle erhalten. Nun gilt es abzuwarten, ob derartige Verbesserungen künftig tatsächlich spürbar werden.





















