Da oggi anche la chat vocale di Warzone e MW3 sarà controllata: “puniremo intolleranza e discriminazioni”
Speciale Chat Vocale Warzone & MW3 – Con un nuovo aggiornamento pubblicato sul sito ufficiale, gli sviluppatori di Activision hanno reso note delle nuove importanti novità che riguardano il codice di condotta dei giocatori.
Nel corso della giornata di ieri è stato infatti implementato su Call of Duty (sia MW2 che MW3 o Warzone) un vero e proprio servizio di moderazione vocale chiamato ToxMod, tecnologia basata sull’intelligenza artificiale di Modulate grazie alla quale sarà possibile identificare ogni tipo di aggressione verbale, insulto o molestia consumata all’interno della chat vocale.
Sull’argomento i devs sono stati estremamente chiari, affermando: “identificheremo in tempo reale e faremo rispettare le regole in caso di discorsi tossici, incitamento all’odio, linguaggio discriminatorio, molestie e altro ancora“.
Ecco il post ufficiale pubblicato dai devs:
Novità sulla moderazione della chat vocale di Modern Warfare 3 e Warzone
Oggi ha il via il lancio globale della moderazione della chat vocale in-game di Call of Duty, esclusa la regione dell’Asia-Pacifica. La nostra moderazione si espanderà anche per includere spagnolo e portoghese, oltre all’inglese. Il servizio di moderazione vocale di Call of Duty sarà attivo in Call of Duty: Modern Warfare III, Call of Duty: Modern Warfare II e Call of Duty: Warzone.
Call of Duty sta facendo un ulteriore passo avanti nel suo impegno per combattere comportamenti tossici e distruttivi con la moderazione della chat vocale all’interno del gioco a partire dal lancio di Call of Duty: Modern Warfare III questo 10 novembre. Activision collaborerà con Modulate per offrire una moderazione globale della chat vocale in tempo reale, su larga scala.
Il nuovo sistema di moderazione della chat vocale di Call of Duty utilizza ToxMod, la tecnologia di moderazione della chat vocale basata sull’intelligenza artificiale di Modulate, per identificare in tempo reale e far rispettare i discorsi tossici, inclusi incitamento all’odio, linguaggio discriminatorio, molestie e altro ancora. Questo nuovo sviluppo rafforzerà i sistemi di moderazione guidati dal team anti-tossicità di Call of Duty, che include filtri basati su testi in 14 lingue (chat e nomi utente), nonché un solido sistema di reporting dei giocatori nel gioco .
Domande e risposte sulla moderazione della chat vocale di Call of Duty
Dal lancio di Modern Warfare II, la moderazione anti-tossicità esistente di Call of Duty ha limitato la chat vocale e/o di testo a oltre 1 milione di account rilevati per aver violato il Codice di condotta di Call of Duty.
Esaminando i dati relativi alle sanzioni precedentemente annunciate, il 20% dei giocatori non ha commesso nuovamente reato dopo aver ricevuto un primo avvertimento. Coloro che hanno commesso reati sono stati puniti con sanzioni sull’account, che includono ma non sono limitate a restrizioni sulle funzionalità (come divieti di chat vocale e di testo) e restrizioni temporanee sull’account. Questo impatto positivo è in linea con la nostra strategia di collaborare con i giocatori per fornire un feedback chiaro sul loro comportamento. […]
Un ottimo aggiornamento quindi, che speriamo possa incidere su un maggiore livello di qualità per l’esperienza del giocatore, e molti più toxic player finalmente “bannati” dalla chat vocale.
Fateci sapere cosa ne pensate community… La discussione, come sempre, è assolutamente aperta!
- Articolo realizzato in collaborazione con la community di riferimento di Warzone d’Italia (Clicca qui per Facebook)
Articoli correlati: