Xbox

Xbox rilascia il secondo rapporto sulla trasparenza che mostra il ruolo fondamentale della moderazione proattiva dei contenuti

Con una comunità in crescita di oltre 3 miliardi di giocatori in tutto il mondo, continuare a investire nella fiducia e nella sicurezza è essenziale per promuovere un ambiente online sicuro e inclusivo. Proteggere i giocatori dai pericoli è parte integrante del team Xbox Safety e del lavoro che svolgiamo. I giocatori spesso non vedono o conoscono tutte le misure di moderazione dei contenuti in esecuzione in background che aiutano a rendere la loro esperienza più sicura e accogliente. Oggi pubblichiamo il nostro secondo Rapporto sulla trasparenza di Xboxche descrive in dettaglio gli sforzi in corso per proteggere meglio i nostri giocatori e illustra le nostre misure di sicurezza in azione.

La nostra poliedrica suite di sicurezza include i nostri sforzi di moderazione proattivi e reattivi, gli standard della community, i controlli parentali e familiari come l'app Xbox Family Settings e il nostro continuo lavoro con i partner e le autorità di regolamentazione del settore. I nostri investimenti fondamentali nella moderazione dei contenuti combinano intelligenza artificiale e tecnologie umane per intercettare e filtrare i contenuti prima che raggiungano e influenzino i giocatori. Utilizziamo una serie di metriche che ci danno la portata, la velocità e la portata per tenere traccia delle crescenti interazioni e attività dei nostri giocatori. Come indicato nel Rapporto sulla trasparenza, l'80% (8,08 milioni) del numero totale di domande durante questo periodo è stato presentato grazie ai nostri sforzi di moderazione proattiva. I dati articolano l'impatto di questo approccio.

Man mano che le esigenze dei giocatori continuano a evolversi, anche i nostri strumenti si evolvono. La sicurezza dei nostri giocatori è una priorità assoluta e per promuovere esperienze online sicure, continueremo a investire nell'innovazione, a lavorare a stretto contatto con i partner del settore e le autorità di regolamentazione e a raccogliere feedback dalla community. Non vediamo l'ora di condividere di più.

Infografica del rapporto sulla trasparenza

Tra i punti chiave del rapporto:

  • Le misure proattive sono un fattore chiave per esperienze di gioco più sicure. In questo periodo, 80% delle nostre azioni esecutive totali emesse sono il risultato dei nostri sforzi di moderazione proattiva. Il nostro approccio di moderazione proattiva include misure sia automatizzate che umane che filtrano i contenuti prima che raggiungano i giocatori. Strumenti automatizzati come Community Sift lavorano su testo, video e immagini catturando contenuti offensivi in ​​millisecondi. Solo nell'ultimo anno, Community Sift ha valutato 20 miliardi di interazioni umane su Xbox e sono state individuate e applicate anche misure proattive contro 100% manomissione dell'account, pirateria informatica, phishing e frode/account non autentici.
  • Maggiore attenzione ai contenuti inappropriati. Comprendiamo che le esigenze dei nostri giocatori cambiano costantemente e continuiamo ad ascoltare il feedback dei giocatori su ciò che è e non è accettabile sulla piattaforma, in conformità con i nostri standard della community. Durante quest'ultimo periodo, abbiamo ampliato la nostra definizione di contenuto volgare per includere gesti offensivi, contenuti sessualizzati e umorismo volgare. Questo tipo di contenuto è generalmente considerato sgradevole e inappropriato, sminuendo l'esperienza di gioco di base per molti dei nostri giocatori. Questa modifica della politica, unita ai miglioramenti ai nostri classificatori di immagini, ha portato a un Aumento del 450%. nell'applicazione di contenuto volgare, con 90,2% essere moderato in modo proattivo. Queste azioni di applicazione spesso si traducono nella semplice rimozione di contenuti inappropriati, che si riflette nel Aumento del 390%. in applicazioni di "solo contenuto" durante questo periodo.
  • Attenzione continua agli account non autentici. La nostra moderazione proattiva, in aumento 16,5x rispetto allo stesso periodo dell'anno scorso, ci consente di rilevare contenuti e comportamenti negativi prima che raggiungano i giocatori. Il team di sicurezza Xbox ha rilasciato 7.51M applicazione proattiva contro account non autentici, rappresentando 74% il numero totale di esecuzioni durante il periodo di riferimento (invece di 57% ultimo periodo di riferimento). Gli account non autentici sono in genere account automatizzati o creati da bot che creano un campo di gioco irregolare e possono influire negativamente sulle esperienze positive dei giocatori. Continuiamo a investire e migliorare la nostra tecnologia in modo che i giocatori possano avere esperienze sicure, positive e invitanti.

In tutto il mondo, il nostro team continua a lavorare a stretto contatto con i principali partner del settore per collaborare al nostro approccio alla sicurezza, compresa una maggiore istruzione e il miglioramento delle nostre misure di sicurezza per superare gli standard:

Insieme creiamo una community in cui tutti possono divertirsi. Ogni persona, che si tratti di un nuovo giocatore o di un professionista esperto, svolge un ruolo nella costruzione di una comunità più positiva e invitante per tutti. Il feedback e le segnalazioni dei giocatori ci aiutano a migliorare le nostre funzionalità di sicurezza. Se vedi qualcosa di inappropriato, segnalalo: non potremmo farlo senza di te!

Alcune risorse aggiuntive: