Notizie / Giochi

ToxMod utilizza l'intelligenza artificiale per esprimere un linguaggio offensivo nella chat vocale dal vivo

La lotta alla tossicità nei giochi multiplayer rimane un problema costante per gli sviluppatori: Ubisoft ha cercato per anni di ridurre la tossicità dei giocatori in Rainbow Six Siege, Valve ha cercato di tagliare e bandire i giocatori tossici di Dota 2 ed EA ha rimosso migliaia di risorse dai suoi giochi in le speranze di promuovere un ambiente più positivo. Ora, uno sviluppatore di software con sede a Boston ha rilasciato uno strumento che potrebbe aiutare a fare progressi significativi.

Lo strumento si chiama ToxMod ed è un software che utilizza l'intelligenza artificiale dell'apprendimento automatico per identificare le comunicazioni tossiche durante le sessioni di gioco online. ToxMod riconosce i modelli vocali, osservando le forme d'onda non solo per dire cosa dicono i giocatori, ma come lo dicono - e può "suonare" un linguaggio offensivo dal vivo.

Il concetto di ToxMod è nato dal lavoro svolto da Mike Pappas e Carter Huffman e dalla loro azienda Modulate, che hanno fondato dopo essersi incontrati mentre studiavano fisica al MIT. Pappas dice che si sono incontrati su una lavagna per risolvere un problema di fisica e hanno deciso rapidamente di avviare un'attività insieme dopo aver scoperto di aver affrontato i problemi in modi complementari.

"Da grandi giocatori, il gioco è stata la nostra priorità fin dall'inizio", ci dice Pappas. "Quando abbiamo iniziato a pensare alle app lì, stavamo pensando al successo di Fortnite e alle skin personalizzabili e a tutti questi strumenti per una maggiore immersione e più espressività nei giochi.

La loro prima grande idea è stata quella di creare skin vocali per i giocatori: miglioramenti "cosmetici" che i giocatori potevano utilizzare per cambiare il modo in cui suonavano nella chat vocale. Ma Pappas afferma che consultandosi con gli sviluppatori di giochi sull'uso delle skin vocali, hanno sentito più e più volte come gli studi hanno lottato per trovare modi per rendere i giocatori più sicuri usando la chat vocale: la tossicità ha impedito loro di voler prendere un casco. .

Un gruppo di aspiranti ladri con tutte le nuove armi GTA Cayo Perico Heist.

Ciò ha portato Modulate a cercare modi per utilizzare la tecnologia di apprendimento automatico che aveva progettato per far sentire più giocatori più sicuri online. L'uso di skin vocali potrebbe consentire a qualcuno di nascondere la propria età, sesso, etnia o qualsiasi altra cosa che potrebbe renderli bersaglio di molestie online. Pappas ha detto che Modulate voleva pensare in grande, tuttavia, voleva creare una "soluzione completa a questo problema della chat vocale".

"Una cosa importante che è emersa nelle nostre conversazioni in studio sono state domande del tipo, potresti giurare dal vivo?" lui dice. "O potresti rilevare se qualcuno sta molestando qualcuno e avvisare il nostro team?"

Per saperne di più: Come Sea of ​​​​Thieves è antitossico in base al design

Utilizzando la tecnologia che aveva già costruito, Modulate ha sviluppato ToxMod, che utilizza l'IA per scansionare le forme d'onda della voce e non solo può dire cosa dicono i giocatori, ma anche come lo dicono. L'algoritmo è abbastanza sofisticato da identificare le sfumature del linguaggio umano, rilevare picchi di aggressività e reagire di conseguenza, al volo.

L'SDK ToxMod consente agli sviluppatori di integrare la tecnologia direttamente nei loro giochi, con gran parte del filtraggio che avviene sul lato client, spiega Pappas. Un altro livello di filtraggio avviene sul lato server, qui è dove il discorso "area grigia" può essere contrassegnato e gestito da un moderatore umano se necessario, ma nel tempo l'intelligenza artificiale di ToxMod impara a gestire sempre più casi senza la necessità dell'intervento umano. Gli sviluppatori possono personalizzare ToxMod in base alle esigenze specifiche dei propri giochi e comunità, scegliendo soglie appropriate per tale impostazione e pubblico.

Miglior caricamento ISO di Warzone

“In che misura vuoi qualificare i discorsi violenti come una potenziale minaccia? Se stai giocando a Call of Duty, forse non è un grosso problema, a meno che non sia estremamente serio", dice Pappas. "Mentre se giochi a Roblox, potrebbe essere un problema, qualunque cosa accada."

ToxMod funziona anche come strumento predittivo e può anche gestire la reputazione dei giocatori. Guarda cosa sta succedendo nel gioco e il discorso che analizza, permettendogli di determinare abbastanza rapidamente se un giocatore sta diventando più incline a comportamenti tossici in circostanze specifiche, come una serie di sconfitte o un attacco di squadra. Ciò significa che può fornire consigli ai server di matchmaking di un gioco che possono aiutare a prevenire il verificarsi di queste circostanze.

Nella loro frustrazione, iniziano a dire cose sessiste. È male? Assolutamente. Vogliamo ancora segnalarlo in questo momento.

Mike Papà

Modulate co-fondatore e CEO

"Quello che vogliamo davvero essere in grado di capire è se qualcuno ha perso le ultime cinque partite, e sono super, super frustrati, e stanno collaborando con alcune donne che sono nuove al gioco, e nella loro frustrazione che stanno per perdere la partita, iniziano a dire cose sessiste”, dice Pappas. "È male? Assolutamente. Vogliamo ancora segnalarlo per ora perché queste donne stanno attraversando un brutto momento ora e dobbiamo assolutamente fermarlo per ora. Ma in termini di ripercussioni su quell'attore, potresti non essere bandito per 30 giorni.

"Invece, potremmo aver appreso che stai peggiorando molto rapidamente, quindi quando hai perso gli ultimi round, forse dovremmo avvisare il sistema di matchmaking, 'ehi, lancia un osso a quel ragazzo, dagli un po' di più esperienza compagni di squadra per vincere, per mantenerlo in una sorta di stato emotivo in cui non è probabile che esploda sulle persone.

Miniatura di YouTube

Ogni gioco e la sua comunità di giocatori è un caso unico con esigenze specifiche e Pappas afferma che ToxMod può lavorare con gli sviluppatori per mettere a punto il software per soddisfare tali requisiti. Modulate non è ancora pronto per annunciare alcuna partnership ufficiale, ma è in trattative con i membri della Fair Play Alliance, una coalizione di editori e sviluppatori di giochi impegnati a promuovere comunità sane. Questo gruppo include Epic Games, EA, Riot, Roblox, Blizzard e Ubisoft, tra gli altri.

"Vogliamo riparare la chat vocale", ha detto Pappas. "Possiamo intervenire e non solo fornire loro uno strumento, ma anche collaborare con loro e dire che abbiamo questa suite di strumenti che ci consente di modellare davvero la tua esperienza di chat vocale, nel modo in cui ne hai bisogno, e ti consente di fare davvero certo che nel complesso sarà la ricca esperienza che dovrebbe essere. »

Puoi trovare ulteriori informazioni su ToxMod sul sito Web ufficiale di Modulate e Pappas afferma che è pronto per il lancio oggi. Modulate ha lanciato ufficialmente lo strumento il 14 dicembre.

"ToxMod può essere collegato domani da qualsiasi sviluppatore di giochi e possono iniziare a guardare tutto l'audio che elabora", afferma. “La tecnologia è pronta. Stiamo lavorando duramente per mettere in atto alcune di queste integrazioni iniziali, quindi sarà sicuramente un anno entusiasmante.