Activision će u sljedeći Call of Duty globalno integrirati moderacijski alat za glasovne razgovore koji može prepoznati toksičan govor u pravom vremenu.
Activision pokušava minimizirati toksični govor i mržnju u Call of Dutyju. Najavili su novu suradnju s Modulateom, tvrtkom koja koristi tehnologiju za prepoznavanje tih problema, kao i njihovo izravno moderiranje u sklopu glasovnog chata.
Modulateov AI sustav, ToxMod, pokušava identificirati prijetnje poput govora mržnje, radikalizacije i samoozljeđivanja u stvarnom vremenu. Kompanija navodi da radi u tri koraka: trijaža, analiza i eskalacija. ToxMod sluša sve glasovne razgovore i prepoznaje točke koje zahtijevaju daljnji pregled. Označeni podaci pohranjeni su na njihovim poslužiteljima, dok će svi ostali podaci biti obrađeni na startnom uređaju.
Tvrtka kaže da zatim procjenjuje sve, od tona do emocija, analizirajući ne samo ‘ono što je rečeno, već i kako je rečeno i kako drugi igrači na to reagiraju’. Konačno, sustav može upozoriti moderatore o najotrovnijim incidentima i prepustiti im da poduzmu mjere. Modulate tvrdi da se radi o ‘jedinom rješenju koje obuhvaća govor’ te da je ono već zaštitilo ‘desetke milijune igrača’.
Integracija ToxModa mogla bi pomoći u sveukupnom smanjenju broja toksičnih reakcija, s obzirom da se povezuje sa postojećim tekstualnim sustavima i sustavima za izvješćivanje.
ToxMod je u Sjevernoj Americi dostupan kao beta izdanje na engleskom jeziku i aktivan je u sklopu Call of Duty: Modern Warfarea II i Call of Duty: Warzonea. Bit će objavljen globalno – s izuzetkom Azije – nakon što Call of Duty: Modern Warfare III izađe 10. studenog ove godine, zaključuje Engadget.
Scena.ba