Threat Matrix, l’Ai che protegge gli atleti olimpici dagli abusi online
Le Olimpiadi generano più di mezzo miliardo di post sui social media, secondo una stima del Comitato Olimpico Internazionale (Cio). Il tifo e le espressioni di orgoglio nazionale vanno di pari passo con l’odio, le molestie e persino le minacce di violenza. Per questo motivo il Cio ha messo a punto una soluzione: un algoritmo Ai che vaglia l’oceano di contenuti che gli utenti dei social media pubblicano sulle Olimpiadi allo scopo di neutralizzare gli abusi online.
Si tratta di un software che non si limita ad esaminare post e tweet con parole volgari. I modelli linguistici di grandi dimensioni come Chatgpt, che imparano a elaborare e generare il linguaggio analizzando i modelli in enormi porzioni di testo, possono aiutare a identificare le intenzioni dietro una porzione di testo anche se non ci sono “parole chiavi”. Il sistema che il Cio sta sfruttando per arginare gli abusi online, noto come Threat Matrix, è addestrato esattamente a questo scopo.
Threat Matrix, in particolare, analizza il sentimento. Prendiamo ad esempio il sarcasmo: qualcosa che un essere umano potrebbe non avere problemi a individuare, ma che i computer stanno appena iniziando a comprendere. Sistemi più avanzati come Threat Matrix possono captarlo ed elaborare i modi in cui le immagini e gli emoji possono modificare il significato di un testo. Riesce insomma a comprendere i vari significati e sfumature nelle diverse lingue.
Torna alle notizie in home