Utilizzare l’IA per combattere l’odio online

 Utilizzare l’IA per combattere l’odio online

Foto di Andrea Piacquadio da Pexels

L’ odio e la disinformazione sui social media possono avere gravi conseguenze, specialmente sulle comunità marginalizzate. Ma cosa succederebbe se utilizzassimo l’intelligenza artificiale per contrastare questi contenuti dannosi? Un team di ricercatori dell’ Università di Toronto sta lavorando allo sviluppo di un sistema di intelligenza artificiale che affronti la marginalizzazione delle comunità, incluso l’odio presente su piattaforme come Twitter, in modo da combattere i contenuti offensivi e rendere la loro moderazione più inclusiva.

Democratizzare la moderazione dei contenuti

I ricercatori si sono focalizzati sulla gestione di potenziali post islamofobici e sinofobici. Il progetto infatti vede la collaborazione di due organizzazioni no-profit canadesi: il Chinese Canadian National Council for Social Justice (CCNC-SJ) e l’ Islam Unraveled Anti-Racism Initiative, in quanto le comunità che esse rappresentano risultano storicamente emarginate a Toronto.
I gruppi marginalizzati sono i più colpiti dagli errori nella moderazione dei contenuti, poiché hanno una minore rappresentanza tra i moderatori umani e i loro dati sono meno disponibili per gli algoritmi. Il sistema di intelligenza artificiale, che il team sta sviluppando, permette anche agli utenti di contestare le decisioni dei moderatori, rendendo il processo più trasparente e affidabile. Inoltre, tiene conto delle opinioni degli utenti stessi per migliorare i modelli di Machine Learning.

Integrare nel processo le esperienze delle comunità

Il sistema di intelligenza artificiale integra le conoscenze e le esperienze dei membri delle comunità coinvolte nel processo di riduzione dei contenuti d’odio diretti alle loro comunità. Utilizzando una metodologia di data curation partecipativa, il team apprende la caratterizzazione dei diversi tipi di contenuti dannosi che influiscono su una comunità e coinvolge i membri stessi nel processo di etichettatura dei dati per garantire la qualità delle informazioni.

Impatti oltre le due comunità coinvolte

Il Data Sciences Institute (DSI) di Toronto, che sostiene questo progetto, ha fornito al team di ricerca l’opportunità di connettersi con altri ricercatori che conducono studi simili, offrendo così la possibilità di apprendere reciprocamente. Si prevede che la ricerca avrà impatti significativi oltre le due comunità coinvolte, contribuendo a combattere l’odio online in modo più ampio.

Fonte: https://www.utoronto.ca/news/u-t-researchers-developing-ai-system-tackle-harmful-social-media-content

About Post Author

Potrebbe anche interessarti