"L'85% dei contenuti in violazione
delle nostre policy viene rimosso dall'IA, è un enorme alleato.
La moderazione umana è importante sulle notizie false in momenti
come le elezioni o i referendum". Lo ha detto Luana Lavecchia,
Senior public policy and government relations manager di TikTok,
in audizione alle Commissioni riunite Trasporti e Cultura della
Camera, nell'ambito dell'esame delle proposte di legge recanti
norme per la tutela della trasparenza, parità di trattamento e
libertà di espressione nella gestione e diffusione di
informazioni e contenuti di carattere sociale e politico sulle
piattaforme digitali e sulle reti sociali telematiche.
Riguardo la disinformazione e i contenuti generati dall'IA,
Lavecchia ha ricordato che TikTok "a settembre 2023 ha messo
un'etichetta". "C'è un grande lavoro da fare sui creatori di
contenuti e anche sui politici - ha sottolineato - nelle ultime
elezioni regionali ci sono stati contenuti creati in questo
modo. E' importante etichettare i contenuti generati con l'IA e
contrassegnare quelli che arrivano da altre piattaforme. Abbiamo
inasprito le regole e stiamo testando uno strumento per chi
vuole vedere meno contenuti con l'intelligenza artificiale".
"Resta fondamentale - ha poi aggiunto - il ruolo delle
segnalazioni attendibili e dei fact-checker". TikTok a livello
mondiale collabora con "20 organizzazioni che coprono 50 lingue,
una sfida enorme sul flusso dei contenuti. I video virali sono
visti dai sistemi di moderazione più volte". Lavecchia infine,
ha ricordato che TikTok ha oltre 200 milioni di utenti un Europa
e 24 milioni in Italia.
Riproduzione riservata © Copyright ANSA

2 giorni fa
3



