Dopo aver annunciato la
funzionalità lo scorso anno, YouTube sta iniziando a rendere
disponibile ai membri del programma partner un nuovo strumento
per riconoscere i video generati dall'intelligenza artificiale,
i 'deepfake', non autorizzati.
L'azienda parte del gruppo Alphabet, la casa madre di Google, lo
definisce "likeness detection", ossia rilevazione delle
somiglianze, un modo per segnalare i casi in cui il volto di un
individuo è stato utilizzato o modificato dall'intelligenza
artificiale, senza il suo consenso, per realizzare un nuovo
video.
"Qualcuno ha creato un video in cui sembra che tu stia
sostenendo un candidato politico", spiega l'azienda, "oppure uno
spot pubblicitario che promuove un prodotto di cui non sai
nulla. A questo punto, puoi usare lo strumento per segnalare
potenziali corrispondenze".
L'annuncio arriva a qualche giorno dall'ennesima critica mossa
al modello Sora 2 di OpenAI, sfruttato dagli utenti negli Stati
Uniti e in Canada, per generare filmati con personaggi famosi
defunti, come Robin Williams e Martin Luther King. Le famiglie
di entrambi hanno ufficialmente chiesto alla startup americana
di integrare nuove misure di sicurezza nel suo software per
evitare simili risultati.
Nello specifico, il sistema di YouTube chiede agli utenti di
inviare un documento e un breve video selfie per verificare la
loro identità. Successivamente si potrà richiedere di analizzare
l'autenticità di un filmato pubblicato. In caso di violazione,
il contenuto oggetto della verifica sarà rimosso.
Tecnicamente, scrive il sito Engadget, il funzionamento segue
quello di 'content ID' di YouTube, usato per scovare audio
protetto da copyright nei filmati, eliminandolo dal sottofondo
quando necessario.
Riproduzione riservata © Copyright ANSA

2 giorni fa
2



