Un gruppo di circa cinquanta
europarlamentari di diversi schieramenti chiedono alla
Commissione europea se intende vietare nel mercato Ue le app di
intelligenza artificiale usate per creare immagini denudate dopo
lo tsunami di critiche che ha investito Grok AI, il chatbot di
IA sviluppato da xAI e integrato nella piattaforma X di Elon
Musk, per aver creato e diffuso deepfake sessualizzati di donne
e bambini.
In un'interrogazione parlamentare, si denuncia "l'aumento
degli strumenti basati sull'intelligenza artificiale che
consentono agli utenti di generare immagini intime manipolate di
individui senza consenso, facilitando la violenza informatica
basata sul genere e il materiale pedopornografico". "Questi
sistemi dovrebbero essere vietati dal mercato Ue. I singoli
autori di tali reati sono spesso punibili ai sensi del diritto
penale nazionale, ma spesso sono difficili da individuare e ciò
non impedisce la diffusione della violenza sessuale basata sulle
immagini" scrivono ancora gli eurodeputati che ritengono
insufficiente "affrontare questi sistemi di IA solo su un numero
limitato di piattaforme online di grandi dimensioni".
"Attualmente non è chiaro se questi sistemi siano vietati sul
mercato dell'Ue, il che lascia delle lacune giuridiche"
sottolineano, chiedendo alla Commissione di "confermare che
questi sistemi sono vietati sul mercato Ue ai sensi dell'AI Act
o di altre normative dell'Ue". Gli eurodeputati chiedono inoltre
all'esecutivo Ue se, in caso contrario, concorda sul fatto che
questi sistemi rappresentino "un rischio inaccettabile per la
salute, la sicurezza e i diritti fondamentali" e intenda
aggiungerli quindi all'elenco delle pratiche vietate dalla legge
sull'IA che include il riconoscimento facciale, la polizia
predittiva, il social scoring, l'uso di tecniche manipolative e
subliminali, il riconoscimento delle emozioni sul posto di
lavoro e nelle scuole.
Riproduzione riservata © Copyright ANSA

8 ore fa
1



