Instagram avviserà i genitori se i figli cercano termini come suicidio

14 ore fa 3

Se ne parla in Europa e negli Stati Uniti. L'Australia ha fatto il primo passo, la Francia potrebbe seguire a ruota. Il divieto dei social per i minori è una scelta drastica, che i big del settore tentano di contrastare con nuovi limiti nelle loro app. L'ultimo riguarda Instagram, che ha lanciato negli Stati Uniti, Regno Unito, Australia e Canada, con l'estensione entro l'anno ad altri Paesi, tra cui l'Italia, una funzione che avvisa i genitori se gli adolescenti cercano ripetutamente sul social termini critici, legati al suicidio e autolesionismo.

"È la prima volta che una piattaforma social introduce un sistema di notifica proattiva del genere", dice all'ANSA Franz Russo, esperto di comunicazione digitale, "fino ad oggi le principali piattaforme, da TikTok a YouTube e Snapchat, si sono limitate a bloccare le ricerche dirette di termini sensibili e a mostrare risorse di supporto, ma senza coinvolgere attivamente i genitori nel processo".

Gli avvisi di Instagram verranno inviati via e-mail, sms o WhatsApp, in base ai recapiti disponibili, oltre che tramite una notifica all'interno dell'app. Aperta, si entrerà in una sezione specifica con indicazioni su come affrontare la questione con i figli, grazie alle linee guida degli esperti. A dicembre dello scorso anno, l'Australia ha attuato il divieto ai social per gli utenti sotto i 16 anni, mentre a fine gennaio l'Assemblea nazionale di Parigi ha dato il proprio via libera a un disegno di legge che vieta l'accesso ai social network ai minori di 15 anni. Sulla stessa falsariga la Lega, con una simile proposta di legge depositata alla Camera.

"È un cambio di approccio importante, che risponde a una domanda concreta di molte famiglie", prosegue Russo, "avere strumenti per intercettare segnali di disagio prima che sia troppo tardi. Il fatto che la notifica arrivi solo dopo ricerche ripetute, e non al primo tentativo, suggerisce un tentativo di bilanciare la tutela con il rispetto di una certa autonomia dell'adolescente. Non si tratta di sorveglianza invasiva, ma di un alert pensato per situazioni che potrebbero indicare un bisogno reale di supporto".

E poi c'è la questione dell'intelligenza artificiale. Meta sta sviluppando notifiche analoghe rivolte ai genitori anche per alcune esperienze che coinvolgono il chatbot Meta AI, per informarli qualora i propri figli adolescenti tentino di avviare conversazioni legate a suicidio o autolesionismo. Un tema scottante, che vede, principalmente negli Stati Uniti, decine di azioni legali avviate con l'accusa ai colossi del settore IA di aver sviluppato chatbot che creano dipendenza, adulatori e privi di misure concrete di protezione per i più giovani.

"L'estensione di questo sistema di alert anche alle conversazioni con Meta AI è un passaggio logico e necessario", conclude Russo, "considerato che sempre più adolescenti si rivolgono ai chatbot per cercare risposte o sfogare disagi che non riescono a condividere con le persone intorno a loro".

Riproduzione riservata © Copyright ANSA

Leggi l’intero articolo