OpenAI e Anthropic, tra le principali società di intelligenza artificiale, testano misure per individuare gli utenti minorenni, in un clima di crescente dibattito mondiale sull'uso dei chatbot e in genere della tecnologia per gli under 18, con la recente stretta dell'Australia sui social.
La società madre di ChatGpt - come riporta il sito specializzato The Verge - ha aggiornato 'model spec', l'insieme di linee guida sul comportamento dell'IA lanciato a maggio del 2024, per includere quattro nuovi indicatori pensati per gli utenti minorenni. Definiti 'U18', i principi hanno l'obiettivo di "mettere la sicurezza degli adolescenti al primo posto" anche quando può essere messa in discussione da quella che OpenAI definisce la "massima libertà intellettuale".
Sul proprio blog, OpenAI delinea il nuovo corso di ChatGpt, che intende "promuovere il supporto del mondo reale, incoraggiare le relazioni offline e le risorse di fiducia, trattare gli adolescenti come tali, senza essere accondiscendente o pensandoli adulti". Anche la rivale Anthropic si sta muovendo in questa direzione. A differenza del concorrente, la società vieta già espressamente l'uso dell'IA da parte dei minori e sta sviluppando un nuovo sistema in grado di rilevare "segnali conversazionali che indicano quando un utente potrebbe essere minorenne". Una volta individuato un utente under 18, la società bloccherà la conversazione inserendo la mail di registrazione in una blacklist. "Chiunque usi i nostri strumenti deve dichiarare di avere almeno 18 anni. Se qualcuno mente, segnaleremo e disabiliteremo gli account", afferma Anthropic.
Riproduzione riservata © Copyright ANSA

21 ore fa
2



