- OpenAI aggiorna “Model Spec” ChatGPT per utenti tra 13 e 17 anni.
- Anthropic vieta l’uso di Claude ai minori di 18 anni.
- Nel 2026 OpenAI rilascerà la “Adult Mode” di ChatGPT.
L’intelligenza artificiale (AI) sta diventando una presenza sempre più pervasiva nella vita quotidiana, e con essa cresce la necessità di affrontare le implicazioni etiche e sociali del suo utilizzo, specialmente quando si tratta di proteggere i minori. Due giganti del settore, OpenAI e Anthropic, stanno intensificando i loro sforzi per garantire che i chatbot basati sull’AI siano utilizzati in modo sicuro e responsabile dagli utenti più giovani. Questo impegno si traduce in nuove regole, strumenti e sistemi di monitoraggio volti a individuare e proteggere gli utenti di età inferiore ai 18 anni.
## OpenAI e Anthropic: strategie a confronto per la tutela dei minori
OpenAI, la creatrice di ChatGPT, ha recentemente aggiornato il “Model Spec” del suo chatbot, introducendo principi specifici per la gestione degli utenti tra i 13 e i 17 anni. La priorità assoluta è la sicurezza, anche a costo di limitare la libertà intellettuale. In particolare, ChatGPT è ora tenuto a indirizzare gli adolescenti verso alternative più sicure quando le conversazioni toccano argomenti potenzialmente rischiosi, promuovendo il supporto nel mondo reale e chiarendo i limiti del proprio ruolo. L’azienda sta anche sviluppando un sistema di previsione dell’età per identificare automaticamente gli utenti minorenni e applicare le tutele appropriate.
Anthropic, d’altra parte, adotta un approccio ancora più restrittivo. Il loro assistente virtuale, Claude, non è stato concepito per essere adoperato da chi ha meno di diciotto anni, e l’azienda sta mettendo a punto meccanismi volti a identificare indizi linguistici che possano svelare la presenza di un utente minorenne, provvedendo alla chiusura degli account non conformi.

## La “Adult Mode” di ChatGPT: un’arma a doppio taglio?
Nel frattempo, OpenAI sta pianificando il rilascio della “Adult Mode” di ChatGPT nel primo trimestre del 2026. Tale funzionalità, destinata esclusivamente agli utenti adulti, offrirà scambi più aperti e meno ristretti, ma la sua attivazione sarà vincolata a un sistema di verifica dell’età ancora in fase sperimentale. L’obiettivo è quello di arricchire ChatGPT e incrementarne le potenzialità, rispondendo alle critiche relative alla censura e alle limitazioni sui contenuti per adulti. Tuttavia, la sfida principale è garantire che l’accesso sia limitato agli utenti maggiorenni, evitando errori di classificazione.
## I “Principi U18” di ChatGPT: un approccio scientifico alla sicurezza degli adolescenti
OpenAI ha introdotto i “Principi U18”, un insieme di linee guida che definiscono come ChatGPT dovrebbe interagire con gli adolescenti tra i 13 e i 17 anni. Questi principi, basati su consulenze con esperti esterni e ispirati alla scienza dello sviluppo, mirano a offrire un’esperienza sicura, trasparente e adatta all’età. I quattro impegni chiave sono:
Mettere la sicurezza degli adolescenti al primo posto.
Promuovere il supporto nel mondo reale.
Trattare gli adolescenti come adolescenti.
Essere trasparenti.
Questi principi si traducono in una maggiore attenzione ai temi considerati ad alto rischio, come l’autolesionismo, i giochi di ruolo sessuali e i disturbi alimentari. In queste situazioni, ChatGPT è stato concepito per suggerire opzioni più sicure, scoraggiare atteggiamenti pericolosi e consigliare risorse di supporto affidabili al di fuori del contesto digitale.
## Verso un futuro più sicuro e responsabile nell’era dell’AI
Le iniziative intraprese da OpenAI e Anthropic rappresentano un passo importante verso la creazione di un ambiente online più sicuro e responsabile per i minori. Tuttavia, è fondamentale che queste misure siano accompagnate da un dibattito pubblico aperto e trasparente sull’impatto dell’AI sulla salute mentale e sul benessere degli adolescenti. Solo attraverso un approccio collaborativo e multidisciplinare sarà possibile garantire che l’AI sia utilizzata in modo etico e responsabile, proteggendo i diritti e la sicurezza dei più giovani.
L’intelligenza artificiale, nel suo continuo evolversi, ci pone di fronte a sfide inedite. Una nozione base da tenere a mente è il concetto di bias, ovvero la distorsione che può essere presente nei dati di addestramento di un modello di AI, portando a risultati discriminatori o non accurati. Nel contesto della protezione dei minori, è fondamentale che i sistemi di AI siano progettati per minimizzare i bias e garantire un trattamento equo e imparziale per tutti gli utenti.
A un livello più avanzato, possiamo considerare l’importanza dell’AI spiegabile (XAI). Questa branca dell’AI si concentra sullo sviluppo di modelli che siano in grado di fornire spiegazioni chiare e comprensibili delle proprie decisioni. Nel caso dei chatbot, l’XAI potrebbe essere utilizzata per spiegare perché un determinato utente è stato identificato come minorenne o perché una certa conversazione è stata considerata rischiosa. Questo non solo aumenterebbe la trasparenza e la fiducia degli utenti, ma permetterebbe anche di identificare e correggere eventuali errori o bias nel sistema.
Riflettiamo: come possiamo, come società, assicurarci che l’AI sia utilizzata per proteggere i minori senza compromettere la loro libertà e il loro diritto alla privacy? Quali sono i limiti che dovremmo imporre all’utilizzo dell’AI per monitorare e filtrare i contenuti online a cui i minori hanno accesso? Queste sono domande complesse che richiedono un’attenta considerazione e un dialogo aperto tra esperti, genitori, educatori e, soprattutto, gli stessi giovani.
