IA e Minori

Tema più caldo del 2024-2025. Bambini e adolescenti usano massicciamente chatbot, AI companion, generatori di immagini. Rischi specifici, regole specifiche da pretendere.

I minori sono il gruppo più esposto e meno protetto rispetto all'IA generativa. Numeri del 2024 (Common Sense Media, AGCom Italia):

  • 70% degli adolescenti USA ha usato un AI companion almeno una volta.
  • 32% lo usa settimanalmente per "compagnia" o "supporto emotivo".
  • In Italia, AGCom segnala uso massiccio di ChatGPT a scuola: 60% degli studenti 14-18 anni dichiara di usarlo per compiti.

Rischi specifici per i minori:

  • Cervello in sviluppo: la corteccia prefrontale (giudizio, autocontrollo) matura intorno ai 25 anni. Distinguere relazione vera da bot è oggettivamente più difficile.
  • Esposizione a contenuti inadatti: deepfake erotici di compagni di scuola, chatbot "romantici" senza verifica età.
  • Dipendenza da validazione: il bot dà ragione sempre. Nei profili fragili genera dipendenza emotiva.
  • Compiti delegati: senza supervisione il ragazzo non impara, copia. Il problema non è l'IA, è come la scuola la inquadra.

Cosa pretendere come genitore informato:

  • Verifica età reale sulle piattaforme (oggi è una farsa: basta cliccare "ho 18 anni").
  • Controllo parentale serio sui dispositivi.
  • Conversazioni a casa (non divieto cieco, che non funziona).
  • Conoscere le app che usa: Character.ai, Snap AI, Replika, Janitor AI sono nomi da conoscere.

Riferimento italiano: Telefono Azzurro ha pubblicato linee guida specifiche su IA e minori (2024). Vale la pena leggerle.