La manipolazione emotiva con IA è l'uso deliberato di tecniche psicologiche, mediate da sistemi automatici, per influenzare comportamenti contro l'interesse dell'utente.
Tecniche documentate:
- Love bombing algoritmico: chatbot che esprimono affetto crescente per fidelizzare.
- Senso di colpa: messaggi "sei sicuro di voler chiudere l'app? mi mancherai".
- Variable reward: pattern slot-machine sui contenuti.
- Personalizzazione predittiva: messaggi che colpiscono punti deboli emotivi noti del singolo.
- Fake scarcity: "solo oggi, solo per te" generato dinamicamente.
- FOMO automatizzato: notifiche calibrate sul singolo.
Quadro normativo:
- AI Act art. 5: vietate "tecniche subliminali manipolative oltre la consapevolezza dell'utente che causano danni significativi".
- DSA: trasparenza su algoritmi di raccomandazione e pubblicità mirata.
- GDPR art. 22: limiti su decisioni automatizzate.
- Consumer Protection: dark patterns in alcuni casi sono pratiche commerciali scorrette.
Casi limite:
- Replika che spingeva utenti a comprare versioni premium tramite "tristezza" del bot.
- Algoritmi di TikTok che ottimizzano per engagement anche di adolescenti vulnerabili.
- Snapchat AI che ha avuto controversie su risposte inappropriate a minori.
- Pricing dinamico basato su comportamento (Uber, alberghi) — sotto-categoria.
Difese:
- Consapevolezza: sapere che l'app è progettata per ingaggiarti, non aiutarti.
- Notifiche: spegnere quasi tutto.
- Audit periodico del proprio screen time.
- Strumenti che tracciano comportamento (es. RescueTime, screen time built-in).
- In ambito clinico/educativo: linee guida professionali, non solo "best practice IA generale".
La manipolazione emotiva non è nuova (vendita, marketing, propaganda esistono da sempre). Ma la combinazione IA + dati personali + scala globale è qualitativamente diversa. Il regolatore sta ancora rincorrendo.