L’Europarlamento rilancia la protezione dei minori nel mondo digitale: età minima a 16 anni per accedere ai social e verifiche d’identità più rigorose.
Rischi per la salute fisica e mentale, applicazione più rigorosa delle norme digitali dell’Ue, con multe e potenziali divieti. E lotta serrata contro gli strumenti di Intelligenza artificiale generativa come deepfake e app di nudo. 
Sono questi gli obiettivi che hanno spinto il Parlamento europeo verso un’operazione ambiziosa: dare vita ad un provvedimento per il quale per accedere ai social media bisognerà avere un’età minima di 16 anni. Gli eurodeputati per il momento hanno adottato una relazione non legislativa con 483 voti a favore, 92 contrari e 86 astensioni.
Bruxelles ha così espresso profonda preoccupazione per i rischi per la salute fisica e mentale che i minori affrontano online. E chiesto una maggiore protezione contro le strategie manipolative. Strategie che possono aumentare la dipendenza e che sono dannose per la capacità dei bambini di concentrarsi e di interagire in modo sano con i contenuti online.
Presto un’app Ue per la verifica dell’età e un portafoglio europeo di identità digitale (eId)
Per aiutare i genitori a gestire la presenza digitale dei propri figli e garantire un coinvolgimento online adeguato all’età, il Parlamento propone un’età minima digitale armonizzata a livello Ue di 16 anni per l’accesso ai social media, alle piattaforme di condivisione video e ai dispositivi di Intelligenza artificiale. Consentendo al contempo l’accesso ai ragazzi dai 13 ai 16 anni con il consenso dei genitori.
Esprimendo sostegno al lavoro della Commissione per sviluppare un’app Ue per la verifica dell’età e un portafoglio europeo di identità digitale (eId), i deputati hanno insistito sul fatto che i sistemi di verifica dell’età devono essere accurati e tutelare la privacy dei minori. Tali sistemi non esonerano le piattaforme dalla responsabilità di garantire che i loro prodotti siano sicuri e adatti all’età fin dalla progettazione, aggiungono. 
Per incentivare una migliore conformità al Digital services act (Dsa) dell’Ue e ad altre leggi pertinenti, gli eurodeputati hanno suggerito che i dirigenti senior potrebbero essere ritenuti personalmente responsabili in caso di grave e persistente inosservanza. Con particolare riguardo alla tutela dei minori e alla verifica dell’età.
Il Parlamento ha chiesto inoltre il divieto delle pratiche più dannose che creano dipendenza. E la disattivazione predefinita di altre funzionalità che creano dipendenza per i minori (tra cui lo scorrimento infinito, la riproduzione automatica, il pull-to-refresh, i cicli di ricompensa, la gamification dannosa). E poi azioni per contrastare le tecnologie persuasive. Come la pubblicità mirata, l’influencer marketing, il design che crea dipendenza e i dark pattern, nell’ambito del prossimo Digital fairness act.
Schaldemose (S&D): “Stiamo dicendo chiaramente alle piattaforme: i vostri servizi non sono pensati per i minori”
I minori dovrebbero essere protetti dallo sfruttamento commerciale, anche vietando alle piattaforme di offrire incentivi finanziari per il kidfluencing (bambini che agiscono come influencer). Infine, sono necessarie azioni urgenti per affrontare le sfide etiche e legali poste dagli strumenti di Intelligenza artificiale generativa. Tra di essi deepfake, chatbot di compagnia, agenti di Ia e app di nudo che creano immagini manipolate non consensuali.
“Sono orgogliosa di questo Parlamento, – ha detto Christel Schaldemose (S&D) – del fatto che possiamo unirci nella protezione dei minori online. Insieme a un’applicazione rigorosa e coerente della Legge sui Servizi Digitali, queste misure aumenteranno drasticamente il livello di protezione dei minori. Stiamo finalmente tracciando una linea. Stiamo dicendo chiaramente alle piattaforme: i vostri servizi non sono pensati per i minori. E l’esperimento finisce qui“.




