>  Diritto di Famiglia   >  Verifica età online e tutela dei minori

Verifica età online e tutela dei minori

A cura dell’Avv Chiara Parasiliti

 

bambino con un cellulare mobile in mano

(CC0) Foto di cottonbro

 

La tutela dei minori online rappresenta una delle sfide più importanti in tema di sicurezza su Internet.

Le piattaforme e le aziende che sviluppano app devono garantire che i contenuti non adatti ai minori siano accessibili solo agli utenti maggiorenni.

In questo contesto, la verifica dell’età online riveste un ruolo cruciale, soprattutto alla luce delle rigide normative del GDPR (Regolamento Europeo sulla Protezione dei Dati) e del DSA (Digital Service Act), nonché delle recenti sanzioni inflitte a colossi come TikTok.

Il GDPR e il DSA impongono requisiti stringenti per la protezione dei dati personali dei minori.

Non si tratta solo di conformità legale, ma anche di responsabilità sociale per i soggetti più vulnerabili.

Un esempio noto è la sanzione amministrativa di 345 milioni di euro inflitta il 15 settembre 2023 dall’Autorità irlandese per la protezione dei dati (Data Protection Commission – DPC) a TikTok.

La DPC ha ritenuto che TikTok avesse trattato in modo contrario ai principi del GDPR i dati personali di utenti europei di età compresa tra i 13 e i 17 anni nel periodo tra il 31 luglio e il 31 dicembre 2020.

A TikTok è stato contestato di aver reso sostanzialmente difficile per gli utenti più giovani fare scelte che favorissero la protezione dei loro dati personali, incoraggiando a optare per l’uso delle impostazioni pubbliche di default, senza una valutazione adeguata dei rischi che questo comporta per la tutela dei loro dati personali.

A ciò si aggiunga il provvedimento d’urgenza, adottato il 7 luglio 2022, con cui il Garante ha avvertito TikTok che è illecito utilizzare dati personali archiviati nei dispositivi degli utenti per profilarli e inviare loro pubblicità personalizzata in assenza di un esplicito consenso.

Il social network, con riferimento alla richiesta dal Garante di dare conto delle misure adottate dalla stessa Tik Tok per verificare l’età dei propri utenti, faceva presente di aver adottato processi e procedure tecniche e umane per verificare l’età e di avere in corso una collaborazione con esperti del settore e con l’autorità di controllo irlandese per identificare e sviluppare nuovi sistemi per migliorare le misure di verifica dell’età degli utenti.

Tuttavia, il Garante ha espresso preoccupazione poiché TikTok non ha specificato in modo dettagliato quali misure fossero state adottate per verificare l’età effettiva degli utenti, circostanza che non permette di escludere che la pubblicità personalizzata potesse essere rivolta ai minori.

La questione della verifica dell’età è essenziale anche nel contesto del Digital Service Act:

  • Articolo 28 (“Protezione online dei minori”): Richiede che tutti i fornitori di piattaforme online accessibili ai minori adottino misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, sicurezza e protezione dei minori, soprattutto attraverso l’attivazione dei meccanismi di verifica dell’età.
  • Articolo 35, paragrafo 1, lettera j (“Attenuazione dei rischi”): Dispone che i fornitori di piattaforme online di grandi dimensioni e i motori di ricerca online di grandi dimensioni adottino misure di attenuazione dei rischi sistemici, tra cui “strumenti mirati per tutelare i diritti dei minori, compresi strumenti di verifica dell’età e di controllo parentale, o strumenti volti ad aiutare i minori a segnalare abusi o ottenere sostegno, a seconda dei casi”.

La tutela dei minori online richiede un approccio combinato di misure tecniche (come verifica dell’età, il parental control e i filtri di contenuti inappropriati) e educazione digitale.

Non bisogna dimenticare, infatti, la consultazione pubblica indetta, il 25 gennaio 2023, dall’Autorità per le garanzie nelle comunicazioni (Agcom) per l’adozione di linee guida che prevedono l’obbligo per i fornitori di servizi di accesso a Internet di mettere a disposizione dei sistemi di parental control e filtro di contenuti inappropriati per i minori.

Questi sistemi dovrebbero essere disattivabili solo dal titolare maggiorenne del contratto, previa identificazione.

Non vi è dubbio che, la consultazione pubblica avviata dall’Agcom sulle modalità di accertamento della maggiore età per l’accesso a contenuti e servizi online rappresenti un passo cruciale per incrementare la tutela dei minori.

Questo processo potrebbe contribuire a evitare l’accesso dei minori a contenuti inappropriati e ridurre il rischio di sanzioni per comportamenti non conformi.

Delibera n. 61/24/CONS

Disclaimer
L’elaborazione del presente contenuto è effettuata al solo scopo divulgativo ed informativo e senza pretesa di completezza. Il contenuto, anche se curato con scrupolosa attenzione, non può comportare specifiche responsabilità per eventuali involontari errori ed omissioni, inesattezze o uso scorretto degli stessi. Si precisa, inoltre, che le informazioni non costituiscono un parere legale o altro tipo di consulenza professionale. ll presente contenuto è di proprietà esclusiva dell’avvocato Chiara Parasiliti. Ne è vietata la diffusione, distribuzione e riproduzione senza autorizzazione e ogni utilizzo per l’addestramento di sistemi di intelligenza artificiale generativa e di mezzi automatizzati di data scraping. Qualsiasi violazione sarà punita come per legge e comporterà il risarcimento del relativo danno.

Non puoi copiare il contenuto di questa pagina