Legislazione
Chatbot e minori, al via una nuova proposta di legge
La proposta di Giulia Pastorella (Azione) non punta a vietare: «è una proposta che cerca di arginare alcune possibili derive».
Giulia Pastorella(*), parlamentare e vicepresidente di Azione, ha depositato alla Camera una proposta di legge per regolare l’utilizzo da parte dei minori dei chatbot di intelligenza artificiale.
La proposta mira a regolamentare l’uso dei chatbot (**) basati sull’intelligenza artificiale da parte dei minori, con l’obiettivo di tutelare il loro benessere psicofisico e arginare la formazione di relazioni emotive artificiali, riducendo il rischio che le conversazioni dei minori con l’IA si trasformino in un legame di amicizia o affetto verso i chatbot con cui questi ragazzi hanno sempre più interazioni.
Pastorella ha illustrato in una conferenza stampa tenutasi alla Camera dei Deputati lo spirito della proposta.
“Vogliamo evitare l’errore che è stato fatto con i social, con cui prima abbiamo atteso di vedere se ci fossero potenziali danni nel loro utilizzo e, quando ci siamo resi conto che i danni esistevano realmente, ci siamo mossi per cercare di sistemarli. Azione auspica con questa proposta di legge di anticipare le potenziali derive negative, senza dovere limitare o bannare l’uso della tecnologia che riteniamo importante”

(*) Giulia Pastorella, eletta alla Camera nel 2022 nella circoscrizione di Milano, è anche consigliera comunale a Milano dal settembre 2021. Laureata in filosofia e lingue moderne a Oxford, ha poi studiato a Science Po e LSE dove ha anche conseguito un PhD in Affari Europei e ha insegnato come docente a contratto per tre anni. Nello stesso anno è stata nominata da Forbes tra i trenta Under 30 più influenti in Europa nel settore Law&Policy. Prima di diventare parlamentare è stata responsabile delle relazioni istituzionali con l’Unione Europea per alcune importanti multinazionali della tecnologia e del digitale.
(**) Un chatbot è un software che simula conversazioni umane tramite testo o voce, spesso basato su Intelligenza Artificiale (IA) e Elaborazione del Linguaggio Naturale (NLP) per comprendere e rispondere agli utenti.
A introdurre la presentazione della nuova proposta legislativa è stato il segretario nazionale di Azione Carlo Calenda.
“Insieme a Giulia abbiamo fatto questo percorso da molto tempo avendo ben presenti alcuni parametri.
Il primo è che nessuno vuole arrivare a divieti assoluti di forme di comunicazione e interazione che si vanno articolando nel tempo, anche molto rapidamente.
Tutte le trasformazioni industriali, tutte le trasformazioni digitali, tutte le trasformazioni comportamentali richiedono adeguati strumenti educativi e di regolamentazione.
L’intelligenza artificiale non va demonizzata, va controllata perché non sempre si sviluppa entro giusti parametri, ma è molto utile per chi vuole capire le cose. Il problema nasce quando l’IA, in particolare quella generativa, viene usata per scopi che rischiano di essere complessi.
Un esempio è quello dell’uso dell’intelligenza artificiale generativa nelle campagne elettorali, in particolare in relazione alle interferenze straniere. Un tema sul quale stiamo lavorando al Senato.
Abbiamo fatto tanti confronti con psicologi infantili all’età adolescenziale e abbiamo capito che molto spesso il rifugio nel rapporto con un social piuttosto che nel rapporto con un chatbot, piuttosto che nel rapporto con un’intelligenza artificiale generativa, è un rifugio salvifico per i ragazzi che non riescono ad avere un’interazione con i genitori.
Tutto ciò può essere una trappola emotiva gigantesca e su questa prospettiva Giulia Pastorella sta andando avanti affrontando questo tema, senza alcuna prospettiva oscurantista o reazionaria.
La proposta elaborata da Pastorella è a nostro avviso molto equilibrata e sono molto fiero del lavoro che Giulia ha fatto”.
Ecco in sintesi estrema la proposta legislativa descritta dalla sua relatrice.
“La nostra proposta cerca di non vietare, non è una proposta che vieta, è una proposta che cerca di arginare alcune possibili derive. Non parlo delle derive già codificate come illegali, (istigazione al suicidio, istigazione alla violenza su se stessi), quelle già sono regolate dalla normativa europea nonché da quella italiana. La normativa europea lascia però un’area grigia che è precisamente quella di cui stiamo discutendo, l’area del coinvolgimento emotivo che non è illegale di per sé, ma ha naturalmente delle conseguenze sociali e sociologiche molto negative.
Ovviamente la proposta si applica a quei servizi digitali che sono atti ad interagire attraverso un linguaggio naturale, quindi che danno una simulazione molto realistica di un comportamento umano che quindi crea in chi lo riceve, in chi interagisce con esso, una sorta di impressione di poter avere delle relazioni con coinvolgimento emotivo.
Che cosa proponiamo? Siccome queste interazioni emotive molto spesso sono dovute alla conoscenza reciproca, come se si trattasse di due umani, più l’intelligenza artificiale ti conosce più saprà giocare bene la parte del fidanzatino, della fidanzatina, dell’amico, del confidente, eccetera.
Dobbiamo impedire questa conoscenza reciproca, non permettiamo questo sviluppo di relazione, azzerando la conoscenza reciproca.
Io ho suggerito un azzeramento totale ogni cinque giorni, magari si può dire ogni tre; c’è chi mi dice che dovrebbe non esserci per niente questa memoria. Ecco questa memoria di conversazioni a sfondo personale ed emotivo non può essere mantenuta, in modo che ogni volta il ragazzo debba ricominciare da capo e attivando quindi un freno, un ostacolo allo sviluppo di queste emozioni.
A proposito della grande discussione dell’age verification, la verifica dell’età, noi la prevediamo anche per l’utilizzo di questi servizi di chatbot, ma non immaginiamo nuovi termini di età, nuove limitazioni. Ci limitiamo ad applicare il cosiddetto DDL sull’intelligenza artificiale che prevede l’utilizzo sotto i 18 anni diciamo liberamente, i sotto i 14 anni con consenso parentale.
Però anche qui, come per i social, questa età deve essere verificata, perché così come accade sui social dove non basta una spunta, lo stesso meccanismo deve attivarsi sulle piattaforme di intelligenza artificiale generativa.
E domandiamo ad Agcom, che è l’autorità proposta, di definire ulteriori linee guide.
Ma ovviamente non si può demandare tutto alla tecnologia.
Queste linee guida e la loro modalità di applicazione devono essere molto ampie, quindi definire esattamente quali sono i servizi che ricadono in quella definizione, quali possono essere ulteriori misure necessarie per garantire trasparenza e correttezza dell’informazione rispetto a questa interazione e qualunque ulteriore idea che possa esserci per la tutela dei minori e dei diritti fondamentali della persona.
Quindi, come diceva il senatore Calenda in introduzione, è una proposta aperta.
Noi diciamo specificatamente nella proposta di legge che bisogna interagire con il terzo settore, con le piattaforme, con le autorità per trovare un quadro che possa guardare a tutti gli aspetti.
E non da ultimo, molto importante, le campagne informative che vanno anche fatte sugli insegnanti, sui genitori e su tutte quelle categorie che interagiscono con i nostri ragazzi”.
Per approfondire il tema dell’emotività che si sviluppa tra minori e intelligenza artificiale generativa, Pastorella si è avvalsa della partecipazione in sala stampa e da remoto di esperti della società civile e rappresentanti di Autorità e Piattaforme tecnologiche.
Ivano Zoppi, segretario generale di Fondazione Carolina ha centrato il proprio intervento sulla questione educativa.
“Educare non è più un’opzione, non è più una semplice funzione, è un obbligo da parte delle famiglie, della scuola e di tutta la comunità educante.
Educare è un diritto inalienabile, ancestrale che va garantito alle nuove generazioni. Abbiamo fatto un’indagine e abbiamo visto che un minore su quattro utilizza costantemente l’intelligenza artificiale, perché l’intelligenza artificiale non ti giudica. L’intelligenza artificiale c’è sempre. L’intelligenza artificiale ti coccola, ti dà le risposte che vuoi sentirti dare.
Ringrazio l’onorevole Pastorella e i firmatari di questo testo che hanno avuto il merito e la sensibilità di comprendere l’importanza di queste dinamiche prima che diventino una vera e propria emergenza. Non dobbiamo lasciare da soli in questo mondo i ragazzi.
Torniamo a educare. Torniamo a prenderci la responsabilità educativa”.
Daniele Grassucci, direttore di Skuola.net
Il tema è che non c’è più tempo, siamo già in ritardo, quindi non sprechiamo questa occasione e non rifacciamo l’errore che abbiamo fatto con i social.
Usciamo per un momento dalla nostra realtà e guardiamo chi è più avanti di noi. In Cina, dove sono molto avanzati dal punto di vista della tecnologia, cercano di prendere la parte buona per vincere la competizione globale. L’intelligenza artificiale se la ritrovano fin dai banchi di scuola, i bambini usano delle piattaforme di IA fino dai 6 anni, però nel contempo non ne usano la parte dannosa, nel senso che in Cina ad esempio è vietato per i minorenni avere una fidanzata digitale, IA.
Recentemente abbiamo presentato un’indagine fatta insieme a Meta (perché anche le piattaforme da quello che ho visto vogliono fare la loro parte e quindi ci hanno supportato in questa indagine che solo apparentemente va contro i loro interessi). Risulta che la maggior parte dei ragazzi a partire dai 13 anni sono favorevoli all’introduzione di limiti d’età sul tema dell’utilizzo dei social e delle piattaforme di video sharing e sono consapevoli che anche l’intelligenza artificiale e tutte le altre piattaforme complesse – come videogiochi on line – debbano avere un’età minima di fruizione.
Antonella Inverno, responsabile ricerca, analisi e formazione di Save the Children: “L’intelligenza artificiale sviluppa diverse illusioni nei ragazzi e nelle ragazze, la prima è quella della semplicità.
Le risposte dell’intelligenza artificiale sono sempre semplici, dirette, eliminano la complessità del mondo.
C’è un’altra illusione che è quella dell’autorevolezza. I ragazzi e le ragazze sono portati a pensare che tutto quello che dice l’intelligenza artificiale è giusto, è vero, che l’intelligenza artificiale non fa errori.
E c’è una terza illusione che è quella dell’amicizia, della riservatezza. I ragazzi e le ragazze non pensano che tutto quello che riversano nelle chat con l’intelligenza artificiale si trasforma in dati che vengono poi conservati in qualche modo dalle piattaforme.
Per questi motivi è importante quello che la proposta di legge ipotizza, cioè di intervenire direttamente alla base, nel design delle piattaforme che devono interagire anche con gli adolescenti, per renderli consapevoli di quelli che sono i limiti dell’IA.
Anche il limite di conservazione per un massimo 5 giorni delle interazioni con i minorenni è un limite che va in quella direzione.
E’ inoltre estremamente importante affiancare a questo tipo di attività delle attività di educazione al digitale, non solo delle campagne di sensibilizzazione.
In un momento storico in cui l’intelligenza artificiale è così avanti l’unico antidoto è aiutare a sviluppare uno spirito critico nei ragazzi e nelle ragazze perché possano affrontare i rischi. Ovviamente con tutti i presupposti di protezione che anche questa proposta di legge offre.
Credo che demonizzare totalmente non sia mai l’approccio giusto, mentre il bilanciamento dei meccanismi protettivi e un’educazione forte penso che possa essere la combinazione che può funzionare”.
A seguire l’intervento di Massimiliano Capitanio, commissario di AGCOM : “la tematica è urgente e necessaria e condivido assolutamente la necessità di affiancare il binomio delle regole all’educazione, partendo da quello che già c’è e che forse è poco conosciuto.
Il patentino digitale ad esempio è uno strumento già presente nel nostro ordinamento, lo dispensa Agcom nelle scuole secondarie di primo e di secondo grado. I numeri sono ancora bassi purtroppo, quest’anno arriveremo a circa 55.000 patentini erogati nelle scuole ed è una misura che si inserisce perfettamente nei dettami della legge 92 del 2019 sull’educazione civica, una normativa che mira a introdurre l’educazione digitale all’interno della quale si può anche innescare l’educazione all’utilizzo dei chatbot.
La verifica dell’età oggi in Italia per fortuna è realtà. Entro la fine dell’estate sarà disponibile sul wallet digitale degli italiani, attraverso l’app IO. Le applicazioni sono pronte, sono state testate in Italia in altri quattro stati europei, si basano su un principio rigidissimo di doppio anonimato, certificano solo e esclusivamente se l’utente che sta accedendo a un portale vietato per legge sia o meno maggiorenne o minorenne. Per quanto riguarda gli strumenti che sono già a disposizione, purtroppo poco utilizzati, già da due anni i genitori di ragazzi e ragazze minori di 18 anni possono richiedere gratuitamente agli operatori telefonici l’attivazione sulle sim (gestite dai minori ma intestate ai genitori) del controllo parentale, è uno strumento che vieta l’accesso a contenuti pericolosi o comunque nocivi per il corretto sviluppo psicofisico del minore.
Questa meritoria proposta di legge può inserirsi senza causare una sovrapposizione normativa.
Guido Scorza, già componente del Garante per la protezione dei dati personali dal 29 luglio 2020 al 19 gennaio 2026 è intervenuto sul tema: “Non arriveremo primi nella gara tra tecnologia e regolamentazione ma forse non arriveremo troppo tardi se questa proposta diventerà legge in tempi contenuti.
Io credo che siamo dentro una tempesta perfetta, una tempesta perfetta fatta da un mercato al quale abbiamo consentito di dettare le regole che la società globale utilizza nel relazionarsi alla tecnologia.
Non abbiamo scelto noi, non si tratta di colpevolizzare o criminalizzare la tecnologia, non si tratta di dire tutti fuori o tutti dentro, però si tratta semplicemente di restituire alla famiglia prima e allo Stato poi il compito che dovrebbe competere solo a famiglia e Stato, cioè decidere anche qual è la relazione tra il bambino e la tecnologia. Noi lo stiamo lasciando fare al mercato e questo è evidentemente un problema enorme.
Tempesta perfetta perché? Perché il mercato ha occupato questo ruolo, perché glielo abbiamo lasciato occupare, tutti da adulti, da istituzioni, da autorità. Non è successo in un giorno, è successo in un ventennio, ma è successo in questo Paese nel quale abbiamo oltre il 50% della popolazione che è analfabeta digitale.
Abbiamo oltre la metà dei genitori italiani che non è in grado di accompagnare i figli nella dimensione digitale come li accompagna per strada e questo naturalmente è un problema.
Quindi molto bene questa proposta, e non mi stancherò mai di ripeterlo, bene l’essere uscito dal garante privacy, dove era più ingombrante e imbarazzante dirlo, e benissimo il meccanismo dell’ age verification.
Io mi rifiuto categoricamente di pensare (amando profondamente la privacy e avendo fatto per cinque anni il garante della privacy), che un’industria tecnologica che oggi rende possibile il turismo spaziale e che ha completamente sradicato ogni nostra abitudine di vita, possa venirmi a dire che non esiste una soluzione a prova di privacy per impedire ad un bambino di mentire sulla sua età.
È una balla, è assolutamente una balla. Tu prendi le cinque teste più pensanti dei cinque big tecnologici e gli dici: tu da domani non fornisci nemmeno un minuto del tuo servizio se prima non mi risolvi questo problema! Io sono pronto a scommettere che avremo 10 soluzioni di age verification a prova di privacy in un batter d’occhio. L’abbiamo fatto in passato.
Chi vuole fare legittimamente business si fa carico del danno collaterale che produce. L’abbiamo fatto con l’inquinamento ambientale, lo abbiamo fatto e lo facciamo con i farmaci, lo facciamo in mille direzioni diverse. Perché non qui? Trovino loro la soluzione. A noi serve semplicemente che i bambini sotto una certa età non possano utilizzare tecnologie che – scientificamente provate – oggi non sono adatte alla loro età.
Dopodiché loro liberi di far mercato e noi felicissimi che i nostri bambini quando raggiungono quell’età approfittino così come del motorino e dell’automobile anche della tecnologia per fare i compiti e per aprirsi al mondo.
Nel proprio intervento Rossella Zatta, government affairs di Microsoft Italia, ha sottolineato che “questa tematica ci colpisce nel profondo perché è una tematica sulla quale noi lavoriamo dal giorno zero. Quando si tratta di sistemi di intelligenza artificiale conversazionale è importante fare delle distinzioni tra strumenti, come è stato fatto anche in questa proposta di legge.
È chiaro che, per riprendere anche le parole di Guido Scorza, il primo asset fondamentale per questo tipo di sistemi è quello che noi chiamiamo “security by design”, quindi sicurezza che parte dal design di quella che è la concezione e la formazione del prodotto. Questa è una responsabilità che è in capo ai produttori da quando viene disegnato il prodotto e sviluppato il servizio.
Questi prodotti dal design devono includere delle misure che promuovano delle esperienze adeguate all’età, che abbiano già delle limitazioni incluse per i minorenni; age verification, parental control e misure che portano delle mitigazioni riguardo rischi come la dipendenza emotiva.
È vero che la regolamentazione è importante, è vero che tutti i meccanismi di age verification, parental control sono importanti, la responsabilità dei produttori è importante, però è chiaro che si parla di un sistema che è molto più ampio.
Un sistema educativo che va a coinvolgere il settore privato, le istituzioni, la società civile in generale, le autorità.
Noi lo vediamo perché da anni facciamo dei programmi di educazione e sensibilizzazione e molti di questi sono rivolti in primis ai giovani, alle ragazze e ai ragazzi, ai minori, ma anche alla parte di famiglia, di genitori, di insegnanti, di educatori che chiaramente sono parte di tutto questo processo educativo.
La tecnologia non va demonizzata perché comunque ha un potere grandissimo. Lo vediamo anche nel report che esce ogni giorno in cui si analizzano i trend di quelli che sono gli utilizzi dell’intelligenza artificiale nel mondo giovanile.
Tantissimi ragazzi e ragazze la stanno utilizzando e continuano ad utilizzarla in maniera creativa e per sviluppare delle conoscenze diverse, per abbattere degli ostacoli che ci sono anche a livello formativo.
Dall’altro lato è importante chiaramente agire sui rischi perché vediamo che tantissimi ragazzi e ragazze, tendono a usare l’intelligenza artificiale come supporto relazionale.
È per questo che appunto l’approccio di questa proposta di legge è fondamentale. Noi siamo molto favorevoli, la troviamo molto equilibrata. Siamo a disposizione come Microsoft per collaborare insieme con tutti gli attori coinvolti perché dal nostro punto di vista questo è un gioco di squadra”.
Così Martina Colasante, Government Affairs & Public Policy Manager di Google Italia.
“Ci tenevo a contribuire e a portare il punto di vista di Google, raccontando un po’ quello che stiamo facendo proprio per indirizzare le preoccupazioni che sono state sollevate oggi, che sono al centro della proposta di legge dell’onorevole Pastorella.
La sicurezza dei minori, la tutela del benessere psicofisico e la prevenzione del rischio di dipendenza per noi non sono solo principi, ma sono precise linee guida che dirigono lo sviluppo dei nostri prodotti. Condividiamo molto l’approccio di questa proposta di legge nel senso che anche noi riteniamo che per affrontare questi temi non sia necessario escludere gli adolescenti dall’utilizzo delle opportunità che derivano dall’intelligenza artificiale. Lavoriamo per proteggerli all’interno degli ecosistemi tecnologici e questo è’ l’approccio che caratterizza proprio il modo in cui noi stiamo lavorando.
L’abbiamo fatto negli ultimi dieci anni attraverso YouTube e tutto l’ecosistema Google, che come sapete è molto complesso, e abbiamo traslato, questo approccio anche all’interno di Gemini, per la realizzazione di esperienze specifiche per gli adolescenti che integrano tutta una serie di protezioni aggiuntive.
Nel 2025 abbiamo commissionato uno studio, abbiamo intervistato 7.000 adolescenti europei, di cui 1.000 adolescenti italiani, e sappiamo che il 90% degli adolescenti tra i 14 e i 15 anni utilizza l’intelligenza artificiale.
E il 96% tra i ragazzi tra i 16 e i 18 anni ‘hanno utilizzata principalmente per spiegare argomenti complessi, per fare compiti, per ricevere dei feedback rapidi, anche per la creatività.
Ma la cosa più interessante è che, sebbene tutti gli adolescenti ne riconoscano in qualche modo il valore, è altrettanto diffuso il bisogno, che abbiamo sentito forte e chiaro, di essere guidati dagli adulti.
Noi ascoltiamo questo bisogno degli adolescenti di voler essere guidati e di non subire passivamente la tecnologia, sia per quanto riguarda appunto i rischi di dipendenza affettiva, emotiva, che anche per quanto riguarda proprio l’utilizzo e gli effetti sulla creatività, per esempio, oppure sull’informazione.
Tornando alla questione del rischio di coinvolgimento emotivo, che è al centro della proposta di legge, noi proviamo ad agire proprio alla radice del problema, attraverso protezioni alla persona, perché Gemini è progettato tecnicamente proprio per non affermare mai di essere umano, di avere sentimenti, di avere una coscienza, di avere un corpo.
E di simulare delle relazioni interpersonali o romantiche. Quindi è impedito al chatbot di utilizzare espressioni come ho bisogno di te, non posso fare a meno di te, ti voglio bene. Lavoriamo proprio sradicando il rischio di antropomorfizzazione e questo a prescindere dalla conservazione dei dati”.
Ultimo relatore Angelo Mazzetti, direttore public policy di Meta per Italia, Grecia, Malta e Cipro.
“Per noi la protezione dei minori e l’assicurarsi che i minori vivano un’esperienza adatta alla loro età è una priorità fondamentale. Se non credete alla nostra responsabilità sociale come azienda, credete comunque almeno a un nostro interesse di business.
Se i ragazzi non hanno un’esperienza positiva all’interno delle nostre piattaforme, all’interno dei nostri servizi, a un certo punto se ne andranno e i nostri servizi, le nostre applicazioni, senza le persone che le utilizzano con un’esperienza positiva, ovviamente perderanno di senso.
Alcune riflessioni rispetto a quanto detto fino ad oggi e rispetto alla proposta di legge.
La prima è in generale sul tema della regolamentazione, perché su questo Meta ha un approccio leggermente differente rispetto a quello di altri soggetti dell’industria, noi in realtà sosteniamo una regolamentazione in questo ambito che si basi su una cosiddetta maggiore età digitale. Così come tu nella società di oggi hai la possibilità fino da una certa età di fare qualcosa con l’approvazione dei genitori, e dopo quella determinata età di fare qualcosa in autonomia, crediamo che lo stesso debba essere applicato all’interno dei servizi digitali.
Stabilire la soglia dell’età ovviamente spetta al legislatore con l’aiuto degli esperti e delle autorità.
Ci deve essere un’età minima per l’accesso, sotto una determinata età si può accedere a questi servizi con l’approvazione da parte dei genitori, sopra quell’età lo si può fare in autonomia.
È importante che questa regolamentazione si applichi però a tutti i soggetti, a tutti i servizi che un adolescente media utilizza. Più o meno sono 40 le applicazioni che un adolescente medio utilizza nel corso di una settimana.
Bisogna essere tutti d’accordo su due livelli di intervento: il primo riguarda i criteri di age verification, il secondo è stabilire che i genitori debbano avere una responsabilità educativa anche civile nell’accompagnare e nel supervisionare i figli all’interno della loro crescita (e quindi anche nella vita digitale).
È importante che i sistemi di age verification non avvengano a ogni accesso di ciascuna applicazione ma vengano fatti una volta sola nelle porte di accesso a quello che è oggi internet quindi a livello di sistema operativo o di app store. Così, la verifica si farebbe una volta e da lì ci sarebbe poi un sistema di direzione da parte del sistema operativo rispetto alle applicazioni che si possono scaricare o meno in base all’età. Altrimenti i genitori non sarebbero in grado di seguire questo processo.
Mentre si fa una riflessione su questa regolamentazione non è che le piattaforme siano ferme, stiamo già facendo tantissimo. Tutto deve essere fatto con il coinvolgimento del genitore, mettendo il genitore nella condizione migliore possibile per potere utilizzare questi strumenti.
Noi per esempio su Instagram abbiamo quelli che si chiamano account per teenager che impongono ai minori delle protezioni di default che, per essere cambiate, richiedono l’accordo e il consenso da parte del genitore e che per essere impostate invece vanno in automatico e non richiedono l’intervento genitoriale. Lo stesso vale per i chatbot di intelligenza artificiale ai quali è impedito di avere conversazioni inappropriate, di avere conversazioni di natura sentimentale o romantica.
Ultimo punto, un commento sulla proposta di legge. Ovviamente apprezzo moltissimo, come è stato detto anche da altri soggetti, questo approccio incentrato sulle educazione, sul coinvolgimento complessivo di tutti i soggetti, non invece impostato su un divieto generalizzato che può essere più attrattivo nel dibattito pubblico, nel posizionamento pubblico, ma poi meno efficace. C’è una cosa sulla quale bisogna riflettere, un certo grado di personalizzazione è importante anche per proteggere l’esperienza online dei minori. Perché ti dà la possibilità di sapere l’età, sapere la provenienza, eccetera, il sesso e quant’altro della persona. Ti dà la possibilità di impostare l’esperienza nel miglior modo possibile e adatta all’età e al contesto del ragazzo.








Devi fare login per commentare
Accedi