Intelligenza artificiale, potenzialità e rischi. La relazione del Garante della privacy
Scienza e tecnologie devono essere al servizio dell’uomo e del pianeta su cui vive. Non è sempre stato così e il rischio è che presto sarà ancor peggio. Lo sviluppo tecnico e scientifico ha sempre due facce, una positiva e l’altra negativa: basti pensare all’energia nucleare. Stiamo entrando nella società del Terzo Millennio, la “Society 5.0”.
La rivoluzione tecnologica in atto da una parte offre opportunità straordinarie ma dall’altra rischia di trasformarsi in una rivoluzione mancata, o peggio, in un boomerang, addirittura nella distruzione dell’umanità. La sfida è guidare l’innovazione tecnologica e la rivoluzione digitale orientandole verso la soluzione dei grandi problemi che affliggono le società contemporanee. Al centro della nuova società “super intelligente” con l’utilizzo delle nuove tecnologie digitali deve sempre esserci l’uomo, per vivere una vita migliore. “Alla infinita volontà di potenza della tecnica, deve porsi un indirizzo e un limite, etico e giuridico, a tutela della dignità della persona”.
Così il Garante della privacy Pasquale Stanzione nella sua relazione annuale alla Camera del 6 luglio. Un “uomo di vetro”, che potrebbe vedere violati persino i propri pensieri. E che, in ogni caso – di fronte a ogni nuova frontiera tecnologica – appare esposto al rischio di una sempre più inevitabile “solitudine digitale”. “La solitudine è la condizione prima della totale sottomissione“. Cita Michel Foucault il presidente dell’Autorità per la privacy Stanzione. “Dalla bioetica all’intelligenza artificiale, dai poteri privati delle piattaforme al cyberbullismo; dai discorsi d’odio all’oblio; dagli invisibili digitali della gig economy alla telemedicina: in tutti questi ed altri contesti il Garante fornisce il proprio contributo, a tutela di chi viva la solitudine digitale come soggezione all’altrui potere“. Una relazione articolata che ha spaziato dal potere degli algoritmi alla tutela dei minori e dai rischi generati dalle intelligenze artificiali e dal metaverso alla necessità di disciplinare l’oblio oncologico, fino ad arrivare alla puntualizzazione dei doverosi confini tra giornalismo e diritto di cronaca per evitare derive in termini di voyeurismo e di lesione della privacy dei protagonisti delle vicende di interesse pubblico. Il Garante punta il dito contro il capitalismo delle piattaforme che “tendono in maniera oligopolistica a gestire i dati degli utenti e a monetizzare l’utilità, spesso compromettendo le libertà individuali.
Occorrerà vigilare e c’è da auspicare che soprattutto la nuova normativa europea in materia di intelligenza artificiale possa realizzare un bilanciamento virtuoso tra libertà e responsabilità”. L’Europa è pronta a normare la delicata materia, puntando a una soluzione mediana tra la deregulation selvaggia, che delega al mercato la definizione degli equilibri economici e giuridici in Rete e lo statalismo dei regimi repressivi. I risultati, presto, si vedranno nel concreto. Al centro dell’analisi del Garante ci sono intelligenza artificiale e metaverso: grandi scoperte sul piano dell’innovazione tecnologica ma con il rischio di compromettere lo sviluppo delle persone e delle società, producendo situazioni alienanti e autodistruttive. «Tra le garanzie necessarie per impedire effetti socialmente regressivi dell’intelligenza artificiale - si legge nella Relazione - quelle già sancite dalla disciplina di protezione dei dati - dal divieto di uso discriminatorio al diritto alla spiegazione oltre, appunto, al principio di proporzionalità - rappresentano un presidio essenziale. E concorrono alla definizione del limite che l’uomo deve saper (op)porre alla tecnica, il diritto al potere, la democrazia all’ideologia del controllo».
Lo sviluppo dell’intelligenza artificiale va indirizzato “in una direzione compatibile con la tutela della persona. Alla infinita volontà di potenza della tecnica, a ciò che si è definito il playing God, deve porsi un indirizzo e un limite, etico e giuridico, a tutela della dignità della persona. Il rischio, altrimenti, è che le tecniche divengano sempre più opache, mentre le persone sempre più trasparenti, secondo l’idea dell’uomo di vetro cara a sistemi tutt’altro che democratici”. Ciò che emerge con urgenza, secondo il Garante, è la necessità di uno statuto, giuridico ma anche etico, delle neotecnologie, che ne promuova massimamente lo sviluppo ma al servizio della persona, della solidarietà, dei diritti fondamentali. Uno scenario, a dir poco inquietante e neppure troppo futuribile. “Le neotecnologie debbono essere al servizio della persona”, questo il succo dell’analisi che diventa un monito di grande attualità in quanto “la velocità del loro progresso rende sempre più problematico garantire che ciò davvero accada”. Bastano poche parole per far capire l’aria che tira e l’aria che, peggio ancora, potrebbe tirare presto, ovunque nel mondo. A rendere ancora più precari gli equilibri tra etica e modernità, tra innovazione e libertà, c'è proprio l'intelligenza artificiale e il moltiplicarsi dei suoi usi, compresi "quelli vietati perchè potenzialmente idonei a violare la dignità umana o ad amplificare le discriminazioni dalle quali, invece, proprio le macchine avrebbero dovuto liberarci", ha rilevato ancora Stanzione. "E' vero che resta il divieto di ricorrere alle tecniche subliminali o intenzionalmente manipolative, ma - sebbene pensate proprio per favorire l'inclusione - certe applicazioni rischiano paradossalmente di “determinare ulteriore divario, anche per effetto di discriminazioni algoritmiche sempre più opache e difficili da individuare”.
Ecco allora che "il monitoraggio centralizzato dell'accesso alle prestazioni sociali necessita di cautele, tali da evitarne la degenerazione in una forma di controllo sociale panottico, se non, addirittura, di totalitarismo digitale". Ecco che nel settore investigativo i doverosi 'no' ai sistemi di polizia predittiva e rilevazione delle emozioni vanno estesi al riconoscimento facciale in luoghi pubblici. Nella vicenda ChatGPT, "l'intervento del Garante ha consentito di indirizzare lo sviluppo di questa forma d'intelligenza artificiale generativa in una direzione compatibile con la tutela della persona, contrastando lo sfruttamento di quei frammenti dell'io che sono i dati personali".
Nel campo delle neuroscienze, soprattutto i sistemi di brain reading, avverte il Garante, "devono sempre garantire, come primo dei "neurodiritti", la privacy mentale, condizione ineludibile di autodeterminazione".
Tra le garanzie necessarie per impedire effetti negativi dell'I.A., "quelle già sancite dalla disciplina di protezione dei dati - rappresentano "un presidio essenziale". E concorrono alla definizione del "limite che l'uomo deve saper opporre alla tecnica. "Nel rapporto impari con la tecnica e la sua potenza geometrica - ha sottolineato ancora il Garante - la più grande vulnerabilità della persona è la sua solitudine, il suo confrontarsi, quasi inerme, con un potere che rischia di divenire insindacabile e totalizzante". Vale per gli adulti, e vale - ancora di più - per i minori che, più degli altri, sembrano sedotti dal fenomeno della violenza non solo "assistita", ma addirittura "filmata e poi esibita sul web". E che pur di guadagnare visibilità sui social, si spingono "sino al punto di mettere a rischio la vita degli altri. Rischiando sempre più spesso di "divenire spettatori inerti del male" o, addirittura, come nel caso di Casal Palocco a Roma, di "sacrificare la vita di un bambino per un like in più".
La tutela preventiva assicurata dall'age verification è il necessario complemento della tutela remediale accordata dal Garante, in particolare rispetto al cyberbullismo e al revenge porn, che si conferma essere un presidio essenziale per ragazze e ragazzi vittime di un uso violento della rete, purtroppo anche da parte dei loro coetanei. “Stabilire la soglia di accesso autonomo dei minori alla rete è un “tema cruciale per impedire i rischi della ‘solitudine digitale’ e, quindi, dell’esposizione del minore a contenuti potenzialmente lesivi per lo sviluppo della sua personalità, senza neppure la mediazione degli adulti di riferimento“. Rispetto al metaverso “andranno adottate tutte le misure necessarie ad impedire un’eccessiva dipendenza, soprattutto dei giovani, da questa dimensione quasi onirica, capace di alienarli dalla realtà e di svincolarli dal rapporto con essa, proiettandoli nello spazio dell’infinitamente possibile“.
Scarica la Relazione
Scarica il discorso del Presidente
Leggi anche
Un buco nero di 13 miliardi di anni, il più antico mai osservato
L’uomo, da sempre, si è posto la domanda: che cos’è il tempo?
In orbita il primo satellite “full electric” al 100% Made in Italy: “In missione nello spazio”
È in orbita il primo satellite completamente elettrico e tutto Made in Italy. MicroHETSat, questo il nome del satellite, è stato progettato e realizzato per l’Agenzia Spaziale Europea (ESA) da SITAEL.
Voluntas, la prima missione spaziale privata guidata da un italiano
A causa di ritardi tecnici dovuti al “completamento dei checkout pre-lancio e l’analisi dei dati sul veicolo”, è stato rinviato a oggi, giovedì 18 gennaio 2024, il lancio della missione Axiom-3, nella quale il colonnello dell’Aeronautica militare Walter Villadei, sarà il pilota della navicella Crew Dragon “Freedom” fornita da Space X.
Industria e Start up in occasione della Giornata Nazionale dello Spazio
Ricerca, tecnologia, opportunità economiche, azione diplomatica in occasione della Giornata Nazionale dello Spazio