Chi decide tra algoritmi e diritto? Parla l’autore del libro che riflette su corpo, dati e dignità
“Habeas Corpus", volume di Federico D’Annunzio, propone una nuova tutela della persona nell’era dell’IA, fondata sul concetto di corpo esteso, in cui identità fisica e digitale coincidono. Un manifesto per un diritto capace di proteggere autonomia, dati e dignità dagli algoritmi
“Stiamo vivendo una mutazione antropologica ma non ne siamo consapevoli. La privacy sembra la questione centrale, ma è solo il sintomo di un problema più profondo: la frantumazione dell’habeas corpus nell’era digitale”. A raccontarcelo in questa intervista è Federico D’Annunzio, pronipote del Vate e imprenditore di alta tecnologia nell’industria dell’innovazione digitale, chiarendo che quel principio giuridico che dalla Magna Charta tutela l’integrità della persona oggi va radicalmente ripensato, perché il corpo è insieme fisico e digitale; che in quanto esteso può essere manipolato, sequestrato o falsificato senza alcun mandato. Da questa riflessione nasce Habeas Corpus, il suo nuovo libro pubblicato da Edizioni San Paolo, un manifesto per il “Neurocene” che mette al centro la difesa dell’identità, dei dati e della dignità della persona nell’ecosistema dell’intelligenza artificiale.

Intervista a Federico D’Annunzio, autore di “Habeas Corpus”
Iniziamo col definire il concetto di “Corpo Esteso” e quali regole servono per proteggerlo.
È la proiezione ontologica della persona nello spazio reale che oggi è una realtà giuridica incompiuta. Quando un algoritmo decide il tuo accesso al credito, all’assicurazione, all’occupazione, alla tua salute, sta operando sul tuo corpo esteso con la stessa violenza potenziale di una reclusione fisica, o di un crimine contro la persona.
La privacy, invece?
È un concetto difensivo, reattivo, ottocentesco. Servono regole costitutive: che definiscano il diritto a esistere integralmente nel digitale. Dobbiamo governare l’innovazione perché porti tutti i benefici per i quali è stata progettata. Vantaggi straordinari che porteranno l’umanità a soglie fino a ora impensabili di dignità e bellezza.
Quanto incide l’Intelligenza Artificiale nella nostra vita quotidiana senza che ce ne accorgiamo?
Viviamo in una realtà pre-digerita da sistemi che non comprendiamo, progettati da persone che non conosciamo, secondo criteri che nessuno può spiegare. L’IA non è quasi mai scelta, e non ha diritti e neppure responsabilità. È un’anomalia che va ricondotta all’interno di un sistema giuridico disciplinato.
Cosa significa proteggere una persona quando la sua identità vive anche nei dati digitali?
Significa estendere il concetto di inviolabilità personale anche alla vita digitale. La protezione della persona richiede una nuova anatomia giuridica. Attraverso gli agenti AI, costruiremo di noi un doppelgänger algoritmico che ci precede, ci rappresenta, ci sostituisce. Sembra distopico, ma questa è la realtà.
L’Intelligenza Artificiale “ricompone” l’identità umana o la frammenta in dati?
La domanda presuppone l’IA come un attore indipendente. In realtà, l’IA è la porta di accesso alla conoscenza federata dell’uomo, non crea nulla, mappa correlazioni statistiche. Quando “ricompone” un profilo predittivo, non sta assemblando uno specchio rotto in una nuova forma; è un algoritmo che completa un puzzle basandosi su pezzi precedentemente forniti.
Quindi il paradosso non è nell’IA, ma in noi…
Pretendiamo che sia “intelligente” quando è solo un’eco della nostra intelligenza distribuita. Ci spaventiamo quando quel riflesso ci appare distorto – ignorando che la distorsione proviene da bias, disuguaglianze e lacune nei dati che vi infondiamo. Dobbiamo essere consapevoli che la nuova identità umana sarà un costrutto sociale esteso, amplificato da un accesso globale al sapere condiviso.
Chi stabilisce le regole dello spazio digitale in cui viviamo ogni giorno?
Il mondo anglosassone ha lasciato che la tecnologia crescesse come forza autonoma, guidata da interessi di mercato mascherati da retorica dell’innovazione. Il risultato è che poche oligarchie private esercitano poteri sovrani senza legittimazione democratica. Ma l’Europa, e l’Italia in particolar, dispone di un arsenale culturale che il pragmatismo anglosassone ignora: la tradizione dello Stato di diritto e della crescita governata da principi condivisi. L’Umanesimo ha posto al centro l’uomo nella sua interezza. Da Gaetano Mosca all’Ordoliberalismo tedesco, da Luigi Einaudi alla costruzione europea, una tradizione radicata nel diritto europeo subordina l’economia e la tecnica a principi fondanti e apodittici: la persona, la libertà responsabile, il bene comune. È quindi tempo di un Umanesimo Digitale che rivendichi il primato dell’uomo sulla macchina e di un Liberalismo Etico che coniughi libertà e responsabilità, innovazione e dignità. L’Europa è chiamata a disegnare una nuova proposta di civiltà.

Se esistono limiti reali al potere degli algoritmi, chi dovrebbe farli rispettare?
Le istituzioni pubbliche faticano a tenere il passo: la complessità degli algoritmi supera spesso le competenze dei regolatori, rendendo difficile non solo monitorare, ma anche sanzionare violazioni in modo tempestivo e incisivo. Il vero salto di qualità richiede un cambio di paradigma: passare dal controllo ex-post (reagire dopo i danni) alla certificazione ex-ante.
Guardando al futuro?
Il diritto evolverà radicalmente, fondato su valori condivisi “inconfutabili”, gestiti da “stormi” di agenti AI. Questi agenti analizzeranno contratti, gestiranno accordi e risolveranno dispute, su infrastrutture decentralizzate che promuovono fiducia reciproca tra persone, aziende e governi. L’asimmetria informativa sparirà, sostituita da un potere egualitario distribuito, regolato sul merito e sulla qualità delle interazioni.
Come cambierà il diritto?
Passerà da un modello one-to-many (leggi generali applicate a tutti) a strutture one-to-few o persino one-to-one, verso una giustizia personalizzata, trasparente e predittiva. Diventerà parzialmente automatico, garantendo totale fiducia nelle istituzioni, una drastica riduzione dei contenziosi e giudizi rapidissimi. Non ci rendiamo ancora pienamente conto di questo straordinario cambiamento in arrivo, che ridisegnerà la società in modi profondi e imprevedibili.
Visto che le decisioni sono sempre più automatizzate, come si protegge l’autonomia della persona?
Con un principio semplice e non negoziabile: nessuna macchina può pronunciare l’ultima parola su un essere umano. L’automazione può calcolare, suggerire, accelerare. Ma nel momento in cui una decisione tocca la vita di una persona, deve esistere sempre un varco verso l’umano.
Spiegami perché.
Dobbiamo ottenere risposte che un essere umano possa comprendere, contestare, rovesciare. Questo è il muro invalicabile che dobbiamo erigere: non contro la tecnologia, ma a protezione di ciò che ci rende irriducibili ad essa.
Se ogni strumento di protezione è potenzialmente uno strumento di sorveglianza, la via d’uscita è…
Tecnologica e giuridica insieme. Tecnologica: architetture privacy by design che massimizzano il controllo dell’utente e garantiscono la totale fiducia tra le parti. Giuridica: separazione rigorosa tra chi protegge e chi controlla: la fiducia si costruisce rendendo l’abuso strutturalmente impossibile.
Dare responsabilità all’Intelligenza Artificiale rafforza o indebolisce la responsabilità umana?
Sarebbe illusorio – e irresponsabile – negare l’impatto che l’IA avrà sulla vita. La maggior parte delle operazioni ripetitive sarà gestita da processi digitali, eseguita da automi governati da sistemi intelligenti. Questo è il presente in accelerazione. Non possiamo permetterci il lusso dell’astensione giuridica. L’IA e i suoi Alias avranno diritti e doveri condizionati, con autonomia rigorosamente limitata. La responsabilità ultima resta ancorata a specifiche istituzioni governate da persone fisiche che rispondono in ultima istanza. Semplicemente, dobbiamo costruire un’architettura giuridica all’altezza della complessità che ci attende, dove l’umano non abdica: orchestra.
Chi decide cosa è vero e legittimo nel mondo digitale?
Si presuppone che qualcuno debba decidere. Ma la verità è che non si decide: si dimostra. È questa la rivoluzione copernicana proposta nel libro Habeas Corpus. Viviamo in una crisi epistemica profonda: un dato digitale può essere modificato e copiato in qualsiasi momento. È il fondamento dell’universo digitale, ed è la sua più grande fragilità. Un fatto digitale, oggi, non è esattamente un fatto.
E come si costruiscono valori reali?
La verità non può essere delegata a sistemi proprietari o a content moderators che esercitano poteri censori senza legittimazione. La tecnologia ha sviluppato un nuovo mosaico digitale, un sistema di anticorpi per tutelare l’umanità dalle fragilità dei dati: un’infrastruttura di verità verificabili, un ecosistema federato che rende i dati immutabili e dimostrabili attraverso protezioni intrecciate, ledger privati, notarizzazione autorevole, ancoraggio su blockchain pubbliche. In questo paradigma, l’azione registrata si eleva a un nuovo status ontologico: diventa res acta, fondamento della realtà nella nuova era. Non chiediamo più “chi decide cosa è vero?”, ma “puoi dimostrare ciò che affermi?”. La certezza verificabile sostituisce la fiducia non certificabile. È il passaggio dall’era della fede digitale all’era dell’evidenza dimostrabile.
Quali regole servono?
Regole comuni che stabiliscano: trasparenza algoritmica obbligatoria per i sistemi ad alto impatto; diritto alla spiegazione e alla contestazione per ogni decisione automatizzata; audit indipendenti e certificazione preventiva; responsabilità civile e penale lungo l’intera catena del valore e dell’impatto, giuridico, economico e sociale.
Cosa rischiamo di perdere se non interveniamo ora?
Senza un confine che proibisca all’AI di abitare, fondersi o integrarsi nel corpo organico, rischiamo la cancellazione delle condizioni biologiche stesse da cui emergono le dimensioni esclusive dell’esperienza umana. Permettere all’IA di varcare questa soglia significherebbe rendere l’essere umano fungibile, sostituibile. La macchina percepirebbe il concetto di limite, e soprattutto di utilità. Noi diventeremmo ridondanti.
E invece cosa guadagniamo se interveniamo?
L’IA è il frutto di una ricerca millenaria e ci offre l’opportunità di creare un nuovo giardino dell’esperienza umana, di vincere le restrizioni imposte da scarsità e ingiustizie. Inauguriamo il Neurocene: l’epoca dell’intelligenza distribuita e collaborativa. Non più l’Antropocene, l’era della colpa umana sul pianeta, ma un’era in cui tre forme di intelligenza, naturale, umana e artificiale, co-creano conoscenza e realtà in armonia regolata.
In prospettiva, che cosa diventa l’umanità?
Non più il distruttore del pianeta, ma il custode, partner e coscienza etica nella più grande e complessa rete di intelligenza che la Terra abbia mai conosciuto. Liberati dal sospetto di manipolazione e dalla minaccia di povertà, potremo finalmente dedicarci a coltivare la bellezza di ciascuno, quella scintilla noumenica che ci rende irripetibili, fino a farla diventare bene comune. La posta in gioco è questa: diventare i giardinieri dell’Eden.
Ginevra Barbetti
(Grazie all'affiliazione Amazon riconosce una piccola percentuale ad Artribune sui vostri acquisti)
Artribune è anche su Whatsapp. È sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati