Il diritto è anzitutto una scienza sociale cioè una disciplina che studia le relazioni tra gli individui
nella società, come anche la storia, la filosofia, la sociologia, l’economia. Partendo da questo assunto
di base, appare dunque necessario, ai fini della nostra disamina, delineare un ulteriore rapporto che il
diritto intrattiene con gli sviluppi tecnologici, in particolare, con l’utilizzo dell’Intelligenza Artificiale
nel campo giuridico.
L’Intelligenza artificiale ha avuto un enorme impatto sulla nostra società, attraverso la sua
utilizzazione in diversi campi si è potuto notevolmente migliorare e risolvere problemi complessi e
particolari. Tuttavia, è fondamentale interrogarsi su temi che sollevano questioni difficili da
affrontare, quali la responsabilità giuridica ed etica di tali avanguardie tecnologiche.
Ad esempio, l’IA può essere utilizzata per prendere decisioni che hanno un impatto sulla vita delle
persone, come il riconoscimento delle parole o il prendere decisioni, e questo può sollevare domande
sulla responsabilità e sulla trasparenza delle decisioni prese dall’IA. Inoltre, l’utilizzo dell’IA può avere
implicazioni per i lavoratori, sia positive che negative, contribuendo a creare questioni relative alla
disoccupazione e alla riqualificazione professionale 1 .
In questa ricerca, si seguiranno contemporaneamente due filoni paralleli: da una parte, descrivere le
grandi potenzialità dell’Intelligenza artificiale per sostenere e migliorare l’efficacia del lavoro
giudiziario, e dall’altra, analizzare le regolamentazioni necessarie per garantirne un utilizzo chiaro e
responsabile, e che non sfugga all’occhio vigile del diritto, che difatti, è costretto ad inseguire le
innumerevoli evoluzioni tecnologiche che si sviluppano rapidamente.
Le potenzialità dell’IA nel campo giuridico: la giurimetria e la giustizia predittiva
Si potrebbe partire, dunque, da quelle che possono essere le potenzialità dell’Intelligenza Artificiale
nel campo giudiziario. Esistono, infatti, due innovazioni tecnologiche che offrono vantaggi migliori
alla certezza del diritto e alle interpretazioni legali e sono: la giurimetria e la giustizia predittiva. La
prima è l’applicazione dell’informatica al diritto, la seconda, invece, utilizza algoritmi complessi per
prendere decisioni giudiziarie o prevedere gli esiti delle decisioni. Per molti osservatori, entrambe
sollevano preoccupazioni riguardo ai rischi e alla trasparenza delle decisioni prese dagli algoritmi.
Attualmente, la giustizia predittiva risulta essere più diffusa negli Stati Uniti, mentre in Europa e in
Italia è ancora in fase embrionale . Essa si può definire come un metodo che consente la possibilità di
affidare a un algoritmo, la decisione giudiziale, in luogo del giudice umano. 2 Per molti addetti al
lavoro, applicare l’informatica al diritto è un modo per affidare ai magistrati e assicurare ai cittadini
una giustizia più chiara, certa e sicura. Per altri, queste innovazioni appaiono come fenomeni non
facilmente controllabili e gestibili, con il rischio di lasciare il campo della giustizia in balia

1 Enrico Cecchin, Intelligenza Artificiale e Diritto, www.cfnews.it, dicembre 2022, https://www.cfnews.it
2 Catello Sorrentino, Giurimetria e Giustizia predittiva: intelligenza artificiale e Legal tech, www.diritto.it, luglio
2023 www.diritto.it

dell’automazione, depauperando così l’operato umano in secondo piano. Ovviamente, stando allo
stato attuale, non è così facile dirimere questi dubbi.

Giurimetria: che cos’è?
Il termine “giurimetria” fu coniato, nel 1949, per mano dell’avvocato Lee Loevinger che si proponeva
di applicare l’informatica al diritto, in modo da ottenere una scienza esatta. La giurimetria è una
disciplina che si occupa della misurazione e dell’analisi dei fenomeni giuridici attraverso metodi
quantitativi. Nell’ambito della giustizia predittiva, la giurimetria viene utilizzata per esaminare le
decisioni giudiziarie passate e identificare modelli o tendenze che possano fornire indicazioni sulle
probabilità di esito in casi futuri simili.
L’analisi giurimetrica coinvolge diversi fattori, tra cui la tipologia del caso, le caratteristiche delle
parti coinvolte, le decisioni precedenti e altri elementi pertinenti. Utilizza modelli statistici e algoritmi
di apprendimento automatico. La giurimetria cerca di predire gli esiti dei casi legali in base a queste
informazioni.

Giustizia predittiva
Secondo il parere del giurista Lee Loevinger la giustizia predittiva è intesa come la possibilità che in
un processo si affidi ad un algoritmo la decisione giudiziale, a garanzia di un diritto certo, chiaro,
conoscibile ed univoco, nonché interpretato ed applicato in modo omogeneo presso i diversi uffici
giudiziari di un determinato paese 3 . Essa, se adeguatamente regolarizzata e applicata, potrebbe
rappresentare un campo emergente che, così facendo, cambierebbe la giurimetria e il più ampio
campo dell’intelligenza artificiale. Questa è finalizzata allo scopo ultimo di migliorare l’efficienza e
l’accuratezza delle decisioni giudiziarie.
Combinando la giurimetria e l’intelligenza artificiale, la giustizia predittiva, promette di rivoluzionare
l’intero sistema giudiziario, andando a snellire tutti quegli iter legislativi lenti e farraginosi, che
rischiano di incancrenire un settore che fatica talvolta a stare al passo con i tempi. Queste innovazioni
tecnologiche potrebbero migliorare l’efficienza e l’equità delle decisioni, a patto che vengano
adeguatamente regolamentate e supervisionate. E’ necessario, infatti, affrontare le sfide legate alla
qualità dei dati, all’imparzialità degli algoritmi e alla protezione della privacy per garantire che l’uso
di tali tecnologie sia equo e rispettoso dei diritti fondamentali. L’equilibrio tra l’automazione e il
ruolo dell’umanità nella giustizia rimane un tema centrale nel dibattito sull’evoluzione della giustizia
predittiva e richiede una continua riflessione e regolamentazione.
Machine learning
Gli algoritmi di IA possono analizzare grandi quantità di dati giuridici, tra cui testi legislativi,
precedenti giudiziari e decisioni delle corti, al fine di fornire supporto alle decisioni giudiziarie.

3 Catello Sorrentino, Giurimetria e Giustizia predittiva: intelligenza artificiale e Legal tech,
www.diritto.it, del 26/07/2023 https://www.diritto.it

Uno dei principali strumenti dell’IA utilizzati nella giustizia predittiva è il machine learning, che
consente ai sistemi di imparare dai dati e migliorare le proprie prestazioni nel tempo. Ad esempio, un
sistema di giustizia predittiva può essere addestrato su un vasto insieme di decisioni giudiziarie
passate, consentendo di formulare previsioni sugli esiti futuri.
Le intelligenze artificiali utilizzate per il trattamento e l’analisi della giurisprudenza, su cui si fondano
le applicazioni di “giustizia predittiva”, appartengono a questa seconda categoria e si basano in
particolare su due tecniche:
● Il natural language processing (trattamento del linguaggio naturale): ci si riferisce qui, in
estrema sintesi, al trattamento informatico del linguaggio umano.
● Il machine learning (l’apprendimento automatico); questa tecnica permette di costruire uno o
più modelli matematici una volta identificate le correlazioni esistenti tra grandi masse di dati.
Applicata alle decisioni giudiziarie, essa individua le correlazioni tra i diversi parametri di
decisioni rese in passato su un certo argomento e ne deduce uno o più modelli matematici, su
cui si fonda per “prevedere” gli elementi di una futura decisione giudiziaria 4 .

Regolamentazione dell’Intelligenza Artificiale
La regolamentazione dell’intelligenza artificiale è un argomento di estrema importanza a livello
nazionale e internazionale. L’IA è una tecnologia in rapido sviluppo che ha un impatto significativo
sulla società e sull’economia, e la sua regolamentazione è necessaria per garantire che venga utilizzata
in modo responsabile e sicuro.
Ogni paese, nel pieno dei propri poteri legislativi ha attuato diverse regolamentazioni tese al
raggiungimento di una supervisione, per quanto più possibile al passo con gli sviluppi tecnologici,
dell’uso dell’intelligenza artificiale. Ad esempio, l’Unione Europea ha adottato il Regolamento
Generale sulla Protezione dei Dati (GDPR), che stabilisce le regole per la protezione dei dati personali
e la privacy nell’era dell’IA. Denominata più semplicemente Garante della privacy, quest’ultima,
infatti, è un’autorità amministrativa indipendente, istituita per assicurare la tutela dei diritti e delle
libertà fondamentali e il rispetto della dignità nel trattamento dei dati personali, oggi presieduta da
Pasquale Stanzione.
L’IA, specialmente quella definita generativa, è considerata dagli esperti la deriva tecnologica
artificiale potenzialmente più pericolosa; e quindi, oggetto di analisi specifico per i legislatori e
osservatori del settore. Quando se ne parla si fa essenzialmente riferimento agli algoritmi di
intelligenza artificiale che generano o creano un output (testo, foto, video, codici, rendering 3D) dai
dati su cui vengono addestrati. Essa crea contenuti, a differenza di altre forme di intelligenza
artificiale utilizzate per altri scopi, come l’analisi dei dati o il controllo di un’auto a guida autonoma 5 .
ChatGPT è uno degli esempi più utilizzati in merito. Ha accumulato più di un milione di utenti a
settimana dopo il lancio. Grazie all’apprendimento automatico, sottosezione dell’intelligenza
artificiale, si insegna a un sistema a fare una previsione basata sui dati su cui è stato addestrato.
4 Clementina Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di
principi etici condivisi a livello europeo?, www.questionegiustizia.it, consultato il 01/11/2023,
https://www.questionegiustizia.it
5 Antonino Mallamaci, Perché l’IA generativa va regolamentata per il bene di tutti,
www.agendadigitale.eu, del 3 aprile 2023, consultato il 08/11/23, https://www.agendadigitale.eu

Prendendo una grande quantità di dati da Internet è istruita per fare previsioni e creare output per il
prompt che l’utente inserisce. Tali previsioni si basano sui dati, ma non ci sono garanzie che esse
siano corrette.
Il caso di ChatGPT 6 ha interessato direttamente anche l’Italia. Nel nostro paese l’IA è stata infatti
bloccata nel marzo del 2023, prima della sua riapertura con limitazioni avvenuta il 28 aprile dello
stesso anno. I motivi che hanno portato alla presa di posizione del Garante sono da ricondurre alla
mancanza di un’informativa chiara sul metodo di raccolta e registrazione dei dati prodotti dagli utenti.
In Italia manca inoltre una base giuridica che giustifichi la massiccia raccolta dei dati dovuta al
machine learning. Inoltre, la mancanza di garanzie riguardo la corretta elaborazione dei dati di
ChatGPT, e il conseguente rischio di un trattamento inesatto, hanno offerto ulteriori motivazioni al
Garante nel determinarne la sospensione. L’OpenAI che ha sviluppato l’IA, nonostante abbia sede
negli Stati Uniti, si è attivata da subito per risolvere le sue controversie europee, attuando diverse
modifiche in collaborazione con il Garante al fine di rendere più sicuro per gli utenti l’uso di
ChatGPT.
«ChatGpt è nuovamente disponibile per gli utenti italiani. Siamo entusiasti di riaccoglierli e
rimaniamo impegnati nella protezione della loro privacy. Abbiamo incontrato e chiarito le questioni
sollevate dal Garante». Con queste parole il 28 aprile 2023 la società produttrice dell’IA ha annunciato
il ritorno in Italia di ChatGPT. Tra gli aggiornamenti adottati dal software figurano: la verifica dell’età
al momento della registrazione, la pubblicazione di un’informativa riguardante il trattamento dei dati,
la possibilità di escludere i propri dati personali dall’addestramento degli algoritmi e quella di
richiedere la cancellazione dei dati errati. Entro novembre 2023 ChatGPT dovrà inoltre dotarsi di un
sistema di verifica dell’età più accurato di quello attuale, che si basa unicamente su
un’autodichiarazione dello stesso utente.
L’Intelligenza artificiale entra in guerra
La risposta del governo israeliano a seguito dell’attacco del 7 ottobre 2023 da parte di Hamas è
passato soprattutto attraverso attacchi di terra e bombardamenti sul territorio della Striscia di Gaza. In
particolare, il teatro di guerra attuale vede Israele intento a eliminare quanti più possibili leader di
Hamas sparsi sul territorio, i quali, secondo le stime dell’intelligence israeliana, si nascondono nei
numerosi tunnel sotterranei costruendo così negli anni una Gaza parallela del sottosuolo con lo scopo
strategico di proteggersi dai raid e incursioni belliche del governo di Benjamin Netanyahu.
Gianluca Di Feo, giornalista de “La Repubblica”, ha pubblicato il 1 novembre 2023 un articolo in cui
rende noto gli strumenti con cui le Israeli Defence Forces disegnano le mappe dei territori palestinesi
tentando così di scovare le catacombe jihadiste metro per metro. L’intelligenza artificiale ricostruisce
attraverso dei replay, realizzati mediante satelliti e droni che raccolgono dati 24 ore su 24, i
movimenti che i miliziani palestinesi compiono ogni volta per lanciare un razzo o un’offensiva
militare uscendo dai tunnel nascosti.
In questo modo, Israele raccoglie le informazioni con la tecnologia dei big data componendo una
mappa digitale della città. La Striscia viene sorvegliata ininterrottamente: ogni spostamento viene
ripreso e immagazzinato insieme a tutti gli altri dati grazie alle riprese di droni, satelliti, navi, aerei e
apparati di intercettazione.

6 Wired, ChatGPT è tornato disponibile in Italia: https://www.wired.it

Il punto di partenza è il lancio di razzi da parte dei miliziani: appena quest’ultimi procedono
all’accensione degli ordigni, la “macchina del tempo” cibernetica entra in azione; essa, ripercorre i
passi degli uomini che salgono le rampe di scale per fuoriuscire dai tunnel fino all’ingresso delle
gallerie da dove partono i razzi. Queste informazioni vengono poi elaborate dai server delle centrali
cibernetiche e soprattutto a bordo dell’aereo “Gulfstream Oron”, un vero e proprio cervello
elettronico, che possiede un sistema di intelligenza artificiale dal costo di oltre 400 milioni di euro.
L’esempio precedente solleva molte osservazioni in merito. Innanzitutto, l’intelligenza artificiale si
designa come un insieme di scienze, teorie e tecniche con l’obiettivo ultimo di permettere ad una
macchina di risolvere problemi. Se in determinati contesti il “problema” in questione da risolvere
risulta essere un nemico in carne ed ossa, ecco che l’intelligenza artificiale diventa un’arma implicita
da utilizzare a tutti gli effetti dai governi per indebolire e sconfiggere gli eserciti nemici. Anche qui, si
può osservare uno sconfinamento dell’intelligenza artificiale come strumento in grado di condizionare
e modificare la quasi totalità degli ambiti del reale.
Le regolamentazioni europee
Il legislatore europeo sta incontrando grosse difficoltà nel limitare le possibili conseguenze negative
dovute all’uso delle IA. L’intelligenza artificiale è infatti in continuo aggiornamento, un fiume di
novità che scorre a una velocità superiore rispetto alla capacità recettiva delle istituzioni continentali.
La Commissione Europea si è attivata già nel 2021, proponendo un quadro normativo intitolato AI
Act 7 , finalizzato a stabilire regole nette e standard comuni in grado di garantire sicurezza, trasparenza
e responsabilità. All’interno della proposta figura una graduatoria di rischio dovuta alla pericolosità
dei singoli software, che va dal rischio minimo o nullo fino al livello di inaccettabilità.

Tra la proposta e l’approvazione dell’AI Act sono intercorse alcune modifiche più o meno rilevanti. Si
cercherà inoltre di fissare una definizione di Intelligenza Artificiale che sia in linea con quella
7 Intesa, Normativa AI Act: https://www.intesa.it

dell’OCSE, che riconosce le IA come: «un sistema basato sull’utilizzo di una macchina che, per una
determinata serie di obiettivi definiti dall’uomo, è in grado di: fare previsioni, raccomandazioni o
prendere decisioni che hanno un impatto sugli ambienti reali o virtuali». L’AI Act verrà ufficialmente
adottato tra il 2024 e il 2025. Nel frattempo il Parlamento Europeo sta continuando a sviluppare nuovi
ragionamenti in merito alle possibili manovre da attuare al fine di garantire un corretto utilizzo delle
Intelligenze Artificiali. La questione legislativa però è inevitabilmente connessa a un piano etico,
attualmente incapace di rispondere a tutti i quesiti posti dal costante flusso di novità dovuto proprio
all’utilizzo delle IA.