Nel 2002, Minority Report diretto da Steven Spielberg, immagina un futuro in cui il crimine veniva punito prima di essere commesso. Grazie ad un sistema giudiziario chiamato PreCrime la giustizia interviene prima ancora che il reato avvenisse. All’epoca sembrava fantascienza. Oggi, mentre l’intelligenza artificiale promette di prevedere comportamenti, decisioni e rischi, quella storia assomiglia sempre meno a un futuro lontano e sempre più a una domanda giuridica attuale.
Il sistema della PreCrime funziona perché promette ciò che il diritto ha sempre desiderato:
eliminare l’incertezza. Niente più crimini, niente più errori, niente più rischio.
Ma il prezzo è altissimo: si punisce l’intenzione, non l’azione, si sacrifica il libero arbitrio in nome dell’efficienza, si trasforma la probabilità in colpa.
Ma cosa accade quando la previsione entra nel diritto reale?
Nel diritto tradizionale non si può essere colpevoli di ciò che non si è fatto. Eppure, nella pratica quotidiana, la tecnologia predittiva ha già iniziato a influenzare decisioni che incidono profondamente sulla vita delle persone.
Sistemi predittivi stimano il rischio di recidiva analizzando dati come precedenti penali, età e contesto sociale, traducendoli in un punteggio. Un numero che può influenzare decisioni importanti: la concessione della libertà su cauzione o la durata di una pena. Quel numero pesa più di quanto sembri: nasce da un futuro ipotetico, ma agisce subito sulla libertà del presente.
Nel settore finanziario, la tecnologia predittiva è ormai la norma: algoritmi di credit scoring incrociano dati economici e comportamenti di spesa per stimare l’affidabilità di una persona: non vieni giudicato per un’insolvenza futura, ma trattato come se potesse avvenire.
Anche nelle risorse umane entrano in gioco sistemi predittivi: selezionano candidati, stimano performance future, prevedono il rischio di abbandono. Non valutano chi sei oggi, ma chi potresti diventare.
Anche nel campo della sicurezza, modelli predittivi individuano aree o soggetti “considerati problematici”, trasformando comportamenti passati e contesti sociali in indicatori di una pericolosità futura probabile, ma non certa.
Ma anche se non viviamo nel mondo della PreCrime, la domanda sorge spontanea:
quando una previsione diventa una decisione giuridica?
Tutti questi esempi concreti mostrano un filo conduttore chiaro: la previsione entra nel processo decisionale, ma non è mai infallibile.
Nel film, il sistema della PreCrime sembra perfetto, fino a quando emerge il “minority report”: una previsione alternativa, scartata perché statisticamente minoritaria.
La legge cerca certezze. L’AI produce probabilità. Il sistema tende a fidarsi del dato più frequente.
Ma nel diritto, spesso, è proprio l’eccezione a fare giustizia.
La domanda che il film anticipa è la stessa che oggi il legal tech è chiamato ad affrontare:
quando una previsione smette di essere informazione e inizia a produrre effetti normativi?
Il messaggio del film è chiaro e oggi è più attuale che mai nel mondo del legal tech: eliminare l’incertezza significa spesso eliminare anche la possibilità di scegliere, cambiare, assumersi una responsabilità.
Per questo l’AI non può essere il giudice del diritto, ma il suo strumento. Può aiutare a vedere meglio, più lontano e più velocemente, ma non può sostituire il momento umano della decisione senza snaturare la giustizia.
L’intelligenza artificiale non sostituisce il giurista: lo affianca, automatizza ciò che è ripetitivo e lascia all’essere umano ciò che un algoritmo non potrà mai sostituire: giudizio, razionalità, empatia.