73. Il paradosso della valore-verifica nell’utilizzo dell’IA nel mondo legale


Questa è una puntata ti parlo del paradosso del valore / verifica nell’utilizzo dell’IA generativa nel mondo legale.

Note dell’episodio

Come sempre, se ti è piaciuto quel che hai letto, ascoltato o visto e non l’hai già fatto, ti suggerisco di iscriverti alla mia newsletter.
Ti avvertirò dei nuovi articoli che pubblico (oltre ai podcast e video su YouTube) e, mensilmente, ti segnalerò articoli che ho raccolto nel corso del mese ed ho trovato interessanti.

Qui trovi la registrazione in video della puntata non editata.

Link

  • Il paradosso verifica-valore: ho segnalato questo link perché rimanda al paper "The Verification-Value Paradox", che analizza criticamente il rapporto tra l'efficienza dell'IA e il costo della verifica umana nella pratica legale.
  • Cory Doctorow: ho segnalato questo link per approfondire l'articolo "The Reverse-Centaur's Guide to Criticizing AI", in cui l'autore espone la metafora del "Centauro inverso" e i rischi di diventare un'appendice correttiva della macchina.
  • Una citazione di Kent Beck: ho segnalato questo link perché riporta una riflessione fondamentale sull'uso dell'IA come acceleratore di apprendimento per i junior ("codifica aumentata") e sulla capacità dell'IA di far crollare lo spazio di ricerca.
  • Giorgio Trono

Sinossi

Ti ricordo che la sinossi è generata dalla IA in particolare usando la trascrizione del podcast con l’app Transcriber dell’amico Alex Raccuglia che trovi le sue tante applicazioni su Ulti.media e NotebookLM.

Il Paradosso della Verifica e la Natura degli LLM

Iniziamo subito col botto: il cuore della puntata è il cosiddetto "Paradosso del Valore di Verifica", ispirato a un recente paper accademico. Filippo ci spiega che, sebbene l'IA generativa (LLM) sia uno strumento fenomenale per chi lavora con il testo, c'è un problema di fondo: questi modelli sono probabilistici e non deterministici.

  • Allucinazioni: I modelli non "conoscono" i fatti, ma prevedono la parola successiva più probabile. Questo porta a un tasso di errore (o allucinazione) che oscilla tra il 17% e il 33%.
  • Black Box: A differenza dei software tradizionali, i modelli di machine learning sono scatole nere imperscrutabili; non possiamo vedere come i parametri si modificano durante l'autoapprendimento.
  • Il calcolo del valore: Il vero valore aggiunto dell'IA per un avvocato si ottiene solo se il risparmio di tempo è superiore al costo necessario per verificare manualmente che quanto scritto sia vero e non solo verosimile.

Centauri e Responsabilità Professionale

Filippo introduce una metafora molto potente tratta da Cory Doctorow: il Centauro contro il Centauro Inverso.

  • Il Centauro: È l'essere umano potenziato dalla macchina, dove l'uomo mantiene il controllo e usa la tecnologia per correre più veloce.
  • Il Centauro Inverso: Qui è l'uomo a diventare un'appendice della macchina, ridotto a un semplice correttore di bozze che deve "ripulire" gli errori dell'IA assumendosene però tutta la responsabilità legale e deontologica.
  • Etica e Diritto: Citando il Codice di Procedura Civile e il Codice Deontologico (art. 50), Filippo ricorda che l'avvocato è responsabile della verità dei documenti e delle prove presentate. Non si può dare la colpa all'IA per una citazione giurisprudenziale inesistente.

Apprendimento Aumentato per i Giovani Professionisti

Un punto molto interessante riguarda i giovani legali. Citando Ken Beck, Filippo parla di "codifica aumentata"(trasposta nel mondo legale):

  • L'IA non serve per accettare passivamente un risultato ("vibe coding"), ma per accelerare l'apprendimento.
  • Permette di esaminare enormi quantità di materiale in poco tempo, liberando ore preziose che devono essere reinvestite nello studio e nell'approfondimento critico.

Il Metodo Strozzi: Come usare l'IA nella Pratica Quotidiana

Filippo condivide generosamente il suo flusso di lavoro personale, mostrando come l'IA possa essere un'alleata se gestita con metodo:

  • Sgrossare le ricerche: Utilizzare l'IA (tramite RAG - Retrieval-Augmented Generation) per inquadrare velocemente una normativa o estrarre fatti da documenti online.
  • Cassa di risonanza (Red Teaming): Usare il chatbot come un "simulacro" di collega per criticare le proprie tesi legali e trovare falle logiche nelle argomentazioni.
  • Verifica Incrociata (IA contro IA): Un trucco utile è chiedere a un secondo modello, in un contesto pulito, di verificare i principi di diritto citati dal primo, per stanare subito eventuali allucinazioni.
  • Creazione Progressiva degli Atti: Filippo non chiede all'IA di scrivere un atto intero da zero. Segue un processo a fasi: estrazione fatti, ricerca normativa, strategia difensiva e, solo alla fine, generazione del testo, con una supervisione costante su ogni singolo step.

In conclusione, l'intelligenza artificiale non è una bacchetta magica, ma un potente ausilio che deve ottimizzare, e non sostituire, l'attività intellettuale del professionista.