Anno: XXV - Numero 219    
Giovedì 28 Novembre 2024 ore 13:00
Resta aggiornato:

Home » AL CONGRESSO FORENSE FOCUS SULL’INTELLIGENZA ARTIFICIALE

AL CONGRESSO FORENSE FOCUS SULL’INTELLIGENZA ARTIFICIALE

Cosa dicono i documenti preparatori, 14 la mozioni ammesse al voto

AL CONGRESSO FORENSE FOCUS SULL’INTELLIGENZA ARTIFICIALE

Due documenti preparatori e ben 14 mozioni (su 114), che sono state ammesse alla votazione da parte dei delegati al Congresso forense, dedicati alla intelligenza artificiale.

Il XXXV Congresso Forense, che si terrà la prossima settimana a Lecce (dal 6 all’8 ottobre), potrebbe entrare negli annali della storia dell’Avvocatura come quello nel quale (finalmente) gli avvocati si sono chiesti come rapportarsi all’intelligenza artificiale, senza chiusure preconcette ma con la consapevolezza dei rischi e degli attuali gap di conoscenza e formativi.

Dei due documenti preparatori, il primo è dedicato all’AI e Professione; il secondo all’AI e Giurisdizione.

Il punto focale, peraltro, non è solo ed esclusivamente quello della giustizia predittiva (di là da venire, si potrebbe dire), ma l’utilizzo consapevole di tool e strumenti di AI a supporto della organizzazione dello studio legale e a supporto della propria prestazione professionale.

AI e Giurisdizione

Se l’utilizzo di sistemi di intelligenza artificiale nello svolgimento della professione mostra rischi che derivano dai rapporti contrattuali con i fornitori (leggere bene i termini e condizioni è sempre una buona regola) e interpella i doveri di competenza, di segreto professionale  e di riservatezza, nel campo ampio della giurisdizione la preoccupazione è superiore, a causa della necessità di una disclosure da parte delle istituzioni, se non degli algoritmi di machine learning, almeno della loro logica, unitamente alla confezione dei data base di lavoro (che al momento non risultano essere rilasciati in modalità open data. “Il tempo incombe, nel mentre avvertiamo una crisi di identità dell’Avvocatura: dobbiamo allora avere la capacità di comprendere l’inarrestabilità dello sviluppo delle nuove tecnologie applicate ad ogni momento del vivere e quindi definirne con chiarezza i limiti etici e rivendicarne una regolamentazione”, si legge nel documento su AI e Giurisdizione.

Nel campo della giurisdizione ordinaria civile il Ministero sta procedendo al progetto Data Lake e alla digitalizzazione di circa 10milioni di fascicoli giudiziari (in calce il bando di gara del febbraio scorso);in quella penale non c’è al momento alcuna novità visto che la informatizzazione e la creazione del portale del processo penale è appena iniziata (qui trovate un resumé di tutti i progetti di digitalizzazione della giustizia ordinaria in corso: Smart court, chat bot e fascicoli personali consultabili on line: la Giustizia viaggia su App).

Il primo banco di prova di sistemi di intelligenza artificiale applicati alla giurisdizione sarà presumibilmente, invece, la giurisdizione tributaria, in relazione al progetto Pro.di.gi.it del Consiglio di presidenza della giustizia tributaria  e del Ministero dell’Economia.

Il progetto si propone, tra gli altri obiettivi, di verificare la utilizzabilità della intelligenza artificiale anche per la sperimentazione di un modello di prevedibilità delle decisioni in materia di diritto tributario (a favore di chi?), oltre la predisposizione di una banca dati giurisprudenziale aperta ai cittadini(1).

I lavori del tavolo interistituzionale, con rappresentanze di accademia e dei consigli nazionali di avvocati e commercialisti, sono appena iniziati ma ancora non sono entrati nel merito dei sistemi di raccolta e etichettatura (informatica) dei documenti e di progettazione di algoritmi.

Il documento congressuale AI e Giurisdizione sul punto pone però un caveat, vista “la particolare incidenza che può avere sui diritti fondamentali del cittadino, il mezzo predittivo dovrebbe innestarsi nell’ambito di una giurisdizione e di un processo che abbiano, sotto il profilo dell’attuazione dei principi costituzionali che li governano, delle solide basi. Circostanza che, ad oggi, per la giurisdizione e il processo tributario, non sussiste”.

Il messaggio che in generale arriva chiaro dall’Avvocatura è quello di voler/dover partecipare e contribuire per fare in modo che i tool di AI, almeno quelli destinati ad un utilizzo pubblico, siano verificabili alla luce dei principi dello Stato di diritto e che i data set siano fair, anche rispetto alle posizioni della difesa. Attività da portare avanti nel rispetto dei principi costituzionali anche del giusto processo e dei principi della carta etica.

La questione però, a questo punto, si sposta sul piano della responsabilità dell’Avvocatura e della sua formazione.

Intelligenza artificiale e Professione: il vademecum delle buone pratiche

Di questo si occupa il secondo documento congressuale, che può essere letto anche come un vademecum di buone pratiche che l’avvocato dovrebbe seguire quando sceglie di utilizzare piattaforme e tool di AI nel lavoro di studio (come strumenti di document management, analisi giurisprudenziale, chatbot, riconoscimento vocale etc etc). “L’utilizzo di un numero sempre maggiore di strumenti di IA è inevitabile nel lungo periodo: demonizzarne l’uso comporterebbe il sostanziale isolamento del professionista. Tuttavia gli avvocati devono prestare attenzione e assicurarsi che tali strumenti siano utilizzati in modo da non danneggiare gli assistiti e in generale lo Stato di diritto, affinché l’uso della tecnologia non porti in alcun modo a ridurre la tutela dei deboli che l’Ordinamento deve in ogni caso assicurare”, avverte il documento, prima di passare in rassegna i rischi a cui corrispondono altrettanti cautele che i legali dovrebbero mettere in atto.

Del primo gruppo di rischi tecnologici fanno parte, per esempio, quelli collegati all’utilizzo di sistemi in cloud o di piattaforme on line, che pongono il tema della extraterritorialità e della possibilità di accesso ai propri dati al momento della chiusura del rapporto contrattuale, circostanza che suggerisce la necessità “di studiare e sviluppare i sistemi di portabilità dei dati”; o quelli per la privacy, visto che, al netto dei sistemi di sicurezza, il fornitore di servizi (o qualsiasi piattaforma o infrastruttura sottostante) sarà tecnicamente in grado di leggere e accedere ai dati dell’avvocato. Al di là dei rischi di accesso non autorizzato, gli avvocati dovrebbero quindi contrattare o accertarsi che vi siano termini e condizioni che escludano chiaramente qualsiasi attività di profilazione (anche se l’obiettivo della profilazione è lo stesso avvocato) e il riutilizzo dei dati, anche dopo la loro presunta anonimizzazione, ipotesi che le salvaguardie del GDPR non sono in grado di escludere. Anche nel caso in cui sia l’avvocato a fornire i dati del proprio cliente, non dovrebbe autorizzare i fornitori di strumenti di IA ad utilizzare i dati legali per la formazione o l’analisi da parte di terzi, a meno che non ottengano garanzie affidabili che il metodo fornito non soffra di rischi per la privacy. Senza queste garanzia, l’avvocato non dovrebbe utilizzare tale servizio. La semplice accettazione di termini e condizioni standard contenenti autorizzazioni implicite o esplicite alla formazione o all’analisi potrebbe probabilmente costituire una violazione degli obblighi professionali di riservatezza, a meno che il cliente non abbia fornito un consenso informato preventivo.

Poi vi sono i rischi derivanti dalla mancanza di spiegabilità dei risultati (Giustizia predittiva senza black box) e i rischi di bias (Tutti i bias dell’algoritmo (e anche i nostri) e le soluzioni possibili).

Se è vero che il fornitore può opporre un diritto di privativa, specifica il documento, è anche vero che il dovere di competenza dell’avvocato gli impone di “pretendere spiegazioni e di  comprenderle.

Anche la sperimentazione di nuove tecnologie da parte di avvocati inesperti potrebbe tradursi in un rischio, anche deontologico: i doveri di competenza, di riservatezza e di segreto professionale devono essere declinati ormai anche in una dimensione digitale. Ecco allora che al fine di evitare responsabilità, agli avvocati potrebbe essere richiesto di dimostrare di aver scelto programmi che soddisfano i principi della protezione dei dati personali (privacy by design) e di aver informato il cliente di tutti gli aspetti rilevanti, compresa, ad esempio, la possibilità di non cancellare i dati una volta inseriti nel sistema. “Il cliente deve essere libero di decidere se consentire o meno all’avvocato di affidarsi a determinati sistemi di IA nella gestione del suo caso”.

Insomma, per il documento preparatorio al congresso forense “una nuova cultura professionale dovrebbe includere una comprensione cognitiva di alto livello dell’IA, che migliorerebbe il pensiero critico e la creatività degli avvocati, nonché la loro capacità di concentrarsi su questioni importanti e complesse”.

Per concludere, i documenti preparatori si propongono di sollecitare una nuova consapevolezza da parte degli avvocati  e chiedono di co partecipazione a livello di governance della dimensione digitale della giustizia.

Si segnala però una sostanziale mancanza:  l’assenza di attenzione per il regolamento comunitario di disciplina della Intelligenza artificiale, che si annuncia essere una sorta di carta fondamentale dell’utilizzo di sistemi di AI da parte di istituzioni pubbliche  e di imprese private. Quel regolamento già considera la giustizia un “sistema ad alto rischio”, applicando ai tool una procedura di verifica e validazione esterna.

Alcune delle mozioni presentate, invece, vanno più a fondo sui temi, da quello degli open data giudiziari alla della necessità di authority di garanzia per la certificazione degli strumenti di intelligenza artificiale “giudiziaria”. Vedremo come le accoglierà il congresso.

(1) Aprire a tutti (operatori, tecnici, o cittadini) una banca dati giurisprudenziale è cosa ben diversa da riorganizzare i dati in maniera open, circostanza che permetterebbe alla collettività (comprese le imprese) di avere open data giudiziari certificati alla fonte e dunque attendibili per ogni progetto di intelligenza artificiale. Open data al momento non esistenti (Gli Open Data giudiziari mancano all’appello).

 

© Riproduzione riservata

Iscriviti alla newsletter!Ricevi gli aggiornamenti settimanali delle notizie più importanti tra cui: articoli, video, eventi, corsi di formazione e libri inerenti la tua professione.

ISCRIVITI

Altre Notizie della sezione

IL PROSSIMO ANNO FOCUS SULLE PROFESSIONI

IL PROSSIMO ANNO FOCUS SULLE PROFESSIONI

26 Novembre 2024

Lo ha annunciato Massimo Bitonci, Sottosegretario del Ministero delle Imprese e del Made in Italy, durante la discussione generale sul DDL Concorrenza.

Archivio sezione

Commenti


×

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.