ChatGPT, l’assenza di regole e la sentenza fake. L’insostenibile leggerezza dell’essere avvocato
di STEFANO CRISCI
Da quando mi occupo di Intelligenza Artificiale, ho sempre pensato che ci si debba concentrare sul design dell’algoritmo, secondo certe regole e sul controllo etico dello stesso (NOTA mio articolo su foro amministrativo 2018). Questo pensiero in effetti prende le mosse dalle linee guida redatte dall’ High level experts europei nel 2018 (the ethic guidlines from the high level expert group) e prosegue su quella linea attraverso la Rome Call for an AI ethic siglata a Roma dalla Accademia Pontificia per la vita Papa Francesco Microsoft, IBM, FAO, e il Ministro Italiano per l’Innovazione presso l’università Gregoriana nel 2020, da cui nascerà il termine “Algoretica”.
Il tema del controllo etico dell’algoritmo e della regolazione specifica del settore è stato da subito una preoccupazione del legislatore europeo e su questi temi si è speso anche il nostro Tar e Consiglio di Stato con le note e isolate sentenze da me commentate a suo tempo che, pur dense di spunti favorevoli alla prosecuzione dello sviluppo tecnologico, non sono mai andate oltre il concetto di ausilio fondamentale all’attività dell’uomo, specialmente nel caso di provvedimenti amministrativi.
Diverso e più complesso è il discorso se portato al livello predittivo, ma intuibili contrasti con il sistema giuridico nella sua interezza e problemi di privacy inducono alla massima prudenza.
Con l’avvento di Chat GPT, il mondo si è svegliato e l’attenzione di tutti, all’indomani del provvedimento di sospensione del Garante Italiano per la Privacy ha iniziato a preoccuparsi di come una IA generativa potesse essere fuorviante e pericolosa, tanto da prendere il sopravvento sull’essere umano.
Anche in questi casi vi sarebbe da concludere per la massima abilitazione possibile della tecnologia in presenza di una regolazione sufficiente del fenomeno.
Ecco però un logico, seppure assurdo imprevisto: l’insostenibile leggerezza dell’essere umano. Cosa è successo:
il 27 maggio il New York Times ha riferito che degli avvocati contro la compagnia aerea Colombiana Avianca avrebbero ammesso di avere scritto negli atti difensivi riferimenti a precedenti giurisprudenziali che in almeno 6 casi, erano frutto dell’invenzione di Chat GPT.
L’Avvocato Steven A. Schwartz, mi duole dirlo, avrebbe ammesso di avere consultato Chat boat per le sue ricerche e come verifica in merito, anziché andarsi a cercare quei precedenti e leggere le sentenze integrali sarebbe limitato a chiedere alla medesima chat boat se non stesse mentendo (!). l’avvocato Schwartz ha dovuto ammettere che non sapeva che Chat boat avrebbe potuto mentire e che non avrebbe mai più utilizzato quello strumento se non verificando tutto in dettaglio.
Se un avvocato cade in queste leggerezze, immaginiamo il pigro funzionario di una Pubblica Amministrazione o di una società? Danni incalcolabili. Ecco da cosa deriva la giusta preoccupazione del mondo rispetto a questo tipo di IA generativa.
Allora sono forse da rivedere le teorie sullo sviluppo? Neanche per sogno. Concentriamoci sulla regolazione e andiamo avanti!
Torna alle notizie in home