Un Codice di condotta per l’IA
Gestire la tecnologia, soprattutto prevenendone gli eventuali rischi. È questa la missione che si è data l’unione europea rispetto alla nuova frontiera dell’innovazione, l’intelligenza artificiale. L’idea è quella di prevedere un vero e proprio Codice di condotta per l’IA che tutti i modelli che la utilizzano saranno chiamati a seguire da quando entrerà in vigore. L’attenzione dell’Europa su questa tecnologia non è nuova, ma adesso l’obiettivo dichiarato è quello di voler mettere al riparo sicurezza, privacy e diritti degli individui dai rischi connessi all’utilizzo e ai potenziali nuovi sviluppi dell’intelligenza artificiale. Per raggiungerlo sono stati coinvolti accademici, esperti di settore, fornitori di IA, rappresentanti di società e anche della società civile. I più moderni strumenti legati alla nuova tecnologia offrono infatti una versatilità che consente loro di essere impiegati in un’ampia gamma di ambiti, come la sanità, l’educazione, il marketing e l’industria tecnologica. Questa stessa versatilità li rende più difficilmente controllabili rispetto a strumenti della medesima tipologia che però sono programmati per svolgere solamente singole funzioni o, comunque, compiti specifici. È questo il presupposto che ha indotto l’Ue a immaginare la stesura un di un Codice di condotta per la governance e dell’intelligenza artificiale e per garantire la sua sicurezza. Gli esperti coinvolti saranno divisi in quattro gruppi di lavoro (Trasparenza e norme relative al copyright; Identificazione e valutazione del rischio; Attenuazione del rischio tecnico; Attenuazione del rischio tecnico) che dovranno poi sintetizzare le rispettive attività in una bozza che dovrà essere redatta entro la prima metà del 2025. Nel team di esperti per la stesura del Codice di condotta per l’IA saranno coinvolti anche due studiosi italiani, Marta Ziosi, una ricercatrice emergente nel campo dell’intelligenza artificiale e della governance tecnologica, e Daniel Privitera che tra le varie esperienze di prestigio vanta anche quella di fondatore del KIRA Center a Berlino, un centro indipendente che si occupa di politiche sull’intelligenza artificiale.
Torna alle notizie in home