Ai uguale soldi: ecco il pericolo
Open AI vuole fare i soldi. Fondata nel 2015 come laboratorio di ricerca no-profit, l’azienda leader nello sviluppo dell’intelligenza artificiale è diventata una startup nel 2019 e ha modificato la propria struttura affiancando al laboratorio una società “capped-profit” (i profitti vengono distribuiti agli investitori entro un certo limite), controllata però dal consiglio direttivo della no-profit. Questo per garantire che il perseguimento dei profitti non compromettesse gli obiettivi iniziali. A gennaio 2023 OpenAI ha incassato dieci miliardi da Microsoft, che già nel 2019 aveva investito un miliardo di dollari, in cambio dell’uso esclusivo delle tecnologie. Questo finanziamento ha dato vita a una partnership pluriennale e miliardaria, messa in crisi nel novembre 2023, quando il consiglio direttivo della no-profit ha rimosso all’improvviso il ceo Sam Altman, accusandolo di aver accelerato l’apertura al pubblico di una tecnologia potenzialmente pericolosa. Cinque giorni dopo il licenziamento, Altman è tornato sulla sua poltrona, ma la lezione era stata appresa. Negli ultimi mesi si è sempre più parlato di una trasformazione definitiva di OpenAI, più orientata al profitto. Questa trasformazione ovviamente non piace a Elon Musk, che ha co-fondato il laboratorio no-profit nel 2015, mettendoci 30 milioni di dollari. Per Musk puntare a fare soldi contraddice la missione originale di sviluppare intelligenza artificiale “per il bene dell’umanità”. In sostanza, dare priorità al profitto potrebbe compromettere lo sviluppo etico e la sicurezza delle tecnologie di intelligenza artificiale. Ecco perché il patron di Tesla e SpaceX ha avviato un’azione legale per bloccare la conversione di OpenAI in un’entità che insegue il profitto: ciò violerebbe i principi fondativi dell’azienda e rappresenterebbe un pericolo per l’umanità. Per Musk, poi, gli affari tra OpenAI e Microsoft possono portare a pratiche anticoncorrenziali e a una concentrazione di potere nell’AI dannosa per l’interesse pubblico. Non ce la sentiamo proprio di contraddire il braccio destro del prossimo presidente Usa, il quale peraltro ha già annunciato campagne per riportare un minimo di controlli e di paletti nel mercato – come sul fronte della farmaceutica: l’equazione AI uguale soldi è pericolosa almeno quanto l’equazione AI uguale super arma invincibile. Una tecnologia del genere, di quelle che fanno fare i salti in lungo come con la bomba atomica, va tenuta sotto stretto controllo etico. Bisogna prevenire, almeno stavolta.
Torna alle notizie in home