di UMBERTO RAPETTO
Il vecchio detto “Non è tutto oro quel che luccica” è la miglior avvertenza che potrebbe etichettare ChatGPT come il “Nuoce gravemente alla salute” contrassegna i pacchetti di sigarette.
L’entusiasmo che ha accolto le piattaforme di intelligenza artificiale generativa è dovuto alla effettiva novità di certe soluzioni tecnologiche e all’altrettanto conclamata inconsapevolezza dei rischi che determinati sistemi portano inevitabilmente con loro.
Chatbot? Di cosa stiamo parlando?
Conosciamo la parola “chat”: ce ne serviamo per dialogare con amici e parenti, sfruttando la cosiddetta messaggistica istantanea (WhatsApp ne è un esempio). Se il nostro scambio di comunicazioni avviene con una macchina istruita ad hoc, dall’altra parte ci sarà un robot – non meccanico come quello che piaceva ai bambini di una volta, ma software – pronto a rispondere. La fusione dei termini “chat” e “robot” porta al neologismo “chatbot” che identifica le piattaforme disponibili su Internet per fornire risposte a chi desidera avere risposte dettagliate su un determinato argomento, evento o persona.
A differenza dei motori di ricerca come Google, che ad ogni richiesta forniscono indirizzi web utili per trovare quel che serve, le chatbot cercano in autonomia il materiale e confezionano una sintesi che propongono all’utente. Quest’ultimo, complici la pigrizia e un briciolo di ignoranza, gioisce per la fulminea replica senza domandarsi se il risultato è attendibile, completo, privo di fregature.
Se in passato era il cybernauta a scegliere tra gli spunti forniti dai cosiddetti “search engine” e a verificare le fonti da cui poteva attingere le informazioni, adesso è la chatbot a fornire qualcosa di preconfezionato senza però dire quali siano stati gli ingredienti, la loro origine, la loro veridicità o attendibilità.
Cos’è ChatGPT?
La piattaforma ChatGPT, sviluppata dal laboratorio di ricerca sull’Intelligenza Artificiale OpenAI, ChatGPT (Chat Generative Pre-Trained Transformer), è una chatbot basata sull’intelligenza artificiale conversazionale che in minima parte è presente già negli assistenti virtuali il cui uso è ormai endemico. Genera risposte in formato testo che sono molto simili a quel che potrebbe scrivere un soggetto in carne ed ossa. E’ in grado di “autoapprendere”, vale a dire arricchisce la sua conoscenza man mano che viene sollecitato facendo tesoro di quel tutto quel che impara lavorando per gli utenti.
E’ capace di riassumere un documento, di scrivere una poesia o un contratto, di fare un tema per la gioia degli strumenti somari o redigere un articolo per la felicità degli editori che vogliono risparmiare sulle spese giornalistiche, comporre musica, compilare istruzioni per programmi informatici e verificarne la funzionalità e così a seguire.
Un errore o un consiglio sbagliato possono avere conseguenze facilmente immaginabili.
I tanti rischi sottovalutati
Mettendo da parte il pericolo che le “macchine” possano prendere il sopravvento sugli esseri umani (gente inebetita da Internet, videogame et similia ce n’è in abbondanza da tempo), è ovvio che l’intelligenza artificiale – oltre ad offrire una significativa accelerazione in tanti settori – presenta qualche controindicazione e una sostanziale incoscienza di chi progetta e di chi se ne serve può portare incontro a spiacevoli esperienze.
Si teme che ChatGPT possa semplificare la vita non solo delle persone perbene, ma anche e soprattutto di un criminale informatico. La capacità di ChatGPT di impersonare altri, scrivere testo impeccabile e creare codice può essere utilizzata in modo improprio da chiunque abbia cattive intenzioni e magari voglia rubare informazioni personali all’incauto utilizzatore.
Oltre al furto di dati, incombe la possibilità di sviluppo di malware e virus informatici. Anche un utente a digiuno delle competenze finora necessarie può adoperare ChatGPT per confezionare programmi venefici e magari software “polimorfi” che sono capaci di modificare continuamente il loro “aspetto” per trarre in inganno gli antivirus ed eludere il relativo rilevamento. ChatGPT potrebbe anche scrivere con successo tonnellate di codice dannoso in grado di crittografare interi sistemi aziendali o pubblici in un attacco ransomware.
Il furto di identità è una delle cose che riesce meglio: queste piattaforme sono in grado di impersonare chiunque e se il soggetto è conosciuto e c’è parecchio materiale sul suo conto lo “scippo” è facile e proficuo.
ChatGPT è una vera e propria manna per chi deve predisporre messaggi fraudolenti da inoltrare in posta elettronica: i delinquenti a caccia di vittime per le proprie azioni di “phishing” sono tra i più soddisfatti dalle performance di questi prodotti di intelligenza artificiale. Si potrebbe continuare, inesorabili, nell’elencare potenziali calamità. Fermiamoci qui, ma tra gli spettri che tormentano il nostro vivere quotidiano ce n’è ancora uno fondamentale. ChatGPT e i suoi simili possono essere la più micidiale arma di disinformazione e questo non rassicura affatto.