Marco Castaldo e la sfida IdentifAI: “La nostra lotta contro i falsi digitali”
Intervista a Marco Castaldo, co-founder di IdentifAI – a cura di PAOLO CHIRAFISI
In un mondo sempre più digitale, distinguere il vero dal falso diventa una sfida cruciale. Marco Castaldo, co-founder di IdentifAI, ci racconta come questa start-up stia rivoluzionando il settore della sicurezza digitale.
Dottor Castaldo, in quest’era della post-verità, quanto è importante restituire ai cittadini una corretta percezione del reale?
Guardiamo agli ultimissimi avvenimenti: Facebook dichiara di rinunciare all’attività di fact-checking e Trump dichiara che non ci sarà più alcuna censura sulla massima libertà di espressione. Questo lascia al singolo individuo – e a qualsiasi organizzazione – la responsabilità di attrezzarsi per evitare di essere in totale balia di “verità alternative”, prodotte da chi ha la forza tecnologica, finanziaria e politica per imporle. Per questo noi di IdentifAI siamo impegnati in quella che chiamiamo “Fight for Truth”, il desiderio di assicurare a tutti uno strumento tecnologico in grado di dire, con elevata probabilità, se un contenuto – immagine, video o voce – sia stato generato da una AI o da un essere umano.
IdentifAI fa uso dell’intelligenza artificiale “de-generativa”. Cosa significa?
Noi definiamo i nostri modelli di intelligenza artificiale “degenerativi” per evidenziare il loro scopo: fare un processo inverso a quello di generazione, scomponendo il contenuto per analizzare la probabilità che sia stato prodotto da una AI generativa o da un essere umano.
Nel contesto informativo e comunicativo, in quali settori c’è necessità di piattaforme come IdentifAI, che conducono una lotta agli artefatti digitali?
Noi non conduciamo una lotta agli artefatti digitali; noi siamo in campo per dare uno strumento di difesa contro l’uso malevolo di tali artefatti. In qualsiasi processo aziendale in cui immagini, video o suoni sono elemento essenziale, può nascondersi un rischio rilevante. Le nuove AI generative hanno dato a tutti gli attori malevoli la capacità di produrre contenuti indistinguibili a occhio e orecchio umano, a costi irrilevanti, conferendo a truffe, disinformazione, diffamazione e propaganda una dimensione tale da poter compromettere la stabilità non solo di una singola organizzazione, ma anche di un intero sistema economico o sociale. Per questo sono indispensabili tecnologie di contrasto che tengano il passo delle nuove AI generative. Per quanto riguarda i settori attualmente più vulnerabili, pensiamo al Fintech ed all’Insurtech o alle telecomunicazioni, tutti settori dove l’apertura di nuovi rapporti e/o l’inoltro di documenti avviene prevalentemente online; ma pensiamo anche al settore dei media, ai social network e ai brand del lusso, per fare altri esempi.
Nel settore del fashion e del lusso quanto grande potrebbe essere il danno economico e reputazionale causato da immagini o video generate dall’IA?
Sono settori che si fondano, per definizione, sulla rappresentazione, attraverso le immagini, della bellezza e delle emozioni che i loro prodotti devono evocare per essere desiderati. Le immagini e i video artificiali danno la possibilità di produrre contenuti sempre più accattivanti, consentendo la massima libertà di espressione. Ma è altrettanto vero che si rischia, in caso di abuso o di mancanza di chiarezza verso il consumatore, di compromettere il rapporto di fiducia, danneggiando in modo significativo il brand. Esiste poi un tema di correttezza nella competizione tra brand, legata alla veridicità dei contenuti veicolati in rete.
Con il Giubileo 2025 e le prossime Olimpiadi Milano-Cortina nel 2026, c’è il rischio che anche il settore turismo possa essere danneggiato da un marketing ingannevole, basato sul deep fake?
Torno sul tema di una corretta competizione; è chiaro che se io promuovo con immagini false una location, o un ristorante, sto creando un danno finale al consumatore, uno alla piattaforma che mi ospita, se non è connivente, e uno ai miei concorrenti. Anche in questo caso dovrebbero essere le piattaforme ad attrezzarsi con nuove tecnologie di controllo; ma anche i singoli individui, prendendo coscienza della crescita dei rischi.
Come vede lo scenario futuro della lotta per l’affermazione della verità fattuale rispetto alle rappresentazioni digitali?
Senza voler rappresentare uno scenario distopico, le nuove tecnologie saranno sempre più performanti rendendo impossibile distinguere “il vero dal falso”; questo vuol dire che gli esseri umani dovranno fare sempre meno affidamento su un meccanismo di funzionamento del loro cervello che li ha guidati per millenni e imparare ad utilizzare tutti gli strumenti possibili per approfondire l’apparente realtà, come ad esempio IdentifAI, se vorranno difendere il loro libero arbitrio. Ma anche le leggi e le regolamentazioni dovranno tenere il passo dell’evoluzione tecnologica, per provare a contenere il già dirompente fenomeno dei deepfake nel senso più ampio possibile.
Torna alle notizie in home