Il pericolo dell’intelligenza artificiale in un ospedale: ecco cosa può succedere se l’algoritmo è sbagliato
Rischi dell’applicazione dell’Ai, emblematico un caso di Ai e sanità raccontato dal Wall Street Journal, dopo i fatti avvenuti nel Davis Medical Center di Sacramento, in California.
Melissa Beebe, un’esperta infermiera di oncologia, ha scoperto l’errore di un alert di un sistema di Ai che attribuiva una sepsi ad un malato. In particolare l’intelligenza artificiale, senza fornire altre informazioni, aveva evidenziato una relazione tra l’infezione e il picco raggiunto dai globuli bianchi di un paziente senza “accorgersi” che lo stesso fosse affetto dalla leucemia, malattia che di solito fa registrare dati del genere.
Una circostanza che si è trasformata in un paradosso. La Beebe, infatti, pur accorgendosi di questa falla del sistema di Ai, ha dovuto osservare i protocolli interni del Davis Medical Center i quali attualmente obbligano il personale ad adeguarsi ai “comandi” dell’intelligenza artificiale. E ha quindi dovuto procedere ad un prelievo del sangue del paziente, pur sapendo molto bene per la sua esperienza professionale che questo passaggio si sarebbe potuto rivelare come ulteriormente minaccioso per la salute del paziente. Se avesse voluto rispondere a ciò che la sua etica le suggeriva – non procedere al prelievo, per non esporre il paziente ad una nuova infezione – avrebbe rischiato un procedimento disciplinare. Ora, il suo caso è all’attenzione del sindacato di cui Beebe è rappresentante, la California Nurses Association.
Torna alle notizie in home