Sempre più cittadini fanno ricorso a strumenti basati sull’intelligenza artificiale per ottenere informazioni legate alla salute, chiarimenti su referti medici o indicazioni sui sintomi. Questa tendenza solleva interrogativi rilevanti dal punto di vista della protezione dei dati personali e dell’affidabilità delle risposte fornite.
L’ AutoritàGarante per la protezione dei dati personali ha espresso preoccupazione sul rischio che vengano trasmessi inconsapevolmente dati sensibili; e la possibilità che le risposte, prive di supervisione professionale, siano imprecise o dannose.
Secondo l’Autorità, l’invio di esami clinici, immagini mediche o documentazione sanitaria attraverso piattaforme automatizzate comporta il pericolo di perdere il controllo sui propri dati. In molti casi, gli utenti ignorano che tali informazioni possono essere archiviate ed elaborate anche a fini di addestramento algoritmico.
Per questi motivi, il Garante invita a una valutazione attenta prima di affidare informazioni sanitarie a strumenti digitali automatizzati. Attualmente, la maggior parte dei chatbot non rientra tra i dispositivi medici regolamentati, e quindi non è sottoposta alle certificazioni e ai test clinici previsti dalle normative europee in ambito sanitario.
Il Consiglio Superiore di Sanità ha ribadito l’importanza di un intervento umano qualificato nei percorsi sanitari, sottolineando quanto affermato anche nel Regolamento europeo sull’IA, secondo cui la supervisione umana è un elemento imprescindibile nei sistemi ad alto rischio.
Il Garante ha inoltre ricordato che la salute non può essere ridotta a un processo automatizzato. Una corretta gestione del benessere richiede una visione complessiva della persona e il coinvolgimento di figure professionali, al di là dei semplici output generati da un algoritmo.










