Intelligenza artificiale e dispositivi medici: due mondi che oggi devono parlarsi anche dal punto di vista normativo. L’AI Act introduce un nuovo sistema di classificazione del rischio per gli algoritmi, con impatti diretti per chi sviluppa o utilizza medical devices basati su AI.
Capire come queste regole si applicano – e come integrarle con il MDR – è il primo passo per una strategia conforme, efficace e sostenibile.
Un solo Regolamento non basta
I sistemi di intelligenza artificiale sono già parte integrante di molti dispositivi medici, ma per regolamentarli il Regolamento UE 2017/745 (MDR) non è sufficiente. Serve una norma capace di affrontare i rischi specifici dell’AI: opacità dei modelli, bias nei dati, sorveglianza algoritmica, apprendimento continuo.
Ecco perché il Regolamento (UE) 2024/1689 – noto come AI Act (abbreviato AIA) – introduce un sistema di classificazione del rischio applicabile a tutti i sistemi AI, compresi quelli utilizzati nei dispositivi medici.
L’AIA distingue i sistemi di intelligenza artificiale in base al rischio che possono rappresentare per la salute, la sicurezza e i diritti fondamentali delle persone. Le quattro categorie di rischio dell’AI Act sono le seguenti:
- Rischio inaccettabile – Sistemi vietati (es. manipolazione cognitiva, scoring sociale; art. 5).
- Alto rischio – Sistemi che incidono su salute e diritti (art. 6 e seg.).
- Rischio limitato – Sistemi soggetti a obblighi di trasparenza (es. chatbot informativi).
- Rischio minimo – Sistemi senza requisiti specifici, come AI per filtri spam o raccomandazioni di contenuti.
La maggior parte delle prescrizioni dell’AIA quindi riguardano proprio i sistemi di intelligenza artificiale “ad alto rischio”.
Diversamente, per i sistemi “non ad alto rischio” le prescrizioni si concentrano principalmente sull’obbligo di alfabetizzazione (articolo 4 AIA) e sugli obblighi di trasparenza (articolo 50 AIA).
In particolare, il settore medical device è impattato dalla disciplina relativa ai software di Alto Rischio.
Infatti l’art. 6 stabilisce: “[…] un sistema di IA è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:
- il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto[…];
- il prodotto […] è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto […]”.
La maggior parte dei Medical Device che integrano l’AI (MDAI) rientra quindi nella categoria ad alto rischio, soggetta a obblighi stringenti su gestione del rischio, trasparenza, sorveglianza post-market e molto altro.
Importante sottolineare che essere classificati come “alto rischio” secondo l’AI Act non cambia la classe del dispositivo secondo MDR/IVDR.
L’interazione tra MDR, IVDR e AI Act: un’armonizzazione necessaria
Come chiarito nel documento MDCG 2025-6, i requisiti MDR e IVDR riguardano i rischi legati al software dei dispositivi medici, ma non affrontano esplicitamente i rischi specifici dei sistemi di IA. L’AIA integra MDR/IVDR introducendo requisiti per affrontare i pericoli e i rischi per la salute, la sicurezza e i diritti fondamentali specifici dei sistemi di IA. In linea con l’approccio del Nuovo Quadro Legislativo, ciò significa un’applicazione simultanea e complementare del MDR/IVDR e dell’AIA per i dispositivi medici che contengono uno o più sistemi di IA ad alto rischio.
La buona notizia? Secondo l’Art. 8(2) AIA, i fabbricanti possono integrare i requisiti AI Act nella documentazione già prevista dal MDR/IVDR, evitando duplicazioni e ottimizzando i processi.
Tuttavia, va sempre tenuto bene a mente che i due Regolamenti hanno finalità distinte: da un lato, la salvaguardia della salute del paziente/utilizzatore (MDR); dall’altra, l’interesse che l’AI non venga usata in modo discriminatorio nei confronti di determinate categorie di soggetti, minando ai loro diritti fondamentali.
Conclusione: visione regolatoria integrata, strategia coordinata
La convergenza tra regolamenti europei (MDR, IVDR, AI Act) impone ai produttori di MDAI un cambio di prospettiva: non basta più progettare un dispositivo sicuro e performante, ma serve anche dimostrare trasparenza, robustezza algoritmica e tutela dei diritti.
Noi ormai lo sappiamo: quando la tecnologia avanza, anche il quadro normativo si evolve.
In Clariscience accompagniamo le aziende dall’idea alla validazione, con un percorso strutturato e consapevole. Uniamo conoscenza clinico-regolatoria, visione tecnica e capacità comunicativa, per offrire soluzioni complete.
Un ponte tra le esigenze regolatorie del fabbricante e quelle di comunicazione, per trasformare ogni documento in una leva di valore. Perché siamo fermamente convinti che dietro ogni obbligo normativo si nasconda un’opportunità da raccontare (anche al di fuori del dossier tecnico!).


