IA Act: scattano i divieti della legge europea sull’intelligenza artificiale. Cosa diventa illegale e quali sono i modi per intervenire.
Oggi, 2 febbraio, diventano operativi i divieti dell’Eu IA Act, la legge sull’intelligenza artificiale alla quale l’Europa ha lavorato dal 2021. Si applica a tutti i sistemi di IA già esistenti o in fase di sviluppo ed è il primo approccio normativo al settore, che sta rivoluzionando il mondo del lavoro e la società civile.
L’intelligenza artificiale infatti, fa ormai parte della nostra quotidianità e influenza settori come la sanità, la mobilità, la finanza. Per questo L’Europa ha intuito la necessità di una regolamentazione, che è stata approvata ufficialmente il 13 marzo 2024 ed è stata pubblicata nella Gazzetta ufficiale della Commissione Ue a luglio dello stesso anno.
L’obiettivo dell’IA Act è assicurare che i diritti e i valori dell’Europa vengano rispettati, a partire dalla privacy, e che il controllo umano sulla tecnologia venga sempre garantito. Così come la sicurezza, la trasparenza, la non discriminazione e il benessere sociale ed ambientale.
I livelli di rischio previsti nell’Ue IA Act
Ma cosa prevede? Il regolamento stabilisce quattro livelli di rischio che dovranno essere monitorati. Il rischio minimo (o nullo), limitato, alto e inaccettabile. Il primo include i filtri antispam, i videogiochi abilitati all’intelligenza artificiale e i sistemi di gestione delle scorte. Un esempio comune è una calcolatrice che si basa sull’Ia per smartphone. L’app non richiede e non tratta i dati sensibili delle persone e non interagisce con altri sistemi, quindi il rischio legato alla privacy è minimo.
Il secondo, il rischio limitato, si riferisce ai sistemi di IA che hanno a che fare con la trasparenza. Ad esempio, un cittadino che parla con una chatbox deve essere informato del fatto che non sta interagendo con un operatore umano, bensì con una macchina. In modo che possa decidere se procedere oppure chiedere di parlare con una persona.
Il terzo livello di rischio è quello elevato e riguarda i sistemi che potrebbero causare danni in caso di malfunzionamento. Ad esempio, i sistemi di identificazione biometrica e riconoscimento facciale, di valutazione del credito, chatbot mediche eccetera. L’IA Act per questi impone valutazioni e test di conformità, di adottare misure di sicurezza e gestione del rischio, la trasparenza su come funziona il sistema e la supervisione umana.
Il quarto e ultimo livello di rischio è definito inaccettabile e comprende i sistemi che violano i diritti fondamentali dell’Ue e i diritti umani, come il punteggio sociale e la sorveglianza di massa. Sono tutti sistemi vietati e includono un sistema di social score.
Un punto chiave dell’IA Act, come accennato, è quello della trasparenza. Tutti i sistemi devono fornire informazioni chiare e accessibili a tutti su come funzionano. Un altro punto chiave è quello della supervisione umana: l’IA Act rafforza l’importanza dell’intervento delle persone soprattutto nei sistemi ad alto rischio per la privacy.
Un altro elemento necessario è quello dell’etica, dalla quale non si può mai prescindere nello sviluppo dei sistemi. I principi da rispettare sono l’equità, la non discriminazione, la responsabilità e la privacy.
L’IA Act non si applica a settori che non hanno a che vedere con il diritto dell’Ue. Ad esempio, i sistemi usati solo a scopi militari o di difesa, la ricerca e l’innovazione oppure alle persone che non usano l’intelligenza artificiale per fini non professionali.