Se la tecnologia corre, il mondo della politica non può restare a guardare. Anzi: deve stare al passo, deve aggiornare e rendere moderni gli strumenti normativi e le leggi, per garantire equità, trasparenza e protezione dei cittadini.
È con questo obiettivo che è stato varato l’AI Act, il nuovo regolamento europeo sull’Intelligenza Artificiale, concepito proprio per offrire una cornice normativa solida e globale, in grado di prevenire i potenziali rischi connessi all’uso dell’IA. L’idea alla base dell’atto è quella di coinvolgere tutti gli attori del settore, inclusi sviluppatori, fornitori, distributori e utilizzatori e per agevolare la transizione verso il nuovo quadro normativo, la Commissione Europea ha introdotto un Patto Per l’AI: un’iniziativa volontaria che mira ad aiutare le aziende a prepararsi all’attuazione dell’AI Act. L’obiettivo? Uniformare fin da subito le pratiche di sviluppo e utilizzo dell’intelligenza artificiale per evitare distorsioni legislative e criticità operative.
Tanti i settori coinvolti, dicevamo ma la grande novità è l’AI Act per il settore del gioco d’azzardo: i casinò online, in particolare, risultano tra i principali utilizzatori dell’IA, impiegata per il marketing, la sicurezza, la prevenzione del gioco problematico e l’assistenza clienti. Anche loro infatti dovranno uniformarsi a quei principi fondamentali che sono stati sottolineati durante la tavola rotonda organizzata da WH Partners con esperti del settore e rappresentanti istituzionali, tra cui Flores Gavril della Malta Digital Innovation Authority: rispetto dei diritti fondamentali, benessere sociale, sicurezza tecnica e affidabilità dei sistemi. L’AI Act, infatti, non mira a ostacolare l’innovazione, ma a coniugare opportunità e responsabilità, assicurando trasparenza e fiducia da parte degli utenti.
Parola d’ordine, insomma, trasparenza. Un tema che fin qui è stato particolarmente ostico per l’AI: spesso non è possibile capire perché un algoritmo abbia preso una determinata scelta e questo crea difficoltà nel valutare eventuali discriminazioni o svantaggi per gli individui. Per affrontare tali sfide, il regolamento introduce quattro livelli di rischio associati ai sistemi IA: il più alto è il rischio inaccettabile, che vieta pratiche pericolose, come la manipolazione mentale o lo sfruttamento delle vulnerabilità psicologiche. Poi si passa al rischio elevato (che include sistemi che possono minacciare la salute o i diritti fondamentali) e al rischio limitato (che richiede obblighi di trasparenza, come l’informazione agli utenti nel caso di chatbot o contenuti generati dall’IA). Ultimo gradino è quello del rischio minimo o nullo, che non impone obblighi particolari e comprende applicazioni comuni come videogiochi o filtri antispam.
“L’approvazione definitiva dell’AI Act pone l’Unione Europea all’avanguardia nella definizione di standard globali per l’uso etico dell’IA – ha spiegato Alessio Butti ad Arena Digitale, Sottosegretario di Stato con delega all’Innovazione tecnologica – bilanciando l’innovazione tecnologica con la tutela dei diritti dei cittadini”. Un tema su cui tutti i governi europei, compreso quello italiano, hanno lavorato dal primo giorno con l’obiettivo di avere regole snelle e certe invece della semplice autoregolamentazione da parte delle aziende. “Un lavoro serio e silenzioso, fatto di studio e diplomazia, che alla fine ha dato i suoi frutti. E a beneficiarne saranno tutti i cittadini, le imprese e le PA italiane ed europee” conclude il sottosegretario.
Ora bisognerà solo attendere: la messa in atto dell’AI Act è prevista infatti per il 2026.