Il Regolamento (UE) 2024/1689, noto come AI Act, rappresenta un traguardo legislativo di portata storica, ponendosi come il primo quadro giuridico completo sull’intelligenza artificiale a livello mondiale. Adottato dal Parlamento europeo e dal Consiglio il 13 giugno 2024 ed entrato in vigore il 1° agosto dello stesso anno, il regolamento stabilisce un insieme articolato di norme armonizzate per lo sviluppo, la commercializzazione e l’utilizzo dei sistemi di intelligenza artificiale nell’Unione Europea, segnando un passo decisivo verso un ecosistema digitale più sicuro, etico e competitivo.
L’adozione dell’AI Act risponde all’urgenza di affrontare i rischi legati all’adozione crescente dell’intelligenza artificiale in tutti gli ambiti della società e dell’economia, garantendo nel contempo la promozione dell’innovazione e il rispetto dei diritti fondamentali. A differenza di altre normative internazionali, il regolamento europeo assume un approccio sistemico e trasversale, introducendo un modello regolatorio basato sulla valutazione del rischio e orientato alla protezione delle persone, della democrazia e dello Stato di diritto. L’Unione Europea intende così porsi come riferimento globale per uno sviluppo dell’IA antropocentrico e responsabile.
Il cuore concettuale del regolamento è l’approccio fondato sulla classificazione dei sistemi di IA in base al loro livello di rischio, articolato in quattro categorie: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo o nullo. Questa architettura normativa permette di calibrare gli obblighi e le restrizioni in modo proporzionato, senza ostacolare l’uso benefico della tecnologia, ma limitando le applicazioni più pericolose per i diritti individuali e collettivi.
I sistemi ritenuti ad alto rischio, come quelli utilizzati in ambiti delicati quali la sanita, l’istruzione, il lavoro, la giustizia, l’accesso ai servizi pubblici o la gestione delle infrastrutture critiche, sono sottoposti a obblighi rigorosi in termini di gestione del rischio, trasparenza, tracciabilità, robustezza tecnica, sorveglianza umana e registrazione. Tali requisiti mirano a garantire un controllo effettivo del funzionamento degli algoritmi e a prevenire fenomeni discriminatori o opachi che potrebbero compromettere l’equilibrio tra automazione e diritti fondamentali.
Al contrario, i sistemi a basso rischio, come gli strumenti di personalizzazione delle raccomandazioni o i filtri antispam, sono esclusi da obblighi particolari, mantenendo così la fluidità del mercato per applicazioni con impatto limitato. I sistemi a rischio limitato, pur non imponendo restrizioni sostanziali, richiedono una trasparenza minima: ad esempio, un utente deve sapere se sta interagendo con un sistema automatizzato come un chatbot o un generatore di contenuti, e deve poter riconoscere i contenuti generati artificialmente, specialmente se si tratta di deepfake o testi pubblicati con finalità informativa.
Un’attenzione particolare è riservata ai sistemi di IA considerati pericolosi in quanto basati su pratiche manipolative o invasive, classificati come sistemi a rischio inaccettabile. In questa categoria rientrano, tra gli altri, i sistemi di identificazione biometrica remota “in tempo reale” in spazi pubblici per fini di polizia, i sistemi di categorizzazione biometrica in base a dati sensibili, quelli di riconoscimento delle emozioni nei contesti lavorativi e scolastici, e i sistemi di punteggio sociale, simili a quelli già sperimentati in alcuni Paesi non democratici. Tali tecnologie, per il loro impatto potenzialmente discriminatorio e per l’effetto di sorveglianza di massa, sono vietate in modo assoluto salvo rare eccezioni strettamente regolate.
Dal punto di vista operativo, l’AI Act introduce per i fornitori di IA ad alto rischio l’obbligo di dotarsi di un sistema di gestione della conformità, che comprende valutazioni ex ante, misure di mitigazione dei rischi, controllo umano e documentazione tecnica dettagliata. Le autorità competenti, tra cui l’Ufficio europeo per l’intelligenza artificiale e le autorità nazionali, avranno compiti di vigilanza e poteri sanzionatori. Le imprese dovranno registrare i propri sistemi in una banca dati centralizzata a livello europeo e, dopo l’immissione sul mercato, monitorarne l’uso e segnalare eventuali incidenti o malfunzionamenti.
Un’importante novità riguarda anche i cosiddetti modelli di IA per finalità generali (GPAI), tra cui rientrano le architetture di largo impatto come i modelli linguistici generativi. Il regolamento stabilisce obblighi specifici in termini di trasparenza, robustezza, rispetto del diritto d’autore e mitigazione dei rischi sistemici. A tale scopo, la Commissione europea promuoverà l’adozione di codici di condotta e linee guida per supportare i fornitori nell’applicazione delle disposizioni.
Il calendario attuativo dell’AI Act prevede una progressiva entrata in vigore degli obblighi: i divieti e le disposizioni sull’alfabetizzazione digitale saranno applicabili dal 2 febbraio 2025, gli obblighi per i GPAI entreranno in vigore il 2 agosto 2025, mentre la piena applicazione del regolamento è prevista per il 2 agosto 2026. Per i sistemi di IA ad alto rischio già integrati in prodotti regolamentati, come dispositivi medici o macchinari industriali, è previsto un periodo transitorio fino al 2 agosto 2027.
L’AI Act non è solo uno strumento normativo, ma una leva strategica per rafforzare l’autonomia digitale europea, incentivare la fiducia nei confronti dell’IA e favorire la competitività delle imprese nel mercato globale. In questo contesto, l’iniziativa volontaria del “Patto per l’IA”, lanciata dalla Commissione, rappresenta un’occasione per le aziende europee e internazionali di anticipare l’adeguamento al nuovo regime, partecipando al dialogo con i portatori di interesse e adottando buone pratiche di responsabilità algoritmica.
L’implementazione efficace della normativa richiederà uno sforzo coordinato da parte delle istituzioni europee, degli Stati membri, delle imprese e della società civile. Sarà essenziale promuovere l’alfabetizzazione digitale e la consapevolezza critica nell’uso dell’IA, formare i professionisti del settore, rafforzare le competenze regolatorie e favorire l’integrazione dell’IA nei processi produttivi nel rispetto dei valori fondamentali dell’UE.
B.G.T. Data consulting, da sempre attenta alle evoluzioni normative e tecnologiche, offre supporto personalizzato alle aziende che desiderano adeguarsi al nuovo regolamento. I nostri consulenti affiancano imprese e pubbliche amministrazioni nella valutazione del rischio, nella predisposizione della documentazione tecnica, nella progettazione di sistemi etici e conformi, nella formazione del personale e nella gestione della sorveglianza post-commercializzazione.
In un’epoca in cui l’intelligenza artificiale si appresta a diventare l’infrastruttura invisibile della società digitale, l’AI Act costituisce uno strumento essenziale per coniugare progresso e responsabilità, innovazione e diritti. Il futuro dell’IA in Europa si costruisce oggi, con regole chiare, principi condivisi e un impegno collettivo per una tecnologia al servizio dell’uomo.
Per ricevere maggiori informazioni o richiedere una consulenza, contatta il team B.G.T. Data consulting. Siamo al tuo fianco per trasformare la conformità normativa in un vantaggio competitivo duraturo.


