AI Act: Le Big Tech a rischio? L’analisi di LatticeFlow svela la non conformità alle normative UE!
AI Act: Scoperta di Non Conformità nei Modelli di Intelligenza Artificiale
Secondo dati visionati in anteprima dall’agenzia Reuters, alcuni dei principali modelli di Intelligenza Artificiale (IA) non rispettano le normative europee su aspetti cruciali come la sicurezza informatica e i risultati discriminatori.
L’Unione Europea ha discusso a lungo le nuove regolazioni per l’IA, un dibattito che si è intensificato dopo il lancio di ChatGPT da parte di OpenAI nel 2022.
La crescente popolarità di questi sistemi ha sollevato interrogativi sui potenziali rischi esistenziali associati ai modelli di IA, portando i legislatori a sviluppare regole specifiche per le IA “general-purpose” (GPAI).
I risultati dello studio di LatticeFlow
Un nuovo strumento di test ideato dalla startup svizzera LatticeFlow, con il supporto della Commissione Europea, ha valutato i modelli di intelligenza artificiale generativa sviluppati da colossi come Meta e OpenAI, in vari ambiti e secondo i criteri del futuro AI Act, che entrerà in vigore gradualmente nei prossimi due anni.
Lo studio di LatticeFlow ha assegnato punteggi ai modelli tra 0 e 1, rivelando che nomi noti come Alibaba e Anthropic hanno ottenuto punteggi superiori a 0,75.
Tuttavia, il “Large Language Model (LLM) Checker” ha anche evidenziato carenze significative, indicando aree in cui le aziende devono investire per garantire la conformità.
Le conseguenze di non conformità possono includere multe fino a 35 milioni di euro.
L’UE e il futuro dell’AI Act
Attualmente, l’Unione Europea sta ancora definendo le modalità di applicazione delle norme dell’AI Act per strumenti di IA generativa.
Esperti sono stati convocati per redigere un codice di condotta entro la primavera del 2025.
Il test di LatticeFlow, realizzato in collaborazione con ricercatori dell’università ETH di Zurigo e dell’istituto INSAIT, rappresenta un primo segnale sulle problematiche di conformità per le aziende tech.
Soprattutto, i risultati mostrano che l’output discriminatorio rimane una questione critica, riflettendo pregiudizi di genere e razza presenti nei dati di addestramento.
LatticeFlow ha annunciato che il LLM Checker sarà reso disponibile gratuitamente online, per supportare gli sviluppatori nella verifica della compliance.
Un portavoce della Commissione Europea ha commentato positivamente lo studio, vedendolo come un passo cruciale verso l’implementazione della legislazione europea sull’IA in requisiti tecnici.