top of page

AI Governace: una opportunità per guadagnare fiducia e mercati

A partire dal 2 febbraio 2025, l'Unione Europea ha iniziato a implementare le prime restrizioni previste dall'AI Act vietando l’uso dell’AI per influenzare il comportamento umano in modo subliminale, assegnare i punteggi sociali basati su opinioni o comportamenti, prevedere i crimini tramite dati biometrici invece che basandosi su prove concrete. Il riconoscimento facciale è severamente limitato: vietati software per analizzare emozioni in scuole e luoghi di lavoro così come l'identificazione in tempo reale da parte delle autorità, salvo eccezioni.

L’UE continuerà a privilegiare un approccio regolatorio per garantire sicurezza e diritti, potenzialmente rallentando l’innovazione, ma rafforzando la fiducia pubblica.

La nuova amministrazione Trump negli Stati Uniti ha invece adottato, già dal 20 gennaio 2025, un approccio di deregolamentazione, revocando gli ordini esecutivi precedenti sulla sicurezza dell'AI per stimolare la crescita della generative AI e promuovere l'innovazione riducendo la supervisione governativa e allentando le restrizioni, consentendo alle aziende di sperimentare più liberamente le tecnologie emergenti ma aumentando il rischio di abusi e perdita di fiducia.

Negli stessi giorni, l'emergere di DeepSeek ha terremotato il mercato mondiale dell'AI per i suoi costi drammaticamente inferiori e la sua facilità di integrazione favorita dall’adozione di un approccio Open Source per l’accesso alla sua tecnologia. 

Da un lato l’utilizzo di DeepSeek in modalità cloud SaaS ha sollevato numerosi dubbi e preoccupazioni per i possibili rischi associati al trattamento dei dati personali da parte di DeepSeek, portando il Garante per la protezione dei dati personali italiano a disporre la limitazione del trattamento dei dati degli utenti italiani da parte di DeepSeek, bloccandone di fatto l’utilizzo in Italia. D’altra parte la licenza open source con cui DeepSeek ha rilasciato la sua tecnologia ha dato un'enorme spinta verso la democratizzazione dell'accesso all'AI spingendo le aziende statunitensi a ridurre i prezzi e migliorare le loro offerte rompendo di fatto la loro posizione di oligopolio.


Questo scenario in rapida evoluzione, caratterizzato da fortissimi scontri sia commerciali che politici e di approccio “filosofico” alla visione del modo di sviluppare ed utilizzare l’AI, apre uno spazio di opportunità per l’EU e gli operatori esclusi dal playground in mano a big statunitensi e cinesi, dove lo sviluppo di modelli di Governace dei processi di sviluppo ed utilizzo di queste tecnologie può assumere un ruolo essenziale.


E’ tuttavia necessario che venga trovato un equilibrio tra standard elevati e competitività, che unitamente ad un robusto programma di finanziamenti potrebbe rendere l’UE leader nell’AI etica.

Un approccio efficace alla Governance, che contribuisca a bilanciare l'innovazione con la sicurezza e l'etica, dovrebbe includere:

  • Valutazioni del Rischio: Implementare valutazioni del rischio durante tutto il ciclo di vita dei progetti di AI per identificare e mitigare potenziali impatti negativi.

  • Collaborazione Multi-Stakeholder: Coinvolgere governi, industria, società civile e comunità accademica per sviluppare normative che promuovano l'innovazione garantendo al contempo la sicurezza e l'etica.

  • Trasparenza e Responsabilità: Assicurare che i sistemi di IA siano trasparenti e che le organizzazioni siano responsabili dei loro utilizzi, promuovendo la fiducia del pubblico.

Chi riuscirà a sostanziare e dare evidenza di aver adottato un modello di governance delle tecnologie AI che non ne ostacoli lo sviluppo e sia al contempo equilibrato, integrando la gestione del rischio e la conformità alle normative applicabili ai mercati di riferimento, potrà approfittare di uno spazio di opportunità per affermarsi come un player che può garantire un uso sicuro e vantaggioso dell'AI per tutti.




 
 

Comments


bottom of page