App

Gli USA vogliono controllare l’AI prima del rilascio: accordo storico con Google DeepMind, Microsoft e xAI

Gli USA vogliono controllare l'AI

Il governo USA rafforza la supervisione sull’AI: test sui modelli prima del lancio con Google DeepMind, Microsoft e xAI.

Gli Stati Uniti fanno un passo deciso verso una gestione più strutturata dell’intelligenza artificiale. Il governo ha annunciato nuovi accordi con alcuni dei principali attori del settore — tra cui Google DeepMind, Microsoft e xAI — con l’obiettivo di valutare i modelli più avanzati prima che arrivino al pubblico.

Non è solo una questione tecnica. È un cambio di approccio: l’AI non viene più osservata dopo il rilascio, ma analizzata in anticipo, quando è ancora in fase di sviluppo.

Il ruolo del CAISI: test prima e dopo il lancio

Al centro di questa iniziativa c’è il National Institute of Standards and Technology (NIST), che attraverso il Center for AI Standards and Innovation (CAISI) diventa il punto di riferimento per la supervisione.

Il meccanismo è relativamente chiaro: le aziende coinvolte metteranno a disposizione i propri modelli in fase pre-deployment, permettendo al governo di testarli prima della distribuzione commerciale.

Non solo. Le analisi continueranno anche dopo il rilascio, in un sistema che punta a monitorare costantemente capacità, limiti e rischi. È una doppia verifica: preventiva e continuativa.

Accesso a versioni “meno filtrate”

Uno degli aspetti più rilevanti riguarda il tipo di accesso concesso ai valutatori. In alcuni casi, i modelli forniti al CAISI potrebbero avere protezioni ridotte o completamente rimosse. Questo significa lavorare su versioni più “grezze”, meno limitate rispetto a quelle disponibili al pubblico.

L’obiettivo è evidente: capire cosa un sistema è realmente in grado di fare, senza i vincoli introdotti per motivi di sicurezza o di user experience. È un punto delicato, perché apre anche interrogativi su come queste versioni vengano gestite e protette.

Sicurezza nazionale al centro

Il focus principale dell’iniziativa è la sicurezza nazionale. Non si tratta solo di valutare la qualità delle risposte o la presenza di errori, ma di analizzare scenari più complessi.

Come può essere usata l’AI in contesti critici? Quali sono i rischi legati a disinformazione, cyberattacchi o uso improprio? E fino a che punto questi sistemi possono essere controllati?

Le valutazioni vengono condotte con il contributo di diverse agenzie governative, coordinate in task force dedicate. È un approccio che avvicina sempre di più l’AI a un’infrastruttura strategica, non solo tecnologica.

Oltre 40 modelli già analizzati

Secondo quanto emerso, il CAISI ha già completato più di 40 valutazioni su modelli avanzati, inclusi sistemi non ancora disponibili pubblicamente.Le nuove intese con Google DeepMind, Microsoft e xAI rappresentano quindi un’estensione di collaborazioni già esistenti, aggiornate per rispondere alle nuove direttive federali. Non si tratta di un progetto sperimentale, ma di una struttura che sta diventando sempre più centrale.

Collaborazione, non regolazione (per ora)

Un aspetto importante è il tono dell’iniziativa. Al momento non si parla di obblighi normativi rigidi, ma di collaborazione. Le aziende condividono informazioni, permettono test e ricevono feedback con l’obiettivo di migliorare i propri sistemi in modo volontario.

È un modello più flessibile rispetto a quello europeo, ma potrebbe essere solo una fase iniziale. Le indiscrezioni parlano già di possibili sviluppi futuri, con forme di coordinamento più stringenti tra governo e industria.

Un cambio di paradigma nella governance dell’AI

Questa mossa segna un passaggio chiave: l’AI non è più vista solo come innovazione tecnologica, ma come elemento da governare in modo sistemico.

Il fatto che il governo possa accedere ai modelli prima del rilascio cambia le regole del gioco. Introduce un livello di controllo che, fino a poco tempo fa, non esisteva. E apre una questione più ampia: quanto spazio resta all’autonomia delle aziende?

Gli accordi tra il governo USA e aziende come Google DeepMind, Microsoft e xAI rappresentano un passo concreto verso una governance più strutturata dell’intelligenza artificiale. Non è ancora una regolazione vera e propria, ma è qualcosa di molto vicino. E soprattutto, è un segnale: l’AI sta diventando troppo importante per essere lasciata senza supervisione.

Change privacy settings
×