Indice
L’Antitrust chiude le istruttorie: niente sanzioni, ma nuove regole per informare meglio gli utenti.
L’intelligenza artificiale generativa torna sotto osservazione, questa volta sul fronte della trasparenza. L’Autorità Garante della Concorrenza e del Mercato ha chiuso tre istruttorie nei confronti di DeepSeek, Mistral AI e NOVA AI, imponendo un cambio di passo nella comunicazione verso gli utenti.
Non ci sono sanzioni né accertamenti di infrazione, ma gli impegni presi dalle aziende segnano un punto chiaro: chi usa questi strumenti deve sapere, fin da subito, che le risposte generate possono essere sbagliate o fuorvianti.
Il nodo delle “allucinazioni”
Al centro del provvedimento c’è un tema ormai noto anche fuori dal mondo tech: le cosiddette “allucinazioni” dell’AI. Si tratta di contenuti generati dai modelli che appaiono plausibili, ma che in realtà possono essere inesatti o completamente inventati.
È un limite strutturale dei sistemi attuali, e proprio per questo l’Antitrust ha deciso di intervenire non tanto sulla tecnologia in sé, quanto sul modo in cui viene presentata agli utenti. La richiesta è semplice, ma impatta direttamente sull’esperienza d’uso: maggiore chiarezza prima, durante e dopo l’utilizzo dei servizi.
Cosa cambia per gli utenti
Le aziende coinvolte dovranno aggiornare i propri siti e le proprie app introducendo avvisi più espliciti sui limiti dell’intelligenza artificiale. Non solo durante l’uso, ma anche nelle fasi precedenti, come registrazione o acquisto. In altre parole, l’utente dovrà essere informato prima ancora di iniziare.
Questo riguarda anche l’informativa precontrattuale, che dovrà includere indicazioni chiare sull’affidabilità dei contenuti generati e sulla necessità di verificarli.
È un passaggio chiave perché sposta la responsabilità su un piano più equilibrato: l’AI resta uno strumento, ma l’utente viene messo nelle condizioni di comprenderne i limiti.
Il caso DeepSeek, investimenti per ridurre gli errori
Nel caso specifico di DeepSeek, l’impegno va anche oltre la comunicazione. L’azienda ha dichiarato di voler investire sul piano tecnologico per ridurre il fenomeno delle allucinazioni.
Un obiettivo ambizioso, ma con un limite chiaro: allo stato attuale, questo tipo di errore non può essere eliminato completamente.
È un punto fondamentale, perché conferma quello che molti addetti ai lavori sanno già: l’AI generativa non è, e probabilmente non sarà nel breve periodo, uno strumento infallibile.
NOVA AI, bisogna chiarire cosa fa (e cosa non fa)
Per NOVA AI il focus è diverso. La piattaforma dovrà spiegare in modo più preciso la natura del servizio offerto.
NOVA AI consente l’accesso a diversi chatbot da un’unica interfaccia, ma non aggrega né rielabora le risposte. Una distinzione che, fino a oggi, poteva non essere così evidente per l’utente finale. Anche qui, il tema è la trasparenza: capire cosa si sta usando è il primo passo per usarlo correttamente.
L’intervento dell’Antitrust non cambia la tecnologia, ma cambia il contesto in cui viene utilizzata. Più trasparenza significa anche più consapevolezza.
E in un momento in cui l’intelligenza artificiale sta entrando in modo sempre più profondo nella vita quotidiana, questo tipo di intervento diventa quasi inevitabile. La direzione è chiara: l’AI non deve solo funzionare bene, deve anche essere spiegata meglio.