
Il codice scritto dall'IA: le promesse svaniscono, i problemi aumentano (mistergadget.tech)
Lungi dal sostituire gli sviluppatori, gli strumenti basati sull’intelligenza artificiale si stanno rivelando inefficienti e pericolosi, creando un paradosso che, per ora, non ha soluzione in vista.
A marzo 2025, alcune delle figure più importanti nel settore dell’intelligenza artificiale prevedevano con sicurezza che i programmatori umani sarebbero stati presto relegati al dimenticatoio della storia. “Penso che entro tre o sei mesi l’IA scriverà il 90% del codice”, proclamava Dario Amodei, CEO di Anthropic. “E tra 12 mesi, potremmo trovarci in un mondo in cui l’IA scrive essenzialmente tutto il codice”. Persino figure scettiche, come l’analista Ed Zitron, che aveva definito Amodei “un bugiardo e un ciarlatano”, non erano riuscite a sgonfiare l’enorme bolla di entusiasmo che circondava l’IA.
Sei mesi dopo, la realtà si sta dimostrando molto diversa. I problemi fondamentali dell’IA come strumento di programmazione vengono a galla e non fanno che peggiorare. Lungi dal raggiungere l’autocoscienza, come previsto dai suoi sostenitori, l’IA sta mostrando tutti i suoi limiti. Le aziende che hanno adottato l’intelligenza artificiale sperando di accelerare lo sviluppo e ridurre il personale stanno imparando a proprie spese che non esiste una soluzione miracolosa.
Nel frattempo, la ricerca continua a dimostrare che non solo l’IA non accelera il lavoro di programmazione, ma in molti casi lo rallenta. Il codice prodotto è spesso inaffidabile e, cosa più grave, introduce pericolose vulnerabilità di sicurezza. Il problema di fondo è semplice: l’IA commette errori. Questo costringe gli sviluppatori a scegliere tra controllare meticolosamente ogni singola riga di codice generata o sperare per il meglio. Questi problemi non accennano a diminuire e non si intravede una vera soluzione all’orizzonte.
L’IA come assistente alla programmazione: più lavoro, meno efficienza
Chiunque abbia avuto a che fare con un collega o un dipendente incompetente sa quanto possa essere frustrante. Supervisionarlo costantemente o dover ricontrollare il suo lavoro non solo fa perdere tempo, ma distoglie anche dalle proprie responsabilità. Oggi, molti sviluppatori di talento si trovano esattamente in questa situazione quando utilizzano l’IA per aumentare la produttività. Il ben noto problema delle “allucinazioni” dei grandi modelli linguistici non si limita a generare informazioni palesemente false, ma produce anche codice errato e inefficiente.
A luglio, uno studio dell’organizzazione no-profit METR (Model Evaluation and Threat Research) ha rivelato dati sorprendenti: gli sviluppatori che hanno utilizzato alcuni dei più noti strumenti di coding basati su IA hanno impiegato il 19% di tempo in più per completare i loro compiti. I partecipanti allo studio hanno accettato meno del 44% del codice suggerito dall’IA e hanno speso una quantità significativa di tempo a correggerlo per renderlo funzionante.

Ancora più allarmante, alcuni sviluppatori non si sono resi conto che l’IA li stava rallentando. Intervistati dopo lo studio, hanno stimato che lo strumento avesse accelerato il loro lavoro di circa il 20%, una percezione quasi opposta ai dati reali. Data questa diminuzione di efficienza, non sorprende che le aziende che hanno adottato frettolosamente l’IA stiano vedendo risultati deludenti. Una ricerca pubblicata ad aprile dalla società di software Orgvue ha rilevato un tasso di pentimento del 55% tra i dirigenti che avevano licenziato dipendenti per sostituirli con l’IA.
Codice generato dall’IA: un incubo per la sicurezza informatica
Se il rallentamento dello sviluppo non fosse un problema sufficiente, il codice generato dall’intelligenza artificiale è anche pieno di falle di sicurezza. I risultati pubblicati all’inizio di settembre dalla società di sicurezza Apiiro sono a dir poco scioccanti: quando le aziende impongono l’uso dell’IA ai loro team di sviluppo, iniziano a rilasciare software con un numero 10 volte superiore di “vulnerabilità latenti” in un periodo di soli sei mesi.
Il problema più comune, con un aumento del 322%, è stato quello della “privilege escalation”, ovvero vulnerabilità che consentono a un hacker di ottenere accessi con privilegi elevati a un sistema. Queste falle sono considerate bombe a orologeria perché il codice può sembrare perfettamente funzionante, fino a quando un malintenzionato non le scopre e le sfrutta. Dalle banche alle auto elettriche, le implicazioni per la nostra sicurezza sono allarmanti.
Questa analisi conferma i risultati di uno studio congiunto pubblicato a maggio dai ricercatori dell’Università di San Francisco, che aveva scoperto come il codice generato dall’IA aumentasse le vulnerabilità critiche del 37,6% dopo sole cinque “iterazioni”. In parole semplici, non solo l’IA crea problemi di sicurezza, ma questi peggiorano quanto più la si utilizza.
La soluzione? Tutti i team di ricerca concordano su un unico punto: è indispensabile una rigorosa supervisione umana per verificare il codice prima che possa causare danni. Questo ci porta a un paradosso, un classico “Catch-22”: l’uso dell’IA per accelerare lo sviluppo introduce gravi rischi per la sicurezza, ma il controllo umano necessario per mitigare tali rischi annulla qualsiasi potenziale guadagno di tempo, rallentando di fatto l’intero processo.