
Claude Anthropic e le nuove regole (mistergadget.tech)
Anthropic aggiorna le policy di Claude: divieto totale per armi e attacchi informatici, ma più libertà di utilizzo in politica e scenari professionali.
Anthropic ha aggiornato le linee guida di utilizzo del suo modello di intelligenza artificiale Claude, introducendo restrizioni più nette in alcune aree e maggiore flessibilità in altre. Le nuove policy mirano a rafforzare la sicurezza d’uso, con divieti più stringenti per quanto riguarda armi e cybersicurezza, ma anche ad ampliare lo spazio di discussione su temi politici, prima rigidamente limitati.
Claude: divieto assoluto su armi e materiali CBRN
Tra le modifiche più rilevanti c’è il chiarimento esplicito sul divieto di usare Claude per attività legate alla progettazione. Non di meno, allo sviluppo di armi biologiche, chimiche, radiologiche e nucleari. Nella lista rientrano anche ordigni esplosivi ad alto potenziale. Ora vengono citati in maniera diretta, superando la precedente formula generica che si limitava a menzionare “armi o materiali pericolosi”.
Si tratta di un passo che riflette le preoccupazioni crescenti sull’uso improprio dell’intelligenza artificiale in scenari ad alto rischio. Anthropic ha sottolineato come il rafforzamento dei divieti sia coerente con il lancio del livello di sicurezza AI Safety Level 3. È stati introdotto con Claude Opus 4, pensato per rendere più difficile il cosiddetto jailbreaking, ossia i tentativi di aggirare i limiti imposti dal modello.
Stop a malware e attacchi informatici
Oltre al tema delle armi, le nuove regole affrontano anche la dimensione del cyberspazio. La sezione “Do Not Compromise Computer or Network Systems” introduce un divieto specifico contro l’utilizzo di Claude per individuare vulnerabilità, sviluppare malware, lanciare attacchi informatici o creare strumenti di denial-of-service.
La scelta non è casuale. Negli ultimi mesi Claude è stato sempre più integrato con strumenti avanzati come Claude Codee Computer Use, in grado di interagire direttamente con sistemi e dispositivi. Senza limiti chiari, questa capacità avrebbe potuto tradursi in un rischio elevato, offrendo a utenti malintenzionati la possibilità di sfruttare l’AI per attacchi su larga scala.
Più libertà per la politica
In parallelo ai nuovi divieti, Anthropic ha scelto di allentare le restrizioni sul fronte politico. In passato, ogni utilizzo in contesti elettorali o di lobbying era proibito. Oggi, invece, la regola è stata ridefinita: Claude potrà trattare argomenti politici, purché non vengano usati in modo “deceptive o disruptive” nei confronti dei processi democratici.
Resta quindi vietato il targeting diretto degli elettori o la manipolazione delle campagne, ma cade il divieto assoluto di affrontare temi politici. In altre parole, Claude potrà essere utilizzato come strumento di analisi o dibattito, ma non come mezzo di interferenza nelle elezioni.
Un altro punto chiarito riguarda gli scenari ad alto rischio, ovvero quelli in cui il modello fornisce raccomandazioni a individui. Anthropic precisa che le regole più severe si applicano solo quando il destinatario è un consumatore finale. Nel caso di rapporti business-to-business, invece, il margine di utilizzo sarà più ampio.
Questa distinzione intende bilanciare la necessità di protezione degli utenti comuni con la possibilità per le aziende di sfruttare il modello in contesti professionali senza vincoli eccessivi.
L’aggiornamento delle regole riflette il tentativo di Anthropic di bilanciare responsabilità e competitività. Da una parte, la stretta su armi e cybersecurity risponde alle crescenti preoccupazioni dei governi e degli esperti di sicurezza sull’uso dell’AI per fini pericolosi. Dall’altra, l’allentamento delle regole sulla politica segna un’apertura verso maggiore libertà di espressione e discussione, in un momento in cui il ruolo delle AI nel dibattito pubblico è sempre più centrale.