Centinaia di dipendenti di Google e OpenAI hanno <a class="crl" href="https://www.ai-bullet.it/cybersecurity-ai/abbiamo-analizzato-per-voi-la-lettera-aperta-di-openai-e-google-deepmind-ecco-cosa-dovete-sapere/”>firmato una lettera aperta in segno di solidarietà con Anthropic, in un momento di forte tensione tra quest’ultima e il Dipartimento della Difesa degli Stati Uniti (il Pentagono) riguardo all’uso dell’intelligenza artificiale (AI) in ambito militare. La missiva, intitolata “Non saremo divisi”, esorta i vertici delle rispettive aziende a sostenere Anthropic nella sua opposizione all’utilizzo dei suoi modelli AI per la sorveglianza di massa interna e per lo sviluppo di armi autonome.
La genesi della controversia
La disputa nasce dalla richiesta del Pentagono di avere accesso illimitato alla tecnologia AI di Anthropic, senza le restrizioni che l’azienda ha posto per evitare l’uso improprio dei suoi modelli. In particolare, Anthropic si è fermamente opposta all’impiego dell’AI per la sorveglianza di massa sul territorio nazionale e per la creazione di armi completamente autonome, capaci di uccidere senza il controllo umano.
Il Segretario alla Difesa, Pete Hegseth, ha minacciato Anthropic di essere dichiarata un “rischio per la catena di approvvigionamento” o di invocare il Defense Production Act (DPA), una legge che consentirebbe al governo di obbligare l’azienda a soddisfare le richieste militari. In risposta, il CEO di Anthropic, Dario Amodei, ha ribadito la posizione della sua azienda, affermando che non può “in buona coscienza acconsentire” alla richiesta del Pentagono.

Il fronte interno: la reazione dei dipendenti
La presa di posizione di Anthropic ha trovato un forte sostegno tra i dipendenti di Google e OpenAI. Oltre 300 dipendenti di Google e più di 60 di OpenAI hanno firmato la lettera aperta, esortando i loro leader a “mettere da parte le loro divergenze e unirsi” per difendere i principi sostenuti da Anthropic.
La lettera accusa il Pentagono di cercare di “dividere ogni azienda con la paura che l’altra ceda”. I firmatari chiedono ai vertici di Google e OpenAI di mantenere le stesse “linee rosse” di Anthropic contro la sorveglianza di massa e le armi completamente autonome.
Anche figure di spicco all’interno di Google, come il Chief Scientist di Google DeepMind, Jeff Dean, hanno espresso pubblicamente la loro opposizione alla sorveglianza di massa da parte del governo, sottolineando come essa violi il Quarto Emendamento della Costituzione americana e possa avere un effetto dissuasivo sulla libertà di espressione.
Le implicazioni per il futuro dell’AI
La controversia tra Anthropic e il Pentagono solleva questioni cruciali sul futuro dell’AI e sul suo utilizzo in ambito militare. Da un lato, il Dipartimento della Difesa statunitense vede nell’AI uno strumento fondamentale per mantenere la superiorità militare e affrontare le sfide della sicurezza nazionale. Dall’altro, aziende come Anthropic e molti esperti del settore temono che un utilizzo incontrollato dell’AI possa portare a conseguenze disastrose, come la violazione dei diritti civili, la perdita di controllo sulle armi e l’escalation dei conflitti.
La posta in gioco è alta. Se il Pentagono riuscisse a imporre la sua volontà ad Anthropic, ciò potrebbe creare un precedente pericoloso e spingere altre aziende AI a cedere alle pressioni militari, aprendo la strada a un futuro in cui l’AI viene utilizzata senza scrupoli per scopi bellici e di sorveglianza.
Un bivio per l’etica dell’AI
Questa vicenda rappresenta un momento cruciale per l’etica dell’intelligenza artificiale. Le decisioni che verranno prese nei prossimi giorni e settimane avranno un impatto significativo sul modo in cui l’AI verrà sviluppata e utilizzata in futuro. È fondamentale che i leader di Google, OpenAI e altre aziende del settore ascoltino le preoccupazioni dei loro dipendenti e della comunità scientifica, e che si impegnino a difendere i principi etici che devono guidare lo sviluppo e l’utilizzo dell’AI.
La tecnologia dell’intelligenza artificiale, per sua natura, è duale: può essere impiegata per il bene dell’umanità, per migliorare la vita delle persone e risolvere problemi complessi, ma può anche essere utilizzata per scopi distruttivi, per opprimere e controllare. La responsabilità di scegliere quale strada percorrere è nelle mani di chi sviluppa e controlla questa tecnologia.
Un concetto base di intelligenza artificiale rilevante in questo contesto è quello di *AI Ethics. L’AI Ethics si occupa di definire principi e linee guida per lo sviluppo e l’utilizzo responsabile dell’AI, tenendo conto dei suoi potenziali impatti sulla società, sull’ambiente e sui diritti umani.
Un concetto più avanzato è quello di AI Alignment*. L’AI Alignment si concentra sul garantire che gli obiettivi e i valori dei sistemi AI siano allineati con quelli degli esseri umani, in modo da evitare che l’AI agisca in modi indesiderati o dannosi.
La vicenda Anthropic-Pentagono ci invita a riflettere sul ruolo che vogliamo che l’AI abbia nel nostro futuro. Vogliamo un’AI al servizio della pace e del progresso, o un’AI al servizio della guerra e del controllo? La risposta a questa domanda determinerà il destino dell’umanità.




