Home AI & Automazione Il Pentagono in contrasto con Anthropic sull’uso militare dell’IA

Il Pentagono in contrasto con Anthropic sull’uso militare dell’IA

0
17

Il DHS utilizza l’IA di Google e Adobe per produrre contenuti video

Il Pentagono in contrasto con Anthropic sull'uso militare dell'IA

Grazie per avere letto questo articolo, non dimenticare di iscriverti al nostro feed!

Il Dipartimento della Sicurezza Nazionale degli Stati Uniti sta impiegando generatori video basati sull’intelligenza artificiale sviluppati da Google e Adobe per creare e modificare contenuti destinati al pubblico. La notizia emerge da un documento ufficiale rilasciato mercoledì, che elenca gli strumenti commerciali di IA utilizzati dall’agenzia per attività che spaziano dalla stesura di documenti alla gestione della cybersicurezza.

La rivelazione arriva in un momento delicato: le agenzie per l’immigrazione stanno inondando i social media di contenuti a sostegno della politica di deportazioni di massa dell’amministrazione Trump, alcuni dei quali sembrano generati proprio tramite intelligenza artificiale. Nel frattempo, i dipendenti delle aziende tecnologiche stanno facendo pressione sui loro datori di lavoro affinché prendano posizione contro queste attività.

Capgemini interrompe il contratto con ICE

In Europa, la società francese Capgemini ha confermato di aver cessato la collaborazione con l’agenzia statunitense ICE (Immigration and Customs Enforcement), dopo essere stata interpellata dal governo francese riguardo al contratto. La decisione segue le crescenti preoccupazioni sulle tattiche di sorveglianza impiegate dall’agenzia per rintracciare gli immigrati.

Secondo alcuni senatori americani, ICE avrebbe recentemente effettuato una vera e propria “shopping spree” nel settore della sorveglianza, acquistando tecnologie avanzate per monitorare i propri obiettivi. Critici sostengono che le tattiche utilizzate dall’agenzia sarebbero così rischiose che, se applicate in contesti militari reali, metterebbero in pericolo la vita dei soldati.

Tensioni tra il Pentagono e Anthropic

Un altro fronte caldo riguarda il rapporto tra il Pentagono e Anthropic, l’azienda sviluppatrice del chatbot Claude. Secondo fonti di Reuters, la società di intelligenza artificiale sarebbe preoccupata che i propri strumenti possano essere utilizzati per spiare cittadini americani, creando un conflitto con le richieste del Dipartimento della Difesa.

Il dibattito sull’uso militare dell’IA generativa si fa sempre più acceso. Se da un lato queste tecnologie offrono capacità di analisi e intelligence senza precedenti, dall’altro sollevano interrogativi etici fondamentali sulla privacy e sui diritti civili.

Il futuro incerto di GPT-4o

Sul fronte dei modelli linguistici, OpenAI ha annunciato che GPT-4o verrà presto ritirato da ChatGPT. Secondo l’azienda, solo lo 0,1% degli utenti utilizza quotidianamente questo modello, considerato da molti eccessivamente compiacente nelle sue risposte. Si tratta del secondo tentativo di dismissione del modello in meno di un anno, segno delle difficoltà nel bilanciare utilità e sicurezza nell’IA conversazionale.

Preoccupazioni per la sicurezza dei dati

Un caso emblematico delle vulnerabilità nel settore IA riguarda un’azienda produttrice di giocattoli intelligenti, che ha lasciato esposti i log delle conversazioni con i bambini. Chiunque disponesse di un account Gmail poteva accedere a questi dati sensibili, senza necessità di competenze informatiche avanzate. L’episodio riaccende il dibattito sulla sicurezza dei dispositivi AI destinati ai minori, sempre più diffusi anche in Occidente dopo il successo in Cina.

Mentre l’industria tecnologica continua a spingere i confini dell’intelligenza artificiale, cresce la necessità di regolamentazioni chiare che tutelino privacy, sicurezza e diritti fondamentali degli utenti.