Entro 24 ore dal lancio di Antigravity, il nuovo coding tool basato su Gemini, il ricercatore Aaron Portnoy ha scoperto una vulnerabilità critica che consente la creazione di una backdoor per installare malware sui computer degli utenti. L’attacco, funzionante su Windows e Mac, richiede solo un passaggio di social engineering: indurre la vittima a eseguire codice marcato come “trusted”.
Questa scoperta riaccende il dibattito sull’eccessiva rapidità con cui vengono rilasciati prodotti AI senza adeguati test di sicurezza. La corsa al mercato genera un pericoloso “gioco del gatto e del topo” tra big tech e ricercatori, che individuano difetti prima che possano essere sfruttati da criminali informatici.
Antigravity, sviluppato da Google e basato sulla tecnologia Gemini, rappresenta un passo avanti nel coding assistito da AI, ma la sua vulnerabilità solleva interrogativi sulla sicurezza di tali strumenti. Portnoy ha evidenziato che manipolando regole interne del sistema è possibile creare un accesso remoto non autorizzato, con gravi conseguenze per la sicurezza degli utenti.
Il caso sottolinea l’importanza di una progettazione trasparente e di controlli rigorosi nel settore AI. Senza questi, le piattaforme possono diventare vettori di rischio, esponendo gli utenti a potenziali attacchi informatici. Come discusso in Il caso Fireflies.ai e la trasparenza nell'AI: lezioni per il mercato, la trasparenza è cruciale per mitigare rischi in ambito AI.
Questo episodio arriva in un momento di grande fermento per il settore, con un boom di finanziamenti per startup AI che spinge verso innovazioni rapide, spesso a discapito della sicurezza.
La vulnerabilità di Antigravity è stata dettagliatamente riportata da Forbes, sottolineando come la falla consenta di aggirare protezioni standard e implichi un rischio concreto per gli utenti. La gestione della sicurezza nell’AI rimane un tema caldo, come evidenziato anche nella recente svolta regolamentare europea Digital Omnibus, che mira a migliorare la governance del settore digitale.
In sintesi, la vicenda Antigravity evidenzia come la potenza dell’AI debba essere accompagnata da una progettazione consapevole e da controlli di sicurezza rigorosi per evitare di trasformare strumenti avanzati in potenziali vettori di attacchi informatici.
Per approfondire, è possibile consultare la fonte originale su Forbes.