In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i ...
Un nuovo studio rivela come l'IA potrebbe sia sfidare che rafforzare le difese future della sicurezza informatica
PITTSBURGH: In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i modelli linguistici di grandi dimensioni (LLM) sono in grado di pianificare ed eseguire in modo autonomo sofisticati attacchi informatici in ambienti di reti di livello aziendale senza intervento umano.
Secondo i risultati dello studio, condotto dal candidato Ph.D. Brian Singer del Dipartimento di Electrical and Computer Engineering della Carnegie Mellon University, i LLM, quando strutturati con capacità di pianificazione ad alto livello e supportati da strutture agentiche specializzate, sono in grado di simulare intrusioni di rete che rispecchiano fedelmente le violazioni del mondo reale.
Fonte: Business Wire
24-07-2025
24-07-2025
24-07-2025
24-07-2025