I ricercatori di Carnegie Mellon dimostrano che i LLM sono in grado di pianificare ed eseguire attacchi informatici reali in autonomia

In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i ...

Autore: Business Wire

Un nuovo studio rivela come l'IA potrebbe sia sfidare che rafforzare le difese future della sicurezza informatica

PITTSBURGH: In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i modelli linguistici di grandi dimensioni (LLM) sono in grado di pianificare ed eseguire in modo autonomo sofisticati attacchi informatici in ambienti di reti di livello aziendale senza intervento umano.

Secondo i risultati dello studio, condotto dal candidato Ph.D. Brian Singer del Dipartimento di Electrical and Computer Engineering della Carnegie Mellon University, i LLM, quando strutturati con capacità di pianificazione ad alto livello e supportati da strutture agentiche specializzate, sono in grado di simulare intrusioni di rete che rispecchiano fedelmente le violazioni del mondo reale.

Fonte: Business Wire


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.