▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

I ricercatori di Carnegie Mellon dimostrano che i LLM sono in grado di pianificare ed eseguire attacchi informatici reali in autonomia

In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i ...

Business Wire

Un nuovo studio rivela come l'IA potrebbe sia sfidare che rafforzare le difese future della sicurezza informatica

PITTSBURGH: In un'importante passo avanti nei settori della cybersicurezza e dell'intelligenza artificiale, i ricercatori della Carnegie Mellon University, in collaborazione con Anthropic, hanno dimostrato che i modelli linguistici di grandi dimensioni (LLM) sono in grado di pianificare ed eseguire in modo autonomo sofisticati attacchi informatici in ambienti di reti di livello aziendale senza intervento umano.

Secondo i risultati dello studio, condotto dal candidato Ph.D. Brian Singer del Dipartimento di Electrical and Computer Engineering della Carnegie Mellon University, i LLM, quando strutturati con capacità di pianificazione ad alto livello e supportati da strutture agentiche specializzate, sono in grado di simulare intrusioni di rete che rispecchiano fedelmente le violazioni del mondo reale.

Fonte: Business Wire

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
GoogleNews Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

www.securityopenlab.it - 8.3.21 - 4.6.1