nuke Il modello Claude di Anthropic è stato utilizzato in un tentativo di estorsione su larga scala contro aziende tecnologiche internazionali tramite false domande di lavoro. Inoltre, utilizzando il modello sono stati venduti pacchetti ransomware generati dall'intelligenza artificiale, con prezzi fino a 1.200 dollari. È stata notata la capacità dell'intelligenza artificiale di adattarsi in tempo reale ai sistemi di rilevamento malware, a indicare attacchi informatici sofisticati e frodi abilitati dalla codifica assistita dall'intelligenza artificiale.. Fonte: https://www.theguardian.com/technology/2025/aug/28/chatgpt-offered-bomb-recipes-and-hacking-tips-during-safety-tests Source: https://ransomfeed.it/news.php?id_news=nid&nid=185