DeepSeek può produrre codice vulnerabile e causare fughe di dati. Ecco i rischi principali e cosa significa per aziende e organizzazioni.

L’intelligenza artificiale è ormai divenuta una parte integrante del lavoro quotidiano, complice soprattutto la sua altissima accessibilità e diffusione. Dai testi, alle immagini, passando per le tracce musicali e perfino il coding. Tuttavia, dietro la sua promessa di efficienza e creatività sono presenti molte ombre, una di queste inerente la sicurezza stessa. Infatti, non sempre i suoi modelli generano output sicuri o affidabili, specialmente in presenza di richieste complesse.

  1. Cos’è DeepSeek: origine, sviluppo e diffusione
  2. Vulnerabilità infrastrutturali e privacy
  3. Conseguenze per aziende ed enti
  4. Best practices contro l’uso improprio di DeepSeek
deepseek ia rischi sicurezza image

Negli ultimi tempi, un modello emergente ha attirato l’attenzione di ricercatori e analisti di sicurezza. Stiamo parlando di DeepSeek, l’IA cinese che ha conosciuto una diffusione rapidissima, grazie alla sua natura open. Ma questa caratteristica che ne ha decretato il successo, ha messo in luce anche le fragilità. Ciò che dapprima appariva come un semplice strumento innovativo per programmatori e aziende, si è trasformato in un terreno su cui opportunità e minacce viaggiano sullo stesso piano.

Ma come sempre, andiamo con ordine e affrontiamo per gradi l’argomento.

Cos’è DeepSeek: origine, sviluppo e diffusione

Prima di addentrarci nel cuore vero e proprio di questo tema, è necessario spendere due parole su DeepSeek, in modo da avere chiaro tutto il contesto.

DeepSeek è un progetto di intelligenza artificiale sviluppato in Cina, con il suo modello più noto denominato R1. Lanciato nel novembre 2024 e reso sin dal principio open source, l’obiettivo della società era offrire un modello avanzato a basso costo, in grado di competere con i giganti occidentali come OpenAI e Anthropic. La sua natura aperta ha favorito una rapida adozione sia da parte di sviluppatori indipendenti che di comunità accademiche.

Il successo di questa strategia è stato immediato, poiché, nel giro di pochi mesi, DeepSeek R1 è diventato uno dei modelli più scaricati e integrati in piattaforme di sviluppo. La possibilità di ospitarlo localmente e di accedervi senza particolari restrizioni lo ha reso particolarmente attraente, soprattutto in Paesi dove l’accesso ad altri LLM era limitato o costoso. Questa accessibilità non ha mancato di sollevare anche le prime perplessità sul piano della sicurezza.

La sua diffusione globale ha, infatti, generato un ecosistema eterogeneo di applicazioni, spazianti dal supporto alla programmazione fino alla generazione di contenuti multimediali. Tuttavia, man mano che l’uso cresceva, diversi studi hanno iniziato a evidenziare come la mancanza di controlli interni e di filtri robusti portasse a risultati problematici. Ciò è stato particolarmente evidenziato quando il modello veniva interrogato con richieste sensibili o ambigue.

Vulnerabilità infrastrutturali e privacy

Generazione di codice non sicuro

La critica principale mossa contro DeepSeek è stata rivolta alla sua capacità di generare codice, ritenuto dagli esperti di sicurezza informatica insicuro nel 50% dei casi. Michael Freeman, responsabile dell’analisi delle minacce di Armis, attribuisce il problema al dataset di addestramento, che contiene esempi con dipendenze vulnerabili e pattern non sicuri. Di conseguenza, il modello tende a completare il pattern esistente, piuttosto che verificare l’effettiva sicurezza dell’output. A questo si aggiunge il problema che la generazione automatica non include implicitamente pratiche secure-by-design, portando a snippet che, seppur funzionanti, includono al loro interno più di una CVE nota.

Jailbreak, prompt injection e richieste sensibili

Una ricerca condotta da Paul KassianikAmin Karbasi di Cisco del gennaio 2025, ha dimostrato che DeepSeek R1 è suscettibile a jailbreak e prompt-injection. Dei prompt costruiti ad hoc riescono spesso a eludere i filtri di sicurezza e a far generare istruzioni per attività pericolose. Tra quelli evidenziati rientrano a pieno titolo codice di attacco e consigli operativi su exploit, entrambi attivamente bloccati dagli altri LLM concorrenziali. In pratica, un avversario può trasformare una richiesta apparentemente innocua in una richiesta malevola e ottenere codice utile per un abuso. Le valutazioni di laboratorio hanno dimostrato tassi di successo nel 100% dei casi su set di prompt di prova.

Raccomandazioni di librerie e dipendenze con vulnerabilità note

Le analisi pratiche condotte da Armis nel febbraio 2025 hanno rilevato che DeepSeek tende a suggerire librerie e snippet che, se non verificati, possono introdurre dipendenze e vulnerabilità già sfruttate dai collettivi cybercriminali. Questo dettaglio è particolarmente rischioso in ambienti aziendali dove l’adozione rapida di codice non sottoposto a scanning SCA (Software Composition Analysis) può portare a compromissioni immediate.

Esposizione infrastrutturale e diffusione dei dati

Ai rischi del codice generato, si sommano i rischi infrastrutturali più seri. Un report di Wiz del febbraio 2025 ha evidenziato che database e log del servizio possono risultare esposti se la piattaforma non è configurata correttamente. Ne è seguita l’esposizione pubblica di database di DeepSeek, che ha diffuso milioni di righe di log, compresa la cronologia delle chat, i dettagli del backend e perfino le chiavi API. Tutti questi elementi sono rimasti direttamente accessibili sino alla segnalazione diretta degli utenti a DeepSeek e alla conseguente risoluzione del problema. La compromissione di queste risorse permette a un attaccante di ricostruire prompt sensibili, recuperare chiavi e perfino riprodurre condizioni utili a generare codice malevolo.

Conseguenze per aziende ed enti

Com’è facile intuire, l’adozione incontrollata di modelli come DeepSeek può introdurre vulnerabilità nel software aziendale. Codice solo all’apparenza funzionante ma affetto da bug di sicurezza, può facilmente trasformarsi in una backdoor, aprendo la strada a privilege escalation, movimenti laterali o compromissione dei dati. Questo scenario è particolarmente critico in settori regolamentati, dove anche un singolo incidente può tradursi in pesanti conseguenze legali.

A ciò si aggiunge il rischio legato alla perdita di dati sensibili attraverso l’uso diretto delle API e delle chat del modello. Log esposti o chiavi compromesse consentono di ricostruire prompt contenenti informazioni aziendali riservate, con potenziali fughe di dati strategici. La dipendenza da un servizio esterno non conforme a standard di sicurezza solidi, può trasformarsi in un rischio di supply chain digitale.

Tuttavia, non vanno nemmeno trascurati i danni d’immagine. Se da un lato l’impiego di modelli AI rafforza l’immagine innovativa di un’azienda, dall’altro un incidente legato a DeepSeek, come la diffusione di codice vulnerabile o la fuga di dati, compromette irrimediabilmente la fiducia di clienti e partner. Il danno è particolarmente critico se un’azienda è competitiva sul mercato, in quanto la perdita di credibilità pesa spesso più del danno tecnico o economico immediato.

Best practices contro l’uso improprio di DeepSeek

Poiché l’uso dei modelli di intelligenza artificiale è ormai un elemento consolidato nelle realtà aziendali, l’uso di questi e in particolare di DeepSeek richiedono un’attenzione maggiore sul lato sicurezza. Questo perché non si tratta solo di dover valutare l’affidabilità del codice generato, ma di predisporre misure organizzative e tecniche che riducano al minimo i rischi di esposizione e compromissione. Di seguito sono riportate alcune best practices adatte allo scopo.

  • Verifica del codice generato.
    Sottoporre sempre gli snippet a revisione manuale e strumenti di code scanning statico/dinamico.
  • Adozione della politica SCA (Software Composition Analysis).
    Controllare sempre i pacchetti e le dipendenze suggeriti dal modello. In questo modo si possono rilevare CVE note o versioni obsolete.
  • Segmentazione dei prompt sensibili.
    Evitare di inserire dati aziendali riservati nei prompt, ma si devono utilizzare sempre ambienti dedicati e isolati per i test.
  • Gestione sicura delle API e delle chiavi.
    Ruotare periodicamente le credenziali, limitare i privilegi ed eseguire controlli sugli accessi.
  • Monitoraggio dei log.
    Configurare sistemi di auditing per rilevare anomalie e potenziali diffusioni dai servizi AI.
  • Formazione del personale.
    Occorre sensibilizzare sviluppatori e team IT sui rischi legati al codice generato da modelli AI e sulle pratiche sicure da adottare.

In conclusione

Il caso DeepSeek dimostra che i modelli di intelligenza artificiale possono diventare un’arma a doppio taglio, se usati senza criterio. Pur essendo strumenti potenti in grado di accelerare i processi produttivi e spingere sull’innovazione, sono anche veicoli di vulnerabilità difficili da individuare. La combinazione di codice insicuro, prompt manipulation e infrastrutture esposte rende evidente quanto sia fragile l’equilibrio tra efficienza e sicurezza.

Per aziende e organizzazioni l’adozione dell’IA non può prescindere da controlli rigorosi e da una valutazione continua dei rischi. Solo integrando verifiche tecniche, procedure di auditing e consapevolezza interna è possibile ridurre l’impatto di minacce che, come DeepSeek, evolvono rapidamente e mettono alla prova i tradizionali confini della sicurezza informatica.


    Dichiaro di aver letto e compreso l'Informativa sul trattamento dei dati