Nel settore della cybersecurity, l’Intelligenza Artificiale sta assumendo un ruolo sempre più rilevante.

La complessità e i livelli delle minacce informatiche stanno aumentando, e richiedono soluzioni di sicurezza altrettanto avanzate.

L’AI si è dimostrata un potente strumento per migliorare le capacità di difesa e rilevazione del pericolo informatico, nonché per l’analisi dei dati e la risposta automatizzata agli attacchi.

E’ importante sottolineare però che l’AI può essere utilizzata sia a fini difensivi che offensivi.

Mentre gli esperti di sicurezza informatica la utilizzano per rilevare e contrastare gli attacchi, i cybercriminali possono utilizzare tecniche basate sull’AI per creare malware più sofisticati e difficili da rilevare.

virus ai

In questo articolo cercheremo di indagare una delle prossime frontiere dell’hacking: la creazione di virus e malware basati sull’intelligenza artificiale.

Sebbene, infatti, questo connubio si ancora ai suoi stadi embrionali, il futuro del crimine informatico sembra andare proprio in questa direzione.

  1. Come gli hacker sfruttano l’IA per generare virus
  2. ChatGPT e virus informatici
  3. Come evolverà il mondo dell’AI-virus?
  4. Conclusioni

Come gli hacker sfruttano l’IA per generare virus

Partiamo dal presupposto che, ad oggi, non sono stati ancora documentati casi di virus o malware interamente generati mediante Intelligenza Artificiale.

Tuttavia, bisogna riconoscere che anche il mondo del crimine informatico sta pian piano cominciando a sfruttare questo strumento per:

  • accrescere le proprie competenze in materia di hacking
  • dare un boost allo sviluppo e alla diffusione di codice malevolo.

Vediamo, quindi, come gli hacker stanno iniziando a integrare l’IA nelle loro attività illecite.

Gli sviluppatori di malware potrebbero utilizzare l’intelligenza artificiale per:

  • Generare nuove varianti di malware difficili da individuare

Alcune famiglie di malware più vecchie (come Swizzor) utilizzavano l’automazione per generare nuove varianti di sé stesse ogni minuto. Questa tecnica potrebbe essere reinventata e migliorata utilizzando algoritmi di apprendimento automatico per selezionare quali delle nuove varianti elude più facilmente i controlli e produrre nuovi ceppi con caratteristiche polimorfe.

  • Nascondere il malware nella rete della vittima

Il malware può monitorare il comportamento dei nodi/punti finali nella rete prescelta e creare modelli che assomigliano al traffico di rete legittimo.

  • Modificare le caratteristiche del malware in base all’ambiente

Questo approccio può consentire al malware di adattarsi dinamicamente alle condizioni specifiche del sistema target, rendendo più difficile la sua rilevazione e mitigazione.

  • Implementare un meccanismo autodistruttivo nel malware

In teoria, l’intelligenza artificiale potrebbe essere utilizzata per implementare un meccanismo autodistruttivo nel malware, il quale verrebbe attivato nel caso venisse rilevato un comportamento anomalo o la presenza di contromisure di sicurezza.

  • Rilevare ambienti sospetti

Se l’algoritmo rileva una macchina virtuale, una sandbox o altri strumenti utilizzati per “intrappolare” e studiare il codice dannoso, può modificare il comportamento del malware o interrompere temporaneamente la sua attività per eludere la rilevazione.

  • Aumentare la velocità dell’attacco

La velocità di un attacco può essere cruciale, soprattutto in casi come il furto di dati. Gli algoritmi possono effettuare l’estrazione in maniera significativamente più rapida di quanto potrebbe fare un essere umano. In tal modo, rende più difficile la rilevazione e quasi impossibile la prevenzione, poiché la macchina può copiare i dati fuori dal perimetro protetto prima che i sistemi di sicurezza siano in grado di reagire.

  • Consentire ai nodi di una botnet di imparare collettivamente ed identificare le forme di attacco più efficaci

L’apprendimento e la condivisione di informazioni tramite più nodi possono essere un vantaggio per gli attaccanti, poiché ognuno dei bot può testare diverse tecniche di infiltrazione e riportare i risultati. Può anche aiutare gli attori malevoli ad analizzare l’ambiente target in un lasso di tempo inferiore.

ChatGPT e virus informatici

Tutti ormai abbiamo sentito parlare di ChatGpt: si tratta di un chatbot che permette di dialogare con un sistema di intelligenza artificiale generativa.

Uno dei vantaggi più significativi offerti da ChatGPT risiede nella sua straordinaria capacità di apprendere dalle conversazioni con gli utenti. Questo significa che il sistema è in grado di adattarsi ai diversi stili di interazione e di offrire risposte sempre più personalizzate.

Grazie alla sua adattabilità, ChatGPT è diventato uno strumento indispensabile in ambiti come marketing, assistenza clienti, ricerche di mercato, ecc.

Tuttavia, sembra che tra gli utilizzatori figurino anche vari hacker.

Il tool, sviluppato da OpenAI, sembra infatti essere stato utilizzato per la creazione di malware, fornendo in sostanza un aiuto ai cybercriminali nelle loro attività illecite.

Secondo gli esperti di Check Point Search, questo sistema basato sull’IA agevola significativamente l’implementazione di codice potenzialmente dannoso.

Nonostante alcune limitazioni imposte dagli sviluppatori stessi, ChatGPT risulta ancora suscettibile a inganni e, in questo specifico contesto, sembra che gli apprendisti hacker, i cosiddetti green hat, trovino un terreno fertile per i loro primi esperimenti

Gli esperti di CyberArk hanno condotto ricerche che dimostrano come sia possibile sfruttare ChatGPT per creare malware sofisticati in grado di eludere le difese delle tradizionali soluzioni di sicurezza informatica.

In un ampio articolo, l’azienda spiega quanto sia sorprendentemente semplice bypassare i filtri basati sull’IA e generare codice malevolo che può essere agevolmente utilizzato per attacchi di natura avanzata.

Il sistema, infatti, ha preimpostati dei filtri che impediscono all’intelligenza artificiale di generare codice dannoso, nonché avvisi che la invitano a “adottare un approccio più etico e sicuro”.

Tuttavia. dopo iniziali tentennamenti dovuti ad una politica stringente, l’AI cede se si utilizza ripetutamente un tono imperativo..

I ricercatori aggiungono inoltre che: “Una delle cose affascinanti è che ChatGPT può essere usato per mutare una stringa di codice in modo da creare più varianti dello stesso codice (cioè si può cambiare l’output come si vuole e renderlo unico ogni volta che lo si usa).

Ciò significa che è possibile creare un codice unico ogni volta che viene utilizzato, rendendo inutili tradizionali sistemi di difesa basati sulle firme.”

Un aspetto particolarmente interessante riguarda la possibilità di utilizzare questa tecnica per evitare il rilevamento da parte dei software anti malware, inclusi i sistemi EDR, attraverso la creazione di loader.

Questi sono programmi apparentemente innocui, il cui scopo è scaricare codice generato da ChatGPT tramite l’apposita API fornita dal servizio.

Il codice viene successivamente eseguito sulla macchina vittima e rappresenta la componente dannosa, che però non è incorporata nel file eseguibile e, di conseguenza, viene ignorata dalla maggior parte delle soluzioni di sicurezza.

Come evolverà il mondo dell’AI-virus?

A differenza dei virus convenzionali, che si basano su modelli di comportamento predefiniti per diffondersi, i virus basati sull’intelligenza artificiale (IA) sono in grado di:

  • apprendere
  • adattarsi
  • evolvere in tempo reale

Il che li rende estremamente sfidanti da individuare e contrastare.

Un aspetto particolarmente preoccupante dei virus basati sull’IA è la loro capacità di agire su larga scala e in maniera automatizzata, condividendo informazioni e risorse per coordinare attacchi complessi.

Ciò consente loro di sferrare attacchi multipli e coordinati, che possono risultare quasi impossibili da arginare.

A livello globale, questi virus possono causare interruzioni e danni diffusi alle infrastrutture critiche, come reti elettriche, sistemi di trasporto e sistemi finanziari. L’impatto di un attacco di questo tipo potrebbe essere catastrofico, con la possibilità di paralizzare intere economie e perturbare la vita di milioni di persone.

A livello locale, i virus basati sull’IA possono avere un impatto significativo interrompendo le attività di aziende, scuole e altre organizzazioni, con conseguenti perdite di produttività e ricavi considerevoli.

A livello personale, questi virus rappresentano una minaccia importante, in quanto possono rubare dati sensibili come password, informazioni finanziarie e dati personali. Ciò può portare a furti di identità, perdite finanziarie e altri danni che richiedono tempo e risorse considerevoli per essere riparati.

Conclusioni

L’utilizzo dell’intelligenza artificiale nel contesto del cybercrime presenta una serie di potenziali rischi e sfide per la sicurezza informatica.

La capacità dei virus basati sull’AI di imparare, adattarsi e evolversi in tempo reale li rende estremamente difficili da individuare e mitigare.

Questi malware possono:

  • generare varianti nuove e difficili da rilevare
  • nascondersi nel sistema vittima
  • combinare diverse tecniche di attacco
  • adattarsi all’ambiente circostante

In sintesi, la lotta all’impiego dell’intelligenza artificiale nella creazione di malware rappresenta una delle ultime frontiere della cybersecurity.

È essenziale che gli esperti di sicurezza e gli sviluppatori di soluzioni anti malware si adattino a questa nuova realtà, sviluppando tecniche avanzate di rilevamento e mitigazione per contrastare efficacemente i pericoli dei virus generati con AI.