Recenti analisi hanno rivelato che i sistemi di machine learning open source sono altamente vulnerabili a minacce di sicurezza, superando in numero le vulnerabilità riscontrate in categorie più consolidate come DevOps e server web. Con l’aumento dell’adozione del machine learning in vari settori, la necessità di proteggere questi sistemi diventa cruciale, poiché le vulnerabilità possono portare a accessi non autorizzati, violazioni dei dati e compromissioni operative.

Un rapporto di JFrog ha evidenziato che progetti di machine learning come MLflow hanno registrato un incremento delle vulnerabilità critiche. Negli ultimi mesi, sono state scoperte 22 vulnerabilità in 15 progetti open source di machine learning. Tra queste, due categorie si distinguono: le minacce ai componenti server-side e i rischi di escalation dei privilegi all’interno dei framework di machine learning.

Vulnerabilità critiche nei framework di ML

Le vulnerabilità identificate da JFrog colpiscono componenti chiave spesso utilizzati nei flussi di lavoro di machine learning. Ad esempio, una delle vulnerabilità più significative riguarda Weave, un toolkit popolare sviluppato da Weights & Biases (W&B), che consente il tracciamento e la visualizzazione delle metriche dei modelli ML. La vulnerabilità WANDB Weave Directory Traversal (CVE-2024-7340) permette a utenti con privilegi limitati di accedere a file arbitrari nel filesystem, potenzialmente esponendo informazioni sensibili come chiavi API amministrative. Un’altra vulnerabilità critica è stata trovata in ZenML, uno strumento per la gestione delle pipeline MLOps, dove un problema nei sistemi di controllo accessi consente a attaccanti con privilegi minimi di elevare le proprie autorizzazioni. Questo potrebbe portare all’accesso a informazioni riservate e alla manipolazione delle pipeline ML. Inoltre, la vulnerabilità Deep Lake Command Injection (CVE-2024-6507) nel database Deep Lake consente agli attaccanti di eseguire comandi arbitrari sfruttando il modo in cui Deep Lake gestisce gli import dei dataset esterni. Questo difetto potrebbe portare a un’esecuzione remota di codice, compromettendo la sicurezza del database e delle applicazioni collegate. Anche Vanna AI, uno strumento per la generazione e visualizzazione di query SQL naturali, presenta una vulnerabilità (CVE-2024-5565) che consente l’iniezione di codice malevolo nelle richieste SQL. Questo può portare a esecuzioni remote di codice e manipolazioni delle visualizzazioni.

Rischi complessivi e necessità di protezione

Le vulnerabilità riscontrate in strumenti come Mage.AI, che gestisce le pipeline di dati, includono accessi non autorizzati e perdite di file arbitrari. Questi problemi espongono i sistemi a rischi significativi, poiché consentono agli attaccanti di ottenere il controllo sulle pipeline stesse. Le scoperte di JFrog evidenziano una lacuna operativa nella sicurezza MLOps. Molte organizzazioni non integrano pratiche solide di sicurezza AI/ML nelle loro strategie informatiche più ampie, lasciando potenziali punti ciechi. Con il machine learning e l’intelligenza artificiale che continuano a guidare significativi progressi industriali, diventa fondamentale proteggere i framework, i dataset e i modelli che alimentano queste innovazioni.

In sintesi, la crescente complessità e diffusione dei sistemi ML richiede un’attenzione particolare alla sicurezza per prevenire exploit dannosi che potrebbero compromettere l’integrità operativa delle aziende.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *