banner
Casa / Blog / Scoprire una privacy
Blog

Scoprire una privacy

Jun 18, 2023Jun 18, 2023

Nell'era del processo decisionale basato sui dati, le aziende stanno sfruttando la potenza del machine learning (ML) per sbloccare informazioni preziose, ottenere efficienze operative e consolidare il vantaggio competitivo.

Sebbene i recenti sviluppi nell’intelligenza artificiale generativa (AI) abbiano suscitato una consapevolezza senza precedenti sul potere dell’intelligenza artificiale/ML, hanno anche messo in luce il bisogno fondamentale di privacy e sicurezza. Gruppi come IAPP, Brookings e il recente framework AI TRiSM di Gartner hanno delineato considerazioni chiave per le organizzazioni che desiderano ottenere i risultati aziendali disponibili unicamente attraverso l'intelligenza artificiale senza aumentare il proprio profilo di rischio.

In prima linea tra questi imperativi c’è la sicurezza del modello ML. Affrontando direttamente quest’area chiave, l’apprendimento automatico che preserva la privacy è emerso come un percorso per garantire che gli utenti possano sfruttare l’intero potenziale delle applicazioni ML in questo campo sempre più importante.

I modelli di machine learning sono algoritmi che elaborano i dati per generare insight significativi e prendere decisioni aziendali critiche. Ciò che rende straordinario il machine learning è la sua capacità di apprendere e migliorare continuamente. Quando un modello viene addestrato su set di dati nuovi e disparati, diventa più intelligente nel tempo, producendo informazioni sempre più accurate e preziose che prima erano inaccessibili. Questi modelli possono quindi essere utilizzati per generare approfondimenti dai dati, operazione denominata valutazione o inferenza del modello.

Per fornire i migliori risultati, i modelli devono apprendere e/o essere sfruttati su una varietà di ricche fonti di dati. Quando queste origini dati contengono informazioni sensibili o proprietarie, il loro utilizzo per l'addestramento o la valutazione/inferenza di modelli di machine learning solleva notevoli problemi di privacy e sicurezza. Qualsiasi vulnerabilità del modello stesso diventa una responsabilità per l'entità che lo utilizza, il che significa che questa capacità che prometteva di fornire informazioni utili e utili per il business sta ora aumentando il profilo di rischio dell'organizzazione.

Questo problema è uno dei principali ostacoli che oggi impediscono un utilizzo più ampio del machine learning. Le aziende si trovano a dover bilanciare i vantaggi del machine learning con la necessità di proteggere i propri interessi e rispettare i requisiti normativi e di privacy in continua evoluzione.

Le vulnerabilità nei modelli ML portano tipicamente a due macro categorie di vettori di attacco: inversione del modello e spoofing del modello.

Gli attacchi con inversione di modello implicano che il modello stesso venga preso di mira per eseguire il reverse engineering sui dati su cui è stato addestrato, dati che sono probabilmente sensibili e quindi preziosi per l'aggressore. Ciò potrebbe includere informazioni di identificazione personale (PII), proprietà intellettuale (IP) e altre informazioni sensibili o regolamentate che, se esposte, potrebbero causare danni all'organizzazione.

Lo spoofing del modello, d'altra parte, rappresenta una forma di machine learning contraddittorio in cui un utente malintenzionato tenta di ingannare il modello manipolando i dati di input in modo tale che il modello prenda decisioni errate in linea con le intenzioni dell'utente malintenzionato. Questo processo implica osservare attentamente o “apprendere” il comportamento del modello e successivamente alterare i dati di input (in un modo spesso impercettibile) per indurre il modello a prendere decisioni vantaggiose per i suoi obiettivi. Entrambi questi attacchi prendono di mira le vulnerabilità legate ai pesi del modello, una parte essenziale di un modello ML. Pertanto, la necessità fondamentale di dare priorità alla protezione del peso del modello è stata evidenziata durante la recente discussione convocata dalla Casa Bianca sul rischio dell’IA.

L’apprendimento automatico che preserva la privacy utilizza i progressi nelle tecnologie di miglioramento della privacy (PET) per affrontare queste vulnerabilità direttamente. I PET sono una famiglia di tecnologie che preservano e migliorano la privacy e la sicurezza dei dati durante tutto il loro ciclo di vita di elaborazione, consentendo in modo univoco un utilizzo sicuro e privato dei dati. Queste potenti tecnologie consentono alle aziende di crittografare modelli ML sensibili, eseguirli e/o addestrarli ed estrarre informazioni preziose eliminando al contempo il rischio di esposizione. Le aziende possono sfruttare in modo sicuro fonti di dati disparate, anche oltre i confini organizzativi e gli ambiti di sicurezza, anche quando sono coinvolti interessi competitivi.