Vuoi un Software amico?

01 Settembre 2020
3 Minuti di lettura

Differential Privacy: cos’è?

Differential Privacy: cos’è?

La protezione dei dati sensibili è un tema che diventa ogni giorno più sentito e importante: la Differential Privacy è l'ultimo ritrovato in materia di tutela delle proprie informazioni.

I recenti accadimenti che hanno coinvolto Facebook e Cambridge Analytica hanno dato, se possibile, ulteriore risalto a un problema che riguardava solo marginalmente i privati ma che le aziende conoscevano già molto bene.

La violazione dei dati sensibili può infatti causare perdite finanziarie devastanti e compromettere la reputazione di un'organizzazione per anni. Dalle gravi perdite in termini di affari e dati, alle multe e ai costi di risanamento: le violazioni dei dati hanno conseguenze di vasta portata.

Secondo il Data Breach Report, condotto dal Ponemon Institute e sponsorizzato da IBM Security, nel 2019 il costo totale delle violazioni ha comportato perdite per quasi 4 mld di dollari, come segnalato da 507 società distribuite in 16 aree geografiche e 17 settori industriali diversi.

Il caso Netflix

Metodi per rendere i dati anonimi sono già stati approntati negli anni, ma l’evoluzione dei metodi di hacking mette a dura prova anche le tecniche più avanzate. Chiedere a Netflix per conferma.

Nel 2007 Netflix promise un premio da un milione di dollari a chiunque fosse stato in grado di elaborare il miglior algoritmo di filtraggio collaborativo. Due ricercatori dell'Università di Texas-Austin hanno però raccolto la sfida nella direzione opposta.

Netflix rilasciò una selezione di dati di suoi utenti per il concorso, ma eliminò tutte le informazioni di identificazione personale: nessun nome, nessun titolo di film. Tuttavia, i ricercatori sono stati in grado di de-anonimizzare un certo numero di utenti attraverso la serie di dati nominalmente anonimi. Tutto quello che hanno dovuto fare è stato scansionare IMDB, sito di riferimento per le recensioni di film, e confrontare questi modelli di classificazione con quelli di Netflix. Il risultato? I due ricercatori hanno identificato l’80% del Database Netflix anonimizzato.

La Differential Privacy in pillole. Cos’è e come funziona?

Semplificando prima di approfondire ulteriormente: la Differential Privacy serve a eliminare la possibilità che una tale operazione di Reverse Engineering possa avere luogo. Lo fa aggiungendo del “rumore” di fondo, in modo che i malintenzionati non possano lavorare su dati puliti ma solo su informazioni che siano intenzionalmente confuse e inutilizzabili.

Vediamo ora nel dettaglio come funziona questo meccanismo e perché costituisce il futuro della protezione dei dati sensibili.

Distrarre, confondere e limitare: ecco il segreto della Differential Privacy

La Differential Privacy lavora attraverso una complessa struttura matematica che utilizza due meccanismi per proteggere le informazioni personali o riservate all'interno di insiemi di dati:

  • Ad ogni risultato viene aggiunta una piccola quantità di "rumore" statistico per mascherare il contributo dei singoli punti di dati. Questo rumore funziona per proteggere la privacy di un individuo senza influire in modo significativo sull'accuratezza delle risposte estratte da analisti e ricercatori.
  • La quantità di informazioni rivelate da ogni query viene calcolata e sottratta da un budget complessivo per la privacy in modo da bloccare ulteriori interrogazioni che possano compromettere - definitivamente - la privacy personale.

Grazie a queste metodologie la Differential Privacy rende impossibile dedurre qualsiasi informazione puntuale e precisa su una particolare persona, nascondendo il set di dati che la stessa ha rilasciato durante la navigazione.

Cosa si intende per rumore e come si “aggiunge” ai nostri dati sensibili?

Questa è la parte più tecnica e più affascinante dell’intero procedimento. L’esemplificazione è tratta dalla rivista Foundations and Trends in Theoretical Computer Science e si basa su una domanda di base, una qualsiasi, a cui una persona debba rispondere “sì” o “no”. Prima che la persona pronunci la risposta definitiva viene inserito il cosiddetto “rumore”, che altro non è che un elemento randomico che interviene a mischiare le carte.

Immaginiamoci di lanciare una monetina prima che la risposta venga registrata: se uscirà “testa” verrà inserita nel modello la risposta reale. Se uscirà “croce” verrà lanciata un’altra monetina che determinerà la risposta “sì” o “no” a seconda che il risultato del lancio sia, rispettivamente, “testa” o “croce”.

Un amico ti guarda le spalle

Partner del Bureau Veritas e da oltre vent’anni appassionati di Cybersecurity e di tutto ciò che ruota attorno a un computer e alle sue applicazioni, noi di Goodcode siamo specializzati nell’implementazione di sistemi di Differential Privacy per quelle aziende che desiderino aggiungere un ulteriore livello di sicurezza alla tutela dei dati sensibili della propria azienda e dei clienti ad essa collegati.

Per farlo è sufficiente contattarci Qui.

Abbiamo già assistito molte imprese che abbiano subito furti di dati cruciali per il destino dell’attività, le abbiamo aiutate a procedere con le operazioni di ripristino e a tornare alla piena operatività, ma crediamo che il metodo più sicuro per prendersi cura del proprio business sia quello di evitare di correre ogni tipo di rischio.
Noi di Goodcode ti proteggiamo dai malintenzionati… a cosa servono altrimenti gli amici?

Vuoi un Software amico?