Knoppia

Wiki de Informática y otras historias

Herramientas de usuario

Herramientas del sitio


pan:res_privacidad_diferencial

¡Esta es una revisión vieja del documento!


[PAN] Privacidad Diferencial (Resumen)

Caso base

Tenemos un dataset D que contiene datos de usuarios, siendo cada fila los datos de un usuario. El Curador, que es una entidad de confianza para los usuarios, publica algunos datos usando un mecanismo M que da como resultado $R=M(D)$. El adversario trata de realizar inferencias sobre los datos D contenidos en R.

De que protege la privacidad diferencial

pan:privdiffprot.png La privacidad diferencial protege contra el riesgo del conocimiento de información sobre un sujeto usando inferencia con información obtenida a parte. De esta forma, observando la respuesta R no se puede cambiar lo que el adversario puede saber.

La clave para dificultar a un adversario identificar datos sobre un sujeto es poder crear dos salidas $R=M(D)$ y $R=M(D')$, siendo D y D' dos datasets diferenciados por que el primero contiene al sujeto en cuestión y el segundo no, las cuales no puedan ser distinguibles la una de la otra. Para hacer esto se diseña el mecanismo M, el cual no puede ser deterministico, si no probabilístico. pan:privdiff2.png

La distribución de los datasets debe ser similar, es decir, dada una probabilidad R de que un dato viene del dataset D, esta tiene que ser similar a la probabilidad de que un dato venga del dataset D'. Los datasets que difieren en una fila son conocidos como vecinos. En resumudas cuentas, la probabilidad de que $M(D)=R$ debe ser muy similar a la de que $M(D')=R$

Como definir distribuciones similares

Definición tentativa de privacidad con parámetro P

Un mecanismo M es privado si para todas las salidas posibles de R un todos los pares de datasets vecinos (D, D'):

$Pr(M(D')=R) - P < Pr(M(D)=R) < Pr(M(D')=R) + P$

El problema de esta definición es que existen ciertas salidas de R que solo pueden ocurrir cuando la entrada es D', lo que permite al adversario distinguir entre D y D'

Definición tentativa de privacidad 2 con parámetro P

$$\frac{Pr(M(D')=R)}{p}≤Pr(M(D)=R)≤Pr(M(D)=R)*p$$

Definición de Privacidad Diferencial (PD)

Un mecanismo $M:D$→$R$ es ε-diferencialmente privado (ε-PD) si para todas las posibles salidas $R∈R$ y los datasets vecinos $D,D'∈D$: $$Pr(M(D) = R) ≤ Pr(M(D')=R)*e^ε $$ Se usa $e^ε$ en vez de $ε$ por que facilita la formulación de ciertos teoremas útiles. OJO: Si el dominio de salida del mecanismo no es discreto el sistema no funciona.

A tener en cuenta

  • Cuanto más pequeño es el valor de $ε$ Más privacidad
  • La privacidad perfecta se da cuando $ε=0$, el problema de esto es que la salida va a ser prácticamente inutil
  • No existe un consenso sobre como de pequeño debe ser $ε$, pero debe tener un valor que evite que la salida del mecanismo sea inútil.

Sobre la privacidad diferencial y rendimiento de ataques empíricos

La privacidad diferencial asegura la protección incluso contra adversarios poderosos que conocen los inputs de D o D'. En la práctica, u algoritmo que provee $ε=10$ puede proveer una protección empírica contra ataques existentes bastante alta.

Privacidad diferencial aproximada

Esta definición de la privacidad Diferencial permite algo más de tolerancia. Un mecanismo $M:D$→$R$ es (ε,δ)-Diferencialmente Privado si para todas las posibles salidas de R⊂R y as parejas de datasets vecinos D, D'∈: $$Pr(M(D)∈R)≤Pr(M(D')∈R)*e^ε+δ$$

Configuración de privacidad Diferencial

Dependiendo de donde se ejecuta el mecanismo hay 2 tipos de modelos:

  • Privacidad diferencial Central: Hay un agregador centralizado de confianza que ejecuta el mecanismo M
  • Privacidad diferencial Local: Cada usuario ejecuta el mecanismo M y reporta el resultado al adversario

Existen dos definiciones sobre como se pueden definir dos datasets vecinos en un modelo central:

  • Privacidad diferencial acotada: D y D' tiene el mismo número de entradas, pero se diferencian en el valor de una de ellas.
  • Privacidad diferencial no acotada: D' se obtiene de D tras eliminar una entrada.

Mecanismos de privacidad diferencial

Existen varios mecanismos que proveen privacidad diferencial y pueden ser aplicados a varios sistemas.

Mecanismo Aleatorizado

Tenemos un mecanismo $M:{0,1}$→${0,1}$: pan:mecaleator.png

pan/res_privacidad_diferencial.1736275187.txt.gz · Última modificación: 2025/01/07 18:39 por thejuanvisu