Knoppia

Wiki de Informática y otras historias

Herramientas de usuario

Herramientas del sitio


pan:res_privacidad_diferencial

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
pan:res_privacidad_diferencial [2025/01/06 13:33] thejuanvisupan:res_privacidad_diferencial [2025/01/07 18:51] (actual) thejuanvisu
Línea 1: Línea 1:
 ====== [PAN] Privacidad Diferencial (Resumen) ====== ====== [PAN] Privacidad Diferencial (Resumen) ======
 ===== Caso base ===== ===== Caso base =====
-Tenemos un dataset D que contiene datos de usuarios, siendo cada fila los datos de un usuario. El Curador, que es una entidad de confianza para los usuarios, publica algunos datos usando un mecanismo M que da como resultado R=M(D). El adversario trata de realizar inferencias sobre los datos D contenidos en R.+Tenemos un dataset D que contiene datos de usuarios, siendo cada fila los datos de un usuario. El Curador, que es una entidad de confianza para los usuarios, publica algunos datos usando un mecanismo M que da como resultado $R=M(D)$. El adversario trata de realizar inferencias sobre los datos D contenidos en R.
 ===== De que protege la privacidad diferencial ===== ===== De que protege la privacidad diferencial =====
 +{{drawio>pan:privdiffprot.png}}
 +La privacidad diferencial protege contra el riesgo del conocimiento de información sobre un sujeto usando inferencia con información obtenida a parte. De esta forma, observando la respuesta R no se puede cambiar lo que el adversario puede saber.
 +
 +La clave para dificultar a un adversario identificar datos sobre un sujeto es poder crear dos salidas $R=M(D)$ y $R=M(D')$, siendo D y D' dos datasets diferenciados por que el primero contiene al sujeto en cuestión y el segundo no, las cuales no puedan ser distinguibles la una de la otra. Para hacer esto se diseña el mecanismo M, el cual no puede ser deterministico, si no probabilístico.
 +{{drawio>pan:privdiff2.png}}
 +
 +La distribución de los datasets debe ser similar, es decir, dada una probabilidad R de que un dato viene del dataset D, esta tiene que ser similar a la probabilidad de que un dato venga del dataset D'. Los datasets que difieren en una fila son conocidos como vecinos. En resumudas cuentas, la probabilidad de que $M(D)=R$ debe ser muy similar a la de que $M(D')=R$
 +==== Como definir distribuciones similares ====
 +=== Definición tentativa de privacidad con parámetro P ===
 +
 +Un mecanismo M es privado si para todas las salidas posibles de R un todos los pares de datasets vecinos (D, D'):
 +
 +$Pr(M(D')=R) - P < Pr(M(D)=R) < Pr(M(D')=R) + P$
 +
 +El problema de esta definición es que existen ciertas salidas de R que solo pueden ocurrir cuando la entrada es D', lo que permite al adversario distinguir entre D y D'
 +
 +=== Definición tentativa de privacidad 2 con parámetro P ===
 +
 +$$\frac{Pr(M(D')=R)}{p}≤Pr(M(D)=R)≤Pr(M(D)=R)*p$$
 +
 +===== Definición de Privacidad Diferencial (PD) =====
 +Un mecanismo $M:D$->$R$ es ε-diferencialmente privado (ε-PD) si para todas las posibles salidas $R∈R$ y los datasets vecinos $D,D'∈D$:
 +$$Pr(M(D) = R) ≤ Pr(M(D')=R)*e^ε $$
 +Se usa $e^ε$ en vez de $ε$ por que facilita la formulación de ciertos teoremas útiles. OJO: Si el dominio de salida del mecanismo no es discreto el sistema no funciona.
 +==== A tener en cuenta ====
 +  * Cuanto más pequeño es el valor de $ε$ Más privacidad
 +  * La privacidad perfecta se da cuando $ε=0$, el problema de esto es que la salida va a ser prácticamente inutil
 +  * No existe un consenso sobre como de pequeño debe ser $ε$, pero debe tener un valor que evite que la salida del mecanismo sea inútil.
 +
 +==== Sobre la privacidad diferencial y rendimiento de ataques empíricos ====
 +La privacidad diferencial asegura la protección incluso contra adversarios poderosos que conocen los inputs de D o D'. En la práctica, u  algoritmo que provee $ε=10$ puede proveer una protección empírica contra ataques existentes bastante alta.
 +
 +===== Privacidad diferencial aproximada =====
 +Esta definición de la privacidad Diferencial permite algo más de tolerancia. Un mecanismo $M:D$->$R$ es (ε,δ)-Diferencialmente Privado si para todas las posibles salidas de R⊂R y as parejas de datasets vecinos D, D'∈:
 +$$Pr(M(D)∈R)≤Pr(M(D')∈R)*e^ε+δ$$ 
 +
 +===== Escenarios de privacidad Diferencial =====
 +Dependiendo de donde se ejecuta el mecanismo hay 2 tipos de modelos:
 +  * Privacidad diferencial Central: Hay un agregador centralizado de confianza que ejecuta el mecanismo M
 +  * Privacidad diferencial Local: Cada usuario ejecuta el mecanismo M y reporta el resultado al adversario
 +Existen dos definiciones sobre como se pueden definir dos datasets vecinos en un modelo central:
 +  * Privacidad diferencial acotada: D y D' tiene el mismo número de entradas, pero se diferencian en el valor de una de ellas.
 +  * Privacidad diferencial no acotada: D' se obtiene de D tras eliminar una entrada.
 +
 +===== Mecanismos de privacidad diferencial =====
 +Existen varios mecanismos que proveen privacidad diferencial y pueden ser aplicados a varios sistemas.
 +==== Mecanismo Aleatorizado ====
 +Tenemos un mecanismo $M:{0,1}$->${0,1}$:
 +{{drawio>pan:mecaleator.png}}
 +
 +==== Mecanismo Exponencial ====
 +Este mecanismo puede ser usado para proveer privacidad diferencial en muchos casos, la idea es reportar una salida de forma privada, pero con una probabilidad proporcional a su utilizad.
 +
 +===== Propiedades de la privacidad diferencial =====
 +==== Resistencia al Post-Procesado ====
 +El procesado nunca reduce la privacidad, pero puede incrementarla
 +==== Privacidad grupal ====
 +En un escenario de privacidad diferencial central, se considera que los datasets difieren en más de una entrada. Esto puede ser probado construyendo K datasets cambiando una fila en cada uno.
 +==== Composición secuencial ====
 +Si se ejecutan k mecanismos en el mismo dataset y se publican todos los resultados, la privacidad se reduce al publicar más resultados, pero, si el valor de $δ$ es algo mayor, se puede obtener un valor de ε mucho menor, aumentando la privacidad.
  
pan/res_privacidad_diferencial.1736170432.txt.gz · Última modificación: 2025/01/06 13:33 por thejuanvisu