Knoppia

Wiki de Informática y otras historias

Herramientas de usuario

Herramientas del sitio


pan:res_privacidad_diferencial

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
pan:res_privacidad_diferencial [2025/01/07 17:37] thejuanvisupan:res_privacidad_diferencial [2025/01/07 18:51] (actual) thejuanvisu
Línea 8: Línea 8:
 La clave para dificultar a un adversario identificar datos sobre un sujeto es poder crear dos salidas $R=M(D)$ y $R=M(D')$, siendo D y D' dos datasets diferenciados por que el primero contiene al sujeto en cuestión y el segundo no, las cuales no puedan ser distinguibles la una de la otra. Para hacer esto se diseña el mecanismo M, el cual no puede ser deterministico, si no probabilístico. La clave para dificultar a un adversario identificar datos sobre un sujeto es poder crear dos salidas $R=M(D)$ y $R=M(D')$, siendo D y D' dos datasets diferenciados por que el primero contiene al sujeto en cuestión y el segundo no, las cuales no puedan ser distinguibles la una de la otra. Para hacer esto se diseña el mecanismo M, el cual no puede ser deterministico, si no probabilístico.
 {{drawio>pan:privdiff2.png}} {{drawio>pan:privdiff2.png}}
 +
 +La distribución de los datasets debe ser similar, es decir, dada una probabilidad R de que un dato viene del dataset D, esta tiene que ser similar a la probabilidad de que un dato venga del dataset D'. Los datasets que difieren en una fila son conocidos como vecinos. En resumudas cuentas, la probabilidad de que $M(D)=R$ debe ser muy similar a la de que $M(D')=R$
 +==== Como definir distribuciones similares ====
 +=== Definición tentativa de privacidad con parámetro P ===
 +
 +Un mecanismo M es privado si para todas las salidas posibles de R un todos los pares de datasets vecinos (D, D'):
 +
 +$Pr(M(D')=R) - P < Pr(M(D)=R) < Pr(M(D')=R) + P$
 +
 +El problema de esta definición es que existen ciertas salidas de R que solo pueden ocurrir cuando la entrada es D', lo que permite al adversario distinguir entre D y D'
 +
 +=== Definición tentativa de privacidad 2 con parámetro P ===
 +
 +$$\frac{Pr(M(D')=R)}{p}≤Pr(M(D)=R)≤Pr(M(D)=R)*p$$
 +
 +===== Definición de Privacidad Diferencial (PD) =====
 +Un mecanismo $M:D$->$R$ es ε-diferencialmente privado (ε-PD) si para todas las posibles salidas $R∈R$ y los datasets vecinos $D,D'∈D$:
 +$$Pr(M(D) = R) ≤ Pr(M(D')=R)*e^ε $$
 +Se usa $e^ε$ en vez de $ε$ por que facilita la formulación de ciertos teoremas útiles. OJO: Si el dominio de salida del mecanismo no es discreto el sistema no funciona.
 +==== A tener en cuenta ====
 +  * Cuanto más pequeño es el valor de $ε$ Más privacidad
 +  * La privacidad perfecta se da cuando $ε=0$, el problema de esto es que la salida va a ser prácticamente inutil
 +  * No existe un consenso sobre como de pequeño debe ser $ε$, pero debe tener un valor que evite que la salida del mecanismo sea inútil.
 +
 +==== Sobre la privacidad diferencial y rendimiento de ataques empíricos ====
 +La privacidad diferencial asegura la protección incluso contra adversarios poderosos que conocen los inputs de D o D'. En la práctica, u  algoritmo que provee $ε=10$ puede proveer una protección empírica contra ataques existentes bastante alta.
 +
 +===== Privacidad diferencial aproximada =====
 +Esta definición de la privacidad Diferencial permite algo más de tolerancia. Un mecanismo $M:D$->$R$ es (ε,δ)-Diferencialmente Privado si para todas las posibles salidas de R⊂R y as parejas de datasets vecinos D, D'∈:
 +$$Pr(M(D)∈R)≤Pr(M(D')∈R)*e^ε+δ$$ 
 +
 +===== Escenarios de privacidad Diferencial =====
 +Dependiendo de donde se ejecuta el mecanismo hay 2 tipos de modelos:
 +  * Privacidad diferencial Central: Hay un agregador centralizado de confianza que ejecuta el mecanismo M
 +  * Privacidad diferencial Local: Cada usuario ejecuta el mecanismo M y reporta el resultado al adversario
 +Existen dos definiciones sobre como se pueden definir dos datasets vecinos en un modelo central:
 +  * Privacidad diferencial acotada: D y D' tiene el mismo número de entradas, pero se diferencian en el valor de una de ellas.
 +  * Privacidad diferencial no acotada: D' se obtiene de D tras eliminar una entrada.
 +
 +===== Mecanismos de privacidad diferencial =====
 +Existen varios mecanismos que proveen privacidad diferencial y pueden ser aplicados a varios sistemas.
 +==== Mecanismo Aleatorizado ====
 +Tenemos un mecanismo $M:{0,1}$->${0,1}$:
 +{{drawio>pan:mecaleator.png}}
 +
 +==== Mecanismo Exponencial ====
 +Este mecanismo puede ser usado para proveer privacidad diferencial en muchos casos, la idea es reportar una salida de forma privada, pero con una probabilidad proporcional a su utilizad.
 +
 +===== Propiedades de la privacidad diferencial =====
 +==== Resistencia al Post-Procesado ====
 +El procesado nunca reduce la privacidad, pero puede incrementarla
 +==== Privacidad grupal ====
 +En un escenario de privacidad diferencial central, se considera que los datasets difieren en más de una entrada. Esto puede ser probado construyendo K datasets cambiando una fila en cada uno.
 +==== Composición secuencial ====
 +Si se ejecutan k mecanismos en el mismo dataset y se publican todos los resultados, la privacidad se reduce al publicar más resultados, pero, si el valor de $δ$ es algo mayor, se puede obtener un valor de ε mucho menor, aumentando la privacidad.
 +
pan/res_privacidad_diferencial.1736271440.txt.gz · Última modificación: 2025/01/07 17:37 por thejuanvisu