Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
pan:res_privacidad_diferencial [2025/01/07 18:14] – thejuanvisu | pan:res_privacidad_diferencial [2025/01/07 18:51] (actual) – thejuanvisu | ||
---|---|---|---|
Línea 31: | Línea 31: | ||
* La privacidad perfecta se da cuando $ε=0$, el problema de esto es que la salida va a ser prácticamente inutil | * La privacidad perfecta se da cuando $ε=0$, el problema de esto es que la salida va a ser prácticamente inutil | ||
* No existe un consenso sobre como de pequeño debe ser $ε$, pero debe tener un valor que evite que la salida del mecanismo sea inútil. | * No existe un consenso sobre como de pequeño debe ser $ε$, pero debe tener un valor que evite que la salida del mecanismo sea inútil. | ||
+ | |||
+ | ==== Sobre la privacidad diferencial y rendimiento de ataques empíricos ==== | ||
+ | La privacidad diferencial asegura la protección incluso contra adversarios poderosos que conocen los inputs de D o D'. En la práctica, u algoritmo que provee $ε=10$ puede proveer una protección empírica contra ataques existentes bastante alta. | ||
+ | |||
+ | ===== Privacidad diferencial aproximada ===== | ||
+ | Esta definición de la privacidad Diferencial permite algo más de tolerancia. Un mecanismo $M: | ||
+ | $$Pr(M(D)∈R)≤Pr(M(D' | ||
+ | |||
+ | ===== Escenarios de privacidad Diferencial ===== | ||
+ | Dependiendo de donde se ejecuta el mecanismo hay 2 tipos de modelos: | ||
+ | * Privacidad diferencial Central: Hay un agregador centralizado de confianza que ejecuta el mecanismo M | ||
+ | * Privacidad diferencial Local: Cada usuario ejecuta el mecanismo M y reporta el resultado al adversario | ||
+ | Existen dos definiciones sobre como se pueden definir dos datasets vecinos en un modelo central: | ||
+ | * Privacidad diferencial acotada: D y D' tiene el mismo número de entradas, pero se diferencian en el valor de una de ellas. | ||
+ | * Privacidad diferencial no acotada: D' se obtiene de D tras eliminar una entrada. | ||
+ | |||
+ | ===== Mecanismos de privacidad diferencial ===== | ||
+ | Existen varios mecanismos que proveen privacidad diferencial y pueden ser aplicados a varios sistemas. | ||
+ | ==== Mecanismo Aleatorizado ==== | ||
+ | Tenemos un mecanismo $M: | ||
+ | {{drawio> | ||
+ | |||
+ | ==== Mecanismo Exponencial ==== | ||
+ | Este mecanismo puede ser usado para proveer privacidad diferencial en muchos casos, la idea es reportar una salida de forma privada, pero con una probabilidad proporcional a su utilizad. | ||
+ | |||
+ | ===== Propiedades de la privacidad diferencial ===== | ||
+ | ==== Resistencia al Post-Procesado ==== | ||
+ | El procesado nunca reduce la privacidad, pero puede incrementarla | ||
+ | ==== Privacidad grupal ==== | ||
+ | En un escenario de privacidad diferencial central, se considera que los datasets difieren en más de una entrada. Esto puede ser probado construyendo K datasets cambiando una fila en cada uno. | ||
+ | ==== Composición secuencial ==== | ||
+ | Si se ejecutan k mecanismos en el mismo dataset y se publican todos los resultados, la privacidad se reduce al publicar más resultados, pero, si el valor de $δ$ es algo mayor, se puede obtener un valor de ε mucho menor, aumentando la privacidad. | ||
+ |