Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
pan:res_privacidad_diferencial [2025/01/07 18:08] – thejuanvisu | pan:res_privacidad_diferencial [2025/01/07 18:51] (actual) – thejuanvisu | ||
---|---|---|---|
Línea 26: | Línea 26: | ||
Un mecanismo M:D-> | Un mecanismo M:D-> | ||
Pr(M(D)=R)≤Pr(M(D′)=R)∗eε | Pr(M(D)=R)≤Pr(M(D′)=R)∗eε | ||
- | Se usa eε en vez de ε por que facilita la formulación de ciertos teoremas útiles. | + | Se usa eε en vez de ε por que facilita la formulación de ciertos teoremas útiles. |
+ | ==== A tener en cuenta ==== | ||
+ | * Cuanto más pequeño es el valor de ε Más privacidad | ||
+ | * La privacidad perfecta se da cuando ε=0, el problema de esto es que la salida va a ser prácticamente inutil | ||
+ | * No existe un consenso sobre como de pequeño debe ser ε, pero debe tener un valor que evite que la salida del mecanismo sea inútil. | ||
+ | |||
+ | ==== Sobre la privacidad diferencial y rendimiento de ataques empíricos ==== | ||
+ | La privacidad diferencial asegura la protección incluso contra adversarios poderosos que conocen los inputs de D o D'. En la práctica, u algoritmo que provee ε=10 puede proveer una protección empírica contra ataques existentes bastante alta. | ||
+ | |||
+ | ===== Privacidad diferencial aproximada ===== | ||
+ | Esta definición de la privacidad Diferencial permite algo más de tolerancia. Un mecanismo M:D-> | ||
+ | Pr(M(D)∈R)≤Pr(M(D′)∈R)∗eε+δ | ||
+ | |||
+ | ===== Escenarios de privacidad Diferencial ===== | ||
+ | Dependiendo de donde se ejecuta el mecanismo hay 2 tipos de modelos: | ||
+ | * Privacidad diferencial Central: Hay un agregador centralizado de confianza que ejecuta el mecanismo M | ||
+ | * Privacidad diferencial Local: Cada usuario ejecuta el mecanismo M y reporta el resultado al adversario | ||
+ | Existen dos definiciones sobre como se pueden definir dos datasets vecinos en un modelo central: | ||
+ | * Privacidad diferencial acotada: D y D' tiene el mismo número de entradas, pero se diferencian en el valor de una de ellas. | ||
+ | * Privacidad diferencial no acotada: D' se obtiene de D tras eliminar una entrada. | ||
+ | |||
+ | ===== Mecanismos de privacidad diferencial ===== | ||
+ | Existen varios mecanismos que proveen privacidad diferencial y pueden ser aplicados a varios sistemas. | ||
+ | ==== Mecanismo Aleatorizado ==== | ||
+ | Tenemos un mecanismo M:0,1-> | ||
+ | {{drawio> | ||
+ | |||
+ | ==== Mecanismo Exponencial ==== | ||
+ | Este mecanismo puede ser usado para proveer privacidad diferencial en muchos casos, la idea es reportar una salida de forma privada, pero con una probabilidad proporcional a su utilizad. | ||
+ | |||
+ | ===== Propiedades de la privacidad diferencial ===== | ||
+ | ==== Resistencia al Post-Procesado ==== | ||
+ | El procesado nunca reduce la privacidad, pero puede incrementarla | ||
+ | ==== Privacidad grupal ==== | ||
+ | En un escenario de privacidad diferencial central, se considera que los datasets difieren en más de una entrada. Esto puede ser probado construyendo K datasets cambiando una fila en cada uno. | ||
+ | ==== Composición secuencial ==== | ||
+ | Si se ejecutan k mecanismos en el mismo dataset y se publican todos los resultados, la privacidad se reduce al publicar más resultados, pero, si el valor de δ es algo mayor, se puede obtener un valor de ε mucho menor, aumentando la privacidad. |