Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| pan:privacidad_diferencial_v2 [2026/01/06 15:07] – thejuanvisu | pan:privacidad_diferencial_v2 [2026/01/06 17:23] (actual) – thejuanvisu | ||
|---|---|---|---|
| Línea 178: | Línea 178: | ||
| </ | </ | ||
| - | ===== Mecanismo de Respuesta | + | ===== Mecanismo de Respuesta |
| En este caso tenemos un mecanismo $M : {0,1} -> {0,1}$ para privacidad diferencial local: | En este caso tenemos un mecanismo $M : {0,1} -> {0,1}$ para privacidad diferencial local: | ||
| Línea 185: | Línea 185: | ||
| Se puede realizar una generalización asumiendo una cierta probabilidad de $γ$ de decir la verdad: | Se puede realizar una generalización asumiendo una cierta probabilidad de $γ$ de decir la verdad: | ||
| {{drawio> | {{drawio> | ||
| + | |||
| + | ==== Respuesta Aleatorizada bajo un prisma de Privacidad Diferencial ==== | ||
| + | Un mecanismo $M : X$ -> $Y$ es ε-privadamente diferencial (ε-DP) si las posibles salidas $y ∈ Y$ y todos los pares de bases de entradas vecias $x, x' ∈ X$: | ||
| + | <WRAP box> | ||
| + | $Pr(M(x) = y) ≤ Pr(M(x' | ||
| + | </ | ||
| + | |||
| + | Por lo tanto hay 2 posibles salidas: | ||
| + | * **Cuando Y = 0**: | ||
| + | |||
| + | <WRAP box> | ||
| + | $\frac{Pr(M(0) = 0)}{Pr(M(1) = 0)} = \frac{γ}{1-γ}$ | ||
| + | </ | ||
| + | |||
| + | * **Cuando Y = 1**: | ||
| + | <WRAP box> | ||
| + | $\frac{Pr(M(0) = 1)}{Pr(M(1) = 1)} = \frac{1-γ}{γ}$ | ||
| + | </ | ||
| + | * Si $γ≤1/2$, el más grande de los dos es $(1-γ)/ | ||
| + | * Por lo tanto el nivel de privacidad es el siguiente: | ||
| + | <WRAP box> | ||
| + | $ε = max{log(1-γ)γ, | ||
| + | </ | ||
| ===== Mecanismo Exponencial (Salidas Discretas) ===== | ===== Mecanismo Exponencial (Salidas Discretas) ===== | ||
| + | A veces, añadir ruido laplaciano puede destruir la utilidad del mecanismo. En ocasiones no queremos que las respuestas numéricas sean privadas, pero queremos ser capaces de reportar objetos, clases y categorías. La idea del mecanismo exponencial es que podamos reportar una salida privadamente pero con una probabilidad proporcional a su utilidad. | ||
| + | Dada una base de datos $D ∈ D$, un set de salidas $H$ y una función de puntuación $S : D x H$ -> //R// el mecanismo exponecial elige una salida $h ∈ H$ con la siguiente probabilidad: | ||
| + | <WRAP box> | ||
| + | $Pr(M(D) = h) ∝ exp(\frac{ε * s(D, | ||
| + | |||
| + | **Nota**: $∝$ Significa " | ||
| + | </ | ||
| + | |||
| + | La sensibilidad está dada por: | ||
| + | <WRAP box> | ||
| + | $Δ = max_{h∈H} max_{D, | ||
| + | </ | ||
| + | |||
| + | Para calcular la probabilidad $Pr(M(D) = h)$ necesitamos computar los valores de puntuación para cada $h ∈ H$, lo que puede ser muy costoso. El mecanismo proporcional elige elementos de forma proporcional a la función de puntuación. Las salidas con utilidad van a ser elegidas con mucha mayor probabilidad. | ||
| ===== Mecanismo Gaussiano (Privacidad Diferencial Aproximada) ===== | ===== Mecanismo Gaussiano (Privacidad Diferencial Aproximada) ===== | ||
| + | Los mecanismos anteriores proveían una privacidad diferencial exacta, el emcanismo gaussiano la da aproximada. Se usa la $l_2-sensibilidad$ de $g$: | ||
| + | |||
| + | <WRAP box> | ||
| + | $Δ = max_{D, | ||
| + | </ | ||
| + | |||
| + | El mecanismo gaussiano simplemente añade ruido gaussiano a la salida de la función. El mecanismo Gaussiano es definido como $M(D) = g(D) + [Y_1, Y_2 ... Y_k]$ donde cada $Y_i$ tiene una distribución independiente siguiendo $Y_i ~ N(0,σ^2)$ con: | ||
| + | |||
| + | <WRAP box> | ||
| + | $σ^2 = 2log(\frac{1.25}{∂}) * \frac{Δ^2}{ε^2}$ | ||
| + | </ | ||
| + | |||
| + | El mecanismo gaussiano provee (ε-∂)-DP | ||
| + | |||
| + | ====== Propiedades de la Privacidad Diferencial ====== | ||
| + | ===== Resistencial al post-procesado ===== | ||
| + | Sea $M : D$ -> $γ$ un mecanismo (ε-∂)-DP y $F : Y$ -> $Z$ una aplicación posiblemente aleatoria, entonces $F o M$ es (ε-∂)-DP. Esto significa | ||
| + | |||
| + | ===== Privacidad Grupal ===== | ||
| + | Sea $M : D$ -> $R$ un mecanismo que provee ε-DP para $D,D'$ que difieren en una entrada. Entonces provee kε-DP para los datasets D,D' que difieren en k entradas. Esto es fácil de provar construiyendo una secuencia de k datasets que difieran en más de una entrada. | ||
| + | |||
| + | ===== Composición Secuencial ===== | ||
| + | Composición ingénua: Sea $M = {M_1, M_2 ... M_k}$ una secuencia de mecanismos donde $M_i$ es $(ε_i, | ||
| + | * Esto significa que ejecutar k mecanismos en el mismo dataset sen sible y publicando todos los k resultados, la privacidad se decremente según se van publicando más resultados. | ||
| + | |||
| + | |||
| + | Composición Avanzada: Sea $M = {M_1, M_2 ... M_k}$ una secuencia de mecanismos donde $M_i$ es $(ε_i, | ||
| + | ===== Composición Paralela ===== | ||
| + | Sea $M = {M_1, M_2 ... M_k}$ una secuencia de mencanismos donde $M_i$ es $ε_i-DP$. Sean $D_1, D_2 .... D_k$ una partición determinística de $D$. Publicar las salidas $M_1(D_1), M_2(D_2), ... , M_k(D_k)$ satisface $(max ε_i)-DP$ | ||