Knoppia

Wiki de Informática y otras historias

Herramientas de usuario

Herramientas del sitio


pan:privacidad_diferencial_v2

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
pan:privacidad_diferencial_v2 [2026/01/06 16:50] thejuanvisupan:privacidad_diferencial_v2 [2026/01/06 17:23] (actual) thejuanvisu
Línea 227: Línea 227:
  
 ===== Mecanismo Gaussiano (Privacidad Diferencial Aproximada) ===== ===== Mecanismo Gaussiano (Privacidad Diferencial Aproximada) =====
 +Los mecanismos anteriores proveían una privacidad diferencial exacta, el emcanismo gaussiano la da aproximada. Se usa la $l_2-sensibilidad$ de $g$:
 +
 +<WRAP box>
 +$Δ = max_{D,D'}||g(D) - g(D')||_2$
 +</WRAP>
 +
 +El mecanismo gaussiano simplemente añade ruido gaussiano a la salida de la función. El mecanismo Gaussiano es definido como $M(D) = g(D) + [Y_1, Y_2 ... Y_k]$  donde cada $Y_i$ tiene una distribución independiente siguiendo $Y_i ~ N(0,σ^2)$ con:
 +
 +<WRAP box>
 +$σ^2 = 2log(\frac{1.25}{∂}) * \frac{Δ^2}{ε^2}$
 +</WRAP>
 +
 +El mecanismo gaussiano provee (ε-∂)-DP
 +
 +====== Propiedades de la Privacidad Diferencial ======
 +===== Resistencial al post-procesado =====
 +Sea $M : D$ -> $γ$ un mecanismo (ε-∂)-DP y $F : Y$ -> $Z$ una aplicación posiblemente aleatoria, entonces $F o M$ es (ε-∂)-DP. Esto significa  que el procesado nunca decrementa la privacidad, pero puede incrementarla. Esto tiene sentido si consideramos que en caso contrario, el adversario podría diseñar una aplicación $F$ que parcialmente revierta $M$. Es muy importante que $F$ no de depnda de $D$ más allá de $γ$.
 + 
 +===== Privacidad Grupal =====
 +Sea $M : D$ -> $R$ un mecanismo que provee ε-DP para $D,D'$ que difieren en una entrada. Entonces provee kε-DP para los datasets D,D' que difieren en k entradas. Esto es fácil de provar construiyendo una secuencia de k datasets que difieran en más de una entrada.
 +
 +===== Composición Secuencial =====
 +Composición ingénua: Sea $M = {M_1, M_2 ... M_k}$ una secuencia de mecanismos donde $M_i$ es $(ε_i,∂_i)-DP$. Entonces $M$ es $(Σ^k_{i=1}ε_i, Σ^k_{i=1}∂_i)$
 +  * Esto significa que ejecutar k mecanismos en el mismo dataset sen sible y publicando todos los k resultados, la privacidad se decremente según se van publicando más resultados.
 +
 +
 +Composición Avanzada: Sea $M = {M_1, M_2 ... M_k}$ una secuencia de mecanismos donde $M_i$ es $(ε_i,∂_i)-DP$. Entonces $M$ es $(ε\sqrt{8k*log(1/∂')}, k∂+∂)-DP$
 +===== Composición Paralela =====
 +Sea $M = {M_1, M_2 ... M_k}$ una secuencia de mencanismos donde $M_i$ es $ε_i-DP$. Sean $D_1, D_2 .... D_k$ una partición determinística de $D$. Publicar las salidas $M_1(D_1), M_2(D_2), ... , M_k(D_k)$ satisface $(max ε_i)-DP$
  
pan/privacidad_diferencial_v2.1767718248.txt.gz · Última modificación: 2026/01/06 16:50 por thejuanvisu