Privacidad Diferencial
También conocido como: Differential Privacy, DP, Privacidad Diferencial, ε-Differential Privacy
Técnica matemática que añade ruido calibrado a los datos para proteger la privacidad individual mientras preserva la utilidad estadística del conjunto.
La Privacidad Diferencial (Differential Privacy) es una definición matemática rigurosa de privacidad y las técnicas asociadas para lograrla. Garantiza que la inclusión o exclusión de cualquier individuo en un conjunto de datos tiene un impacto mínimo y controlado en los resultados de cualquier análisis, haciendo imposible inferir información específica sobre ningún individuo a partir de los resultados agregados.
Técnicamente se implementa añadiendo ruido aleatorio calibrado (generalmente ruido gaussiano o de Laplace) a las consultas sobre la base de datos. El parámetro epsilon (ε) controla el trade-off entre privacidad (ε pequeño = más ruido = más privacidad) y utilidad estadística.
Apple, Google y la Oficina del Censo de EE.UU. usan privacidad diferencial en producción. En investigación de mercados, es especialmente relevante para análisis de datos de comportamiento sensibles (salud, finanzas) y para compartir datos de investigación entre organizaciones manteniendo protección de los encuestados.
Atlantia aplica principios de privacidad diferencial en el manejo de datos de respondentes para cumplir con regulaciones de protección de datos en LATAM.
Ver solución relacionada →