Durante años, la promesa fue simple: si el Estado “sabe quién eres”, la seguridad mejora. Hoy esa promesa se reempaca en un lenguaje tecnológico: identidad digital, biometría, bases centralizadas, “interoperabilidad” entre dependencias. El giro es que ya no se trata solo de identificar a una persona en un trámite; se trata de convertir el cuerpo en credencial y de volver la vida cotidiana un flujo continuo de verificación. En ese contexto, la vieja tensión “seguridad pública vs privacidad” es insuficiente: lo que está en juego no es una preferencia individual, sino una privacidad estructural, es decir, la capacidad colectiva de sostener límites a la vigilancia como condición de ciudadanía.
Los estudios de vigilancia llevan tiempo advirtiendo que el control no opera únicamente a través de policías o cárceles, sino mediante infraestructuras de datos que clasifican, perfilan y administran poblaciones. David Lyon lo resume con claridad: las sociedades contemporáneas desplazan la vigilancia hacia sistemas rutinarios e invisibles de registro, filtrado y categorización que terminan moldeando acceso a derechos, oportunidades y movilidad (Lyon, 2007). Cuando la biometría entra a ese circuito, la vigilancia se vuelve más “pegajosa”: no depende de contraseñas que cambian, sino de rasgos corporales difíciles o imposibles de reemplazar.
1) La pregunta incómoda: ¿quién custodia las bases biométricas y con qué controles?
La discusión pública suele centrarse en la utilidad (“evitar suplantaciones”, “agilizar trámites”, “buscar delincuentes”), pero una política biométrica seria se define por su gobernanza, no por su discurso. Hay cuatro capas que deben auditarse, porque ahí es donde se decide si la biometría es un instrumento limitado o un régimen de vigilancia:
-
Titularidad y custodia real
-
¿La base está en una sola institución o fragmentada?
-
¿Quién administra llaves, accesos, backups y continuidad operativa?
-
¿Qué contratistas participan (captura, almacenamiento, matching, soporte)?
-
-
Finalidad y límites de uso
-
¿Para qué se recolecta exactamente?
-
¿Puede reutilizarse (“function creep”) para otros fines: migración, fiscalización, seguridad, asistencia social?
-
¿Se exige autorización judicial para usos policiales, o basta una “solicitud administrativa”?
-
-
Acceso, trazabilidad y auditoría
-
¿Cada consulta deja huella verificable (logs inmutables) y se audita por terceros?
-
¿Existen sanciones efectivas por acceso indebido?
-
¿Hay controles de “mínimo privilegio” o el acceso se vuelve amplio por conveniencia?
-
-
Derechos del titular del dato
-
¿La persona puede saber si su biometría está almacenada, quién la consultó y con qué fin?
-
¿Puede oponerse, corregir, limitar, retirar?
-
¿Qué ocurre con la biometría de niñas, niños y adolescentes?
-
Aquí aparece una idea clave de Helen Nissenbaum: la privacidad no es solo “secreto”, sino integridad contextual. Los datos pueden circular legítimamente dentro de un contexto (p. ej., salud) bajo normas y expectativas específicas; el problema surge cuando se extraen y recombinan fuera de ese contexto, alterando las reglas de flujo de información (Nissenbaum, 2010). En biometría, esa extracción es tentadora por diseño: una vez capturado el rasgo, múltiples instituciones querrán usarlo “porque ya existe”.
2) Centralización: cuando el riesgo deja de ser individual y se vuelve sistémico
Las bases biométricas centralizadas prometen eficiencia, pero producen un fenómeno típico de infraestructura crítica: concentran el daño potencial. Ya no hablamos solo del “robo de identidad” de una persona, sino de fallas que afectan a millones y erosionan la confianza en el Estado. Los riesgos sistémicos principales son:
a) Punto único de falla y objetivo de alto valor
Una base biométrica centralizada es un “premio mayor” para actores criminales, internos o externos. Si se compromete, el daño es prácticamente irreversible: no puedes cambiar tu rostro o tus huellas como cambias una contraseña. Esto transforma la seguridad informática en un asunto de derechos fundamentales: la exposición de biometría no se repara con “restablecer credenciales”; se hereda.
b) Desplazamiento de la presunción de inocencia hacia la presunción de verificabilidad
Cuando la infraestructura existe, se normaliza la idea de que toda persona debe ser verificable en todo momento. La pregunta deja de ser “¿hay causa para identificar?” y se vuelve “¿por qué no habrías de identificar?”. Ese giro cultural expande la vigilancia por inercia, incluso sin reforma legal explícita.
c) Error técnico con consecuencias políticas
La biometría no es infalible. La tasa de error puede parecer baja en promedio, pero es desigual por contexto: condiciones de captura, calidad de dispositivos, sesgos por fenotipo, edad o discapacidad. En sistemas centralizados, un error escala: te bloquea un trámite, te niega un servicio, te marca como “no coincidente”. La exclusión se vuelve burocrática y automática.
d) Función expansiva: de “seguridad” a gobernanza total
Solove advierte que el problema de la privacidad no es solo el “Gran Hermano” mirando, sino una constelación de prácticas —agregación, identificación, exclusión, uso secundario— que en conjunto crean un poder desproporcionado sobre las personas (Solove, 2004). La centralización facilita justo eso: agregación y uso secundario. Lo que inicia como “credencial” puede convertirse en infraestructura transversal de control.
3) Seguridad pública vs privacidad estructural: el falso dilema
En el debate público, “seguridad” y “privacidad” se presentan como valores opuestos, como si cada avance en uno exigiera sacrificar el otro. Ese marco favorece decisiones rápidas: “si no debes nada, no temas”, “es por tu bien”, “la tecnología es neutral”. Pero la pregunta correcta es más concreta: ¿qué modelo de seguridad necesita una democracia? Si la seguridad se persigue mediante acumulación masiva de datos y control preventivo, el precio no es solo intimidad: es el tipo de Estado que se construye.
La privacidad estructural no se reduce a “mi vida privada”. Es la condición para:
-
ejercer oposición política sin miedo a represalias,
-
consultar salud o servicios sensibles sin exposición,
-
circular y asociarse sin perfilamiento,
-
recibir beneficios o derechos sin vigilancia condicionante.
En términos institucionales, la privacidad es una barrera contra el abuso de poder. Sin ella, la seguridad puede convertirse en administración de sospecha.
4) Controles mínimos para que una política biométrica no se convierta en vigilancia permanente
Si una sociedad decide usar biometría, el estándar democrático exige salvaguardas robustas, no promesas. Algunos mínimos razonables:
-
Finalidad estricta y prohibición de usos secundarios (por ley, no por “buenas prácticas”).
-
Separación de bases por contexto (no una mega-base interoperable sin límites).
-
Acceso con autorización judicial para usos policiales, con causales definidas.
-
Auditoría independiente continua: técnica (ciberseguridad), legal (debido proceso), y de derechos humanos.
-
Transparencia operacional: estadísticas de consultas, rechazos, incidentes, y evaluaciones de impacto.
-
Derechos del titular: información, oposición/alternativas no biométricas cuando sea viable, recursos efectivos.
-
Minimización: recolectar lo indispensable, por el tiempo indispensable, con borrado verificable.
Sin estos controles, la biometría tiende a seguir su lógica natural: expandirse.
La pregunta no es si la biometría “sirve”, sino a qué costo institucional y bajo qué reglas. Una infraestructura biométrica centralizada puede producir eficiencia administrativa y apoyar investigaciones, sí; pero también puede consolidar un poder de identificación ubicuo que reconfigura la relación entre ciudadanía y Estado. En seguridad pública, el error es confundir capacidad con legitimidad: que algo sea técnicamente posible no lo vuelve democráticamente aceptable. La línea de defensa no es la desconfianza paranoica, sino el principio básico de un Estado de derecho: los controles importan tanto como las capacidades. Y cuando la identidad se ancla en el cuerpo, esos controles dejan de ser un detalle técnico y se vuelven la frontera real entre seguridad pública y vigilancia permanente.
Referencias
-
Lyon, D. (2007). Surveillance studies: An overview. Polity Press.
-
Nissenbaum, H. (2010). Privacy in context: Technology, policy, and the integrity of social life. Stanford University Press.
-
Solove, D. J. (2004). The digital person: Technology and privacy in the information age. New York University Press.

0 Comentarios