Como me ves, no necesariamente te verán

Desde hace un par de años, han surgido protestas en contra de soluciones como la tecnología de reconocimiento facial. Esta tecnología suele consistir en cámaras instaladas en lugares públicos o privados que toman fotografías de las personas en sus actividades diarias, y que después son comparadas con imágenes almacenadas en una base de datos previamente establecida. Este tipo de equipos biométricos generalmente se venden como soluciones de seguridad.


Un claro ejemplo de lo anterior es lo ocurrido en 2019 en el edificio “Atlantic Plaza Towers”, en el estado de Nueva York, Estados Unidos. En este edificio se instalaron cámaras que tomaban fotos de sus inquilinos, si estos incurrían en una mínima infracción, como no separar el reciclaje, la administración del complejo les enviaba una foto de su infracción y estos eran multados. Cabe aclarar, que lo anterior resulta una práctica ilegal en este estado. En este caso, la mayoría de los inquilinos son afroamericanos y con este tipo de prácticas también son discriminados.


La inconformidad con este tipo de tecnología ha llegado a otras latitudes. En la ciudad de Londres, la segunda más videovigilada del mundo después de Pekín, y que cuenta con un estimado de 420,000 cámaras, surgió el Dazzle Club, un colectivo fundado por cuatro artistas que utiliza el maquillaje de camuflaje como protesta. Su objetivo es abrir la conversación en este tema y cuestionar de forma continua el estatus de nuestro derecho a la privacidad. En Hong Kong, el año pasado las manifestaciones de sus ciudadanos se convirtieron en contiendas por proteger sus identidades y así evitar ser identificados por el gobierno, que rastrea sus celulares y actividad en línea.


Como ya he mencionado en un blog anterior, toda tecnología está sesgada desde su creación, y es que como lo advierte Cathy O’Neil en su libro Weapons of Math Destruction, los algoritmos en sí mismos son subjetivos y pueden favorecer o perjudicar a ciertos grupos de personas. En el caso de la tecnología de reconocimiento facial, se han detectado sesgos significativos: en un estudio realizado en 2018, se acertó en el 99% de las caras de personas caucásicas escaneadas, mientras que al detectar caras de personas afroamericanas, se tuvo un error del 35%.


Las fallas en estas tecnologías no solo implican un simple error al identificar un rostro. Las aplicaciones del reconocimiento facial podrían tener graves consecuencias en las que confundir a personas derive en que les sean negados sus derechos por coincidir con perfiles de personas con antecedentes criminales.


La utilización de equipos interdisciplinarios y la consideración del marco regulatorio en la creación de algoritmos para esta y muchas otras tecnologías es clave para su adecuado y objetivo desarrollo. Es imprescindible considerar estos antecedentes para tener las herramientas correctas, ya sean utilizadas por empresas o por gobiernos. En nuestro país, todavía no hay suficiente información sobre esta tecnología. Estamos justo a tiempo para utilizarla de la forma más ética posible, de estar conscientes de sus limitaciones y sesgos. Y sobretodo, de cuestionar la delgada línea que existe entre la seguridad, el derecho a la privacidad, y también muy importante, si estas herramientas deben siquiera diseñadas y desplegadas en determinados ámbitos y espacios.


Suscríbete a mis blogs

Recibe en tu correo mis blogs más recientes

  • Twitter
  • Instagram
  • Facebook icono social

© 2020 Alejandra Lagunes