¿Qué hacemos frente al desarrollo de la inteligencia artificial?

Recientemente, en la Comisión de Ciencia y Tecnología del Senado de la República aprobamos un punto de acuerdo por el el que se exhorta al Ejecutivo Federal para que instrumente una política nacional que impulse la investigación y el desarrollo sustentable y ético de las tecnologías asociadas a la inteligencia artificial. Dentro del plan anual de trabajo de la misma Comisión, incluímos este tema por considerarlo relevante para abrir espacios a discusiones importantísimas entorno a nuestra relación con los avances tecnológicos y en su poder para ordenar y organizar nuestras sociedades. El desarrollo de la inteligencia artificial es uno de los temas de mayor relevancia para el futuro del país. Y es que este tiene el enorme potencial de mejorar la vida de las personas, particularmente en temas como la salud, la educación, y en todas las actividades productivas.

Sin embargo, es fundamental que este tipo de desarrollos se realicen bajo principios éticos y sustentables claros, sin generar - como lo ha señalado la organización Oxford Insights-  mayores riesgos para la seguridad de las personas, otros seres vivos, o en una mayor desigualdad en nuestras sociedades.  

¿Por qué es importante?

Como se ha advertido, el desarrollo de cualquier tecnología implica también riesgos, impactos en la desigualdad en nuestras sociedades y transformaciones, a veces radicales, de la naturaleza, especialmente de la naturaleza humana. Por ello, es necesario que existan, sobre todo tratándose de tecnologías tan poderosas como la inteligencia artificial, marcos de gobernanza democráticos en el que principios como la transparencia, la participación, la rendición de cuentas, y la sustentabilidad sean considerados.

Sin embargo, como lo han señalado investigadoras como Sheila Jasanoff, a lo largo de la historia, tres obstáculos han impedido la construcción de estos marcos:

  • El determinismo tecnológico:la idea de que un avance tecnológico, una vez logrado, avanzará sin que nadie pueda detenerlo, como si tuviera vida por sí mismo, y no estuviera sujeto a la voluntad de las personas o inmerso en contextos sociales y políticos específicos.

  • La tecnocracia:la idea de que solo los expertos con habilidades muy específicas pueden intervenir en su desarrollo, desestimando críticas o advertencias de quienes no se encuentran en ese círculo.

  • Las consecuencias no deseadas: un lenguaje que implica que no es posible o necesario pensar sobre cómo las cosas podrían salir mal.


Estas ideas tienen un gran poder y han moldeado la forma en la que nos relacionamos con la tecnología, muchas veces haciéndonos sentir impotentes frente a la aparente “inevitabilidad” de los avances tecnológicos. Leo Marx, un historiador cultural ha descrito cómo este cambio particular también se reflejó en el significado de la palabra tecnología - antes ligada a la habilidad de quien la producía -  para pasar a convertirse en el producto mismo, removido de sus creadorxs.

Para el caso de la inteligencia artificial, estas ideas se podrían traducir, por ejemplo, en algoritmos poco transparentes que perpetúen la discriminación hacia grupos ya de por sí vulnerados, o en sistemas poco robustos que puedan ser utilizados con otros fines.

Que el Senado, desde la Comisión de Ciencia y Tecnología abra espacios para estas discusiones es una muy buena noticia, y una oportunidad muy valiosa para diseñar reglas claras que aseguren el desarrollo humano, ético y sustentable de la inteligencia artificial.

Suscríbete a mis blogs

Recibe en tu correo mis blogs más recientes

  • Twitter
  • Instagram
  • Facebook icono social

© 2020 Alejandra Lagunes