¿Computadora, en ti confío?


¿Puede la inteligencia artificial ser beneficiosa en tiempos de protesta?


Las conversaciones sobre la crisis política y social en el Perú se acompañan con listas de posibles soluciones, que a su vez abren la puerta a otras interrogantes. Es natural preguntarse cómo se resolverán las diversas demandas que se exigen en todo el país, y si la presidenta seguirá sumando más muertes que días en el cargo. En la situación de crisis que vivimos, muchos ciudadanos mencionan soluciones que podrían terminar siendo peor que el problema. Entre ellas, destaco el uso de la inteligencia artificial para controlar las protestas. Es cierto que esta idea no encabeza la lista de posibles soluciones —antes se exigen un toque de queda nacional, el cierre de fronteras o la militarización de las ciudades, sin reparar en las posibles consecuencias negativas de estas acciones—, sin embargo,  es una posibilidad que requiere nuestra atención antes de que sea tarde.

Como se ha visto con frecuencia en esta columna, me gusta detenerme a pensar los posibles efectos negativos de introducir nuevas tecnologías para problemas sin solución actual. La tecnología nos promete algo nuevo, brillante y objetivo para nuestras crisis nacionales. Estas promesas también llegan a nuestras autoridades, quienes se pueden deslumbrar por la inteligencia artificial, sin pensar en posibles abusos. O, todo lo contrario, pensando en los posibles abusos que la tecnología puede facilitar. Para el control de protestas se piensa en la inteligencia artificial para el reconocimiento facial que permite saber quién acude a las protestas y “potencialmente” saber quiénes causan destrozos y quiénes no. O quiénes pertenecen a grupos políticos y quiénes no. Esto es lo que prometen quienes desarrollan estas herramientas, que ya son utilizadas en otros países y que políticos alérgicos a los derechos humanos ven con buenos ojos. 

En el Oxford Handbook para ética de la inteligencia artificial, Karen Yeung y sus coautores indican que la ética debe guiar a la inteligencia artificial en su diseño, desarrollo y uso de la tecnología. Es decir, una tecnología no puede usarse de forma ética si esta no se ha pensado para eso. Si un gobierno adquiere una tecnología de inteligencia artificial para “matar mejor”, es difícil que un mismo gobierno asegure procesos de justicia, incluso para aquellos que hayan cometido un delito. 

Es común escuchar de quienes abogan por estas tecnologías que si uno protesta pacíficamente y no causa ningún problema no debería temerle a estas tecnologías, porque estas solo ayudarán a diferenciar entre “buenos y malos”. Un argumento parecido se da cuando alguien dice que le da igual si Facebook o Twitter lee sus mensajes, porque no tiene nada que ocultar, pero luego se enfurece si esas mismas plataformas han influenciado en las decisiones políticas de la población cuando han mostrado desinformación a ciertos grupos y no a otros, con el objeto de influenciar las decisiones de sus usuarios. 

La promesa de que la inteligencia artificial nos ayudaría a diferenciar entre buenos y malos es también criticable. ¿Quién establece los criterios para diferenciar entre buenos y malos? ¿Y qué posibilidades hay para argumentar que uno está “en el lado correcto”? Por ejemplo, la inteligencia artificial podría ayudar a identificar a manifestantes afiliados a partidos políticos, pero esto no es un crimen, y tener participación política tampoco nos hace “malos en una protesta”. Entonces, deberíamos ser críticos con una tecnología que nos identifique como malos por el hecho de pertenecer a un movimiento político y asistir a una protesta, cuando ambas son derechos fundamentales. 

Aquí podríamos argumentar que hay “partidos y partidos”, como hay “manifestantes y manifestantes”. Y sin duda, todos tenemos listas mentales de qué partidos o ideologías consideramos aceptables y cuáles no. Si alguien nos pregunta por qué consideramos a un partido o movimiento político “peligroso”, debemos poder argumentar cuáles son las razones. Y podemos estar equivocados. Esta diferenciación que hacemos las personas entre “buenos y malos”, también lo hacen las tecnologías de inteligencia artificial. No es que la tecnología lo haga sola y de forma objetiva, sino que lo hace a partir de una información dada por quien diseña esta tecnología. Es decir, “alguien” le enseña a la tecnología a discernir. Esto es lo que debería preocuparnos antes de abogar por el uso de inteligencia artificial en protestas: quién le ha enseñado a la tecnología a discernir entre buenos y malos, y para qué uso. 

El problema es que no solo no sabemos cómo se diseñan estas tecnologías, sino que estas ofrecen a las autoridades una oportunidad para lavarse las manos. Es usual pensar que la tecnología es objetiva. Es decir, que si una computadora le dice a un policía que arreste a alguien en una protesta es porque la computadora tiene acceso a más información y puede tomar una decisión más efectiva. Pero en realidad, la computadora no es objetiva, solo podrá tomar una decisión para la cual está entrenada. Autoras como Ruha Benjamin y Deborah Raji indican que esta ilusión de objetividad hace a las tecnologías de inteligencia artificial aún más peligrosas, puesto que ofrecen a las autoridades la excusa de “no fui yo, fue la computadora, y la computadora no se equivoca”. 

Leyendo a expertas como Benjamin y Raji podemos pensar en otras decenas de complicaciones en el uso de inteligencia artificial para manejar protestas. Por ejemplo, en la posibilidad de falsos positivos en arrestos, en cómo se maneja la privacidad de quienes asisten a protestas, en la persecución a activistas, entre otros posibles malos usos por parte de gobiernos autoritarios. Sé que peco de pesimista y que nuestros lectores podrán pensar en usos positivos de la inteligencia artificial para protestas y movimientos sociales, y de seguro las hay. Sin embargo, si antes no podemos asegurar que estas tecnologías no van a usarse para recortar nuestros derechos, no deberíamos estar tan abiertos a abrazar su uso.


Pensar, escribir, editar, diseñar, coordinar, publicar y promover este y todos nuestros artículos (y sus pódcast) cuesta y nosotros los entregamos sin cobrar. Haz click en el botón de abajo para contribuir y, de paso, espía como suscriptor nuestras reuniones editoriales.


Comentarios

Aún no hay comentarios. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Volver arriba