SciELO - Scientific Electronic Library Online

 
 número31#SusanaDistancia ante COVID-19 en México. Campañas y redes gubernamentales en TwitterPeriodismo y COVID-19. Homogeneización de contenidos en Argentina. Un análisis de caso índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Revista mexicana de opinión pública

versión On-line ISSN 2448-4911versión impresa ISSN 1870-7300

Rev. mex. opinión pública  no.31 Ciudad de México jul./dic. 2021  Epub 11-Oct-2021

https://doi.org/10.22201/fcpys.24484911e.2022.31.78883 

Artículos

Algoritmos y pandemia. Tres claves emergentes para futuros análisis sobre opinión pública

Algorithms and Pandemic. Three Emerging Keys for Future Analysis on Public Opinion

1Doctor en filosofía. Actualmente se desempeña como investigador en el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) de la República de Argentina. dante.avaro@7tres.biz.


Resumen

Este trabajo analiza la creciente importancia que han tenido los ecosistemas de gestión de la atención durante la etapa pandémica. Se afirma que la consolidación de los sistemas de inteligencia artificial descansa en su capacidad de producir efectos reales, es decir, en su capacidad de “agencia”. Finalmente, se argumenta que la demanda por una mayor regulación de dichos sistemas está limitada a la propia identidad de aquello que requiere ser regulado: los códigos y algoritmos. Esto abre nuevos desafíos tanto para la política pública como para las futuras investigaciones en el campo de la opinión pública.

Palabras clave: Algoritmos; pandemia; vigilancia; datos personales; democracia

Abstract

This paper analyzes the growing importance of care management ecosystems during the pandemic stage. It is claimed that the consolidation of artificial intelligence systems rests on their capacity to produce real effects, that is, on their capacity as “agency”. Finally, it is argued that the demand for greater regulation of these systems is limited to the identity of what needs to be regulated, that is, the codes and algorithms. The regulation of algorithms opens up new challenges for both public policy and perspectives for future research in the public opinion’s field.

Keywords: Algorithms; pandemic; surveillance; contact tracing; democracy

Introducción

“Only the dead have seen the end of war”

George Santayana, 1922 1

En 2019 sabíamos que el año 2020 iba a ser turbulento principalmente por tres acontecimientos que sobresalían en el panorama: el primero, la elección presidencial en los Estados Unidos de Norteamérica; el segundo, la puesta en marcha del Sistema de Crédito Social en la República Popular de China; el tercero, la implementación de la red 5G. La disponibilidad de esta tecnología no solo conlleva una ampliación del internet de las cosas, sino también la consolidación de la industria 4.0, al generar una lucha campal entre las principales economías del mundo por el control sobre la estandarización de sistemas de inteligencia artificial. Sin embargo, un evento correspondiente a la historia natural, el virus del SARS-CoV-2, trastocó todo el escenario mundial.

Los públicos ciudadanos, a más de un año de la epidemia y a casi uno de la pandemia, han vivido y visto innumerables situaciones. Algunos fueron presa de la estupidez humana (Epimeteo corría ya no a campo traviesa, sino detrás del papel higiénico); otros, en tanto, participaron en la euforia mimética del agradecimiento (aplausos a los equipos de salud); la enorme mayoría fue de testigos mudos de las épicas gubernamentales (discursos de los políticos que enfatizaban cómo dominaban y controlaban la pandemia), y así muchos más escenarios, hasta llegar a la imagen de la primera persona vacunada. En resumen, los públicos ciudadanos racionalizaron con paciencia cívica las decisiones gubernamentales, aunque en algunos momentos estuvieron atravesados por la irracionalidad (individual y colectiva). Asumieron, también, los costos de los fracasos gubernamentales y, en algunos casos, obtuvieron una tregua tras sus éxitos relativos. Gran parte de las sociedades democráticas se mantuvo firme y activa mediante el altruismo y diversas muestras de solidaridad de sus miembros. Tampoco faltó la propensión a la inventiva y creatividad, lo que dio lugar a la necesaria innovación y adaptación. Pero, también, cayeron en las trampas de las más variadas miserias humanas, al hacer mancuerna, en muchos casos, con dosis de cinismo, inmoralidad y soberbia, como lo ejemplifica el “vacunatorio VIP” en Argentina.2

Sabemos que el miedo, la angustia y la experiencia de primera mano sobre la fragilidad humana son, desde siempre, motivadores eficaces para la acción, y también para la obediencia. Pero no solo eso. Las diferentes dotaciones y herramientas epistémicas para hacer frente a lo desconocido ―marcos ideográficos alternativos, intereses sociales y económicos divergentes―, aunadas a la percepción de las probabilidades de contagio en función del papel que cada quien desempeña en la sociedad, fueron algunos de los elementos que moldearon tanto el conjunto de perspectivas (dinámicas) sobre el fenómeno pandémico como las respuestas gubernamentales.

La sorpresiva aparición del virus produjo asombro, el cual desencadenó la típica pregunta: ¿qué hacer? Cada gobierno miró a los otros y, con ello, al inicio de la pandemia, emergió el famoso apagón o cierre mundial. Su metáfora fue el cielo sin aviones, pero su epítome lo caracterizó el cierre de la red ferroviaria india.3 Si bien es cierto que al comienzo de la pandemia primó, en el nivel de las respuestas gubernamentales, el efecto mimético, no menos destacable es que conforme pasaba el tiempo cada sociedad empezó un lento proceso de divergencia, anclado, sobre todo, en el asunto de cómo compatibilizar el encierro con la vigencia de los derechos individuales.

Ya en la transición de la epidemia a la pandemia, se identificó que las respuestas gubernamentales (posibles) iban a tener que estar circunscritas a los protocolos de derechos humanos, también que no podían dejar de usar los sistemas de inteligencia artificial. En ese contexto, los públicos ciudadanos, así como los gobiernos, percibieron que la mezcla entre confinamiento, restricciones a las libertades individuales y sistemas de inteligencia artificial iba a resultar un cóctel difícil de digerir. Así, durante la temporada de encierro, las aplicaciones de traqueo y seguimiento (trazabilidad sobre la vida de los ciudadanos) acapararon la atención pública. Luego, con el encendido, lento pero progresivo, de la maquinaria económica y la reapertura de la sociedad, ocurrió lo que las olas en la playa: la espuma desaparece y quedan los objetos arrastrados. Lo que quedó, desde la perspectiva que se quiere abordar en este trabajo, es la vivencia cruda y directa de la interacción creciente de los ciudadanos con múltiples sistemas de inteligencia artificial. En este sentido, quiero presentar y describir tres aspectos de la inteligencia artificial cuya existencia genera y generará impactos en la opinión pública y las diferentes perspectivas para su estudio y análisis. A continuación, expongo la organización del trabajo.

En la siguiente sección, la segunda, muestro que mientras, por una parte, la economía política del encierro llevó a niveles nunca vistos a los sistemas de inteligencia artificial en la pretensión de vigilar a la ciudadanía, por otra parte, en la playa democrática, quedaron los rastros de lo verdaderamente relevante: un nuevo espacio de aprendizaje para los ecosistemas de gestión de la atención (por ejemplo, Facebook, Twitter, YouTube, Instagram, Amazon, Netflix, entre otros). En definitiva, trato de responder a la siguiente pregunta: ¿por qué, durante la primera etapa pandémica, los ecosistemas de gestión de la atención resultaron más relevantes que los sistemas de trazabilidad o traqueo gubernamentales-sanitarios? En la tercera sección, describo los sistemas de inteligencia artificial como entidades reales que generan efectos reales. Así, esbozo, aunque de manera preliminar, una argumentación para considerar los “códigos” y “algoritmos” como “agencias” que habitan nuestro mundo de interacciones sociales. En la cuarta sección, expongo que la etapa pandémica nos colocó, de nueva cuenta, ante la necesidad de regular y controlar democráticamente los alcances de los sistemas de inteligencia artificial. Sin embargo, la velocidad en la que transcurrieron los sucesos pandémicos llevó a que los gobiernos y hacedores de políticas se enfrentaran más crudamente a una pregunta que ya lleva años sobre la mesa de los problemas públicos: ¿cuál es la identidad de aquello que hay que regular? Finalmente, en las conclusiones, me pregunto si esta consolidación de los sistemas de inteligencia artificial no presupone, a la luz de ciertos acontecimientos políticos recientes, un quiebre en la pacífica convivencia que hasta ahora han mantenido las grandes empresas responsables de la inteligencia artificial y los gobiernos.

Trazabilidad y encierro. Un nuevo aprendizaje para los ecosistemas de gestión de la atención

La epidemia nació bajo el signo de la inteligencia artificial; la pandemia, por otra parte, hizo del uso de los artefactos de inteligencia artificial una estrategia global. Las imágenes que el régimen autoritario chino presentó sobre Wuhan tuvieron una doble impronta: encierro y vigilancia. La vigilancia masiva, el encierro y el control granular sobre la población parecía, al inicio de la epidemia, una distopía cinematográfica. Si bien esta especie de gobierno algorítmico fue algo distinto, no era algo nuevo sino, más bien, la implementación progresiva de un patrón innovador.4 La ciudad de Wuhan fue, desde 2016, parte de las pruebas piloto del Sistema de Crédito Social. Esta es una de las razones por las cuales la población estaba acostumbrada al sistema de castigos y recompensas que surge de la interacción social mediada por algoritmos y sistemas de reconocimiento facial. Lo que la población vivió durante la epidemia fue una profundización de la vigilancia y los sistemas de puntaje social. Ocurrió, en definitiva, una profundización del autoritarismo gamificado5 en medio de una catástrofe sanitaria. Si en algunas ciudades, como parte del programa ciudades demostración del Sistema de Crédito Social, los edificios de alquiler cuentan con sensores biométricos y cámaras de vigilancia aun dentro de los departamentos, ¿por qué no utilizar la mayor red social (WeChat) para alertar sobre la cercanía con un contagiado? La vigilancia y el seguimiento no resultaban algo nuevo, sino una mejora innovativa de lo existente. Así, el alma (los algoritmos, la geolocalización y el Bluetooth) de los teléfonos inteligentes mostró todo su potencial, es decir, la ubicua, al tiempo que eficaz, capacidad para vigilar y traquear la vida de la población.

En ese contexto, el Gobierno chino, impulsado por directivas del Consejo de Estado, puso en funcionamiento una aplicación que detecta probabilidades de contagio. Esta aplicación, para ser descargada previa identificación, se encuentra disponible en WeChat o Alipay, y permite saber si una persona estuvo cerca de alguna otra que sufre la enfermedad. Se complementa, además, con la utilización de los códigos QR, que permiten coordinar y gerenciar los flujos de las poblaciones. La distopía de Wuhan tuvo varios rostros (no hace falta aquí entrar en más detalles), pero lo más temido es que cualquiera de ellos pudiera presentarse a la puerta de las democracias occidentales. Así, la propuesta de contact tracing primero se difundió en Asia; luego desembarcó en Occidente.

El contact tracing, o la trazabilidad digital de contacto, ejerció una fuerte fascinación, puesto que le daba sustento y viabilidad a la idea de cuarentena inteligente. Detectar y aislar oportunamente parecían constituir, en medio del apagón mundial, la mejor alternativa a un cierre completo de la sociedad. La idea detrás del contact tracing consiste en el rastreo de contagio por proximidad de contacto, y la herramienta tecnológica más adecuada para ejecutarlo es la señal de Bluetooth. La estrategia de trazabilidad digital de contacto descarta, por poco eficaces, las antenas de telecomunicación y geolocalización por aplicaciones, pero requiere una población de teléfonos móviles que soporte el uso intensivo de Bluetooth. De este modo, la discusión sobre implementar o no el contact tracing quedó reducida, grosso modo, a las democracias más ricas del mundo (EE. UU. y la Unión Europea). Sin duda, el debate más interesante fue el que se llevó a cabo en la Unión Europea durante los meses de marzo a mayo del año pasado.6

Desde un inicio, los diferentes gobiernos europeos tenían que tomar decisiones enmarcadas en el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) que regula, entre otros asuntos, el uso de Big Data y la inteligencia artificial. Si bien es cierto que el citado reglamento prevé cierta excepcionalidad en la conducta del Estado (procesar datos personales sin el consentimiento de los ciudadanos en casos de interés público), no es menos cierto que la medida de excepcionalidad no puede dejar en la indefensión a los ciudadanos respecto de la protección de datos personales. En ese contexto, varios expertos, fundamentalmente del Institut National de Recherche en Informatique et en Automatique (INRIA) y del centro Fraunhofer Heinrich Hertz Institute for Telecoms (Fraunhofer), comenzaron a generar propuestas en un portafolio de Github y nació el protocolo PEPP-PT (Pan European Privacy-Preserving Proximity Tracing). El plan, que fue objeto de muchas alteraciones, es más o menos el siguiente: con o sin intervención directa del usuario, la señal de Bluetooth de cada móvil europeo debe detectar uno o varios teléfonos cercanos. A partir de ese momento, los móviles intercambian mensajes con códigos únicos de ID, que se renuevan cada cierta cantidad de minutos -10 o 15-, sujetos a diferentes estándares técnicos. Los expertos de INRIA, tanto como los de Fraunhofer, entienden que si los móviles generan e intercambian ID efímeras al estilo de los token de seguridad de las aplicaciones bancarias, y esos datos no se centralizan en ningún servidor estatal, se protege, entonces, la identidad del usuario y, por ende, su privacidad. Este modo de tratar los datos fue ganando terreno, puesto que, aun cuando los gobiernos podrían hacer uso de las excepciones que el GDPR plantea, son cuidadosos de la libertad individual de los ciudadanos.7

En ese marco, el 10 de abril tanto Apple como Google anunciaron que se unían para modificar los sistemas operativos móviles de los teléfonos europeos, con el objeto de optimizar el uso de Bluetooth para rastrear el contacto entre personas. Sin embargo, la discusión se amplió y surgieron nuevos interrogantes: por un lado, si era conveniente, pertinente y necesario que las autoridades sanitarias centralizaran la información; por otro, si era imprescindible abrir los datos a los ciudadanos. Así, el 20 de abril debutó el primer protocolo de seguridad llamado ROBERT (ROBst and privacy-presERving proximity Tracing). Su principal cualidad era que la información recolectada por las aplicaciones sería centralizada en un servidor nacional de cada país, para que fuese administrada por las autoridades sanitarias. Pero a finales de abril, más de 400 científicos de toda la Unión Europea firmaron una proclama en la que alertaron sobre los riesgos de centralizar la información en servidores estatales.8 Los parlamentarios franceses, cuyos debates se plasmaron en la voz de INRIA, sugirieron algo similar a lo que los alemanes plantearon mediante Fraunhofer: mejor descentralizar la información. Así se conformó un nuevo bando, bajo el nombre DP-3T: Decentralized Privacy-Preserving Proximity Tracing. Es fundamental considerar que este protocolo está codificado en open source. A inicios de junio, solo tres países europeos (Estonia, Finlandia y Suiza) habían adoptado el protocolo DP-3T; mientras que, la gran mayoría, entre la que se encuentran Alemania y Reino Unido, centralizó la información en manos de su autoridad sanitaria.9

En definitiva, gracias a la creatividad de numerosos expertos, al compromiso cívico de muchos ciudadanos, a las llamadas de advertencia en los medios de comunicación, y al impulso de manifestaciones ciudadanas, se logró, en las democracias occidentales, colocar un bozal al indómito potro que prometía arrasar con la privacidad, los datos personales y las libertades individuales. Sin embargo, mientras estas importantes y necesarias discusiones se llevaban a cabo, otro fenómeno estaba sucediendo: el silencioso, invisible y ubicuo trabajo de los ecosistemas de gestión de la atención.

En el clímax del encierro mundial, los satélites mostraban mapas, no territorios. Mientras los ciudadanos estaban inmóviles (encerrados involuntariamente), reinaba, en cambio, un frenético movimiento de lo inmaterial. Esta etapa de la economía política del encierro, lejos de oponerse a la sociedad de la vigilancia o mundo algorítmico, abrió, por el contrario, una nueva etapa que resultó complementaria a la que existía con anterioridad a la pandemia. Mientras la economía política de la vigilancia incentiva el movimiento de las personas, la economía política del encierro registra cómo se mueve el mundo cuando las personas están encerradas y quietas. Antes de la pandemia, la economía política de la vigilancia solo mostraba una cara de su inmenso poderío de fuego: la reconstrucción/representación de nuestro yo en formato digital. Para hacerlo, dicha corriente incentivaba el movimiento de los humanos, porque sin movimiento no había datos. Durante el confinamiento, sin embargo, se ha registrado el movimiento del mundo a partir del encierro de los humanos. Cuando la sociedad se cerró, el paradigma de la vigilancia puso a prueba la capacidad de los artefactos de inteligencia artificial para impulsar una economía de la atención que se ensambla desde y hacia puntos inmóviles (humanos encerrados). Ese difuso mercado de intercambio entre lo simbólico y los datos personales, sujeto a la escasez de tiempo propia de la economía de la atención, entró en una fase experimental en la que esa dimensión se transformó por los efectos de la inmovilidad. Una economía de la atención desde el encierro para el encierro, disponible en nuestros dispositivos móviles ahora inmovilizados, derivó en una oportunidad única para experimentar sobre un viejo enigma de la humanidad.10

Así, durante ese tiempo, se extrajo, almacenó, jerarquizó y utilizó una enorme cantidad de registros sobre aspiraciones, deseos, intereses, preferencias, sentimientos, etcétera, que tienen y expresan los humanos, pero esta vez en una situación única: el encierro no punitivo. El valor de esos datos es inconmensurable, porque, entre otras cosas, permitirá reentrenar sistemas inteligentes, especialmente las “máquinas predictivas”.11 Esta era una fase del entrenamiento que no estaba disponible porque el inmenso cúmulo de datos se había construido con base en la movilidad humana. Poseer esos datos permite plantear buenas preguntas para futuros desarrollos de inteligencia artificial, además de que abre camino para sacar el máximo provecho a los desarrollos actuales. Futuras investigaciones dirán si esta conjetura resulta razonable.

La consolidación de los sistemas de inteligencia artificial

En la sección anterior, destaqué que, durante el encierro, gran parte de las energías cívicas estuvo abocada a limitar la voracidad del Estado sobre nuestros datos personales; menos atención recibieron, en cambio, los nidos de algoritmos que estructuran el alma de la sociedad de plataformas en la que estamos insertos. En esta sección, en cambio, parto de la premisa de que es difícil saber si el encierro nos hizo más conscientes de la capacidad de vigilancia que ejercen los sistemas de inteligencia artificial sobre nuestras vidas, pero de que sí es un hecho que la pandemia, más el encierro, nos introdujo por completo en el interior de los sistemas de inteligencia artificial. Ya fuera mediante un consentimiento tácito, ya mediante un acuerdo inmoral,12 dependiendo de las diferentes aproximaciones que se tengan al respecto, una parte importante de los miembros de nuestras sociedades interactuó con bots y algoritmos tanto para abastecerse de comida como para trabajar, mantenerse escolarizado, entretenerse o saludar, al menos, a sus seres más queridos. La vida cotidiana fue capturada y mediada por innumerables plataformas que extrajeron datos, traquearon conductas, registraron sentimientos, etcétera, alimentando, así, a un conjunto amplio y variado de máquinas predictivas. A fuerza de las circunstancias, la vinculación (tácita y de forma incipiente en muchos casos) con los sistemas de inteligencia artificial terminó reforzando su temprana consolidación, a tal punto que se han vuelto una agencia, con todo el peso que esa palabra tiene en las ciencias sociales. Y ha sucedido a pesar de que la mayoría de los públicos ciudadanos no comprende la naturaleza y significado del concepto, aunque bien puede intuir su alcance. A continuación, ofrezco, para este polémico asunto de los sistemas de inteligencia artificial como “agencia”, un argumento genérico, cuyo foco, por el momento, estará centrado en los sistemas de inteligencia artificial. Dejo, así, para la próxima sección, una tematización específica para los algoritmos.

¿No fue acaso que la disponibilidad de sistemas de inteligencia artificial nos ha llevado a pensar que las únicas salidas eficaces y eficientes para luchar contra la pandemia son, en conjunto, el aislamiento social y la trazabilidad de la conducta de las personas? Esta pregunta y sus fraseos alternativos atravesaron toda la temporalidad de la pandemia. Dicho asunto está presente no solo por lo obvio -el denodado impulso gubernamental por usarla- sino porque toda nuestra vida fue penetrada por estos sistemas. El trabajo, las transacciones comerciales, la escuela, los afectos, el entretenimiento, la participación cívica, la relación con las diferentes ventanillas del Estado, y la lista continúa. Los sistemas de inteligencia artificial dejaron de ser percibidos como la internet. En este sentido, la población, en mayor o menor grado, comenzó a experimentar que estos sistemas, en ausencia de interacciones cara a cara, se volvían cada vez más relevantes en sus vidas cotidianas. La pregunta resultó importante porque llevaba implícita una afirmación: los sistemas de inteligencia artificial son una entidad real porque producen efectos en la realidad. El concepto realismo de entidades, propuesto por el epistemólogo canadiense Ian Hacking,13 nos permitirá acercarnos a este complejo asunto.

Hacking, con su teoría del realismo de entidades, teoría, por supuesto, contraria a gran parte de la tradición imperante en el siglo XX, pone el acento en hacer algo con la realidad en vez de representarla. Diferenciándose del realismo de teorías, sostiene que lo importante para la ciencia son los efectos sobre la realidad, antes que el recelo por la correspondencia entre las hipótesis y la realidad (natural o social). Esta postura le permite afirmar que entidades que no son observables, como el electrón o la caja negra de los algoritmos, son reales porque producen efectos al realizar experimentos. Sin embargo, el realismo de entidades puede dar un paso más: puede afirmar que creemos en la realidad de una entidad por lo que hacemos cuando intervenimos con los experimentos y determinamos sus efectos, incluso si dos o más modelos distintos la definen de maneras diversas en el marco de conjuntos de hipótesis inconmensurables. Hacking propone todo lo anterior, particularmente, para las ciencias naturales, aunque el autor también piensa en las entidades sobre las que producen conocimiento las ciencias sociales. La diferencia entre ambos campos macrodisciplinares sería que en las ciencias naturales no hay vínculo alguno entre Sujeto y Objeto, mientras que sí lo hay entre los objetos clasificados por las ciencias sociales y las palabras que utilizamos. De este modo, el punto podría resumirse afirmando que el plutonio nunca sabe lo que decimos de él, mientras que nosotros sí podemos ser conscientes de que estamos siendo clasificados algorítmicamente con ciertas etiquetas digitales, a través de lo cual estamos siendo narrados, representados y, en definitiva, digitalmente construidos (y/o deconstruidos) tanto individual como subjetivamente, aunque también como población.14

Así, bajo la luz cegadora de esta etapa pandémica, podría pensarse que los datos masivos y los sistemas de inteligencia artificial se utilizan tanto con humanos (cuasi inmóviles) como para intervenir sobre el mundo natural, animado e inanimado (con humanos encerrados). Y es en ese intervenir, en ese hacer, que puede verse que está habiendo una hibridación en métodos, técnicas y herramientas, en ambos tipos de ciencias que hacen algo con la realidad. Se trata de una hibridación con impactos en el funcionamiento de la maquinaria científica: ese caudal enorme de conocimientos, procedimientos, metodologías, teorías, paradigmas, conceptos, clasificaciones ―más un largo etcétera― que se fue acumulando con el tiempo, aunque se encuentra en momentos de cambio profundo. La etapa pandémica nos colocó de bruces ante un procedimiento simbólico que permite anteponer la predicción a la explicación, a diferencia de lo que se suponía tradicionalmente: para predecir se requieren modelos explicativos previos basados en teorías sólidas, confiables y contrastadas empíricamente. Pero es mucho más que eso, porque los científicos de datos, en particular con la inteligencia artificial, buscan producir efectos tanto en el ámbito natural como en el social, y anticiparse a los acontecimientos a partir de la recolección de una inmensa cantidad de datos que los dispositivos digitales almacenan. Así, podría pensarse que los científicos de datos, más que observar, lo que están haciendo es intervenir suponiendo la existencia de una gran cantidad de entidades. Incluso, muchas veces, ni siquiera sabiendo con certeza cuáles son los presupuestos de sus aseveraciones, porque tal vez eso ya no haga falta en la perspectiva de las nuevas disciplinas. Entonces, es válido inferir que, quizá, los seres humanos de hoy nos parezcamos al plutonio que no sabe que ha sido cambiado de etiqueta o de clasificación. E, insisto, esto sucede tanto en el nivel individual como en el subjetivo, pero también en el de la población, es decir, como promedios, estratificaciones, segmentaciones, o trazas digitales.

El enfoque del realismo de entidades ofrece, al menos de forma preliminar, un punto de partida para afirmar que los sistemas de inteligencia artificial producen efectos sin necesidad de saber cómo exactamente lo hacen. En resumen, el realismo de entidades permite tratar a los sistemas de inteligencia artificial como agencias, aun desconociendo cómo y cuántas variables procesan y por qué lo hacen. Esa caja negra (en gran parte incognoscible) que genera efectos no solo consagra a los sistemas de inteligencia artificial como agencias, sino que se instituye como su territorio epistemológico.

Dentro de este contexto argumental, la etapa pandémica nos ha invitado a formular las siguientes preguntas: ¿somos nosotros los que hemos decidido utilizar los sistemas de inteligencia artificial para combatir la pandemia?, ¿o son los efectos de dichos sistemas los que nos han acorralado a usar la inteligencia artificial para combatir la pandemia? Estas son preguntas que, quitándoles el aguijón filosófico que las moviliza, podrán servir, seguramente combinadas y modificadas, en futuras indagaciones relacionadas con la percepción que tienen los diferentes públicos sobre su inmersión en los sistemas de inteligencia artificial.

Los sistemas de inteligencia artificial: ubicuos y escurridizos

En la sección previa, argumenté por qué hay buenas razones para considerar a los sistemas de inteligencia artificial como entidades reales que provocan efectos reales, es decir, pueden ser asimilados a “agencias”. Este asunto, en sus más variadas expresiones, subyace a una creciente preocupación prepandémica: la gobernanza de datos, la gubernamentalidad algorítmica o simplemente algoritmocracia.15 En definitiva, todo parece reducirse a la siguiente cuestión: ¿cómo resulta posible regular a los sistemas de inteligencia artificial dentro del marco de la pluralidad democrática? Sin embargo, antes de poder contestar cómo resulta posible regular algo, es necesario saber qué es ese algo que requiere ser regulado. Una forma de abordar este asunto consiste en suponer que dichos sistemas tienen un sustrato común y que se puede identificar como código o algoritmo. Esto es lo que presento brevemente a continuación.

Hace más de medio siglo, Ross Ashby16 sugirió que los algoritmos no son cosas u objetos, son acciones. Por tanto, su identidad está en lo que hacen, no en lo que son. El intento de reducir los algoritmos, en tanto artefactos de lógica matemática (si..., entonces), a un software (una entidad intangible acotada), resulta una estrategia incorrecta.17 Aunque los algoritmos estén incluidos o imbuidos en el software, es evidente que tienen una entidad no solo diferente, sino separada. En este sentido, resulta adecuado afirmar que un algoritmo es un modo de hacer que genera un flujo de consecuencias escalonadas por instancias de verdad. Los si...., entonces no solo son las reglas y procedimientos, sino que constituyen la arquitectura por donde circulan los datos, lo que permite validar-activar los engranajes que posibilitan transitar de un peldaño a otro. Así, los algoritmos generan interacciones con eventos en pleno desarrollo, incluso tienen la potencialidad de cambiarlo, como sucedió con el famoso caso de Google y su rastreador de influenza en 2011.18 Son entonces un procedimiento inserto en dimensiones de conocimiento y flujos de prácticas sociales19 que siempre están cambiando (versión y actualización) y que, en muchos casos, tienen existencias (por decirlo de alguna manera) paralelas o duplicadas (experimentación y testeo), lo que ocasiona que sus interrelaciones (como manojo o nido de algoritmos) también tengan esa especie de entidad cambiante, sin una fijación o permanencia ontológica.20

La esencia huidiza y la interacción dinámica que generan los algoritmos sobre los agentes y sus acciones pueden ser entendidas mejor a partir de la metáfora de máquinas predictivas.21 Los sistemas de inteligencia artificial son, desde el punto de vista de su eficacia, un sistema predictivo con muchas, con miles o con cientos de miles de variables según la complejidad y naturaleza del asunto por tratar o resolver. Para retratar esto se ha invocado a Marvin Minsky, uno de los padres indiscutidos de la inteligencia artificial. Minsky planteó en su libro The Society of Mind una pregunta retórica de alcances devastadores que podemos presentar del siguiente modo:22 ¿cuál es el truco (mágico) que nos hace inteligentes? La respuesta es implacable: el truco es que no hay truco. El poder de la inteligencia emana de nuestra vasta diversidad, no de un único y perfecto principio. Eso es justamente lo que hacen los sistemas de inteligencia artificial: ponen en funcionamiento esa vasta diversidad de variables y, además, logran aprender de los datos.

Los sistemas de inteligencia artificial, con abstracción de las herramientas de inteligencia artificial utilizadas (aprendizaje automático, aprendizaje profundo, árbol bayesiano, etcétera), generan unos resultados que se caracterizan por ser poco cognoscibles para los usuarios, pero también para los expertos. Son tantas las variables que los sistemas de inteligencia artificial gestionan que no resulta fácil conocer con exactitud cuáles son las razones para que suceda x en el momento y. Aunque todo este accionar se justifique por la existencia de un meta-objetivo (por ejemplo, eficiencia, seguridad, etcétera), los humanos no pueden entender o comprender las razones del éxito del sistema.23 Esta falta de comprensión ha llevado a que los expertos tracen un paralelismo entre el funcionamiento de los sistemas de inteligencia artificial con las cajas negras. Así, la capacidad de los sistemas de inteligencia artificial para analizar automatizadamente los datos hace que todo el proceso sea no-interpretable en el nivel del lenguaje humano.24 De esta forma, el concepto de la caja negra, a la vez que metáfora, delimita un espacio secreto, oculto y desconocido, y de este modo, también, la capacidad cognitiva limitada de los humanos contrasta con la capacidad automatizada de lidiar con centenares de miles de variables.

Sin embargo, el concepto de caja negra se basa en un axioma inicial: lo que está dentro de ella puede ser, mediante las herramientas y procesos adecuados, conocido.25 No obstante, una mirada más escéptica nos devuelve a un terreno más árido: ¿cómo conocer lo que desconocemos? De alguna forma, el clásico aude sapere se vuelve un asunto práctico, es decir, un problema epistemológico.26 Pero este problema epistemológico ya no está, ahora, formulado en el nivel agencial de los sistemas de inteligencia artificial, sino que hace referencia a cómo delimitar y conocer lo que está en la caja negra. De lo contrario, resultará muy difícil regular lo que no se puede conocer.

La etapa pandémica puso este asunto en perspectiva. Al inicio de la pandemia, los editores e ilustradores de la revista The Economist del 28 de marzo captaron, con fina ironía, este engorroso asunto.27 La tapa o portada en cuestión mostraba a una persona con barbijo que sujeta, correa mediante, a una mascota con barbijo, mientras es sujetada, correa mediante, por otra entidad, presumiblemente humana. La ilustración colocaba a los sistemas de inteligencia artificial en el centro de la escena, pero también nos instaba a preguntarnos quién y cómo se controlan estos sistemas. De alguna manera, se trataba de una invitación a conocer lo que hay en la caja negra.

Conclusión: ¿comenzó el declive la pax técnica?

Los públicos que conforman la opinión pública de cada sociedad han percibido los múltiples aspectos que moldean esta etapa pandémica de diferentes formas; han enjuiciado las decisiones políticas de maneras alternativas, y ven el horizonte futuro con distintas lentes. Los variados públicos que conforman la opinión pública de nuestras democracias se han mostrado inquietos frente al traqueo y la vigilancia. Se han mostrado receptivos, pero también prudentes frente a las estrategias gubernamentales del dinero helicóptero. Lo mismo ha sucedido con los petitorios a lo largo y ancho de varias sociedades para instaurar un Ingreso Universal Básico y el acceso a bienes universales. Los públicos han estado expectantes frente a la carrera por la creación de la fórmula de la vacuna, mientras los gobiernos esperaban acertar sobre la elección del camino exitoso en términos de gestión sanitaria. Actualmente, existen acaloradas discusiones sobre cuáles deberían ser ―siguiendo el pionero trabajo de Elster―28 los criterios globales de justicia distributiva para asignar la vacuna, de cara a la pregunta de cuáles serían los criterios locales y quiénes son responsables de presentar esos criterios. Estas discusiones son diferentes en cada sociedad y esto ha sucedido no solo por lo obvio, que, para expresarlo en términos de Jaspers, sería algo así como que los ciudadanos lo son de un país, no del mundo, sino porque los ecosistemas de gestión de la atención parecen haber dejado de tener una convivencia pacífica con los políticos y también con algunos gobiernos. El asunto en cuestión no radica en asumir que los ecosistemas de gestión de la atención desempeñan un papel estratégico en la dinámica de la opinión pública, sino, más bien, en destacar que los intereses de los empresarios de dicho sector y los políticos ya no parecen tener intereses convergentes. Sobre este asunto he querido concluir lo siguiente.

Durante la presidencia de Trump, hubo momentos de mucha tensión entre la Casa Blanca y la empresa Twitter, así como también, aunque en menor medida, con Facebook. Eso ya es un hecho que constituye parte del acervo informativo de la opinión pública internacional. Sin embargo, más allá del tipo de liderazgo ejercido por el entonces presidente Trump, el contexto de las tensiones fue vital. Los públicos ciudadanos que ya habían experimentado las estrategias de Facebook durante la campaña electoral de Obama fueron también testigos del escándalo que envolvió a Cambridge Analytica durante el Brexit. Con una experiencia reciente a sus espaldas, los públicos ciudadanos contaban con más herramientas para observar con cautela el año electoral. Sin embargo, el complejo proceso electoral que catapultó a la presidencia a Biden no solo mostró el poder que ejercen los algoritmos de los ecosistemas de atención sobre los ciudadanos, sino que puso en evidencia cómo las principales empresas que lideran estos ecosistemas tensaron el frágil equilibrio entre ellas y los políticos. Esas escaramuzas entre el sector tech y los políticos alcanzaron su clímax cuando Twitter canceló la cuenta del derrotado, pero todavía Presidente, Trump. Así, muchos analistas se han inclinado a pensar que el accionar de Twitter se reduce a extraer leña del árbol caído, pero también cabe la posibilidad de que el sector tech, en la voz de Twitter, estuviera enviando una señal a toda la clase política de Estados Unidos.

Trump, durante su presidencia, amenazó, en más de una oportunidad, con la necesidad de regular los ecosistemas de gestión de la atención. Incluso Sanders, durante su campaña como precandidato, se manifestaba a favor de la regulación. Esto muestra, por razones que todavía hay que establecer con precisión, que la pax técnica29 entre el sector tech y los políticos comenzó a resquebrajarse. La herramienta que los diferentes políticos tienen a la mano en Estados Unidos para regular a los ecosistemas de gestión de la atención es la revisión de la Sección 230 de la Ley de Decencia de las Comunicaciones. Jugar a revisar la Sección 230 consiste en asumir que el sector tech ha sacado los pies fuera del plato, es decir, la amenaza de revisar no es más que una invitación a volver a un statu quo perdido. En la actualidad, muchos analistas se preguntan30 si el presidente Biden regulará los ecosistemas de atención. La pregunta, aunque válida, no termina de dar en el blanco. Por la capacidad de agencia que tienen los algoritmos y su errancia ontológica, la pregunta más pertinente es si podrá hacerlo. Y esto viene a cuento no solo por la naturaleza de lo que hay que regular, sino porque los políticos suelen ser conscientes de las limitaciones gubernamentales a las que están sometidos. Un político sabe que una amenaza es más valiosa que una mala regulación. El escenario está abierto.

Referencias

Agrawal, Ajay, Gans, Joshua y Goldfarb, Avi, Máquinas predictivas. La sencilla economía de la inteligencia artificial, Reverté, Barcelona, España, 2019. [ Links ]

Ashby, Ross, An Introduction to Cybernetics [1956], Martino Fine Books, Eastford, Connecticut, EE. UU., 2015. [ Links ]

Avaro, Dante, “China: el control social y el gobierno de los datos”, Ámbito Financiero, Buenos Aires, Argentina, 11 de julio, 2019. Disponible en < https://bit.ly/3qTRzYe >, [fecha de consulta: 19 de febrero, 2021]. [ Links ]

Avaro, Dante, Stropparo, Pablo y Berchi, Mauro A., Entre barbijos. Reflexiones acerca de la libertad en la pandemia, Fundación Apolo, Buenos Aires, Argentina, 2020. Disponible en < https://bit.ly/3g4hEzJ >, [fecha de consulta: 19 de febrero, 2021]. [ Links ]

Axios, “India Announces Nationwide Lockdown to Stop Spread of Coronavirus”, Axios, EE. UU., 24 de marzo, 2020. Disponible en < https://bit.ly/37Kn4wq >, [fecha de consulta: 19 de febrero, 2021]. [ Links ]

Bucher, Taina, If... Then: Algorithmic Power and Politics, Oxford University Press, Oxford, Reino Unido, 2018. [ Links ]

Danaher, John, “The Threat of Algocracy: Reality, Resistance and Accommodation”, Philosophy and Technology, vol. 29, núm. 3, Springer Nature, Londres, Reino Unido, 2016, pp. 245-268. Disponible en < https://link.springer.com/article/10.1007/s13347-015-0211-1 >, DOI: https://doi.org/10.1007/s13347-015-0211-1, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Dillet, Romain, “Hundreds of French Academics Sign Letter Asking for Safeguards on Contact Tracing”, TechCrunch, EE. UU., 27 de abril, 2020. Disponible en < https://tcrn.ch/3dKBC38 >, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Elster, Jon, Local Justice: How Institutions Allocate Scarce Goods and Necessary Burdens, Russell Sage Foundation, Nueva York, EE. UU., 1992. [ Links ]

Galison, Peter, “Removing Knowledge”, Critical Inquiry, vol. 31, núm. 1, University of Chicago Press, Chicago, Illinois, EE. UU., 2004, pp. 229-243. Disponible en < https://www.journals.uchicago.edu/doi/10.1086/427309 >, DOI: <https://doi.org/10.1086/427309>, [fecha de consulta: 19 de febrero, 2021]. [ Links ]

Gillespie, Tarleton, “Algorithm”, en Peters, Benjamin (ed.), Digital Keywords: A Vocabulary of Information Society and Culture, Princeton University Press, Princeton, Nueva Jersey, EE. UU., 2016, pp. 18-30. [ Links ]

Hacking, Ian, Historical Ontology, Harvard University Press, Cambridge, Massachusetts, EE. UU., 2002. [ Links ]

Hacking, Ian, ¿La construcción social de qué?, Paidós, Barcelona, España, 2001. [ Links ]

Hacking, Ian, Representar e intervenir, Paidós y Universidad Nacional Autónoma de México, D. F., México, 1996. [ Links ]

Howard, Philip, Pax Technica: How the Internet of Things May Set Us Free or Lock Us Up, Yale University Press, New Haven, Connecticut, EE. UU., 2015. [ Links ]

Howell O’Neill, Patrick, Ryan-Mosley, Tate y Johnson, Bobbie, “A Flood of Coronavirus Apps Are Tracking Us. Now It’s Time to Keep Track of Them”, MIT Technology Review, Cambridge, Massachusetts, EE. UU., 7 de mayo, 2020. Disponible en < https://bit.ly/3uuxnhR >, [fecha de consulta: 19 de febrero, 2021]. [ Links ]

Kroll, Joshua, Huey, Joanna, Barocas, Solon, Felten, Edward, Reidenberg, Joel, Robinson, David y Yu, Harlan, “Accountable Algorithms”, University of Pennsylvania Law Review, vol. 165, núm. 3, Filadelfia, Pensilvania, EE. UU., 2017, pp. 633-705. Disponible en < https://bit.ly/3uMRfM2 >, [fecha de consulta: 19 de febrero, 2021]. [ Links ]

Minsky, Marvin, Society of Mind, Simon and Schuster, Nueva York, EE. UU., 1988. [ Links ]

Odell, Rachel Esplin, “Chinese Regime Insecurity, Domestic Authoritarianism, and Foreign Policy”, en Wright, Nicholas D. (ed.), Artificial Intelligence, China, Russia, and the Global Order: Technological, Political, Global, and Creative Perspectives, Air University Press, Maxwell, Alabama, EE. UU., 2018, pp. 123-128. [ Links ]

Oppenheimer, Andrés, “¿Regulará Joe Biden las redes sociales?”, La Nación, Buenos Aires, Argentina, 27 de enero, 2021. Disponible en < https://bit.ly/3bM2qND >, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Rodríguez Yebra, Martín, “El vacunatorio VIP del doctor Ginés y un daño brutal al plan sanitario”, La Nación, Buenos Aires, Argentina, 19 de febrero, 2021. Disponible en < https://bit.ly/3dJOdn1 >, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Santayana, George, Soliloquies in England and Later Soliloquies, Constable and Company LTD, Londres, Reino Unido, 1922. [ Links ]

The Economist, “Everything’s Under Control: Big Government, Liberty and the Virus”, The Economist, Londres, Reino Unido, 28 de marzo, 2020. Disponible en < https://econ.st/3g3IFDs >, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Varian, Hal, “Big Data: New Tricks for Econometrics”, The Journal of Economic Perspectives, vol. 28, núm. 2, The American Economic Association, Nashville, Tennessee, EE. UU., 2014, pp. 3-28. Disponible en < https://www.aeaweb.org/articles?id=10.1257/jep.28.2.3 >, DOI: http://dx.doi.org/10.1257/jep.28.2.3, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Zarsky, Tal, “Transparent Predictions”, University of Illinois Law Review, núm. 4, Champaign, Illinois, EE. UU., 2013, pp. 1503-1570. Disponible en < https://bit.ly/3ib8l3C >, [fecha de consulta: 20 de febrero, 2021]. [ Links ]

Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Public Affairs, Nueva York, EE. UU., 2019. [ Links ]

1 George Santayana, Soliloquies in England and Later Soliloquies, Constable and Company LTD, Londres, Reino Unido, 1922, p. 102.

2Ver Martín Rodríguez Yebra, “El vacunatorio VIP del doctor Ginés y un daño brutal al plan sanitario”, La Nación, Buenos Aires, Argentina, 19 de febrero, 2021. Disponible en <https://bit.ly/3dJOdn1>, [fecha de consulta: 20 de febrero, 2021].

3Ver Axios, “India Announces Nationwide Lockdown to Stop Spread of Coronavirus”, Axios, EE. UU., 24 de marzo, 2020. Disponible en <https://bit.ly/37Kn4wq>, [fecha de consulta: 19 de febrero, 2021].

4Ver Dante Avaro, “China: el control social y el gobierno de los datos”, Ámbito Financiero, Buenos Aires, Argentina, 11 de julio, 2019. Disponible en <https://bit.ly/3qTRzYe>, [fecha de consulta: 19 de febrero, 2021].

5En la literatura especializada se considera la gamificación (gamification) como la aplicación de la lógica de los juegos de computadora (competencia, premios, castigos, accesos, puntajes, etcetera) en situaciones de la vida social y productiva. La Real Academia Española desaconseja el uso de la palabra gamificación por ser muy poco transparente en terminos semánticos y sugiere, por tanto, ludificación. Sin embargo, creo que en el contexto de este trabajo, gamificación resulta más pertinente para transmitir la idea de cómo el autoritarismo apela a la inteligencia artificial para dar una vuelta de tuerca al control social. (Rachel Esplin Odell, “Chinese Regime Insecurity, Domestic Authoritarianism, and Foreign Policy”, en Nicholas D. Wright (ed.), Artificial Intelligence, China, Russia, and the Global Order: Technological, Political, Global, and Creative Perspectives, Air University Press, Maxwell, Alabama, EE. UU., 2018, pp. 123-128).

6Ver Dante Avaro, Pablo Stropparo y Mauro A. Berchi, Entre barbijos. Reflexiones acerca de la libertad en la pandemia, Fundación Apolo, Buenos Aires, Argentina, 2020. Disponible en <https://bit.ly/3g4hEzJ>, [fecha de consulta: 19 de febrero, 2021].

7Idem.

8Ver Romain Dillet, “Hundreds of French Academics Sign Letter Asking for Safeguards on Contact Tracing”, TechCrunch, EE. UU., 27 de abril, 2020. Disponible en <https://tcrn.ch/3dKBC38>, [fecha de consulta: 20 de febrero, 2021].

9Ver Patrick Howell O’Neill, Tate Ryan-Mosley y Bobbie Johnson, “A Flood of Coronavirus Apps are Tracking Us. Now It’s Time to Keep Track of Them”, MIT Technology Review, Cambridge, Massachusetts, EE. UU., 7 de mayo, 2020. Disponible en <https://bit.ly/3uuxnhR>, [fecha de consulta: 19 de febrero, 2021].

10Ver Dante Avaro, Pablo Stropparo, Mauro A. Berchi, op. cit.

11Ver Ajay Agrawal, Joshua Gans y Avi Goldfarb, Máquinas predictivas. La sencilla economía de la inteligencia artificial, Reverté, Barcelona, España, 2019.

12La extracción de datos puede pensarse como una especie de consentimiento tácito o bien como una inmoralidad. Para lo primero, ver Hal Varian, “Big Data: New Tricks for Econometrics”, The Journal of Economic Perspectives, vol. 28, núm. 2, The American Economic Association, Nashville, Tennessee, EE. UU., 2014, pp. 3-28. Disponible en <https://www.aeaweb.org/articles?id=10.1257/jep.28.2.3>, DOI: http://dx.doi.org/10.1257/jep.28.2.3, [fecha de consulta: 20 de febrero, 2021]. Para la segunda postura, puede verse Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Public Affairs, Nueva York, EE. UU., 2019.

13Ver Ian Hacking, Representar e intervenir, Paidós y Universidad Nacional Autónoma de México, D. F., México, 1996; Ian Hacking, ¿La construcción social de qué?, Paidós, Barcelona, España, 2001; Ian Hacking, Historical Ontology, Harvard University Press, Cambridge, Massachusetts, EE. UU., 2002.

14Ver Dante Avaro, Pablo Stropparo, Mauro A. Berchi, op. cit.

15Ver John Danaher, “The Threat of Algocracy: Reality, Resistance and Accommodation”, Philosophy and Technology, vol. 29, núm. 3, Springer Nature, Londres, Reino Unido, 2016. pp. 245-268. Disponible en <https://link.springer.com/article/10.1007/s13347-015-0211-1>, DOI: https://doi.org/10.1007/s13347-015-0211-1, [fecha de consulta: 20 de febrero, 2021].

16Ver Ross Ashby, An Introduction to Cybernetics [1956], Martino Fine Books, Eastford, Connecticut, EE. UU., 2015.

17Ver Taina Bucher, If... Then: Algorithmic Power and Politics, Oxford University Press, Oxford, Reino Unido, 2018.

18Ver Taina Bucher, op. cit.

19Ver Tarleton Gillespie, “Algorithm”, en Benjamin Peters (ed.), Digital Keywords: A Vocabulary of Information Society and Culture, Princeton University Press, Princeton, Nueva Jersey, EE. UU., 2016, pp. 18-30.

20Ver Taina Bucher, op. cit.

21Ver Ajay Agrawal, Joshua Gans, Avi Goldfarb, op. cit.

22 Marvin Minsky, Society of Mind, Simon and Schuster, Nueva York, Nueva York, EE. UU., 1988, p. 121.

23Ver Joshua Kroll, Joanna Huey, Solon Barocas, Edward Felten, Joel Reidenberg, David Robinson y Harlan Yu, “Accountable Algorithms”, University of Pennsylvania Law Review, vol. 165, núm. 3, Filadelfia, Pensilvania, EE. UU., 2017, pp. 633-705. Disponible en <https://bit.ly/3uMRfM2>, [fecha de consulta: 19 de febrero, 2021].

24Ver Tal Zarsky, “Transparent Predictions”, University of Illinois Law Review, núm. 4, Champaign, Illinois, EE. UU., 2013, pp. 1503-1570. Disponible en <https://bit.ly/3ib8l3C>, [fecha de consulta: 20 de febrero, 2021].

25Ver Taina Bucher, op. cit.

26Ver Taina Bucher, op. cit; Joshua Kroll, Joanna Huey, Solon Barocas, Edward Felten, Joel Reidenberg, David Robinson y Harlan Yu, op. cit.; Peter Galison, “Removing Knowledge”, Critical Inquiry, vol. 31, núm. 1, University of Chicago Press, Chicago, Illinois, EE. UU., 2004, pp. 229-243. Disponible en <https://www.journals.uchicago.edu/doi/10.1086/427309>, DOI: <https://doi.org/10.1086/427309>, [fecha de consulta: 19 de febrero, 2021].

27Ver The Economist, “Everything’s Under Control: Big Government, Liberty and the Virus”, The Economist, Londres, Reino Unido, 28 de marzo, 2020. Disponible en <https://econ.st/3g3IFDs>, [fecha de consulta: 20 de febrero, 2021].

28Ver Jon Elster, Local Justice: How Institutions Allocate Scarce Goods and Necessary Burdens, Russell Sage Foundation, Nueva York, EE. UU., 1992.

29 Philip Howard, Pax Technica: How the Internet of Things May Set Us Free or Lock Us Up, Yale University Press, New Haven, Connecticut, EE. UU., 2015.

30Ver, por ejemplo, Andrés Oppenheimer, “¿Regulará Joe Biden las redes sociales?”, La Nación, Buenos Aires, Argentina, 27 de enero, 2021. Disponible en <https://bit.ly/3bM2qND>, [fecha de consulta: 20 de febrero, 2021].

Recibido: 01 de Marzo de 2021; Aprobado: 22 de Abril de 2021

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons