SciELO - Scientific Electronic Library Online

 
vol.69 número252El exilio como experiencia: abordaje interdisciplinario y multidimensional de la configuración de experiencias de exilios literariosDiáspora digital: una nueva dimensión conceptual índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

Compartir


Revista mexicana de ciencias políticas y sociales

versión impresa ISSN 0185-1918

Rev. mex. cienc. polít. soc vol.69 no.252 Ciudad de México sep./dic. 2024  Epub 08-Abr-2025

https://doi.org/10.22201/fcpys.2448492xe.2024.252.89335 

Dossier

Espacios de excepción y tecnosecuritización de la movilidad humana en Norteamérica. Del control corpóreo al algorítmico-digital

Spaces of Exception and Techno-Securitization of Human Mobility in North America. From Corporeal to Algorithmic-Digital Control

Agustín Morales Mena* 

* Facultad de Ciencias Políticas y Sociales, UNAM, México. Correo electrónico: <agustinmorales@politicas.unam.mx>.


Resumen

El propósito de este artículo es identificar y analizar los usos y abusos relacionados con innovaciones tecnológicas empleadas para la gobernanza de la movilidad humana en Norteamérica en la última década. A partir de rastreo de procesos y análisis de contenido se desarrollan tres objetivos: 1) se formula una cartografía para el estudio del estado de excepción migratorio y de refugio, cuya evolución ha incorporado en años recientes los entornos de gobernanza algorítmica y tecnológica; 2) se examinan dispositivos de gestión y contención relacionados con big data, algoritmos, aprendizaje automatizado, inteligencia artificial y otras tecnologías que reproducen violaciones a derechos humanos a partir de su convergencia con fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y privatización de la excepción; y 3) se propone el neologismo tecnosecuritización. El prefijo tecno-, no se refiere sólo al uso de herramientas digitales. Coloca en el centro de la discusión la narrativa vinculada a la tecnificación, y sus supuestos de imparcialidad, eficiencia, transparencia y empoderamiento que permiten legitimar la criminalización y la negación de derechos de personas migrantes y refugiadas en el siglo XXI.

Palabras clave: estado de excepción; securitización; tecnosecuritización; inteligencia artificial; big data; migración; gobernanza algorítmica

Abstract

The purpose of this article is to identify and analyze the uses and abuses related to technological innovations used for the governance of human mobility in North America in the last decade. Based on process tracing and content analysis, three objectives are developed: 1) a cartography is proposed for the study of the state of migratory and refugee exception, whose evolution has incorporated algorithmic and technological governance environments in recent years; 2) management and containment devices related to big data, algorithms, machine learning, artificial intelligence and other technologies that reproduce human rights violations based on their convergence with smart borders, virtual borders, algorithmic discrimination, permanent surveillance and privatization of the exception are examined; 3) the neologism techno-securitization is proposed. The prefix techno- does not refer only to the use of digital tools. It places at the center of the discussion the narrative linked to technification, and its assumptions of impartiality, efficiency, transparency and empowerment that allow legitimizing the criminalization and denial of rights of migrants and refugees in the 21st century.

Keywords: state of exception; securitization; technosecuritization; artificial intelligence; big data; migration; algorithmic governance

Introducción

Desde la década de los noventa del siglo pasado y hasta la actualidad, personas en contextos de movilidad humana en Norteamérica han sido víctimas de distintas violaciones a sus derechos humanos (OACDH, 2016; CIDH, 2023). Estas transgresiones han sido sistematizadas, visibilizadas y analizadas a través de espacios de excepción como corredores migratorios, operativos, centros de detención y el sistema de asilo. No obstante, esta cartografía, que revela un estado de excepción y sus espacios de materialización, física, corpórea y territorial, ha encontrado en sistemas de alta tecnología y entornos digitales un nuevo entramado para la discriminación y la vulneración de derechos con impacto en la vida de personas que por decisión o forzadamente han salido de sus países.

Este artículo tiene tres objetivos. En primer lugar, formular, a manera de preámbulo, una cartografía para el análisis del estado de excepción migratorio y de refugio que parte del reconocimiento de sus espacios y cuya evolución en las últimas dos décadas ha sumado los entornos de gobernanza algorítmica y tecnológica. El segundo objetivo consiste en exponer cómo algoritmos, aprendizaje automatizado, inteligencia artificial y aparatos de avanzada tecnología permiten reproducir prácticas que limitan el acceso a derechos. Estos dispositivos apuntalados a través de fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y privatización de la excepción tienen como consecuencia la criminalización de la migración irregular en la región.

Finalmente, se propone el neologismo tecnosecuritización, cuya raíz “securitización” es entendida como el entramado narrativo que apuntala amenazas y legitima medidas que de otro modo no serían justificables (Balzacq, 2011). En este sentido, el prefijo tecno- no se refiere simplemente al uso de innovaciones digitales y tecnológicas. Coloca en el foco los supuestos y relatos relacionados con la imparcialidad, eficiencia, transparencia y empoderamiento vinculados a la tecnificación que permiten normalizar e invisibilizar la negación de derechos a personas migrantes y refugiadas en pleno siglo XXI.

Para alcanzar estos objetivos se sistematizaron libros y artículos publicados en la últimas dos décadas relacionados con derechos humanos y digitales, estado de excepción, securitización e informes sobre el uso de nuevas tecnologías en la gestión de la movilidad humana. Posteriormente se empleó el rastreo de procesos y análisis de contenido tipológico y evaluativo. Finalmente se triangularon los hallazgos para validación y conclusiones.

El estado de excepción migratorio y de refugio

El estado de excepción se define como la pausa en la aplicación del marco jurídico para poder hacer lo indecible en crisis o situaciones de emergencia con el fin de garantizar la continuidad del statu quo.1 Involucra una política de Estado, es decir, un conjunto de estrategias, acciones y recursos transversalmente instrumentalizados en su territorio, cuerpo y fuerza operativa para contener una amenaza real o supuesta. De acuerdo con Giorgio Agamben, en la época actual y desde el fin de las guerras mundiales opera un estado de excepción permanente a nivel planetario, ya que ha dejado de ser una medida provisional, para convertirse en una política en la que guerras externas e internas que no tienen inicio ni fin, solo cambian de estrategias y adversarios (Agamben, 2005). Aunque Agamben retoma y parte de la biopolítica, la nuda vida y el homo sacer, el estado de excepción actualmente incorpora la “administración masiva de poblaciones a través de la muerte a gran escala”, es decir, lo que Achille Mbembe (2011) ha llamado necropolítica. Sus estrategias comprenden la violencia estatal, paramilitar, criminal, la coerción, la acumulación por desposesión, la militarización, la precariedad, la pulsión genocida y el despojo territorial vinculado a proyectos neoextractivos y a la movilidad humana (Mbembe, 2016). Un elemento clave de la aportación de Mbembe es también reconocer el papel de agentes no estatales en prácticas necropolíticas.

En el presente siglo se han implementado estados de excepción constitucionales o de facto con impacto en personas migrantes y refugiadas. Ejemplos van desde las acciones ejecutadas por Estados Unidos a partir de los ataques del 11 de septiembre de 2001, la respuesta de Europa ante la crisis de refugiados de 2015 y 2016, hasta las políticas de mitigación durante la pandemia por Covid-19. Entre las medidas de excepción se encuentran cierre de fronteras, toques de queda, despliegue militar dentro y fuera de fronteras nacionales, limitaciones a la libertad de tránsito y de reunión, cateos y detenciones sin orden judicial, propaganda en redes sociales, censura y control de medios de comunicación, entre otras estrategias y dispositivos que han acotado el acceso a derechos.

Las prácticas de excepción violatorias de derechos humanos en el ámbito migratorio y de refugio han sido expuestas por numerosos estudios. Un panorama preciso lo ofreció en 2016 la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos que emitió el informe Situación de los migrantes en tránsito. En este documento expusieron prácticas recurrentes de distintos países relacionadas con: 1) exposición a la muerte o lesiones a partir de operativos violentos, cercos y construcción de muros; 2) militarización de la seguridad fronteriza en confines marítimos y terrestres; 3) detenciones arbitrarias con prácticas violatorias de derechos humanos; 4) deportaciones masivas y sin el debido proceso; 5) dilación en solicitudes de asilo y violación del principio de no devolución (non refoulement); 6) negación de derechos económicos, sociales y culturales; y 7) violencia, abusos y explotación (OACDH, 2016).

Desde entonces, cada una de estas prácticas ha incorporado rápidamente nuevas tecnologías, algunas sumándose a objetivos específicos como la vigilancia fronteriza, solicitudes de refugio o centros de detención migratoria y otras generando un espacio de excepción digital propio. Esto ha sido expuesto por investigaciones que han estudiado el impacto del uso de algoritmos, inteligencia artificial y sistemas automatizados de control y vigilancia fronteriza (Kinchin, 2021; Akhmetova y Harris, 2021; Bircan y Korkmaz, 2021; Kinchin y Mougouei, 2022; Nalbandian, 2022). A la par, las redes sociales se han establecido como un nuevo espacio público virtual para la reproducción y viralización de discursos de odio, xenofobia y racismo. En suma, nuevas tecnologías se han integrado con prácticas bio y necropolíticas existentes hacia personas migrantes y refugiadas, las cuales han transitado por un proceso de hibridación entre lo corpóreo y lo digital.

Cartografía de la excepción en la gestión de la movilidad humana en Norteamérica

La gestión migratoria y de refugio en el siglo XXI en Europa y Norteamérica ha convertido las rutas y corredores en espacios de excepción. Esto a partir del despliegue de acciones fuera del ordenamiento jurídico ya sea para encausar el tránsito, obstaculizar el camino de migrantes y solicitantes de refugio o para facilitar detenciones masivas (Kasparek, 2016). Por ello, para su estudio se propone hacerlo a partir del reconocimiento de espacios de excepción. Esto involucra examinar etapas, agentes y coordenadas más allá de fronteras nacionales para visibilizar sus prácticas de poder y contrapoder.

Mezzandra y Neilson (2017) señalan que los espacios de excepción comprenden fronteras dinámicas y porosas con tensiones, tiempos, ritmos, negociaciones donde se desarrollan y emergen redes económicas y culturales en las cuales coexisten acciones de resistencia y organización. Por lo tanto, es recurrente en estudios de este tipo ir más allá de la verticalidad biopolítica del cuerpo gestionado, para reconocer resistencias y consecuencias humanas ante la implícita criminalización de la movilidad humana (Benhabib, 2020).

Con este preámbulo, surge de la necesidad epistemológica y metodológica de proponer una cartografía de la excepción migratoria y de refugio a partir de espacios, lo cual busca: 1) sumar a los aportes filosóficos, legales y críticos que la abordan en un nivel más abstracto; 2) evitar que se convierta en un concepto vacío o comodín para explicar cualquier política de contención vinculada a la movilidad humana; 3) abonar a la posibilidad de contar con estudios transdisciplinarios o con métodos mixtos; 4) permitir su espacialización, su operacionalización multidimensional, y por lo tanto según sea el objetivo, contar con la posibilidad de una perspectiva amplia de la excepción o llevarla a estudios de caso; 5) finalmente, ayuda comprender cómo cada espacio de excepción se encuentra incrustado o integrado (embedded) a un entramado de dispositivos en un todo más amplio relacionado a la gobernanza migratoria.

La cartografía de excepción migratoria y de refugio propuesta está conformada por: 1) corredores migratorios; 2) operativos de detención, 3) centros de detención migratoria; 4) sistema de asilo y refugio; y 5) entornos de gobernanza algorítmica y tecnológica. Para el análisis de cada uno se propone abordarlo bajo la consideración de sus fronteras físicas o digitales, los agentes involucrados, los dispositivos,2 las prácticas de excepción, el ritmo con el que ocurren, las consecuencias humanas de su despliegue y las resistencias que se articulan.3

Fuente: elaboración propia.

Figura 1 Cartografía para el estudio de la excepción migratoria y de refugio en Norteamérica 

Corredores migratorios

Son el primer espacio de excepción el cual concurre durante el tránsito libre entre su origen y destino propuesto (Kasparek, 2016). Sus fronteras son abiertas y permeables con vectores materiales, políticos y naturales propios de las localidades, las vías de tren, los caminos, los ríos y los mares de tránsito. Cruzan e interconectan rutas y puntos de afluencia continentales y marítimos. Es un espacio con itinerarios históricos afianzados, que van desde Sudamérica cruzando por el Darién, Centroamérica y México, hasta llegar a Estados Unidos y Canadá (OIM, 2024).

En estos corredores una diversidad de actores estatales, sociales y criminales son los protagonistas de la excepción a través de violaciones a derechos humanos y delitos contra personas en contextos de movilidad. Así, el componente migratorio se encuentra imbricado en la cotidianeidad de las comunidades donde participan policías locales, estatales, federales, fuerzas armadas, polleros, traficantes de personas, pandillas, personal de medios de transporte aéreos, marítimos y terrestres, medios de comunicación, crimen organizado e incluso grupos de extrema derecha que han efectuado vigilancia fronteriza armada como Minuteman Project y United Constitutional Patriots en Estados Unidos o Soldiers of Odin y La Meute en Canadá. En este espacio de excepción son habituales violaciones al derecho al libre tránsito, al trabajo y la prohibición de la esclavitud, a la salud, a la vida, a no ser criminalizado, a la dignidad humana, a la libertad de reunión y asociación y al refugio. Por su parte, los principales delitos de los cuales son víctimas las personas en contextos de movilidad son robos, fraudes, discriminación estructural y social, lesiones, violencia letal, tráfico de personas, abuso sexual, secuestros, extorsiones, abuso de autoridad y amenazas (CNDH, 2018; REDODEM, 2023; OACDH, 2023b; HRW, 2023).

Operativos de detención

Tienen como objetivo contener la migración irregular y la llegada de personas solicitantes de refugio. Sus confines son dinámicos y se modulan a lo largo de la frontera vertical hacia el norte a través de retenes en vías del tren, carreteras, localidades de tránsito y fronteras. En el caso de México, los operativos son realizados por el Instituto Nacional de Migración (INM), la Guardia Nacional, el Ejército y en ocasiones por policías municipales que llevan a cabo detenciones arbitrarias a pesar de no contar con facultades para ello. En Estados Unidos, son efectuados por el United States Department of Homeland Security (DHS) y sus brazos la United States Customs and Border Protection (CBP) y el United States Immigration and Customs Enforcement (ICE).4 Finalmente, en Canadá los operativos, que dicho sea son menos numerosos que los implementados en México y Estados Unidos, son desplegados por la Canada Border Services Agency (CBSA). Otras instancias que colaboran en operativos son la Royal Canadian Mounted Police (RCMP), la policía montada, y policías locales, cuando es necesario su acompañamiento si hay algún perfil delictivo.

En los operativos de detención, las prácticas de excepción se encuentran atomizadas. Las más frecuentes son el uso excesivo de la fuerza, la discriminación, el perfilamiento étnico y racial, el uso de armas de fuego, eléctricas, violaciones al debido proceso, extorsiones, expulsiones sumarias como las reportadas en la frontera de Estados Unidos con México, abuso sexual y negación de asistencia legal y de servicios básicos antes de la canalización a centros de detención (CNDH, 2019, 2024; Long, 2021; HRW, 2021b). Es el espacio más alejado de la mirada pública por su relativo asilamiento, dispersión y por lo velado de sus prácticas.

Centros de detención

Son un dispositivo arquitectónico, una ordenación de aislamiento. Sus fronteras se configuran a partir de los muros instrumentalizados para la privación de la libertad de personas migrantes y solicitantes de refugio, los cuales como han referido numerosos informes, más que alojamiento, reproducen estructuras carcelarias de gestión biopolítica. Para los casos de personas en situación irregular es un sistema penitenciario migratorio para una infracción administrativa, que en caso de reincidir se convierte en penal en Estados Unidos (United States Code, 2024). Este espacio de excepción está compuesto por agentes públicos y privados debido al uso de seguridad privada en Estaciones migratorias en México o la subcontratación de la gestión e infraestructura de detención por parte de ICE en Estados Unidos, donde por ejemplo en junio de 2023 nueve de cada diez personas detenidas se encontraban en instalaciones administradas por GEO Group, CoreCivic, LaSalle Corrections, and the Management Training Corporation (Cho, 2023).

En centros de detención se han documentado, además de la implícita privación de la libertad, el uso desmedido de la fuerza, lesiones, acoso y violencia sexual, psicológica y verbal, negación de asistencia legal, detenciones prologadas y/o sin temporalidad definida, falta de acceso a servicios de salud, separación de familias, detención de menores, dilación en trámites, condiciones de detención inhumanas, hacinamiento, expulsiones en masa que involucran violaciones al principio de no devolución y al debido proceso, confinamientos solitarios o en prisiones estatales con delincuentes locales como en Canadá, y muertes, como fue el caso de 40 personas migrantes quemadas vivas en un centro de detención del INM en Ciudad Juárez en 2023 porque el personal de seguridad privada y agentes migratorios no encontraron las llaves de las celdas durante un incendio. Llegar a este espacio para la mayoría es prácticamente condena de expulsión. La excepción se reproduce y queda expuesta por la garantía de impunidad que existe en los centros de detención migratoria en los tres países (CNDH, 2019, 2024; Long, 2021; HRW, 2021a, 2021b).

Sistema de asilo y refugio

Se reproduce en puntos de entrada terrestres, aéreos y marítimos, así como oficinas internas donde se puede iniciar el trámite. Sus principales agentes son en México la Comisión Mexicana de Ayuda a Refugiados (COMAR) y el INM que funciona como filtro. En Estados Unidos, los puertos de entrada son administradas por CBP, quienes también gestionan los ritmos -cuotas- de atención a personas solicitantes de asilo para ser evaluadas por el United States Citizenship and Immigration Services (USCIS) y, posteriormente, por Cortes de Inmigración y de Apelaciones. En algunos casos el proceso se da en libertad y, en otros, las personas solicitantes son llevadas a centros de detención de ICE. En Canadá el primer filtro es la Canada Border Services Agency (CBSA) la cual canaliza los casos al Immigration and Refugee Board of Canada (IRB) y posteriormente en caso de apelaciones llegan a Cortes Federales.

Entre las principales prácticas de excepción en el sistema de refugio en Norteamérica se encuentran negar el acceso al trámite en puertos de entrada, la violación del principio de no devolución (non refoulement), la utilización del concepto tercer país seguro y la consecuente exposición a riesgos en fronteras peligrosas como la del norte México, la gestión mediante listas de espera físicas y digitales, detenciones arbitrarías durante tránsito, privación de la libertad durante juicios y apelaciones, separación de familias, obstaculización el acceso a un representante legal, falta de información sobre derechos, así como imposibilidad de contar con procesos de asilo justos, eficaces y seguros (Estévez, 2018; American Immigration Council, 2022; Benhabib, 2020; CCR, 2022; Amnistía Internacional, 2024b; HRW, 2023).

Entornos de gobernanza algorítmica y tecnológica

Finalmente, los entornos de gobernanza algorítmica y tecnológica son parte de la cartografía de excepción en dos niveles. Primero, a través de un proceso de hibridación con los espacios físicos y corpóreos antes mencionados, es decir, el uso de software y hardware se suma a políticas de disuasión y contención en corredores, operativos, centros de detención migratoria y sistema de asilo. En segundo lugar, emerge como un espacio digital propio, opaco y cerrado a la vista del público. Sus dispostivos operan como un muro virtual y un panóptico digital que genera big data y toma decisiones a partir de un entramado de vigilancia permanente (Han, 2016; Zuboff, 2019). Para ello emplea algoritmos que permiten el monitoreo automatizado de aplicaciones, sitios web, redes sociales, foros, registros biométricos y bases de datos de gobiernos, agentes privados y organismos internacionales. Como espacio híbrido y como espacio digital metafronterizo tiene como fin contener a quienes se encuentran en otras latitudes, así como vigilar y detener a quienes ya ingresaron por vías irregulares.

Los responsables de apuntalar este espacio de excepción digital son los tomadores de decisiones de política migratoria y de refugio, militares, personal que opera tecnologías de vigilancia y monitoreo fronterizo, grandes corporaciones armamentísticas, tecnológicas y de seguridad, equipos de programadores, community managers e incluso el conjunto de personas que alimentaron con sus labores cotidianas las bases de datos empleadas para el entrenamiento de algoritmos. (O’Neil, 2016; Barocas y Selbst, 2016; Eubanks, 2018; Noble, 2018). Sus agentes y dispositivos actúan desde la discrecionalidad a un nivel inédito con escasa posibilidad de interponer recurso alguno ante decisiones arbitrarias.

Entre las principales prácticas de excepción relacionadas con este espacio digital de gobernanza, se encuentran la discriminación algorítmica en decisiones automatizadas que reproduce sesgos étnicos, nacionales, religiosos, raciales y lingüísticos, la violación de derechos digitales, la invasión a la privacidad, el empleo de reconocimiento facial que discrimina tonos de piel, el uso de personas en contextos de movilidad como laboratorio social para la experimentación de algoritmos, el despliegue de plataformas y aplicaciones que obstaculizan el acceso a derechos por brechas digitales, el monitoreo a través de aparatos de seguimiento como alternativa a la detención, la falta de transparencia de códigos y la privatización de la gestión de la movilidad humana que ofrece información confidencial a agentes no estatales (O’Neil, 2016; Barocas y Selbst, 2016; Eubanks, 2018; Noble, 2018; Parness, 2023; Sawyer, 2024; Amnistía Internacional, 2024a).

En contraste con estas prácticas de excepción, las tecnologías también han sido empleadas por personas migrantes y refugiadas para resistir y alcanzar sus destinos propuestos. Prueba de ello son los nutridos y dinámicos foros en redes sociales o aplicaciones de mensajería instantánea como WhatsApp, donde además de mantener contacto con familiares y amigos, es posible compartir y recibir experiencias y consejos durante su tránsito. También es habitual el uso de GPS y mapas satelitales para guiar su trayecto por ciudades o zonas inhóspitas, el uso de traductores, así como consultas médicas a distancia. Por su parte, se ha registrado ya el uso de criptomonedas para el envío de remesas e incluso como medio de pago a coyotes por el servicio de cruces fronterizos irregulares, los cuales pueden ser contactados a través de la deep web (INM, 2021). Debido a todas estas posibilidades, el uso de teléfonos inteligentes ha dejado de ser un lujo para convertirse en una necesidad en su recorrido. Si bien la tecnología ha empoderado a personas en contextos de movilidad, las violaciones a derechos en estos entornos de gobernanza algorítmica han impulsado reiterados exhortos de organizaciones en los últimos años. Sus coordenadas, dispositivos y consecuencias son analizadas a continuación.

Coordenadas de la excepción en entornos de gobernanza algorítmica y tecnológica en Norteamérica

La excepción en entornos de gobernanza algorítmica opera entre la suspensión de la norma, la fragmentación de estándares internacionales y el vacío normativo imperante en la arena digital. A pesar de agitados debates, avances nacionales, regionales y resoluciones de Naciones Unidas5 en las últimas dos décadas, el tema se encuentra lejos de contar con un marco que garantice el uso ético, transparente y responsable de la tecnología (OACDH, 2024). Agentes públicos y privados han aprovechado el desfase legal y la opacidad de los algoritmos para invisibilizar, e incluso normalizar, violaciones al derecho a la libertad de expresión, a la protección de datos, a la seguridad, a la privacidad y a la no discriminación (OACDH, 2023a; Amnistía Internacional, 2024a). El eco de estas violaciones en materia migratoria y de refugio es más evidente por la interdependencia de los derechos humanos. Por ello, los derechos vulnerados en entornos digitales repercuten también en el derecho a migrar, al asilo, a la salud, a la vida, a la seguridad personal y al principio de no devolución (CIDH, 2023).

A partir del rastreo de procesos fue posible reconocer las coordenadas de excepción en entornos de gobernanza algorítmica. En este sentido, a continuación se exponen políticas, dispositivos y herramientas relacionadas con big data, algoritmos, aprendizaje automatizado, inteligencia artificial y otras tecnologías que sostienen y reproducen violaciones a los derechos humanos a partir de fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y la privatización de la excepción. Ejes cuyo fin es limitar el acceso a derechos a personas en contextos de movilidad humana en Norteamérica.

Fronteras inteligentes y fronteras virtuales

Funcionan como barreras complementarias a las físicas. La frontera inteligente se caracteriza por el despliegue de tecnologías que automatizan tareas de gestión y control, así como por la coordinación e interoperabilidad bi o multilateral. En Estados Unidos, el origen de la frontera automatizada se remonta a la década de 1970, cuando instalaron sensores de movimiento empleados en la Guerra de Vietnam, en la frontera con México (Chaar-López, 2019). Desde entonces, múltiples desarrollos se han incorporado. Entre los reconocidos actualmente por el DHS como Sistemas de Vigilancia Fronteriza (Border Surveillance Systems) se encuentran cámaras de alta definición y visión nocturna, torretas de vigilancia automatizadas, vigilancia satelital, drones, tecnologías de vigilancia marítima, sistemas de detección subterránea y antenas para interceptar comunicaciones de teléfonos inteligentes entre otras (DHS, 2018).

El enfoque de fronteras inteligentes, impulsado en la región por Estados Unidos a partir de los ataques del 11 de septiembre, involucró en su inicio acuerdos binacionales con Canadá en 2001 y con México en 2002, para coordinar acciones y tecnologías relacionadas con la seguridad fronteriza, el tráfico de mercancías y el cruce de personas por vías regulares (Méndez-Fierros, 2023). La actualización de estos acuerdos y su materialización regional es permanente. En el caso de México ha implicado la capacitación y uso de distintos equipos, algunos donados por Estados Unidos y otros adquiridos, que comprenden por ejemplo desde 2020, el uso de aviones no tripulados “equipados con cámaras, sensores infrarrojos, sistemas de intercepción de señales, radares y otros sistemas” (R3D, 2023). Por su parte, Canadá, también “utiliza la tecnología más moderna y avanzada, incluidos sensores terrestres, cámaras, radares y lectores de matrículas para vigilar la frontera” (Gobierno de Canadá, 2024a, 2024b, 2024c).

El enfoque de frontera inteligente se ha complementado con la política del gobierno estadunidense Prevention Through Deterrence (Prevención mediante disuasión) la cual crea obstáculos e intensifica los riesgos y peligros. Su implementación vigente desde 1994 a través de la modulación de operativos y herramientas tecnológicas en puntos clave de la frontera con México ha creado un efecto embudo que ha encausado, a las personas que buscan cruces irregulares, a zonas desérticas e inhóspitas. Su impacto no es discursivo. Ha creado la frontera terrestre más mortífera del mundo. Solo en 2022 se registraron 686 personas muertas o desaparecidas (OIM, 2023). La huella de esta política también fue comprobada por una investigación que confirmó la correlación entre el uso de tecnologías relacionadas con fronteras inteligentes y los cuerpos encontrados en sur de Arizona (Boyce y Chambers, 2021). Si bien desplegar tecnología y operativos tiene poco de extraordinario en la actualidad, la política Prevention Through Deterrence es ejemplo de necropoder por la explicita intención de gestionar la movilidad humana a través de la muerte.

Por su parte, como frontera virtual se levanta un muro digital a través de operaciones vía remota, que permite la externalización e internalización de confines. En este caso, las prácticas de excepción se articulan a través del monitoreo y clasificación de información, así como del uso de formularios, plataformas y aplicaciones que administran y discriminan perfiles a partir de características predefinidas (Van Den Meerssche, 2022). De esta manera gracias a entornos digitales es posible modular y contener, sin necesidad de presencia física, a las personas en contextos de movilidad que buscan ingresar, así como detectar perfiles en situación irregular que ya se encuentran en el país.

Un ejemplo del apuntalamiento de una frontera virtual, que funciona como un muro y que limita el acceso a derechos, es la aplicación CBP One en Estados Unidos. Esta app y plataforma lanzada en 2020 se convirtió desde 2023 en la única vía para obtener cita para las personas solicitantes de asilo de todas las nacionalidades.6 Debido a que el proceso de asilo en Estados Unidos se encuentra mediado por esta aplicación, desde entonces organizaciones como Human Rights Watch (2024), Amnistía Internacional (2024b) y HIAS (Parness, 2023) han documentado flagrantes violaciones al derecho internacional. Entre las principales se encuentran: 1) la obstrucción de acceso al derecho de asilo; 2) el algoritmo del sistema de citas funciona con opacidad, incluso fue señalado por congresistas estadounidenses como una “lotería” (Congress of the United States, 2024), 3) expone a las personas solicitantes a una posición vulnerable al tener que permanecer en México como tercer país seguro, 4) crea barreras por brechas digitales e idioma, -solo está disponible en inglés, español y criollo haitiano- y 5) se han reportado sesgos raciales en los sistemas de reconocimiento facial, al arrojar errores con personas con tonos de piel más oscuros en la fotografía y video que se solicita dentro de la aplicación (HRW, 2024).

Como suele suceder con este tipo de tecnologías, el DHS enfatizó que gracias a su uso se puede contar con un proceso “seguro, ordenado y humano” (DHS, 2023). Cuestión que se ha confirmado para algunos, pero que ha dejado sin certeza y a la deriva a miles de personas en una evidente violación al derecho internacional y a protocolos firmados por Estados Unidos.7 Los cierto es que CBP One es solo una estrategia más de las precedentes como el metering -dosificación-, Migrant Protection Protocols y el Título 42 que sistemáticamente obstaculizaron el derecho al asilo a partir de prácticas dilatorias, cierre de fronteras, exposición a peligros y la violación del principio de no devolución.

Discriminación algorítmica

La discriminación algorítmica sucede cuando sistemas automatizados contribuyen de manera directa o indirecta a un trato desigual que niega el acceso a derechos. Esta discriminación, materializada por aprendizaje automatizado e inteligencia artificial, reproduce sesgos de selección por género, raza, etnia, idioma, origen nacional y nivel socioeconómico. Se alimenta del historial base para el entrenamiento de las decisiones automatizadas (training data), los sesgos del equipo programador o por brechas digitales de acceso, especialmente de grupos vulnerables (O’Neil, 2016; Barocas y Selbst, 2016). Eubanks (2018) en su libro Automatizando la desigualdad: cómo las herramientas de alta tecnología perfilan, vigilan y castigan a los pobres,8 expuso el impacto que tiene la minería de datos, los modelos predictivos y los denominados policy algorithms en que personas en situación de pobreza, migrantes, minorías y clase trabajadora, sean o no elegibles para recibir asistencia por parte de gobiernos y organizaciones.

Un ejemplo de discriminación algorítmica que inició durante la administración de Obama fue la implementación de la Evaluación de clasificación de riesgos (Risk Classification Assessment/RCA) en 2012, con la cual se emiten hasta la fecha valoraciones automatizadas sobre extranjeros que se encuentran bajo custodia de ICE. En caso de riesgo de fuga o para la seguridad pública recomienda su detención, en caso contrario su liberación con o sin fianza (Cuffari, 2024). Al ponerla en marcha se difundió como una herramienta que promovería “la uniformidad, la transparencia, la racionalidad y la reducción de daños (Evans y Koulish, 2020). A partir de una solicitud de información que duró años e involucró un litigio federal que permitió tener acceso al algoritmo, Evans y Koulish (2020) demostraron que nada de lo prometido se cumple. Todo lo contrario, su aplicación tuvo como resultado “un sistema que recomienda la detención inconstitucional de cientos de miles de personas” debido a sesgos, errores en el modelo que tienen como objetivo más que detectar riesgos, contener a la mayor cantidad de personas en contextos de movilidad.

Otro ejemplo de discriminación algorítmica son las evaluaciones de credibilidad automatizadas (automated credibility assessments) las cuales registran, a partir de herramientas no invasivas, movimientos y vocalización para realizar un análisis lingüístico, kinésico y proxémico para detectar declaraciones falsas de viajeros, migrantes y refugiados (Kinchin y Mougouei, 2022). Son detectores de mentiras que incorporan todos los avances tecnológicos. Un caso fue el sistema AVATAR (Automated Virtual Agent Truth Assessment in Real Time) desarrollado por la Universidad de Arizona para CBP y que en sus ensayos expuso numerosas preocupaciones relacionadas con imprecisiones e invasiones a la privacidad lo cual evitó que se extendiera su uso (Universidad de Arizona, 2013).

El caso canadiense, por su parte, ha sido señalado por ser pionero desde 2014 en el uso de inteligencia artificial y aprendizaje automatizado para toma de decisiones a partir de proyectos experimentales (Laupman, Schippers y Papaléo, 2022). Al respecto la investigación realizada por Molnar y Gill, Robots en la puerta: Un análisis de derechos humanos sobre la toma de decisiones automatizada en el sistema de inmigración y refugiados de Canadá9 demostró cómo se ha empleado discrecionalmente análisis predictivo para automatizar evaluaciones de personas migrantes y refugiadas (Molnar y Gill, 2018; Bircan y Korkmaz, 2021). Una de las razones por la que este tipo de herramientas alimentan la discriminación algorítmica es que los modelos son entrenados por el historial de decisiones humanas, la cuales no necesariamente son neutrales, estandarizadas, objetivas y justas. Para ilustrar el potencial discriminación a través de algoritmos se puede mencionar el caso de la Real Policía Montada de Canadá cuando, en 2017, aplicó un cuestionario a 5 000 personas solicitantes de refugio para determinar el nivel de riesgo solo si eran musulmanes. El cuestionario y resultados catalogados como islamofóbicos fueron compartidos con la CBSA y se cuestionó que podrían servir para alimentar modelos automatizados de gestión de riesgos (Akhemtova y Harris, 2021).

El uso de aprendizaje automatizado e inteligencia artificial ha sido criticado por especialistas debido a su carácter potencialmente discriminatorio al utilizar redes neuronales generativas, las cuales no siempre están bajo el control y supervisión humana. En segundo lugar, porque se carece hasta la fecha de un marco normativo robusto como guía para su aplicación y rendición de cuentas en el ámbito migratorio (Molnar y Gil, 2018; Akhemtova y Harris, 2021). En tercer lugar, por el impacto que tienen estas herramientas en la vida de miles de personas cada año, y finalmente, por el dilema ético que involucra usar a personas migrantes y refugiadas como “laboratorio de alto riesgo” con modelos que se encuentran aún en fase experimental (Molnar y Gill, 2018).

Vigilancia permanente

De acuerdo con Zuboff (2019), en las sociedades actuales impera el capitalismo de vigilancia, el cual se caracteriza por la automatizada y sistemática acumulación de información generada en entornos digitales para realizar proyecciones de comportamiento en beneficio de empresas tecnológicas y gobiernos. El excedente conductual recopilado permite conocer y moldear el comportamiento futuro. En este sentido, la vigilancia permanente y la violación a los derechos digitales y a la privacidad son un principio transversal de la excepción migratoria de espacios de gobernanza algorítmica y tecnológica.

El monitoreo de redes sociales, comunicaciones digitales y dispositivos sin consentimiento es la clave de la gestión de la movilidad humana. Esta vigilancia apuntalada por el gobierno de los Estados Unidos permite aglutinar en sus bases de datos relacionadas con migración y refugio todo tipo de información para proyectar y contener movimientos migratorios. La información que reúne va desde el historial crediticio, de compras y de búsquedas, hasta seguros médicos, listas de contactos, currículum, biometría y cualquier otro dato disponible en internet y bases de datos comerciales (Nalbandian, 2022).

Un ejemplo de monitoreo automatizado fue el que realizó Giant Oak en 2013 para el DHS. Esta empresa a través de su motor de búsqueda de web profunda (deep web search engine) llamado Giant Oak Search Technology (GOST) identificó perfiles digitales de personas migrantes irregulares con antecedentes o potenciales intenciones delictivas a partir de información disponible en Internet utilizando ciencia del comportamiento (behavioral science) (Nalbandian, 2022). Pero el control computarizado se complementa con el humano. Una solicitud de información realizada por el Brennan Center for Justice en 2020, encontró que agentes del DHS emplean usuarios simulados o cuentas falsas para monitorear redes sociales, impulsar conversaciones y rastrear actividad ilegal (BCJ, 2023). Estas prácticas también han sido expuestas en el caso mexicano con personal del INM que se ha infiltrado en grupos de Facebook y WhatsApp para la planeación de operativos (R3D, 2023).

Un caso más que expone la vigilancia permanente y la discriminación algorítmica es el monitoreo automatizado de redes sociales e internet para clasificar como deseables o no a las personas solicitantes de visa o en proceso de deportación a partir de la Investigación de antecedentes exhaustiva (Extreme Vetting Initiative). Promulgada en enero de 2017 por Trump en el marco de la Muslim ban, buscaba reconocer a personas que hicieran “aportaciones al interés nacional” o que representaran algún riesgo terrorista o criminal. Esta medida fue ampliamente criticada por 56 organizaciones y 54 expertos en aprendizaje automatizado y minería de datos por limitar la libertad de expresión, discriminar a minorías y ser ineficaz “pues los algoritmos diseñados […] podrían utilizarse para señalar arbitrariamente a grupos de inmigrantes bajo un barniz de objetividad” (BCJ, 2018). Gracias a estas presiones se consiguió en 2018 eliminar la automatización al menos públicamente, pero no el monitoreo (Harwell y Miroff, 2018). Posteriormente con Biden, se derogó la Muslim ban, pero se mantuvieron esfuerzos por realizar análisis automatizados de redes sociales e intercambio de información entre agencias con bases de datos centralizadas (EPIC, 2023; HST, 2023).

Relacionado con la violación a la privacidad dos prácticas de excepción exponen la apropiación indebida de datos y comunicaciones de dispositivos electrónicos en Estados Unidos, México y Canadá. La primera es el uso de escáneres que permiten el hackeo y extracción de información, archivos y comunicaciones de teléfonos celulares, computadoras o tabletas de personas detenidas en aeropuertos y puntos de cruce internacionales sin necesidad de orden judicial bajo el argumento de garantizar la seguridad nacional (EPIC, 2022; García, 2023; CBSA, 2023). En el caso de mexicano se documentó la capacitación por parte del gobierno estadounidense a más de 700 funcionarios en el uso de estas herramientas en 2017 (R3D, 2023). La segunda práctica es el despliegue de antenas que interceptan ubicación y comunicaciones de texto, audio y video de teléfonos celulares inteligentes a lo largo de la frontera México-Estados Unidos. Aunque esta tecnología permite identificar a las personas que cruzan de forma irregular, invade también la privacidad de ciudadanos que habitan en zonas fronterizas por igual (Fussell, 2019; Bircan y Korkmaz, 2021).

Por su parte, el registro y uso de datos biométricos es ya un estándar en entornos digitales de agentes públicos como privados para verificar la identidad de usuarios o beneficiarios de programas gubernamentales. En Estados Unidos, México y Canadá se obtienen datos biométricos, tanto de solicitantes de visas, viajeros que arriban a aeropuertos, como de personas detenidas por autoridades migratorias y solicitantes de refugio. Los registros almacenados en servidores actualizan bases de datos en tiempo real y permiten la interoperabilidad entre países (DHS, 2024; R3D, 2023; CBSA, 2023).

Aunque los registros biométricos han sido empleados en crisis humanitarias con probada utilidad en censos y registros realizados por ACNUR y otras agencias de Naciones Unidas, los riesgos no son menores. Entre los principales se encuentran: 1) el posible robo de identidad, 2) el monitoreo no permitido de actividades, por ejemplo a través de cámaras en espacios públicos con reconocimiento facial, 3) la discriminación por fenotipo y color de piel, que podría llegar incluso a discriminación genética si registros de ADN revelan predisposición a ciertas enfermedades, 4) podría facilitar la persecución de personas refugiadas si países de los que huyen obtienen perfiles biométricos, 5) podría negar el acceso a derechos por falta de precisión, pues huellas dactilares o iris pueden cambiar con el tiempo y 6) se podría negar el acceso a servicios por características físicas o genéticas (Kinchin y Mougouei, 2022; Amnistía Internacional, 2024)

Por último, la vigilancia permanente tiene impacto también en la internalización de fronteras gracias al monitoreo de internet y redes sociales a nivel local (OACDH, 2023a). Esta práctica de control permitió, por ejemplo, la redada más grande de la historia de los Estados Unidos en agosto de 2019 donde detuvieron a 680 personas trabajadoras en Mississippi a partir de una investigación que se sustentó de ciberinteligencia. Esta acción de contención que involucró violación a la privacidad de las personas, fue también el detonante de otras violaciones a derechos humanos como separación de familias, condiciones inhumanas de detención e interrogatorios sin posibilidad de acceso a abogados (ACLU, 2019).

Privatización de la excepción

Históricamente el estado de excepción ha sido decretado por el soberano y sus medidas ejecutadas por las fuerzas armadas. No obstante, en la actualidad y en los entornos de gobernanza algorítmica, sus prácticas solo pueden ser comprendidas por la confluencia de actores privados y militares. La mercantilización de la gestión migratoria y de refugio tiene como raíz la dependencia de gobiernos a corporaciones que ofrecen automatización de procesos, inteligencia artificial, seguridad informática, espionaje y tecnología militar. La privatización opera a través de licitaciones, acuerdos de colaboración con fines de seguridad nacional, la compra directa de equipo, software o la subcontratación.

En Estados Unidos las empresas que más han participado en los últimos años con tecnología para la gestión de la movilidad humana son Northrop Grumman, Palantir Technologies, Inc., Giant Oak, NEC Corporation, Gemalto, Tomson Reuters y Amazon (Nalbandian, 2022). En el caso de Palantir Technologies el DHS emplea su software para identificar perfiles sospechosos que llegan a territorio estadounidense a partir de software de vigilancia, inteligencia artificial, aprendizaje automatizado y big data. Esta empresa, que también ha vendido su tecnología a Canadá, ha sido objeto de críticas y preocupaciones por falta de transparencia, invasión de privacidad, opacidad en sus operaciones y su rol en la deportación y detención de personas migrantes (Chávez, 2019; Iliadis y Acker, 2022). Otro caso es el de Northrop Grumman, empresa que desarrolló una base de datos denominada Homeland Advanced Recognition Technology (HART) para recopilar ADN, reconocimiento de rostro y voz, escaneos, tatuajes e información biográfica. Su implementación prevista para 2020 ha sido postergada a 2024 por preocupaciones del propio gobierno relacionadas con la falta de controles de privacidad (DHS, 2023). También es público que para detectar flujos irregulares el gobierno estadounidense ha comprado bases de datos comerciales y telefónicas que incluyen números, ubicación, fecha, hora y perfiles supuestamente anónimos en zonas fronterizas (DHS, 2018; Bircan y Korkmaz, 2021).

En el caso de Canadá, un ejemplo del uso de servicios privados fue el que realizó la CBSA de las plataformas Ancestry y Family Tree DNA para identificar la posible nacionalidad de personas a las que se les negó el refugio. Estas empresas que ofrecen el servicio de rastreo de origen étnico y del árbol genealógico fueron utilizadas para conocer el país a deportar con muestras de ADN (Khandaker, 2018). Un caso crítico, no solo por el implícito dilema ético, sino por la invasión y uso de datos biométricos a un nivel sin precedentes. México también ha adquirido equipo y software biométrico y de espionaje con las empresas Cellebrite y Nemecisco, esta última parte de la red de empresas que vendieron al gobierno mexicano el software Pegasus (R3D, 2023).

La mancuerna público-privada confirma que la excepción migratoria se sirve de agentes no estatales para llevar a cabo acciones de contención, lo cual además de ofrecer contratos millonarios, vale para repartir responsabilidades de potenciales violaciones a derechos humanos. Entre otras críticas relacionadas con la privatización se encuentran la erosión de la soberanía, la mercantilización y lógica de lucro en la gestión migratoria, conflictos de intereses, dudosa neutralidad de los servicios ofrecidos y la falta de transparencia sobre el uso e impacto de sus tecnologías. En suma, nos encontramos ante una nueva era de fronteras corporativizadas (Akhemtova y Harris, 2021; Nalbandian, 2022).

En conjunto, hasta aquí se han expuesto algunas herramientas relacionadas con flagrantes y potenciales violaciones a los derechos humanos a partir de fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y la privatización de la gestión migratoria y de refugio en Norteamérica. No obstante, para justificar y validar estas medidas, gobiernos y corporaciones se han valido, además de la ya recurrente instrumentalización del discurso de derechos humanos, de la implícita neutralidad y eficiencia relacionadas al uso de tecnologías. En este sentido, a continuación se exponen y discuten los principios que permiten trazar y proponer una nueva etapa de tecnosecuritización.

Tecnosecuritización: del control corpóreo al algorítmico-digital

La securitización comprende un proceso de identificación y producción de una narrativa sobre una supuesta amenaza para legitimar acciones para enfrentarla. De esta forma, agentes estatales y no estatales encausan significados, apelan a emociones y sugieren respuestas a partir de un entramado de poder. Ya sea una amenaza estatal o abstracta -como narcotráfico, terrorismo o ciberseguridad-, el apoyo, rechazo y miedo generados, permiten justificar todo tipo de medidas, incluidas de emergencia. En este sentido, sus acciones, como es en el caso de la migración y refugio, tienen el potencial de excluir, segregar, marginar y violar derechos humanos por un fin mayor que generalmente es el mantenimiento del orden existente (Buzan, Wæver y Wilde, 1998; Taureck, 2006; Watson, 2009; Guzzini, 2011).

Desde los años ochenta del siglo pasado, el concepto de securitización se posicionó y evolucionó al ir sumando elementos de enfoques críticos, postestructurales y contemporáneos. Entre las principales discusiones se encuentra la importancia de dejar atrás la idea jerarquizada y vertical de la securitización para revalorar también la agencia de la sociedad; identificar a las élites e intereses detrás de apuntalar amenazas; así como reconocer que no siempre está relacionada con medidas extraordinarias, sin dejar de descartarlas. En este sentido, se ha abonado a la búsqueda de otras respuestas, que más allá del enfoque realista y pragmático de la política, permitan repensar nuevos alcances para la ética pública, la diplomacia, la cooperación internacional y apego efectivo, no solo discursivo, a los derechos humanos (Balzacq, Léonard y Ruzicka, 2016).

Con este preámbulo, y a partir de la evidencia analizada, se propone el neologismo tecnosecuritización para referirse al posicionamiento ante la opinión pública de amenazas y despliegue de recursos que involucran innovaciones en hardware y software para combatirlas. Las políticas y acciones son legitimadas gracias a narrativas y supuestos de imparcialidad, eficiencia, transparencia y empoderamiento vinculados a la tecnificación. Entonces la tecno-securitización no involucra solo el uso de aprendizaje automatizado, inteligencia artificial o el uso de máquinas de hipervigilancia y control virtual y físico. Coloca en el foco al ensamblaje de discursos que permiten justificar medidas extraordinarias gracias a valoraciones y supuestos vinculados a la tecnología.

Las principales consecuencias de la tecnosecuritización son: 1) normaliza la vigilancia permanente y la invasión a la privacidad; 2) invisibiliza la reproducción de la exclusión y la segregación a través de algoritmos que discriminan por raza, género, clase, nacionalidad y otras características; 3) permite contener o encausar amenazas, incluso de manera remota, lo que expone la hibridación del control corpóreo al algorítmico-digital; 4) evade, reparte y anonimiza responsabilidades gracias a la dependencia a grandes corporaciones militares y tecnológicas; 5) al estar su implementación mediada por máquinas y software consigue un efecto allanador ante decisiones arbitrarias; 6) los supuestos referidos idealizan el alcance de la tecnología por lo que ofrece una falsa sensación de seguridad en contextos de incertidumbre; 7) tiene el potencial de despolitizar al pensar que las decisiones automatizadas son neutrales y eficientes; 8) deshumaniza la amenaza al reducirla a código binario, por lo que prácticas exclusógenas pueden ser fácilmente justificadas como bugs o erres de programación; 9) otorga a políticos y gobiernos un halo de racionalidad, productividad y vanguardia ante la opinión pública; y 10) los avances tecnológicos permiten la actualización constante de medidas extraordinarias, que de otra manera no serían justificables. Esto confirma que no se busca resolver, sino contener.

El binomio seguridad-tecnología de novedoso tiene poco. La securitización también desde su origen conceptual ha hecho uso de las últimas herramientas disponibles para contener al enemigo. No obstante, la tecnosecuritización como respuesta ante amenazas se enmarca en el llamado solucionismo tecnológico (technological solutionism) del siglo XXI que sitúa a desarrollos relacionados con la esfera digital como una respuesta reduccionista a todo tipo de retos sociales, políticos y económicos complejos (Morozov, 2015). Es en otras palabras, la “solución” a problemas estructurales a partir de una app o un código QR. De esta forma, la tecnosecuritización permite el despliegue de políticas que generalmente no atienden al problema ni a sus causas, porque busca mantener un estado de emergencia permanente relacionado con la amenaza. Este es el caso de la migración y el refugio impulsadas por trayectorias estructurales relacionadas con desigualdad, pobreza, violencia y persecución.

La narrativa de la tecnosecuritización para la gestión de la movilidad humana

La adopción de innovaciones tecnológicas que han limitado el acceso a derechos para la gestión de la movilidad humana ha sido promovida y celebrada bajo una narrativa equivalente a la ofrecida por la tecnología humanitaria (humanitarian tech). En las últimas dos décadas este término se ha consolidado para referirse al uso de avances en hardware y software con el fin de recolectar, procesar y analizar información para atender a personas en contextos de vulnerabilidad, entre las que se encuentran personas refugiadas, víctimas de desastres o personas desplazadas por guerras o conflictos armados. Se utiliza también para proyectar riesgos que pueden ser contenidos o evitados (Kinchin y Mougouei, 2022). Su mayor impulso se ha dado entre gobiernos, organismos internacionales y sociedad civil, e implica a nivel práctico, el uso de redes sociales para coordinar ayuda o censos de supervivientes en eventos catastróficos, realizar el diagnóstico de enfermedades a través de aparatos portátiles de análisis o la entrega de ayuda humanitaria a través de drones. Es difícil estar en contra de este tipo de avances, lo cual ha permitido desplegar una narrativa que posiciona y justifica su uso.

Las políticas migratorias y de refugio relacionadas con la tecnosecuritización y que son equivalentes a las de la tecnología humanitaria, suelen sumar total o parcialmente a su narrativa los supuestos de imparcialidad, eficiencia, transparencia y empoderamiento (Sandvik, et.al., 2014; Jacobsen, 2015). No obstante, cada uno de estos supuestos presenta luces y sombras en la práctica.

Imparcialidad

Este supuesto parte de que tecnología y algoritmos para la toma de decisiones realizan tareas de forma neutral y objetiva. Por lo que por ejemplo, para la gestión de visados o solicitudes de refugio, dos casos con características equivalentes deberían ofrecer el mismo output o decisión. No obstante, el supuesto de imparcialidad ha sido ampliamente refutado, debido a que los programadores no están exentos de sesgos e intereses. Asimismo, en el caso del aprendizaje automatizado, en general se entrena a partir de un historial de decisiones humanas, las cuales no se encuentran eximes de valoraciones subjetivas, discriminatorias o extraordinarias (Zago de Moraes, et al., 2022). Al respecto, Noble (2018) demostró cómo los algoritmos utilizados por el buscador de Google reproducen estigmas, prejuicios y estereotipos hacia mujeres afrodescendientes, perpetuando la histórica opresión. Este tipo de aportaciones desmontan la idea que estas herramientas son imparciales por antonomasia, al ofrecer en sus resultados recurrentemente enlaces a historias de personas blancas e invisibilizando a su vez vínculos relacionados con personas de otras culturas, etnias y fenotipos.

Eficiencia

El supuesto de eficiencia se relaciona con la capacidad de acelerar procesos, por ejemplo para la gestión de visados y de solicitudes de refugio de manera remota y por su capacidad de realizar millones de operaciones por segundo (Akhemtova y Harris, 2021; Zago de Moraes, et al., 2022; Nalbandian, 2022) . En el caso del llamado digital fact-finding, o la verificación digital de hechos, ésta puede atenuar la carga que tienen países con muchas solicitudes a través de inteligencia artificial y el cruce de información ofrecida en testimonios para confirmar que sean lo suficiente convincentes, creíbles y específicos para ofrecer refugio (Kinchin y Mougouei, 2022). También se encuentra el análisis predictivo ( predictive analytics), el cual a través de imágenes satelitales, GPS de teléfonos celulares, uso de redes sociales e información disponible en la web puede ser empleado para proyectar movimientos poblacionales (Kinchin, 2021). Este tipo de aportes, en primera instancia no suenan mal. No obstante, el supuesto de eficiencia tiene al menos dos adversarios. En primer lugar, la regla no escrita relacionada con la dilación en los procesos de refugio en países con alta demanda, la cual tiene como objetivo disuadir a solicitantes actuales y futuros (Hamlin, 2014). En segundo lugar, la verificación digital de hechos y el análisis predictivo pueden dar un dato por verdadero o falso, bajo la ilusoria premisa que si está en la web o publicado es hecho comprobado. Esto parece dar demasiada confianza al big data y la Internet en tiempos de fake news y campañas simuladas de apoyo (astroturfing) (Marwick y Lewis, 2017). En este sentido, resulta particularmente delicado que la integridad física y la vida de personas solicitantes de refugio dependan del resultado de procesos computacionales sin intervención humana.

Transparencia

El supuesto de transparencia se relaciona con la idea de que los algoritmos, bases de datos y procesos pueden ser auditados y ser sujetos de rendición de cuentas. En particular, en el ámbito de la movilidad humana, al ser considerada como un tema de seguridad nacional y que involucra la protección de datos personales, la transparencia relacionada con la tecnología es discursiva, con escasa realidad aplicada. En el contexto actual resulta difícil, aunque no imposible como demostraron Koulish y Evans (2021), que gobiernos y corporaciones de ciberseguridad, compartan detalles de las denominadas cajas negras (black box). Las cajas negras son sistemas informáticos y modelos cuyos códigos son inaccesibles a las personas usuarias. Solo reciben el output o decisión sin comprender cómo se llegó a tal resultado. Ejemplos de esto van desde los algoritmos personalizados que ofrecen plataformas de video o audio por streaming, hasta quiénes obtienen o no una cita a través de la aplicación CBP One. Lo único transparente es que el uso de estas tecnologías se hace público con el fin de posicionar gobiernos como eficientes y a la vanguardia.

Empoderamiento

El supuesto de empoderamiento se vincula con la posibilidad de conectar a las personas migrantes y refugiadas a través de comunidades digitales y su potencial de socializar información y procesos generalmente lejanos en distancias o en comprensión de contenidos. En este sentido, la agencia que se genera a través del uso de la tecnología ha permitido una democratización de conocimiento sobre vías de migración regular y de asilo, así como la consolidación de identidades y redes transnacionales de apoyo. La contracara de este empoderamiento es el monitoreo y la vigilancia permanente que hacen gobiernos y privados en plataformas digitales para reconocer nuevas rutas de cruce, la convocatoria a caravanas o para detectar servicios de coyotaje. Además redes sociales y sitios web son también un medio para ejecutar distintos fraudes a personas que ante el desconocimiento suelen caer en embustes digitales. Para Akhemtova y Harris (2021), el empoderamiento que genera el uso de la inteligencia artificial y las nuevas tecnologías en las personas migrantes y refugiadas no es equivalente al aparato de vigilancia y control de los Estados y agentes privados, los cuales “infringen los derechos de privacidad y protección de los migrantes, al tiempo que aumentan la discriminación para disminuir la agencia”. De esta forma, el supuesto de empoderamiento relacionado con la tecnosecuritización pasa por alto evidentes asimetrías de poder y brechas digitales en países expulsores.

Consideraciones finales

El presente artículo busca abonar al estudio de prácticas violatorias a derechos humanos en el ámbito migratorio y de refugio en Norteamérica a partir del uso de nuevas tecnologías. Para ello, en un primer momento se trazó una cartografía de excepción que reconoce la incorporación de dispositivos que van del control corpóreo y territorial al tecnológico-digital. Esta transición ha llevado a la consolidación de un entorno de gobernanza algorítmica, donde redes sociales, aprendizaje automatizado e inteligencia artificial han reconfigurado un espacio de excepción propio que alimenta a su vez la contención en corredores migratorios, operativos, centros de detención migratoria y al sistema de asilo. Los casos expuestos vinculados al uso de tecnologías permiten confirmar que se encuentran orientadas a perfilar a las personas en contextos de movilidad humana como una amenaza y no como sujetas de derechos.

A partir de la evidencia presentada se propuso el neologismo tecnosecuritización el cual permite reconocer el proceso que legitima ante la opinión pública, gracias el empleo de algoritmos y equipamiento de última generación, medidas extraordinarias que criminalizan de facto a personas migrantes y refugiadas. La tecnosecuritización se enmarca en la neofilia y el tecnosolucionismo del siglo XXI lo cual permite articular narrativas bajo un velo de certeza, rigor y objetividad. Sus consecuencias no son menores, pues limita el acceso al derecho a migrar y a obtener asilo, invisibiliza la discriminación, normaliza la invasión a la privacidad, deshumaniza al reducir historias a código binario, diluye responsabilidades gracias a la intangibilidad digital y levanta muros virtuales que permiten gestionar la movilidad humana de manera remota. Además, los constantes desarrollos tecnológicos permiten actualizar permanentemente medidas que de otra manera no serían justificables, al mismo tiempo que posiciona ante la ciudadanía a los políticos que las impulsan.

Las industrias militares y digitales se sostienen de la amenaza. Por ello políticos y corporaciones no buscan resolver cuestiones estructurales, solo administran y contienen para mantener el riesgo latente y el negocio vigente. ¿Qué hacer? Al menos tres cosas, en primer lugar dejar el uso instrumental de los derechos humanos para legitimar medidas extraordinarias (Douzinas, 2007). En segundo lugar, garantizar los derechos humanos reconocidos en instrumentos internacionales, incluso aunque no se hayan escrito en la era digital.10 En tercer lugar, es necesario superar vacíos legales y la atomización normativa que juega a favor de intereses de privados y de gobiernos al mantener algunas que garantizan, como es el caso de la movilidad humana, la posibilidad de desplegar medidas arbitrarías. ¿En qué dirección? No hay respuesta única, pero grupos como Ética, Derecho, Inteligencia Artificial y Derechos Humanos (EDHIA) ofrecieron algunas pistas para mitigar el impacto de nuevas tecnologías en materia de movilidad humana que vale la pena retomar. Las recomendaciones se basan en impulsar: 1) el derecho a no estar sujeto a decisiones tomadas únicamente por inteligencia artificial; 2) el derecho a saber cuándo decisiones se basan en esta y la posibilidad de tener acceso a la ruta de evaluación (logical path); 3) contar con equipos de programación diversos en género, edad, clase, etnia, cultura, origen nacional y lengua; 4) consolidar mecanismos de retroalimentación social -social feedback- y de evaluación de algoritmos antes y durante su uso; 5) proponer mecanismos de rendición de cuentas y derecho a la reparación del daño por toma de decisiones automatizadas; y 6) los Estados deben proporcionar mecanismos para supervisar el impacto social y económico de sistemas de inteligencia artificial adquiridos a privados (Zago de Moraes, et al., 2022). En conjunto, es necesario impulsar legislación que garantice la transparencia, la responsabilidad pública y privada, la reparación del daño y evite la fragmentación de estándares a nivel nacional, regional e internacional.

Sin duda todos los países tienen el soberano derecho de resguardar la seguridad de sus fronteras. Sin embargo, también es innegable la obligación de reconocer y respetar los derechos humanos de todas las personas sin importar condición migratoria, nacionalidad o ciudadanía. Aunque en la práctica parezca difícil la coexistencia de estas dos premisas, es necesario repensar nuevas formas de gestionar la movilidad humana ante la ineludible incorporación de tecnologías. Cuestión particularmente importante en Norteamérica, donde políticas y herramientas como las expuestas tienen el poder de impactar en la vida de millones de personas cada año.

Referencias bibliográficas

Agamben, Giorgio (2005) Estado de excepción: Homo sacer, II, 1. Adriana Hidalgo Editora. [ Links ]

Canada Border Services Agency (CBSA) (2023) “2023 Year in Review: CBSA welcomed more travellers while protecting Canadians from illegal guns and deadly drugs” Gobierno de Canadá [en línea]. 5 de diciembre. Disponible en: <https://www.canada.ca/en/border-services-agency/news/2023/12/2023-year-in-review-cbsa-welcomed-more-travellers-while-protecting-canadians-from-illegal-guns-and-deadly-drugs.html> [ Links ]

Akhmetova, Roxana y Erin Harris (2021) “Politics of technology: The use of artificial intelligence by US and Canadian immigration agencies and their impacts on human rights” [en línea] en Digital Identity, Virtual Borders and Social Media. Edward Elgar Publishing. Disponible en: <https://www.elgaronline.com/edcollchap/edcoll/9781789909142/9781789909142.00008.xml> [ Links ]

American Civil Liberties Union (ACLU) (2019) ACLU of Mississippi Statement on ICE Raids [en línea]. Disponible en: <https://www.aclu.org/press-releases/aclu-mississippi-statement-ice-raids> [ Links ]

American Immigration Council (2022) An Overview of U.S. Refugee Law and Policy [en línea]. American Immigration Council. Disponible en: <https://www.americanimmigrationcouncil.org/research/overview-us-refugee-law-and-policy> [ Links ]

Amnistía Internacional (2024a) Primer: Defending the Rights of Refugees and Migrants in the Digital Age [pdf]. Disponible en: <https://www.amnestyusa.org/wp-content/uploads/2024/02/Defending-the-Rights-of-Refugees-and-Migrants-in-the-Digital-Age.pdf> [ Links ]

Amnistía Internacional (2024b) USA: CBP One: ¿Una bendición o una trampa? [en línea]. Disponible en: <https://www.amnesty.org/es/documents/amr51/7985/2024/es/> [ Links ]

Balzacq, Thierry (ed.) (2011) Securitization theory: How security problems emerge and dissolve. Routledge. [ Links ]

Balzacq, Thierry; Léonard, Sarah y Jan Ruzicka (2016) “‘Securitization’ revisited: Theory and cases” International Relations, 30(4): 494-531. DOI: https://doi.org/10.1177/0047117815596590 [ Links ]

Barocas, Solon y Andrew D. Selbst (2016) “Big Data’s Disparate Impact” California Law Review, 104. [ Links ]

Benhabib, Seyla (2020) “The End of the 1951 Refugee Convention? Dilemmas of Sovereignty, Territoriality, and Human Rights” Jus Cogens, 2(1): 75-100. DOI: https://doi.org/10.1007/s42439-020-00022-1 [ Links ]

Bircan, Tuba y Emre Eren Korkmaz (2021) “Big data for whose sake? Governing migration through artificial intelligence” Humanities and Social Sciences Communications, 8(1). DOI: https://doi.org/10.1057/s41599-021-00910-x [ Links ]

Boyce, Geoffrey Alan y Samuel Norton Chambers (2021) “The corral apparatus: Counter-insurgency and the architecture of death and deterrence along the Mexico/United States border” Geoforum, 120: 1-13. DOI: https://doi.org/10.1016/j.geoforum.2021.01.007 [ Links ]

Brennan Center for Justice (BCJ) (2018) ICE Extreme Vetting Initiative [en línea]. <https://www.brennancenter.org/our-work/research-reports/ice-extreme-vetting-initiative-resource-page> [ Links ]

Brennan Center for Justice (BCJ) (2023) DHS Social Media Monitoring FOIA Documents [en línea]. Disponible en: <https://www.brennancenter.org/our-work/research-reports/dhs-social-media-monitoring-foia-documents> [ Links ]

Buzan, Barry; Wæver, Ole y Jaap de Wilde (1998) Security: A New Framework for Analysis. Lynne Rienner Publishers. [ Links ]

Canadian Council for Refugees (CCR) (2022) Leading human rights groups challenge Safe Third Country Agreement at Supreme Court of Canada [en línea]. Disponible en: <https://www.ccrweb.ca/en/media/stca-scc-hearing-oct-2022> [ Links ]

Chaar-López, Iván (2019) Sensing Intruders: Race and the Automation of Border Control. American Quarterly, 71(2): 495-518. DOI: https://doi.org/10.1353/aq.2019.0040 [ Links ]

Chávez, Amanda (2019) “Palantir Played Key Role in Arresting Families for Deportation, Document Shows” Mijente [en línea]. 2 de mayo. Disponible en: <https://mijente.net/blog/palantir-arresting-families/> [ Links ]

Cho, Eunice Hyunhye (2023) Unchecked Growth: Private Prison Corporations and Immigration Detention, Three Years into the Biden Administration | ACLU [en línea]. American Civil Liberties Union. Disponible en: <https://www.aclu.org/news/immigrants-rights/unchecked-growth-private-prison-corporations-and-immigration-detention-three-years-into-the-biden-administration> [ Links ]

Comisión Interamericana de Derechos Humanos (CIDH) (2023) Movilidad humana y obligaciones de protección. Hacia una perspectiva subregional [pdf]. Disponible en: <https://www.oas.org/es/cidh/informes/pdfs/2023/Informe_Movilidad_Humana.pdf> [ Links ]

Comisión Nacional de Derechos Humanos (CNDH) (2018) Informe Especial Desafíos de la Migración [pdf]. CNDH/IIJ-UNAM. <https://www.cndh.org.mx/sites/default/files/doc/Informes/Especiales/Informe-Especial-Desafios-migracion.pdf> [ Links ]

Comisión Nacional de Derechos Humanos (CNDH) (2019) Informe Especial. Situación de las estaciones migratorias en México, hacia un nuevo modelo alternativo a la detención [pdf]. Disponible en: <https://www.cndh.org.mx/sites/default/files/documentos/2019-11/Informe-Estaciones-Migratorias-2019-RE.pdf> [ Links ]

Comisión Nacional de Derechos Humanos (CNDH) (2024) Informe Especial sobre las Condiciones de las Estancias y Estaciones Migratorias: Hacia un Nuevo Modelo para la Atención de la Migración Irregular [pdf]. Disponible en: <https://www.cndh.org.mx/sites/default/files/documentos/2024-02/INFORME%20ESPECIAL%20ESTANCIAS%20MIGRATORIAS.pdf> [ Links ]

Congress of the United States (2024) CBP One Application Limits Access to Asylum [en línea]. 21 de marzo. Disponible en: <https://castro.house.gov/imo/media/doc/03212024lettertodhsenglish.pdf> [ Links ]

Cuffari, Joseph V. (2024) ICE’s Risk Classification Assessment Process Was Not Consistently Used to Prevent the Release of High-Risk Individuals [pdf]. Department of Homeland Security. Disponible en: <https://www.oig.dhs.gov/sites/default/files/assets/2024-06/OIG-24-31-Jun24.pdf> [ Links ]

Department of Homeland Security (DHS) (2018) Border Surveillance Systems (BSS) [pdf]. Disponible en: <https://www.dhs.gov/sites/default/files/publications/privacy-pia-cbp022-bss-september2018.pdf> [ Links ]

Department of Homeland Security (DHS) (2023) Fact Sheet: CBP One Facilitated Over 170,000 Appointments in Six Months, and Continues to be a Safe, Orderly, and Humane Tool for Border Management [en línea]. Disponible en: <https://www.dhs.gov/news/2023/08/03/fact-sheet-cbp-one-facilitated-over-170000-appointments-six-months-and-continues-be> [ Links ]

Department of Homeland Security (DHS) (2024) Biometrics. Homeland Security [en línea]. Disponible en: <https://www.dhs.gov/biometrics> [ Links ]

Douzinas, Costas (2007) Human Rights and Empire: The Political Philosophy of Cosmopolitanism. Routledge. [ Links ]

Durand, Jorge (2013) “La “desmigratización” de la relación bilateral: Balance del sexenio de Felipe Calderón” Foro Internacional, 53(211): 750-770. [ Links ]

Electronic Privacy Information Center (EPIC) (2022) How CBP Uses Hacking Technology to Search International Travelers’ Phones [en línea]. EPIC - Electronic Privacy Information Center. Disponible en: <https://epic.org/how-cbp-uses-hacking-technology-to-search-international-travelers-phones/> [ Links ]

Electronic Privacy Information Center (EPIC) (2023) EPIC Urges CBP Not to Collect Useless Social Media Information from Visa Holders [en línea]. EPIC - Electronic Privacy Information Center. Disponible en: <https://epic.org/epic-urges-cbp-not-to-collect-useless-social-media-information-from-visa-holders/> [ Links ]

Estévez, Ariadna (2018) “Biopolítica y necropolítica: ¿constitutivos u opuestos?” Espiral (Guadalajara), 25(73): 9-43. DOI: https://doi.org/10.32870/espiral.v25i73.7017 [ Links ]

Eubanks, Virginia (2018) Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Publishing Group. [ Links ]

Evans, Katea y Robert Koulish (2020) Manipulating Risk: Immigration Detention Through Automation [en línea]. Disponible en: <https://papers.ssrn.com/abstract=3680913> [ Links ]

Fussell, Sidney (2019) “The Endless Aerial Surveillance of the Border” The Atlantic [en línea]. 11 de octubre. Disponible en: <https://www.theatlantic.com/technology/archive/2019/10/increase-drones-used-border-surveillance/599077/> [ Links ]

García, Paola (2024) La militarización del Instituto Nacional de Migración y sus implicaciones en las violaciones a derechos humanos de las personas migrantes [en línea]. Disponible en: <https://drive.google.com/file/u/1/d/1pErCmx9D6TOvnxv1zreiQa_3uUFxxddB/view?usp=sharing&usp=embed_facebook> [ Links ]

Gobierno de Canadá (2024a) Biometric Expansion Program - Executive Summary [en línea]. Disponible en: https://www.cbsa-asfc.gc.ca/agency-agence/reports-rapports/pia-efvp/atip-aiprp/bep-peb-eng.htmlLinks ]

Gobierno de Canadá (2024b) Border Security [en línea]. Connect2Canada. Disponible en: https://connect2canada.com/canada-u-s-relationship/border-security/Links ]

Gobierno de Canadá (2024c) Examining personal digital devices at the Canadian border [en línea]. Disponible en: https://www.cbsa-asfc.gc.ca/travel-voyage/edd-ean-eng.htmlLinks ]

Guzzini, Stefano (2011) “Securitization as a causal mechanism” Security Dialogue, 42(4-5): 329-341. https://doi.org/10.1177/0967010611419000 [ Links ]

Hamlin, Rebecca (2014) Let Me be a Refugee: Administrative Justice and the Politics of Asylum in the United States, Canada, and Australia. Oxford University Press. [ Links ]

Han, Byung-Chul (2016) Psicopolítica. Herder. [ Links ]

Harwell, Drew y Nick Miroff (2018) “ICE just abandoned its dream of ‘extreme vetting’ software that could predict whether a foreign visitor would become a terrorist” Washington Post [en línea]. 17 de mayo. Disponible en: <https://www.washingtonpost.com/news/the-switch/wp/2018/05/17/ice-just-abandoned-its-dream-of-extreme-vetting-software-that-could-predict-whether-a-foreign-visitor-would-become-a-terrorist/> [ Links ]

Homeland Security Today (HST) (2023) DHS ICE to Compete $30M+ Visa Lifecycle Vetting Initiative Support Services RFP next Spring [en línea]. 18 de diciembre. Disponible en: https://www.hstoday.us/subject-matter-areas/border-security/dhs-ice-to-compete-30m-visa-lifecycle-vetting-initiative-support-services-rfp-next-spring/Links ]

Human Rights Watch (HRW) (2021a) “I Didn’t Feel Like a Human in There” Human Rights Watch [en línea]. 17 de junio. Disponible en: https://www.hrw.org/report/2021/06/17/i-didnt-feel-human-there/immigration-detention-canada-and-its-impact-mentalLinks ]

Human Rights Watch (HRW) (2021b) US Records Show Physical, Sexual Abuse at Border [en línea]. Human Rights Watch. Disponible en: https://www.hrw.org/news/2021/10/21/us-records-show-physical-sexual-abuse-borderLinks ]

Human Rights Watch (HRW) (2023a) “Canada: Events of 2022” World Report 2023 [en línea]. Disponible en: <https://www.hrw.org/world-report/2023/country-chapters/canada> [ Links ]

Human Rights Watch (HRW) (2023b) México: Eventos de 2022 [en línea]. Disponible en: <https://www.hrw.org/es/world-report/2023/country-chapters/mexico> [ Links ]

Iliadis, Andrew y Amelia Acker (2022) “The seer and the seen: Surveying Palantir’s surveillance platform” The Information Society, 38(5): 334-363. DOI: https://doi.org/10.1080/01972243.2022.2100851 [ Links ]

Instituto Nacional de Migración (INM) (2021) Tema Migratorio 300621 [en línea]. Disponible en: <https://www.inm.gob.mx/gobmx/word/index.php/tema-migratorio-300621/> [ Links ]

Jacobsen, Katja Lindskov (2015) The Politics of Humanitarian Technology: Good Intentions, Unintended Consequences and Insecurity. Routledge. DOI: https://doi.org/10.4324/9781315777276 [ Links ]

Kasparek, Bernd (2016) “Routes, Corridors, and Spaces of Exception: Governing Migration and Europe” Near Futures [en línea]. Disponible en: <https://nearfuturesonline.org/routes-corridors-and-spaces-of-exception-governing-migration-and-europe/> [ Links ]

Khandaker, Tamara (2018) “Canada is using ancestry DNA websites to help it deport people” Vice [en línea]. 26 de julio. Disponible en: <https://www.vice.com/en/article/wjkxmy/canada-is-using-ancestry-dna-websites-to-help-it-deport-people> [ Links ]

Kinchin, Niamh (2021) “Technology, Displaced? The Risks and Potential of Artificial Intelligence for Fair, Effective, and Efficient Refugee Status Determination” Law in Context. A Socio-Legal Journal, 37(3). DOI: https://doi.org/10.26826/law-in-context.v37i3.157 [ Links ]

Kinchin, Niamh y Davoud Mougouei (2022) “What Can Artificial Intelligence Do for Refugee Status Determination? A Proposal for Removing Subjective Fear” International Journal of Refugee Law, 34(3-4): 373-397. DOI: https://doi.org/10.1093/ijrl/eeac040 [ Links ]

Koulish, Robert y Kate Evans (2021) “Punishing with Impunity: The Legacy of Risk Classification Assessment in Immigration Detention” Georgetown Immigration Law Journal, 36. [ Links ]

Laupman, Clarisse; Schippers, Laurianne-Marie y Marilia Papaléo Gagliardi (2022) Biased Algorithms and the Discrimination upon Immigration Policy. En Bart Custers & Eduard Fosch-Villaronga (Eds.), Law and Artificial Intelligence: Regulating AI and Applying AI in Legal Practice (pp. 187-204). T.M.C. Asser Press. https://doi.org/10.1007/978-94-6265-523-2_10 [ Links ]

Long, Clara (2021) “They Treat You Like You Are Worthless” Human Rights Watch [en línea]. Disponible en: <https://www.hrw.org/report/2021/10/21/they-treat-you-you-are-worthless/internal-dhs-reports-abuses-us-border-officials> [ Links ]

Marwick, Alice y Rebecca Lewis (2017) Media Manipulation and Disinformation Online [pdf]. Disponible en: https://datasociety.net/wp-content/uploads/2017/05/DataAnd-Society_MediaManipulationAndDisinformationOnline-1.pdfLinks ]

Mbembe, Achille (2011) Necropolítica. Melusina. [ Links ]

Mbembe, Achille (2016) Crítica de la razón negra: Ensayo sobre el racismo contemporáneo. NED Ediciones. [ Links ]

Méndez-Fierros, Hugo (2023) “La frontera inteligente Estados Unidos-México. Representaciones de tecnología y construcción del migrante irregular como amenaza-enemigos” Estudios Fronterizos, 24. DOI: https://doi.org/10.21670/ref.2317128 [ Links ]

Mezzandra, Sandro y Brett Neilson (2017) La frontera como método. Traficantes de sueños. [ Links ]

Molnar, Petra y Lex Gill (2018) Bots at the Gate: A Human Rights Analysis of Automated Decision -Making in Canada’s Immigration and Refugee System [pdf]. Universidad de Toronto. Disponible en: <https://km4s.ca/wp-content/uploads/Bots-at-the-Gate-A-Human-Rights-Analysis-of-Automated-Decision-Making-in-Canada%E2%80%99s-Immigration-and-Refugee-System-IHRP-and-Citizen-Lab.pdf> [ Links ]

Morales, Agustín (2020) Violación de derechos humanos de personas migrantes en tránsito por México. Cartografía de un estado de excepción migratorio. UNAM, tesis de doctorado. [ Links ]

Morozov, Evgeny (2015) La locura del solucionismo tecnológico. Katz Editores y Capital Intelectual. [ Links ]

Nalbandian, Lucia (2022) “An eye for an ‘I:’ a critical assessment of artificial intelligence tools in migration and asylum management” Comparative Migration Studies, 10(1). DOI: https://doi.org/10.1186/s40878-022-00305-0 [ Links ]

Noble, Safiya Umoja (2018) Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. [ Links ]

Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos (OACDH) (2016) Situación de los migrantes en tránsito [pdf]. Disponible en: <https://www.ohchr.org/sites/default/files/2021-12/INT_CMW_INF_7940_S.pdf> [ Links ]

OACDH (2023a) Digital Border Governance: A Human Rights Based Approach [pdf]. Disponible en: <https://www.ohchr.org/sites/default/files/2023-09/Digital-Border-Governance-A-Human-Rights-Based-Approach.pdf> [ Links ]

OACDH (2023b) “La securitización y la aplicación de medidas restrictivas de gobernanza migratoria en las fronteras” Los Derechos Humanos de las personas migrantes en México y América Central (5) [pdf]. Disponible en: <https://hchr.org.mx/wp/wp-content/uploads/2023/10/Boletin-Derechos-Humanos-Migrantes.pdf> [ Links ]

OACDH (2024) International standards [en línea]. Disponible en: <https://www.ohchr.org/en/privacy-in-the-digital-age/international-standards> [ Links ]

O’Neil, Cathy (2016) Weapons of math destruction: How big data increases inequality and threatens democracy. 1ra ed. Crown. [ Links ]

Organización Internacional para las Migraciones (OIM) (2023) US-Mexico Border World’s Deadliest Migration Land Route [en línea]. International Organization for Migration. Disponible en: <https://www.iom.int/news/us-mexico-border-worlds-deadliest-migration-land-route> [ Links ]

Organización Internacional para las Migraciones (OIM) (2024) Tendencias migratorias en las Américas. Enero - Marzo 2024 [pdf]. Disponible en: <https://rosanjose.iom.int/sites/g/files/tmzbdl1446/files/documents/2024-05/q1-2024-tendencias-migratorias-en-las-americas-personas-migrantes-en-transito-compressed.pdf> [ Links ]

Organización de las Naciones Unidas (ONU) (2024) La Declaración Universal de los Derechos Humanos. United Nations; [en línea]. United Nations. Disponible en: <https://www.un.org/es/about-us/universal-declaration-of-human-rights> [ Links ]

Parness, Ayelet (2023) “Para las personas solicitantes de asilo, la aplicación CBP One plantea grandes retos” HIAS [en línea]. 8 de noviembre. Disponible en: <https://hias.org/es/noticias/app-CBP-one-grandes-desafios/> [ Links ]

R3D Red en Defensa de los Derechos Digitales (2023) Uso de las tecnologías digitales en los contextos migratorios: Necesidades, oportunidades y riesgos para el ejercicio de los derechos humanos de las personas migrantes, defensoras y periodistas [pdf]. Disponible en: <https://r3d.mx/wp-content/uploads/Informe-_-Uso-de-las-tecnologias-digitales-en-los-contextos-migratorios-_-Necesidades-oportunidades-y-riesgos-para-el-ejercicio-de-los-derechos-humanos-de-las-personas-migrantes-defensoras-y-periodistas-R3D.pdf> [ Links ]

REDODEM (2023) La esperanza en el camino. La REDODEM en un país de impunidad, militarización y violencias Informe 2021-2022 [en línea]. Disponible en: <https://redodem.org/informes/12> [ Links ]

Sandvik, Kristin Bergtora; Jumbert, Maria Gabrielsen; Karlsrud, John y Mareile Kaufmann (2014) “Humanitarian technology: A critical research agenda” International Review of the Red Cross, 96(893): 219-242. DOI: https://doi.org/10.1017/S1816383114000344 [ Links ]

Sawyer, Ari (2024) “No podíamos esperar” Human Rights Watch [en línea]. 1 de mayo. Disponible en: <https://www.hrw.org/es/report/2024/05/01/no-podiamos-esperar/sistema-de-dosificacion-digital-en-la-frontera-entre-ee-uu-y> [ Links ]

Taureck, Rita (2006) “Securitization theory and securitization studies” Journal of International Relations and Development, 9(1): 53-61. https://doi.org/10.1057/palgrave.jird.1800072 [ Links ]

United States Code (2024) 8 USC 1326: Reentry of deported alien; criminal penalties for reentry of certain deported aliens [en línea]. Disponible en: <https://uscode.house.gov/view.xhtml?req=Title+18&f=treesort&num=705> [ Links ]

Universidad de Arizona (2013) Field Tests of an avatar Interviewing System for Trusted Traveler Applicants [pdf]. Disponible en: <https://eller.arizona.edu/sites/default/files/FieldTestsofanAVATARInterviewingSystemforTrustedTravelerApplicants.pdf> [ Links ]

Van Den Meerssche, Dimitri (2022) “Virtual Borders: International Law and the Elusive Inequalities of Algorithmic Association” European Journal of International Law. DOI: https://doi.org/10.1093/ejil/chac007 [ Links ]

Watson, Scott D. (2009) The Securitization of Humanitarian Migration. Routledge. DOI: https://doi.org/10.4324/9780203876794 [ Links ]

Zago de Moraes, Ana Luisa; Macedo, Gustavo; Fernandes Barbosa Valadares, Lutiana y Viviane Dallasta Del Grossi (2022) Artificial Intelligence and migration-Input on the basis of a draft outline for the general comment No. 6 [doc]. EDHIA. Disponible en: <https://www.ohchr.org/sites/default/files/documents/hrbodies/cmw/cfi-gc6-2022/submissions/states/2022-09-26/GC6-edhia.docx> [ Links ]

Zuboff, Shoshana (2019) La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder [en línea]. Paidós. Disponible en: <https://cir.nii.ac.jp/crid/1131693804582038144> [ Links ]

1 Existen dos tipos de estado de excepción: de jure (constitucional) y de facto. En el primer caso, también conocido como estado de excepción constitucional, se verbaliza y hace pública su aplicación, la cual cuenta con límites temporales definidos y generalmente la causa es el mantenimiento del orden social, político y constitucional. Se decreta a partir de las características señaladas previamente en un marco jurídico. Por su parte, el estado de excepción de facto no es de dominio público, sin embargo, sus acciones y omisiones recurrentes se vuelven observables y entonces lo indecible se torna tangible. Ya sea constitucional o de facto, el objetivo final radica en que el sacrificio temporal de derechos se funda en un supuesto bien mayor que es la supervivencia del cuerpo del Estado, pero sobre todo de élites étnicas, económicas o religiosas que históricamente lo integran (Agamben, 2005).

2Foucault retomó la idea de dispositivo a finales de los años setenta para explicar sus tesis sobre la gubernamentalidad, y lo definía como una red, o entramado de estrategias que a partir de los tipos de saber incluyen “un ensamblaje resueltamente heterogéneo que incluye discursos, instituciones, ordenaciones arquitectónicas, decisiones reglamentarias, leyes, medidas administrativas, enunciados científicos, proposiciones filosóficas, morales filantrópicas; en breve, lo dicho, así como lo no dicho, estos son los elementos del dispositivo” (Foucault en Agamben, 2005). Su rol es clave para comprender cómo el estado de excepción se apuntala como un metadispositivo en la medida que comprende un conjunto de tecnologías, estrategias y disposiciones transversales a lo largo de diferentes configuraciones espaciales.

3La presente propuesta de espacios de excepción es una actualización de Morales (2020). Se recomienda consultar para una aproximación teórico, metodológica, histórica y empírica a partir de métodos mixtos del estado de excepción migratorio en México y que por cuestiones de extensión y objetivos es imposible abordar en el presente artículo.

4En los últimos años se han sumado fuerzas estatales y locales en la internalización de fronteras bajo el amparo del Programa ICE 287(g). Esta reforma desde 2020 ha permitido que realicen funciones migratorias 60 agencias policiales locales en 16 estados. El ICE también tiene acuerdos para confirmar la estancia regular en centros de trabajo (Workforce Services Agreement) con 75 agencias policiales en 11 estados (DHS, 2024). El origen de la atomización de políticas contra la migración irregular en Estados Unidos se remonta a 1996 con la aprobación de la Illegal Immigration Reform and Immigrant Responsibility Act (IIRIRA). Esta ley restringió el acceso a programas de asistencia a residentes y personas migrantes irregulares, pero especialmente permitió implementar a nivel local acciones de persecución a la vida cotidiana al aprobar que los estados legislaran sobre cuestiones como acceso a la educación, salud, trabajo, permisos de conducir, renta, propiedades y cualquier cuestión relacionada con las personas con estatus irregular en Estados Unidos (Durand, 2013)

5

Resoluciones de la Asamblea General de las Naciones Unidas relacionadas con innovaciones tecnológicas:

∙ Los principios rectores sobre la reglamentación de los ficheros computarizados de datos personales de 1990 (45/95)

∙ Los derechos del niño: tecnología de la información y las comunicaciones y explotación sexual infantil, de 2016 (31/7)

∙ La promoción, la protección y el disfrute de los derechos humanos en Internet de 2018 (38/7)

∙ Las tecnologías de la información y las comunicaciones para el desarrollo, de 2020 (75/202)

∙ El derecho a la privacidad en la era digital de 2013 (68/167), 2014 (69/166), 2016 (71/199), 2018 (73/179), 2019 (42/15) y de 2020 (75/176)

∙ Contrarrestar la desinformación para promover y proteger los derechos humanos y las libertades fundamentales de 2021 (76/227)

Si bien son una brújula, este tipo de documentos tienen un impacto limitado al no ser vinculantes.

6Salvo las excepciones previstas en la Regla Final: “1. haber obtenido autorización para viajar a Estados Unidos con arreglo a un proceso de permiso humanitario aprobado por el Departamento de Seguridad Nacional; 2. haber utilizado la aplicación móvil CBP One para reservar una hora y lugar de presentación en un punto de entrada, o haberse presentado en un punto de entrada sin utilizar la aplicación CBP One y demostrar que no era posible acceder a la aplicación o utilizarla debido a una barrera lingüística, poca alfabetización, fallo técnico significativo u otro obstáculo continuo y grave; o 3. haber solicitado asilo y que se les haya denegado en un tercer país en ruta a Estados Unidos” (DHS, 2023).

7Estados Unidos no firmó la Convención sobre el Estatuto de los Refugiados de 1951, pero firmó y ratificó el Protocolo sobre el Estatuto de los Refugiados de 1967.

8Título original en inglés: Automating inequality: How hightech tools profile, police, and punish the poor.

9Título original en inglés: Bots at the Gate. A Human Rights Analysis of Automated Decision-Making in Canada’s Immigration and Refugee System

10Aunque la Declaración Universal de los Derechos Humanos no fue escrita en la era digital ofrece bases para reconocer el derecho a la igualdad y a la no discriminación (arts.1 y 2), a la privacidad (art. 12.), a migrar (art. 13), al asilo (art. 14) y a la libertad de expresión (art. 19) (ONU, 2024).

Recibido: 23 de Mayo de 2024; Aprobado: 09 de Agosto de 2024

Agustín Morales Mena. es doctor en Ciencia Política por la Universidad Nacional Autónoma de México y maestro en Problemas Sociales por la Universidad de Granada; sus líneas de investigación son migración, xenofobia, discriminación algorítmica, cultura política y derechos humanos; entre sus publicaciones se encuentran: “Biopolítica, racismo de Estado y migración” (2020) en Elisa Ortega, El derecho como regulación de la vida y la muerte: biopolítica y necropolítica legal. IIJ-UNAM; (con Maritza Caicedo) Imaginarios de la migración internacional en México (2015) UNAM.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons