Introducción
Desde la década de los noventa del siglo pasado y hasta la actualidad, personas en contextos de movilidad humana en Norteamérica han sido víctimas de distintas violaciones a sus derechos humanos (OACDH, 2016; CIDH, 2023). Estas transgresiones han sido sistematizadas, visibilizadas y analizadas a través de espacios de excepción como corredores migratorios, operativos, centros de detención y el sistema de asilo. No obstante, esta cartografía, que revela un estado de excepción y sus espacios de materialización, física, corpórea y territorial, ha encontrado en sistemas de alta tecnología y entornos digitales un nuevo entramado para la discriminación y la vulneración de derechos con impacto en la vida de personas que por decisión o forzadamente han salido de sus países.
Este artículo tiene tres objetivos. En primer lugar, formular, a manera de preámbulo, una cartografía para el análisis del estado de excepción migratorio y de refugio que parte del reconocimiento de sus espacios y cuya evolución en las últimas dos décadas ha sumado los entornos de gobernanza algorítmica y tecnológica. El segundo objetivo consiste en exponer cómo algoritmos, aprendizaje automatizado, inteligencia artificial y aparatos de avanzada tecnología permiten reproducir prácticas que limitan el acceso a derechos. Estos dispositivos apuntalados a través de fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y privatización de la excepción tienen como consecuencia la criminalización de la migración irregular en la región.
Finalmente, se propone el neologismo tecnosecuritización, cuya raíz “securitización” es entendida como el entramado narrativo que apuntala amenazas y legitima medidas que de otro modo no serían justificables (Balzacq, 2011). En este sentido, el prefijo tecno- no se refiere simplemente al uso de innovaciones digitales y tecnológicas. Coloca en el foco los supuestos y relatos relacionados con la imparcialidad, eficiencia, transparencia y empoderamiento vinculados a la tecnificación que permiten normalizar e invisibilizar la negación de derechos a personas migrantes y refugiadas en pleno siglo XXI.
Para alcanzar estos objetivos se sistematizaron libros y artículos publicados en la últimas dos décadas relacionados con derechos humanos y digitales, estado de excepción, securitización e informes sobre el uso de nuevas tecnologías en la gestión de la movilidad humana. Posteriormente se empleó el rastreo de procesos y análisis de contenido tipológico y evaluativo. Finalmente se triangularon los hallazgos para validación y conclusiones.
El estado de excepción migratorio y de refugio
El estado de excepción se define como la pausa en la aplicación del marco jurídico para poder hacer lo indecible en crisis o situaciones de emergencia con el fin de garantizar la continuidad del statu quo.1 Involucra una política de Estado, es decir, un conjunto de estrategias, acciones y recursos transversalmente instrumentalizados en su territorio, cuerpo y fuerza operativa para contener una amenaza real o supuesta. De acuerdo con Giorgio Agamben, en la época actual y desde el fin de las guerras mundiales opera un estado de excepción permanente a nivel planetario, ya que ha dejado de ser una medida provisional, para convertirse en una política en la que guerras externas e internas que no tienen inicio ni fin, solo cambian de estrategias y adversarios (Agamben, 2005). Aunque Agamben retoma y parte de la biopolítica, la nuda vida y el homo sacer, el estado de excepción actualmente incorpora la “administración masiva de poblaciones a través de la muerte a gran escala”, es decir, lo que Achille Mbembe (2011) ha llamado necropolítica. Sus estrategias comprenden la violencia estatal, paramilitar, criminal, la coerción, la acumulación por desposesión, la militarización, la precariedad, la pulsión genocida y el despojo territorial vinculado a proyectos neoextractivos y a la movilidad humana (Mbembe, 2016). Un elemento clave de la aportación de Mbembe es también reconocer el papel de agentes no estatales en prácticas necropolíticas.
En el presente siglo se han implementado estados de excepción constitucionales o de facto con impacto en personas migrantes y refugiadas. Ejemplos van desde las acciones ejecutadas por Estados Unidos a partir de los ataques del 11 de septiembre de 2001, la respuesta de Europa ante la crisis de refugiados de 2015 y 2016, hasta las políticas de mitigación durante la pandemia por Covid-19. Entre las medidas de excepción se encuentran cierre de fronteras, toques de queda, despliegue militar dentro y fuera de fronteras nacionales, limitaciones a la libertad de tránsito y de reunión, cateos y detenciones sin orden judicial, propaganda en redes sociales, censura y control de medios de comunicación, entre otras estrategias y dispositivos que han acotado el acceso a derechos.
Las prácticas de excepción violatorias de derechos humanos en el ámbito migratorio y de refugio han sido expuestas por numerosos estudios. Un panorama preciso lo ofreció en 2016 la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos que emitió el informe Situación de los migrantes en tránsito. En este documento expusieron prácticas recurrentes de distintos países relacionadas con: 1) exposición a la muerte o lesiones a partir de operativos violentos, cercos y construcción de muros; 2) militarización de la seguridad fronteriza en confines marítimos y terrestres; 3) detenciones arbitrarias con prácticas violatorias de derechos humanos; 4) deportaciones masivas y sin el debido proceso; 5) dilación en solicitudes de asilo y violación del principio de no devolución (non refoulement); 6) negación de derechos económicos, sociales y culturales; y 7) violencia, abusos y explotación (OACDH, 2016).
Desde entonces, cada una de estas prácticas ha incorporado rápidamente nuevas tecnologías, algunas sumándose a objetivos específicos como la vigilancia fronteriza, solicitudes de refugio o centros de detención migratoria y otras generando un espacio de excepción digital propio. Esto ha sido expuesto por investigaciones que han estudiado el impacto del uso de algoritmos, inteligencia artificial y sistemas automatizados de control y vigilancia fronteriza (Kinchin, 2021; Akhmetova y Harris, 2021; Bircan y Korkmaz, 2021; Kinchin y Mougouei, 2022; Nalbandian, 2022). A la par, las redes sociales se han establecido como un nuevo espacio público virtual para la reproducción y viralización de discursos de odio, xenofobia y racismo. En suma, nuevas tecnologías se han integrado con prácticas bio y necropolíticas existentes hacia personas migrantes y refugiadas, las cuales han transitado por un proceso de hibridación entre lo corpóreo y lo digital.
Cartografía de la excepción en la gestión de la movilidad humana en Norteamérica
La gestión migratoria y de refugio en el siglo XXI en Europa y Norteamérica ha convertido las rutas y corredores en espacios de excepción. Esto a partir del despliegue de acciones fuera del ordenamiento jurídico ya sea para encausar el tránsito, obstaculizar el camino de migrantes y solicitantes de refugio o para facilitar detenciones masivas (Kasparek, 2016). Por ello, para su estudio se propone hacerlo a partir del reconocimiento de espacios de excepción. Esto involucra examinar etapas, agentes y coordenadas más allá de fronteras nacionales para visibilizar sus prácticas de poder y contrapoder.
Mezzandra y Neilson (2017) señalan que los espacios de excepción comprenden fronteras dinámicas y porosas con tensiones, tiempos, ritmos, negociaciones donde se desarrollan y emergen redes económicas y culturales en las cuales coexisten acciones de resistencia y organización. Por lo tanto, es recurrente en estudios de este tipo ir más allá de la verticalidad biopolítica del cuerpo gestionado, para reconocer resistencias y consecuencias humanas ante la implícita criminalización de la movilidad humana (Benhabib, 2020).
Con este preámbulo, surge de la necesidad epistemológica y metodológica de proponer una cartografía de la excepción migratoria y de refugio a partir de espacios, lo cual busca: 1) sumar a los aportes filosóficos, legales y críticos que la abordan en un nivel más abstracto; 2) evitar que se convierta en un concepto vacío o comodín para explicar cualquier política de contención vinculada a la movilidad humana; 3) abonar a la posibilidad de contar con estudios transdisciplinarios o con métodos mixtos; 4) permitir su espacialización, su operacionalización multidimensional, y por lo tanto según sea el objetivo, contar con la posibilidad de una perspectiva amplia de la excepción o llevarla a estudios de caso; 5) finalmente, ayuda comprender cómo cada espacio de excepción se encuentra incrustado o integrado (embedded) a un entramado de dispositivos en un todo más amplio relacionado a la gobernanza migratoria.
La cartografía de excepción migratoria y de refugio propuesta está conformada por: 1) corredores migratorios; 2) operativos de detención, 3) centros de detención migratoria; 4) sistema de asilo y refugio; y 5) entornos de gobernanza algorítmica y tecnológica. Para el análisis de cada uno se propone abordarlo bajo la consideración de sus fronteras físicas o digitales, los agentes involucrados, los dispositivos,2 las prácticas de excepción, el ritmo con el que ocurren, las consecuencias humanas de su despliegue y las resistencias que se articulan.3

Fuente: elaboración propia.
Figura 1 Cartografía para el estudio de la excepción migratoria y de refugio en Norteamérica
Corredores migratorios
Son el primer espacio de excepción el cual concurre durante el tránsito libre entre su origen y destino propuesto (Kasparek, 2016). Sus fronteras son abiertas y permeables con vectores materiales, políticos y naturales propios de las localidades, las vías de tren, los caminos, los ríos y los mares de tránsito. Cruzan e interconectan rutas y puntos de afluencia continentales y marítimos. Es un espacio con itinerarios históricos afianzados, que van desde Sudamérica cruzando por el Darién, Centroamérica y México, hasta llegar a Estados Unidos y Canadá (OIM, 2024).
En estos corredores una diversidad de actores estatales, sociales y criminales son los protagonistas de la excepción a través de violaciones a derechos humanos y delitos contra personas en contextos de movilidad. Así, el componente migratorio se encuentra imbricado en la cotidianeidad de las comunidades donde participan policías locales, estatales, federales, fuerzas armadas, polleros, traficantes de personas, pandillas, personal de medios de transporte aéreos, marítimos y terrestres, medios de comunicación, crimen organizado e incluso grupos de extrema derecha que han efectuado vigilancia fronteriza armada como Minuteman Project y United Constitutional Patriots en Estados Unidos o Soldiers of Odin y La Meute en Canadá. En este espacio de excepción son habituales violaciones al derecho al libre tránsito, al trabajo y la prohibición de la esclavitud, a la salud, a la vida, a no ser criminalizado, a la dignidad humana, a la libertad de reunión y asociación y al refugio. Por su parte, los principales delitos de los cuales son víctimas las personas en contextos de movilidad son robos, fraudes, discriminación estructural y social, lesiones, violencia letal, tráfico de personas, abuso sexual, secuestros, extorsiones, abuso de autoridad y amenazas (CNDH, 2018; REDODEM, 2023; OACDH, 2023b; HRW, 2023).
Operativos de detención
Tienen como objetivo contener la migración irregular y la llegada de personas solicitantes de refugio. Sus confines son dinámicos y se modulan a lo largo de la frontera vertical hacia el norte a través de retenes en vías del tren, carreteras, localidades de tránsito y fronteras. En el caso de México, los operativos son realizados por el Instituto Nacional de Migración (INM), la Guardia Nacional, el Ejército y en ocasiones por policías municipales que llevan a cabo detenciones arbitrarias a pesar de no contar con facultades para ello. En Estados Unidos, son efectuados por el United States Department of Homeland Security (DHS) y sus brazos la United States Customs and Border Protection (CBP) y el United States Immigration and Customs Enforcement (ICE).4 Finalmente, en Canadá los operativos, que dicho sea son menos numerosos que los implementados en México y Estados Unidos, son desplegados por la Canada Border Services Agency (CBSA). Otras instancias que colaboran en operativos son la Royal Canadian Mounted Police (RCMP), la policía montada, y policías locales, cuando es necesario su acompañamiento si hay algún perfil delictivo.
En los operativos de detención, las prácticas de excepción se encuentran atomizadas. Las más frecuentes son el uso excesivo de la fuerza, la discriminación, el perfilamiento étnico y racial, el uso de armas de fuego, eléctricas, violaciones al debido proceso, extorsiones, expulsiones sumarias como las reportadas en la frontera de Estados Unidos con México, abuso sexual y negación de asistencia legal y de servicios básicos antes de la canalización a centros de detención (CNDH, 2019, 2024; Long, 2021; HRW, 2021b). Es el espacio más alejado de la mirada pública por su relativo asilamiento, dispersión y por lo velado de sus prácticas.
Centros de detención
Son un dispositivo arquitectónico, una ordenación de aislamiento. Sus fronteras se configuran a partir de los muros instrumentalizados para la privación de la libertad de personas migrantes y solicitantes de refugio, los cuales como han referido numerosos informes, más que alojamiento, reproducen estructuras carcelarias de gestión biopolítica. Para los casos de personas en situación irregular es un sistema penitenciario migratorio para una infracción administrativa, que en caso de reincidir se convierte en penal en Estados Unidos (United States Code, 2024). Este espacio de excepción está compuesto por agentes públicos y privados debido al uso de seguridad privada en Estaciones migratorias en México o la subcontratación de la gestión e infraestructura de detención por parte de ICE en Estados Unidos, donde por ejemplo en junio de 2023 nueve de cada diez personas detenidas se encontraban en instalaciones administradas por GEO Group, CoreCivic, LaSalle Corrections, and the Management Training Corporation (Cho, 2023).
En centros de detención se han documentado, además de la implícita privación de la libertad, el uso desmedido de la fuerza, lesiones, acoso y violencia sexual, psicológica y verbal, negación de asistencia legal, detenciones prologadas y/o sin temporalidad definida, falta de acceso a servicios de salud, separación de familias, detención de menores, dilación en trámites, condiciones de detención inhumanas, hacinamiento, expulsiones en masa que involucran violaciones al principio de no devolución y al debido proceso, confinamientos solitarios o en prisiones estatales con delincuentes locales como en Canadá, y muertes, como fue el caso de 40 personas migrantes quemadas vivas en un centro de detención del INM en Ciudad Juárez en 2023 porque el personal de seguridad privada y agentes migratorios no encontraron las llaves de las celdas durante un incendio. Llegar a este espacio para la mayoría es prácticamente condena de expulsión. La excepción se reproduce y queda expuesta por la garantía de impunidad que existe en los centros de detención migratoria en los tres países (CNDH, 2019, 2024; Long, 2021; HRW, 2021a, 2021b).
Sistema de asilo y refugio
Se reproduce en puntos de entrada terrestres, aéreos y marítimos, así como oficinas internas donde se puede iniciar el trámite. Sus principales agentes son en México la Comisión Mexicana de Ayuda a Refugiados (COMAR) y el INM que funciona como filtro. En Estados Unidos, los puertos de entrada son administradas por CBP, quienes también gestionan los ritmos -cuotas- de atención a personas solicitantes de asilo para ser evaluadas por el United States Citizenship and Immigration Services (USCIS) y, posteriormente, por Cortes de Inmigración y de Apelaciones. En algunos casos el proceso se da en libertad y, en otros, las personas solicitantes son llevadas a centros de detención de ICE. En Canadá el primer filtro es la Canada Border Services Agency (CBSA) la cual canaliza los casos al Immigration and Refugee Board of Canada (IRB) y posteriormente en caso de apelaciones llegan a Cortes Federales.
Entre las principales prácticas de excepción en el sistema de refugio en Norteamérica se encuentran negar el acceso al trámite en puertos de entrada, la violación del principio de no devolución (non refoulement), la utilización del concepto tercer país seguro y la consecuente exposición a riesgos en fronteras peligrosas como la del norte México, la gestión mediante listas de espera físicas y digitales, detenciones arbitrarías durante tránsito, privación de la libertad durante juicios y apelaciones, separación de familias, obstaculización el acceso a un representante legal, falta de información sobre derechos, así como imposibilidad de contar con procesos de asilo justos, eficaces y seguros (Estévez, 2018; American Immigration Council, 2022; Benhabib, 2020; CCR, 2022; Amnistía Internacional, 2024b; HRW, 2023).
Entornos de gobernanza algorítmica y tecnológica
Finalmente, los entornos de gobernanza algorítmica y tecnológica son parte de la cartografía de excepción en dos niveles. Primero, a través de un proceso de hibridación con los espacios físicos y corpóreos antes mencionados, es decir, el uso de software y hardware se suma a políticas de disuasión y contención en corredores, operativos, centros de detención migratoria y sistema de asilo. En segundo lugar, emerge como un espacio digital propio, opaco y cerrado a la vista del público. Sus dispostivos operan como un muro virtual y un panóptico digital que genera big data y toma decisiones a partir de un entramado de vigilancia permanente (Han, 2016; Zuboff, 2019). Para ello emplea algoritmos que permiten el monitoreo automatizado de aplicaciones, sitios web, redes sociales, foros, registros biométricos y bases de datos de gobiernos, agentes privados y organismos internacionales. Como espacio híbrido y como espacio digital metafronterizo tiene como fin contener a quienes se encuentran en otras latitudes, así como vigilar y detener a quienes ya ingresaron por vías irregulares.
Los responsables de apuntalar este espacio de excepción digital son los tomadores de decisiones de política migratoria y de refugio, militares, personal que opera tecnologías de vigilancia y monitoreo fronterizo, grandes corporaciones armamentísticas, tecnológicas y de seguridad, equipos de programadores, community managers e incluso el conjunto de personas que alimentaron con sus labores cotidianas las bases de datos empleadas para el entrenamiento de algoritmos. (O’Neil, 2016; Barocas y Selbst, 2016; Eubanks, 2018; Noble, 2018). Sus agentes y dispositivos actúan desde la discrecionalidad a un nivel inédito con escasa posibilidad de interponer recurso alguno ante decisiones arbitrarias.
Entre las principales prácticas de excepción relacionadas con este espacio digital de gobernanza, se encuentran la discriminación algorítmica en decisiones automatizadas que reproduce sesgos étnicos, nacionales, religiosos, raciales y lingüísticos, la violación de derechos digitales, la invasión a la privacidad, el empleo de reconocimiento facial que discrimina tonos de piel, el uso de personas en contextos de movilidad como laboratorio social para la experimentación de algoritmos, el despliegue de plataformas y aplicaciones que obstaculizan el acceso a derechos por brechas digitales, el monitoreo a través de aparatos de seguimiento como alternativa a la detención, la falta de transparencia de códigos y la privatización de la gestión de la movilidad humana que ofrece información confidencial a agentes no estatales (O’Neil, 2016; Barocas y Selbst, 2016; Eubanks, 2018; Noble, 2018; Parness, 2023; Sawyer, 2024; Amnistía Internacional, 2024a).
En contraste con estas prácticas de excepción, las tecnologías también han sido empleadas por personas migrantes y refugiadas para resistir y alcanzar sus destinos propuestos. Prueba de ello son los nutridos y dinámicos foros en redes sociales o aplicaciones de mensajería instantánea como WhatsApp, donde además de mantener contacto con familiares y amigos, es posible compartir y recibir experiencias y consejos durante su tránsito. También es habitual el uso de GPS y mapas satelitales para guiar su trayecto por ciudades o zonas inhóspitas, el uso de traductores, así como consultas médicas a distancia. Por su parte, se ha registrado ya el uso de criptomonedas para el envío de remesas e incluso como medio de pago a coyotes por el servicio de cruces fronterizos irregulares, los cuales pueden ser contactados a través de la deep web (INM, 2021). Debido a todas estas posibilidades, el uso de teléfonos inteligentes ha dejado de ser un lujo para convertirse en una necesidad en su recorrido. Si bien la tecnología ha empoderado a personas en contextos de movilidad, las violaciones a derechos en estos entornos de gobernanza algorítmica han impulsado reiterados exhortos de organizaciones en los últimos años. Sus coordenadas, dispositivos y consecuencias son analizadas a continuación.
Coordenadas de la excepción en entornos de gobernanza algorítmica y tecnológica en Norteamérica
La excepción en entornos de gobernanza algorítmica opera entre la suspensión de la norma, la fragmentación de estándares internacionales y el vacío normativo imperante en la arena digital. A pesar de agitados debates, avances nacionales, regionales y resoluciones de Naciones Unidas5 en las últimas dos décadas, el tema se encuentra lejos de contar con un marco que garantice el uso ético, transparente y responsable de la tecnología (OACDH, 2024). Agentes públicos y privados han aprovechado el desfase legal y la opacidad de los algoritmos para invisibilizar, e incluso normalizar, violaciones al derecho a la libertad de expresión, a la protección de datos, a la seguridad, a la privacidad y a la no discriminación (OACDH, 2023a; Amnistía Internacional, 2024a). El eco de estas violaciones en materia migratoria y de refugio es más evidente por la interdependencia de los derechos humanos. Por ello, los derechos vulnerados en entornos digitales repercuten también en el derecho a migrar, al asilo, a la salud, a la vida, a la seguridad personal y al principio de no devolución (CIDH, 2023).
A partir del rastreo de procesos fue posible reconocer las coordenadas de excepción en entornos de gobernanza algorítmica. En este sentido, a continuación se exponen políticas, dispositivos y herramientas relacionadas con big data, algoritmos, aprendizaje automatizado, inteligencia artificial y otras tecnologías que sostienen y reproducen violaciones a los derechos humanos a partir de fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y la privatización de la excepción. Ejes cuyo fin es limitar el acceso a derechos a personas en contextos de movilidad humana en Norteamérica.
Fronteras inteligentes y fronteras virtuales
Funcionan como barreras complementarias a las físicas. La frontera inteligente se caracteriza por el despliegue de tecnologías que automatizan tareas de gestión y control, así como por la coordinación e interoperabilidad bi o multilateral. En Estados Unidos, el origen de la frontera automatizada se remonta a la década de 1970, cuando instalaron sensores de movimiento empleados en la Guerra de Vietnam, en la frontera con México (Chaar-López, 2019). Desde entonces, múltiples desarrollos se han incorporado. Entre los reconocidos actualmente por el DHS como Sistemas de Vigilancia Fronteriza (Border Surveillance Systems) se encuentran cámaras de alta definición y visión nocturna, torretas de vigilancia automatizadas, vigilancia satelital, drones, tecnologías de vigilancia marítima, sistemas de detección subterránea y antenas para interceptar comunicaciones de teléfonos inteligentes entre otras (DHS, 2018).
El enfoque de fronteras inteligentes, impulsado en la región por Estados Unidos a partir de los ataques del 11 de septiembre, involucró en su inicio acuerdos binacionales con Canadá en 2001 y con México en 2002, para coordinar acciones y tecnologías relacionadas con la seguridad fronteriza, el tráfico de mercancías y el cruce de personas por vías regulares (Méndez-Fierros, 2023). La actualización de estos acuerdos y su materialización regional es permanente. En el caso de México ha implicado la capacitación y uso de distintos equipos, algunos donados por Estados Unidos y otros adquiridos, que comprenden por ejemplo desde 2020, el uso de aviones no tripulados “equipados con cámaras, sensores infrarrojos, sistemas de intercepción de señales, radares y otros sistemas” (R3D, 2023). Por su parte, Canadá, también “utiliza la tecnología más moderna y avanzada, incluidos sensores terrestres, cámaras, radares y lectores de matrículas para vigilar la frontera” (Gobierno de Canadá, 2024a, 2024b, 2024c).
El enfoque de frontera inteligente se ha complementado con la política del gobierno estadunidense Prevention Through Deterrence (Prevención mediante disuasión) la cual crea obstáculos e intensifica los riesgos y peligros. Su implementación vigente desde 1994 a través de la modulación de operativos y herramientas tecnológicas en puntos clave de la frontera con México ha creado un efecto embudo que ha encausado, a las personas que buscan cruces irregulares, a zonas desérticas e inhóspitas. Su impacto no es discursivo. Ha creado la frontera terrestre más mortífera del mundo. Solo en 2022 se registraron 686 personas muertas o desaparecidas (OIM, 2023). La huella de esta política también fue comprobada por una investigación que confirmó la correlación entre el uso de tecnologías relacionadas con fronteras inteligentes y los cuerpos encontrados en sur de Arizona (Boyce y Chambers, 2021). Si bien desplegar tecnología y operativos tiene poco de extraordinario en la actualidad, la política Prevention Through Deterrence es ejemplo de necropoder por la explicita intención de gestionar la movilidad humana a través de la muerte.
Por su parte, como frontera virtual se levanta un muro digital a través de operaciones vía remota, que permite la externalización e internalización de confines. En este caso, las prácticas de excepción se articulan a través del monitoreo y clasificación de información, así como del uso de formularios, plataformas y aplicaciones que administran y discriminan perfiles a partir de características predefinidas (Van Den Meerssche, 2022). De esta manera gracias a entornos digitales es posible modular y contener, sin necesidad de presencia física, a las personas en contextos de movilidad que buscan ingresar, así como detectar perfiles en situación irregular que ya se encuentran en el país.
Un ejemplo del apuntalamiento de una frontera virtual, que funciona como un muro y que limita el acceso a derechos, es la aplicación CBP One en Estados Unidos. Esta app y plataforma lanzada en 2020 se convirtió desde 2023 en la única vía para obtener cita para las personas solicitantes de asilo de todas las nacionalidades.6 Debido a que el proceso de asilo en Estados Unidos se encuentra mediado por esta aplicación, desde entonces organizaciones como Human Rights Watch (2024), Amnistía Internacional (2024b) y HIAS (Parness, 2023) han documentado flagrantes violaciones al derecho internacional. Entre las principales se encuentran: 1) la obstrucción de acceso al derecho de asilo; 2) el algoritmo del sistema de citas funciona con opacidad, incluso fue señalado por congresistas estadounidenses como una “lotería” (Congress of the United States, 2024), 3) expone a las personas solicitantes a una posición vulnerable al tener que permanecer en México como tercer país seguro, 4) crea barreras por brechas digitales e idioma, -solo está disponible en inglés, español y criollo haitiano- y 5) se han reportado sesgos raciales en los sistemas de reconocimiento facial, al arrojar errores con personas con tonos de piel más oscuros en la fotografía y video que se solicita dentro de la aplicación (HRW, 2024).
Como suele suceder con este tipo de tecnologías, el DHS enfatizó que gracias a su uso se puede contar con un proceso “seguro, ordenado y humano” (DHS, 2023). Cuestión que se ha confirmado para algunos, pero que ha dejado sin certeza y a la deriva a miles de personas en una evidente violación al derecho internacional y a protocolos firmados por Estados Unidos.7 Los cierto es que CBP One es solo una estrategia más de las precedentes como el metering -dosificación-, Migrant Protection Protocols y el Título 42 que sistemáticamente obstaculizaron el derecho al asilo a partir de prácticas dilatorias, cierre de fronteras, exposición a peligros y la violación del principio de no devolución.
Discriminación algorítmica
La discriminación algorítmica sucede cuando sistemas automatizados contribuyen de manera directa o indirecta a un trato desigual que niega el acceso a derechos. Esta discriminación, materializada por aprendizaje automatizado e inteligencia artificial, reproduce sesgos de selección por género, raza, etnia, idioma, origen nacional y nivel socioeconómico. Se alimenta del historial base para el entrenamiento de las decisiones automatizadas (training data), los sesgos del equipo programador o por brechas digitales de acceso, especialmente de grupos vulnerables (O’Neil, 2016; Barocas y Selbst, 2016). Eubanks (2018) en su libro Automatizando la desigualdad: cómo las herramientas de alta tecnología perfilan, vigilan y castigan a los pobres,8 expuso el impacto que tiene la minería de datos, los modelos predictivos y los denominados policy algorithms en que personas en situación de pobreza, migrantes, minorías y clase trabajadora, sean o no elegibles para recibir asistencia por parte de gobiernos y organizaciones.
Un ejemplo de discriminación algorítmica que inició durante la administración de Obama fue la implementación de la Evaluación de clasificación de riesgos (Risk Classification Assessment/RCA) en 2012, con la cual se emiten hasta la fecha valoraciones automatizadas sobre extranjeros que se encuentran bajo custodia de ICE. En caso de riesgo de fuga o para la seguridad pública recomienda su detención, en caso contrario su liberación con o sin fianza (Cuffari, 2024). Al ponerla en marcha se difundió como una herramienta que promovería “la uniformidad, la transparencia, la racionalidad y la reducción de daños” (Evans y Koulish, 2020). A partir de una solicitud de información que duró años e involucró un litigio federal que permitió tener acceso al algoritmo, Evans y Koulish (2020) demostraron que nada de lo prometido se cumple. Todo lo contrario, su aplicación tuvo como resultado “un sistema que recomienda la detención inconstitucional de cientos de miles de personas” debido a sesgos, errores en el modelo que tienen como objetivo más que detectar riesgos, contener a la mayor cantidad de personas en contextos de movilidad.
Otro ejemplo de discriminación algorítmica son las evaluaciones de credibilidad automatizadas (automated credibility assessments) las cuales registran, a partir de herramientas no invasivas, movimientos y vocalización para realizar un análisis lingüístico, kinésico y proxémico para detectar declaraciones falsas de viajeros, migrantes y refugiados (Kinchin y Mougouei, 2022). Son detectores de mentiras que incorporan todos los avances tecnológicos. Un caso fue el sistema AVATAR (Automated Virtual Agent Truth Assessment in Real Time) desarrollado por la Universidad de Arizona para CBP y que en sus ensayos expuso numerosas preocupaciones relacionadas con imprecisiones e invasiones a la privacidad lo cual evitó que se extendiera su uso (Universidad de Arizona, 2013).
El caso canadiense, por su parte, ha sido señalado por ser pionero desde 2014 en el uso de inteligencia artificial y aprendizaje automatizado para toma de decisiones a partir de proyectos experimentales (Laupman, Schippers y Papaléo, 2022). Al respecto la investigación realizada por Molnar y Gill, Robots en la puerta: Un análisis de derechos humanos sobre la toma de decisiones automatizada en el sistema de inmigración y refugiados de Canadá9 demostró cómo se ha empleado discrecionalmente análisis predictivo para automatizar evaluaciones de personas migrantes y refugiadas (Molnar y Gill, 2018; Bircan y Korkmaz, 2021). Una de las razones por la que este tipo de herramientas alimentan la discriminación algorítmica es que los modelos son entrenados por el historial de decisiones humanas, la cuales no necesariamente son neutrales, estandarizadas, objetivas y justas. Para ilustrar el potencial discriminación a través de algoritmos se puede mencionar el caso de la Real Policía Montada de Canadá cuando, en 2017, aplicó un cuestionario a 5 000 personas solicitantes de refugio para determinar el nivel de riesgo solo si eran musulmanes. El cuestionario y resultados catalogados como islamofóbicos fueron compartidos con la CBSA y se cuestionó que podrían servir para alimentar modelos automatizados de gestión de riesgos (Akhemtova y Harris, 2021).
El uso de aprendizaje automatizado e inteligencia artificial ha sido criticado por especialistas debido a su carácter potencialmente discriminatorio al utilizar redes neuronales generativas, las cuales no siempre están bajo el control y supervisión humana. En segundo lugar, porque se carece hasta la fecha de un marco normativo robusto como guía para su aplicación y rendición de cuentas en el ámbito migratorio (Molnar y Gil, 2018; Akhemtova y Harris, 2021). En tercer lugar, por el impacto que tienen estas herramientas en la vida de miles de personas cada año, y finalmente, por el dilema ético que involucra usar a personas migrantes y refugiadas como “laboratorio de alto riesgo” con modelos que se encuentran aún en fase experimental (Molnar y Gill, 2018).
Vigilancia permanente
De acuerdo con Zuboff (2019), en las sociedades actuales impera el capitalismo de vigilancia, el cual se caracteriza por la automatizada y sistemática acumulación de información generada en entornos digitales para realizar proyecciones de comportamiento en beneficio de empresas tecnológicas y gobiernos. El excedente conductual recopilado permite conocer y moldear el comportamiento futuro. En este sentido, la vigilancia permanente y la violación a los derechos digitales y a la privacidad son un principio transversal de la excepción migratoria de espacios de gobernanza algorítmica y tecnológica.
El monitoreo de redes sociales, comunicaciones digitales y dispositivos sin consentimiento es la clave de la gestión de la movilidad humana. Esta vigilancia apuntalada por el gobierno de los Estados Unidos permite aglutinar en sus bases de datos relacionadas con migración y refugio todo tipo de información para proyectar y contener movimientos migratorios. La información que reúne va desde el historial crediticio, de compras y de búsquedas, hasta seguros médicos, listas de contactos, currículum, biometría y cualquier otro dato disponible en internet y bases de datos comerciales (Nalbandian, 2022).
Un ejemplo de monitoreo automatizado fue el que realizó Giant Oak en 2013 para el DHS. Esta empresa a través de su motor de búsqueda de web profunda (deep web search engine) llamado Giant Oak Search Technology (GOST) identificó perfiles digitales de personas migrantes irregulares con antecedentes o potenciales intenciones delictivas a partir de información disponible en Internet utilizando ciencia del comportamiento (behavioral science) (Nalbandian, 2022). Pero el control computarizado se complementa con el humano. Una solicitud de información realizada por el Brennan Center for Justice en 2020, encontró que agentes del DHS emplean usuarios simulados o cuentas falsas para monitorear redes sociales, impulsar conversaciones y rastrear actividad ilegal (BCJ, 2023). Estas prácticas también han sido expuestas en el caso mexicano con personal del INM que se ha infiltrado en grupos de Facebook y WhatsApp para la planeación de operativos (R3D, 2023).
Un caso más que expone la vigilancia permanente y la discriminación algorítmica es el monitoreo automatizado de redes sociales e internet para clasificar como deseables o no a las personas solicitantes de visa o en proceso de deportación a partir de la Investigación de antecedentes exhaustiva (Extreme Vetting Initiative). Promulgada en enero de 2017 por Trump en el marco de la Muslim ban, buscaba reconocer a personas que hicieran “aportaciones al interés nacional” o que representaran algún riesgo terrorista o criminal. Esta medida fue ampliamente criticada por 56 organizaciones y 54 expertos en aprendizaje automatizado y minería de datos por limitar la libertad de expresión, discriminar a minorías y ser ineficaz “pues los algoritmos diseñados […] podrían utilizarse para señalar arbitrariamente a grupos de inmigrantes bajo un barniz de objetividad” (BCJ, 2018). Gracias a estas presiones se consiguió en 2018 eliminar la automatización al menos públicamente, pero no el monitoreo (Harwell y Miroff, 2018). Posteriormente con Biden, se derogó la Muslim ban, pero se mantuvieron esfuerzos por realizar análisis automatizados de redes sociales e intercambio de información entre agencias con bases de datos centralizadas (EPIC, 2023; HST, 2023).
Relacionado con la violación a la privacidad dos prácticas de excepción exponen la apropiación indebida de datos y comunicaciones de dispositivos electrónicos en Estados Unidos, México y Canadá. La primera es el uso de escáneres que permiten el hackeo y extracción de información, archivos y comunicaciones de teléfonos celulares, computadoras o tabletas de personas detenidas en aeropuertos y puntos de cruce internacionales sin necesidad de orden judicial bajo el argumento de garantizar la seguridad nacional (EPIC, 2022; García, 2023; CBSA, 2023). En el caso de mexicano se documentó la capacitación por parte del gobierno estadounidense a más de 700 funcionarios en el uso de estas herramientas en 2017 (R3D, 2023). La segunda práctica es el despliegue de antenas que interceptan ubicación y comunicaciones de texto, audio y video de teléfonos celulares inteligentes a lo largo de la frontera México-Estados Unidos. Aunque esta tecnología permite identificar a las personas que cruzan de forma irregular, invade también la privacidad de ciudadanos que habitan en zonas fronterizas por igual (Fussell, 2019; Bircan y Korkmaz, 2021).
Por su parte, el registro y uso de datos biométricos es ya un estándar en entornos digitales de agentes públicos como privados para verificar la identidad de usuarios o beneficiarios de programas gubernamentales. En Estados Unidos, México y Canadá se obtienen datos biométricos, tanto de solicitantes de visas, viajeros que arriban a aeropuertos, como de personas detenidas por autoridades migratorias y solicitantes de refugio. Los registros almacenados en servidores actualizan bases de datos en tiempo real y permiten la interoperabilidad entre países (DHS, 2024; R3D, 2023; CBSA, 2023).
Aunque los registros biométricos han sido empleados en crisis humanitarias con probada utilidad en censos y registros realizados por ACNUR y otras agencias de Naciones Unidas, los riesgos no son menores. Entre los principales se encuentran: 1) el posible robo de identidad, 2) el monitoreo no permitido de actividades, por ejemplo a través de cámaras en espacios públicos con reconocimiento facial, 3) la discriminación por fenotipo y color de piel, que podría llegar incluso a discriminación genética si registros de ADN revelan predisposición a ciertas enfermedades, 4) podría facilitar la persecución de personas refugiadas si países de los que huyen obtienen perfiles biométricos, 5) podría negar el acceso a derechos por falta de precisión, pues huellas dactilares o iris pueden cambiar con el tiempo y 6) se podría negar el acceso a servicios por características físicas o genéticas (Kinchin y Mougouei, 2022; Amnistía Internacional, 2024)
Por último, la vigilancia permanente tiene impacto también en la internalización de fronteras gracias al monitoreo de internet y redes sociales a nivel local (OACDH, 2023a). Esta práctica de control permitió, por ejemplo, la redada más grande de la historia de los Estados Unidos en agosto de 2019 donde detuvieron a 680 personas trabajadoras en Mississippi a partir de una investigación que se sustentó de ciberinteligencia. Esta acción de contención que involucró violación a la privacidad de las personas, fue también el detonante de otras violaciones a derechos humanos como separación de familias, condiciones inhumanas de detención e interrogatorios sin posibilidad de acceso a abogados (ACLU, 2019).
Privatización de la excepción
Históricamente el estado de excepción ha sido decretado por el soberano y sus medidas ejecutadas por las fuerzas armadas. No obstante, en la actualidad y en los entornos de gobernanza algorítmica, sus prácticas solo pueden ser comprendidas por la confluencia de actores privados y militares. La mercantilización de la gestión migratoria y de refugio tiene como raíz la dependencia de gobiernos a corporaciones que ofrecen automatización de procesos, inteligencia artificial, seguridad informática, espionaje y tecnología militar. La privatización opera a través de licitaciones, acuerdos de colaboración con fines de seguridad nacional, la compra directa de equipo, software o la subcontratación.
En Estados Unidos las empresas que más han participado en los últimos años con tecnología para la gestión de la movilidad humana son Northrop Grumman, Palantir Technologies, Inc., Giant Oak, NEC Corporation, Gemalto, Tomson Reuters y Amazon (Nalbandian, 2022). En el caso de Palantir Technologies el DHS emplea su software para identificar perfiles sospechosos que llegan a territorio estadounidense a partir de software de vigilancia, inteligencia artificial, aprendizaje automatizado y big data. Esta empresa, que también ha vendido su tecnología a Canadá, ha sido objeto de críticas y preocupaciones por falta de transparencia, invasión de privacidad, opacidad en sus operaciones y su rol en la deportación y detención de personas migrantes (Chávez, 2019; Iliadis y Acker, 2022). Otro caso es el de Northrop Grumman, empresa que desarrolló una base de datos denominada Homeland Advanced Recognition Technology (HART) para recopilar ADN, reconocimiento de rostro y voz, escaneos, tatuajes e información biográfica. Su implementación prevista para 2020 ha sido postergada a 2024 por preocupaciones del propio gobierno relacionadas con la falta de controles de privacidad (DHS, 2023). También es público que para detectar flujos irregulares el gobierno estadounidense ha comprado bases de datos comerciales y telefónicas que incluyen números, ubicación, fecha, hora y perfiles supuestamente anónimos en zonas fronterizas (DHS, 2018; Bircan y Korkmaz, 2021).
En el caso de Canadá, un ejemplo del uso de servicios privados fue el que realizó la CBSA de las plataformas Ancestry y Family Tree DNA para identificar la posible nacionalidad de personas a las que se les negó el refugio. Estas empresas que ofrecen el servicio de rastreo de origen étnico y del árbol genealógico fueron utilizadas para conocer el país a deportar con muestras de ADN (Khandaker, 2018). Un caso crítico, no solo por el implícito dilema ético, sino por la invasión y uso de datos biométricos a un nivel sin precedentes. México también ha adquirido equipo y software biométrico y de espionaje con las empresas Cellebrite y Nemecisco, esta última parte de la red de empresas que vendieron al gobierno mexicano el software Pegasus (R3D, 2023).
La mancuerna público-privada confirma que la excepción migratoria se sirve de agentes no estatales para llevar a cabo acciones de contención, lo cual además de ofrecer contratos millonarios, vale para repartir responsabilidades de potenciales violaciones a derechos humanos. Entre otras críticas relacionadas con la privatización se encuentran la erosión de la soberanía, la mercantilización y lógica de lucro en la gestión migratoria, conflictos de intereses, dudosa neutralidad de los servicios ofrecidos y la falta de transparencia sobre el uso e impacto de sus tecnologías. En suma, nos encontramos ante una nueva era de fronteras corporativizadas (Akhemtova y Harris, 2021; Nalbandian, 2022).
En conjunto, hasta aquí se han expuesto algunas herramientas relacionadas con flagrantes y potenciales violaciones a los derechos humanos a partir de fronteras inteligentes, fronteras virtuales, discriminación algorítmica, vigilancia permanente y la privatización de la gestión migratoria y de refugio en Norteamérica. No obstante, para justificar y validar estas medidas, gobiernos y corporaciones se han valido, además de la ya recurrente instrumentalización del discurso de derechos humanos, de la implícita neutralidad y eficiencia relacionadas al uso de tecnologías. En este sentido, a continuación se exponen y discuten los principios que permiten trazar y proponer una nueva etapa de tecnosecuritización.
Tecnosecuritización: del control corpóreo al algorítmico-digital
La securitización comprende un proceso de identificación y producción de una narrativa sobre una supuesta amenaza para legitimar acciones para enfrentarla. De esta forma, agentes estatales y no estatales encausan significados, apelan a emociones y sugieren respuestas a partir de un entramado de poder. Ya sea una amenaza estatal o abstracta -como narcotráfico, terrorismo o ciberseguridad-, el apoyo, rechazo y miedo generados, permiten justificar todo tipo de medidas, incluidas de emergencia. En este sentido, sus acciones, como es en el caso de la migración y refugio, tienen el potencial de excluir, segregar, marginar y violar derechos humanos por un fin mayor que generalmente es el mantenimiento del orden existente (Buzan, Wæver y Wilde, 1998; Taureck, 2006; Watson, 2009; Guzzini, 2011).
Desde los años ochenta del siglo pasado, el concepto de securitización se posicionó y evolucionó al ir sumando elementos de enfoques críticos, postestructurales y contemporáneos. Entre las principales discusiones se encuentra la importancia de dejar atrás la idea jerarquizada y vertical de la securitización para revalorar también la agencia de la sociedad; identificar a las élites e intereses detrás de apuntalar amenazas; así como reconocer que no siempre está relacionada con medidas extraordinarias, sin dejar de descartarlas. En este sentido, se ha abonado a la búsqueda de otras respuestas, que más allá del enfoque realista y pragmático de la política, permitan repensar nuevos alcances para la ética pública, la diplomacia, la cooperación internacional y apego efectivo, no solo discursivo, a los derechos humanos (Balzacq, Léonard y Ruzicka, 2016).
Con este preámbulo, y a partir de la evidencia analizada, se propone el neologismo tecnosecuritización para referirse al posicionamiento ante la opinión pública de amenazas y despliegue de recursos que involucran innovaciones en hardware y software para combatirlas. Las políticas y acciones son legitimadas gracias a narrativas y supuestos de imparcialidad, eficiencia, transparencia y empoderamiento vinculados a la tecnificación. Entonces la tecno-securitización no involucra solo el uso de aprendizaje automatizado, inteligencia artificial o el uso de máquinas de hipervigilancia y control virtual y físico. Coloca en el foco al ensamblaje de discursos que permiten justificar medidas extraordinarias gracias a valoraciones y supuestos vinculados a la tecnología.
Las principales consecuencias de la tecnosecuritización son: 1) normaliza la vigilancia permanente y la invasión a la privacidad; 2) invisibiliza la reproducción de la exclusión y la segregación a través de algoritmos que discriminan por raza, género, clase, nacionalidad y otras características; 3) permite contener o encausar amenazas, incluso de manera remota, lo que expone la hibridación del control corpóreo al algorítmico-digital; 4) evade, reparte y anonimiza responsabilidades gracias a la dependencia a grandes corporaciones militares y tecnológicas; 5) al estar su implementación mediada por máquinas y software consigue un efecto allanador ante decisiones arbitrarias; 6) los supuestos referidos idealizan el alcance de la tecnología por lo que ofrece una falsa sensación de seguridad en contextos de incertidumbre; 7) tiene el potencial de despolitizar al pensar que las decisiones automatizadas son neutrales y eficientes; 8) deshumaniza la amenaza al reducirla a código binario, por lo que prácticas exclusógenas pueden ser fácilmente justificadas como bugs o erres de programación; 9) otorga a políticos y gobiernos un halo de racionalidad, productividad y vanguardia ante la opinión pública; y 10) los avances tecnológicos permiten la actualización constante de medidas extraordinarias, que de otra manera no serían justificables. Esto confirma que no se busca resolver, sino contener.
El binomio seguridad-tecnología de novedoso tiene poco. La securitización también desde su origen conceptual ha hecho uso de las últimas herramientas disponibles para contener al enemigo. No obstante, la tecnosecuritización como respuesta ante amenazas se enmarca en el llamado solucionismo tecnológico (technological solutionism) del siglo XXI que sitúa a desarrollos relacionados con la esfera digital como una respuesta reduccionista a todo tipo de retos sociales, políticos y económicos complejos (Morozov, 2015). Es en otras palabras, la “solución” a problemas estructurales a partir de una app o un código QR. De esta forma, la tecnosecuritización permite el despliegue de políticas que generalmente no atienden al problema ni a sus causas, porque busca mantener un estado de emergencia permanente relacionado con la amenaza. Este es el caso de la migración y el refugio impulsadas por trayectorias estructurales relacionadas con desigualdad, pobreza, violencia y persecución.
La narrativa de la tecnosecuritización para la gestión de la movilidad humana
La adopción de innovaciones tecnológicas que han limitado el acceso a derechos para la gestión de la movilidad humana ha sido promovida y celebrada bajo una narrativa equivalente a la ofrecida por la tecnología humanitaria (humanitarian tech). En las últimas dos décadas este término se ha consolidado para referirse al uso de avances en hardware y software con el fin de recolectar, procesar y analizar información para atender a personas en contextos de vulnerabilidad, entre las que se encuentran personas refugiadas, víctimas de desastres o personas desplazadas por guerras o conflictos armados. Se utiliza también para proyectar riesgos que pueden ser contenidos o evitados (Kinchin y Mougouei, 2022). Su mayor impulso se ha dado entre gobiernos, organismos internacionales y sociedad civil, e implica a nivel práctico, el uso de redes sociales para coordinar ayuda o censos de supervivientes en eventos catastróficos, realizar el diagnóstico de enfermedades a través de aparatos portátiles de análisis o la entrega de ayuda humanitaria a través de drones. Es difícil estar en contra de este tipo de avances, lo cual ha permitido desplegar una narrativa que posiciona y justifica su uso.
Las políticas migratorias y de refugio relacionadas con la tecnosecuritización y que son equivalentes a las de la tecnología humanitaria, suelen sumar total o parcialmente a su narrativa los supuestos de imparcialidad, eficiencia, transparencia y empoderamiento (Sandvik, et.al., 2014; Jacobsen, 2015). No obstante, cada uno de estos supuestos presenta luces y sombras en la práctica.
Imparcialidad
Este supuesto parte de que tecnología y algoritmos para la toma de decisiones realizan tareas de forma neutral y objetiva. Por lo que por ejemplo, para la gestión de visados o solicitudes de refugio, dos casos con características equivalentes deberían ofrecer el mismo output o decisión. No obstante, el supuesto de imparcialidad ha sido ampliamente refutado, debido a que los programadores no están exentos de sesgos e intereses. Asimismo, en el caso del aprendizaje automatizado, en general se entrena a partir de un historial de decisiones humanas, las cuales no se encuentran eximes de valoraciones subjetivas, discriminatorias o extraordinarias (Zago de Moraes, et al., 2022). Al respecto, Noble (2018) demostró cómo los algoritmos utilizados por el buscador de Google reproducen estigmas, prejuicios y estereotipos hacia mujeres afrodescendientes, perpetuando la histórica opresión. Este tipo de aportaciones desmontan la idea que estas herramientas son imparciales por antonomasia, al ofrecer en sus resultados recurrentemente enlaces a historias de personas blancas e invisibilizando a su vez vínculos relacionados con personas de otras culturas, etnias y fenotipos.
Eficiencia
El supuesto de eficiencia se relaciona con la capacidad de acelerar procesos, por ejemplo para la gestión de visados y de solicitudes de refugio de manera remota y por su capacidad de realizar millones de operaciones por segundo (Akhemtova y Harris, 2021; Zago de Moraes, et al., 2022; Nalbandian, 2022) . En el caso del llamado digital fact-finding, o la verificación digital de hechos, ésta puede atenuar la carga que tienen países con muchas solicitudes a través de inteligencia artificial y el cruce de información ofrecida en testimonios para confirmar que sean lo suficiente convincentes, creíbles y específicos para ofrecer refugio (Kinchin y Mougouei, 2022). También se encuentra el análisis predictivo ( predictive analytics), el cual a través de imágenes satelitales, GPS de teléfonos celulares, uso de redes sociales e información disponible en la web puede ser empleado para proyectar movimientos poblacionales (Kinchin, 2021). Este tipo de aportes, en primera instancia no suenan mal. No obstante, el supuesto de eficiencia tiene al menos dos adversarios. En primer lugar, la regla no escrita relacionada con la dilación en los procesos de refugio en países con alta demanda, la cual tiene como objetivo disuadir a solicitantes actuales y futuros (Hamlin, 2014). En segundo lugar, la verificación digital de hechos y el análisis predictivo pueden dar un dato por verdadero o falso, bajo la ilusoria premisa que si está en la web o publicado es hecho comprobado. Esto parece dar demasiada confianza al big data y la Internet en tiempos de fake news y campañas simuladas de apoyo (astroturfing) (Marwick y Lewis, 2017). En este sentido, resulta particularmente delicado que la integridad física y la vida de personas solicitantes de refugio dependan del resultado de procesos computacionales sin intervención humana.
Transparencia
El supuesto de transparencia se relaciona con la idea de que los algoritmos, bases de datos y procesos pueden ser auditados y ser sujetos de rendición de cuentas. En particular, en el ámbito de la movilidad humana, al ser considerada como un tema de seguridad nacional y que involucra la protección de datos personales, la transparencia relacionada con la tecnología es discursiva, con escasa realidad aplicada. En el contexto actual resulta difícil, aunque no imposible como demostraron Koulish y Evans (2021), que gobiernos y corporaciones de ciberseguridad, compartan detalles de las denominadas cajas negras (black box). Las cajas negras son sistemas informáticos y modelos cuyos códigos son inaccesibles a las personas usuarias. Solo reciben el output o decisión sin comprender cómo se llegó a tal resultado. Ejemplos de esto van desde los algoritmos personalizados que ofrecen plataformas de video o audio por streaming, hasta quiénes obtienen o no una cita a través de la aplicación CBP One. Lo único transparente es que el uso de estas tecnologías se hace público con el fin de posicionar gobiernos como eficientes y a la vanguardia.
Empoderamiento
El supuesto de empoderamiento se vincula con la posibilidad de conectar a las personas migrantes y refugiadas a través de comunidades digitales y su potencial de socializar información y procesos generalmente lejanos en distancias o en comprensión de contenidos. En este sentido, la agencia que se genera a través del uso de la tecnología ha permitido una democratización de conocimiento sobre vías de migración regular y de asilo, así como la consolidación de identidades y redes transnacionales de apoyo. La contracara de este empoderamiento es el monitoreo y la vigilancia permanente que hacen gobiernos y privados en plataformas digitales para reconocer nuevas rutas de cruce, la convocatoria a caravanas o para detectar servicios de coyotaje. Además redes sociales y sitios web son también un medio para ejecutar distintos fraudes a personas que ante el desconocimiento suelen caer en embustes digitales. Para Akhemtova y Harris (2021), el empoderamiento que genera el uso de la inteligencia artificial y las nuevas tecnologías en las personas migrantes y refugiadas no es equivalente al aparato de vigilancia y control de los Estados y agentes privados, los cuales “infringen los derechos de privacidad y protección de los migrantes, al tiempo que aumentan la discriminación para disminuir la agencia”. De esta forma, el supuesto de empoderamiento relacionado con la tecnosecuritización pasa por alto evidentes asimetrías de poder y brechas digitales en países expulsores.
Consideraciones finales
El presente artículo busca abonar al estudio de prácticas violatorias a derechos humanos en el ámbito migratorio y de refugio en Norteamérica a partir del uso de nuevas tecnologías. Para ello, en un primer momento se trazó una cartografía de excepción que reconoce la incorporación de dispositivos que van del control corpóreo y territorial al tecnológico-digital. Esta transición ha llevado a la consolidación de un entorno de gobernanza algorítmica, donde redes sociales, aprendizaje automatizado e inteligencia artificial han reconfigurado un espacio de excepción propio que alimenta a su vez la contención en corredores migratorios, operativos, centros de detención migratoria y al sistema de asilo. Los casos expuestos vinculados al uso de tecnologías permiten confirmar que se encuentran orientadas a perfilar a las personas en contextos de movilidad humana como una amenaza y no como sujetas de derechos.
A partir de la evidencia presentada se propuso el neologismo tecnosecuritización el cual permite reconocer el proceso que legitima ante la opinión pública, gracias el empleo de algoritmos y equipamiento de última generación, medidas extraordinarias que criminalizan de facto a personas migrantes y refugiadas. La tecnosecuritización se enmarca en la neofilia y el tecnosolucionismo del siglo XXI lo cual permite articular narrativas bajo un velo de certeza, rigor y objetividad. Sus consecuencias no son menores, pues limita el acceso al derecho a migrar y a obtener asilo, invisibiliza la discriminación, normaliza la invasión a la privacidad, deshumaniza al reducir historias a código binario, diluye responsabilidades gracias a la intangibilidad digital y levanta muros virtuales que permiten gestionar la movilidad humana de manera remota. Además, los constantes desarrollos tecnológicos permiten actualizar permanentemente medidas que de otra manera no serían justificables, al mismo tiempo que posiciona ante la ciudadanía a los políticos que las impulsan.
Las industrias militares y digitales se sostienen de la amenaza. Por ello políticos y corporaciones no buscan resolver cuestiones estructurales, solo administran y contienen para mantener el riesgo latente y el negocio vigente. ¿Qué hacer? Al menos tres cosas, en primer lugar dejar el uso instrumental de los derechos humanos para legitimar medidas extraordinarias (Douzinas, 2007). En segundo lugar, garantizar los derechos humanos reconocidos en instrumentos internacionales, incluso aunque no se hayan escrito en la era digital.10 En tercer lugar, es necesario superar vacíos legales y la atomización normativa que juega a favor de intereses de privados y de gobiernos al mantener algunas que garantizan, como es el caso de la movilidad humana, la posibilidad de desplegar medidas arbitrarías. ¿En qué dirección? No hay respuesta única, pero grupos como Ética, Derecho, Inteligencia Artificial y Derechos Humanos (EDHIA) ofrecieron algunas pistas para mitigar el impacto de nuevas tecnologías en materia de movilidad humana que vale la pena retomar. Las recomendaciones se basan en impulsar: 1) el derecho a no estar sujeto a decisiones tomadas únicamente por inteligencia artificial; 2) el derecho a saber cuándo decisiones se basan en esta y la posibilidad de tener acceso a la ruta de evaluación (logical path); 3) contar con equipos de programación diversos en género, edad, clase, etnia, cultura, origen nacional y lengua; 4) consolidar mecanismos de retroalimentación social -social feedback- y de evaluación de algoritmos antes y durante su uso; 5) proponer mecanismos de rendición de cuentas y derecho a la reparación del daño por toma de decisiones automatizadas; y 6) los Estados deben proporcionar mecanismos para supervisar el impacto social y económico de sistemas de inteligencia artificial adquiridos a privados (Zago de Moraes, et al., 2022). En conjunto, es necesario impulsar legislación que garantice la transparencia, la responsabilidad pública y privada, la reparación del daño y evite la fragmentación de estándares a nivel nacional, regional e internacional.
Sin duda todos los países tienen el soberano derecho de resguardar la seguridad de sus fronteras. Sin embargo, también es innegable la obligación de reconocer y respetar los derechos humanos de todas las personas sin importar condición migratoria, nacionalidad o ciudadanía. Aunque en la práctica parezca difícil la coexistencia de estas dos premisas, es necesario repensar nuevas formas de gestionar la movilidad humana ante la ineludible incorporación de tecnologías. Cuestión particularmente importante en Norteamérica, donde políticas y herramientas como las expuestas tienen el poder de impactar en la vida de millones de personas cada año.