SciELO - Scientific Electronic Library Online

 
vol.15 número30Indicadores de calidad de las Instituciones de Educación Superior (IES) en México: liderazgos, tendencias y áreas de oportunidadAtrapados en la conexión: Impacto de las redes sociales en el comportamiento procrastinador académico índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

Compartir


RIDE. Revista Iberoamericana para la Investigación y el Desarrollo Educativo

versión On-line ISSN 2007-7467

RIDE. Rev. Iberoam. Investig. Desarro. Educ vol.15 no.30 Guadalajara ene./jun. 2025  Epub 11-Abr-2025

https://doi.org/10.23913/ride.v15i30.2291 

Artículos científicos

Regulación de la Inteligencia Artificial: Desafíos para los Derechos Humanos en México

Regulation of Artificial Intelligence: Challenges for Human Rights in Mexico

Regulação da Inteligência Artificial: Desafios para os Direitos Humanos no México

Miguel Ángel Medina Romero1  , Conceptualización, Metodología, Análisis Formal, Investigación, Escritura - Preparación del borrador original, Escritura - Revisión y edición, Visualización, Supervisión, Administración de Proyectos
http://orcid.org/0000-0003-4067-2816

Tania Haidée Torres Chávez2  , Conceptualización, Metodología, Investigación, Recursos, Curación de datos, Escritura - Preparación del borrador original, Escritura - Revisión y edición, Visualización, Supervisión, Adquisición de fondos
http://orcid.org/0009-0006-5313-8304

1Universidad Michoacana de San Nicolás de Hidalgo, Facultad de Derecho y Ciencias Sociales, México, miguel.medina.romero@umich.mx

2Universidad Michoacana de San Nicolás de Hidalgo, Facultad de Derecho y Ciencias Sociales, México, torreschaveztaniahaidee@gmail.com


Resumen

Este estudio cualitativo analiza los desafíos legales que la inteligencia artificial (IA) presenta para los derechos humanos en México, con énfasis en la privacidad y la no discriminación. Ante la creciente adopción de la IA y la falta de un marco regulatorio específico, se busca comprender cómo estas tecnologías afectan los derechos fundamentales y qué medidas pueden implementarse para protegerlos. Además, se plantea que implementar la IA sin una regulación adecuada podría comprometer los derechos humanos. La investigación empleó análisis documental y de contenido, examinando legislación, informes gubernamentales, artículos académicos, información de instituciones no gubernamentales y publicaciones periodísticas sobre la IA y derechos humanos en México.

Los hallazgos revelan una brecha significativa en la normatividad mexicana respecto a la IA, exponiendo a los ciudadanos a riesgos potenciales. Así, se identificaron sesgos algorítmicos en sistemas de IA utilizados en sectores clave como el laboral, que podrían llevar a decisiones discriminatorias. México debe priorizar el desarrollo de un marco regulatorio integral que aborde la protección de la privacidad, la prevención de la discriminación y la transparencia en el uso de la IA, equilibrando la innovación tecnológica con la salvaguarda de los derechos humanos. Este enfoque no solo beneficiaría a los ciudadanos mexicanos, sino que serviría como modelo para otros países en desarrollo que enfrentan desafíos similares en la era digital.

Palabras Clave: Inteligencia Artificial; Regulación; Derechos Humanos; Privacidad de Datos; Gobernanza Tecnológica; Políticas Públicas Digitales

Abstract

This qualitative study analyzes the legal challenges that artificial intelligence (AI) presents for human rights in Mexico, with an emphasis on privacy and non-discrimination. Given the increasing adoption of AI and the lack of a specific regulatory framework, the research seeks to understand how these technologies impact fundamental rights and what measures can be implemented to protect them. Furthermore, it posits that the implementation of AI without adequate regulation could compromise human rights, particularly privacy and non-discrimination. The study employed documentary and content analysis, examining legislation, government reports, academic articles, information from non-governmental institutions, and press and dissemination works on AI and human rights in Mexico.

The findings reveal a significant gap in Mexican regulations regarding AI, exposing citizens to potential risks. Algorithmic biases were identified in AI systems used in key sectors such as employment, which could lead to discriminatory decisions. The study concludes that Mexico must prioritize the development of a comprehensive regulatory framework that addresses privacy protection, prevention of discrimination, and transparency in AI use, balancing technological innovation with the safeguarding of human rights. This approach would not only benefit Mexican citizens but could also serve as a model for other developing countries facing similar challenges in the digital era.

Keywords: Artificial Intelligence; Regulation; Human Rights; Data Privacy; Technological Governance; Digital Public Policies

Resumo

Este estudo qualitativo analisa os desafios legais que a inteligência artificial (IA) apresenta para os direitos humanos no México, com ênfase na privacidade e na não discriminação. Diante da crescente adoção da IA e da falta de um marco regulatório específico, busca-se compreender como essas tecnologias impactam os direitos fundamentais e quais medidas podem ser implementadas para protegê-los. Além disso, propõe-se a hipótese de que a implementação da IA sem uma regulamentação adequada poderia comprometer os direitos humanos, particularmente a privacidade e a não discriminação. A pesquisa utilizou análise documental e de conteúdo, examinando legislação, relatórios governamentais, artigos acadêmicos, informações de instituições não governamentais e trabalhos de imprensa e divulgação sobre IA e direitos humanos no México.

Os resultados revelam uma lacuna significativa na normatividade mexicana em relação à IA, expondo os cidadãos a riscos potenciais. Foram identificados vieses algorítmicos em sistemas de IA utilizados em setores-chave como o laboral, que poderiam levar a decisões discriminatórias. Conclui-se que o México deve priorizar o desenvolvimento de um marco regulatório abrangente que aborde a proteção da privacidade, a prevenção da discriminação e a transparência no uso da IA, equilibrando a inovação tecnológica com a salvaguarda dos direitos humanos. Esta abordagem não só beneficiaria os cidadãos mexicanos, mas também poderia servir como modelo para outros países em desenvolvimento que enfrentam desafios semelhantes na era digital.

Palavras-chave: Inteligência Artificial; Regulação; Direitos Humanos; Privacidade de Dados; Governança Tecnológica; Políticas Públicas Digitais

Introducción

La inteligencia artificial (IA) ha emergido como una fuerza transformadora en la sociedad contemporánea, alterando fundamentalmente la forma en que interactuamos con la tecnología y entre nosotros. Este avance tecnológico, si bien promete enormes beneficios, también plantea desafíos significativos para los derechos humanos (Floridi & Cowls, 2019). En el contexto mexicano, donde el marco regulatorio para la IA aún está en desarrollo, es crucial examinar cómo estas tecnologías impactan los derechos fundamentales de los ciudadanos.

El objetivo principal de esta investigación es analizar los desafíos legales que presenta la IA para los derechos humanos en México, con un énfasis particular en la privacidad y la no discriminación. Este enfoque, además, se alinea con la creciente preocupación global sobre los impactos éticos de la IA, como lo señalan Floridi y Cowls (2019), quienes proponen un marco unificado de cinco principios para la IA en la sociedad: beneficencia, no maleficencia, autonomía, justicia y explicabilidad.

Para abordar este objetivo, se plantean las siguientes preguntas de investigación:

  1. ¿Cómo afecta la IA los derechos humanos en México?

  2. ¿Qué desafíos legales presenta la implementación de la IA en relación con la privacidad y la no discriminación?

  3. ¿Cómo puede adaptarse la legislación mexicana para proteger los derechos humanos frente al avance de la IA?;

  4. ¿Qué medidas son susceptibles de implementarse para prevenir la discriminación algorítmica en los sistemas de IA utilizados en México?

  5. ¿Cómo es posible equilibrar los beneficios de la IA con la protección de los derechos humanos en el contexto mexicano?

Estas interrogantes reflejan la necesidad de un enfoque holístico que considere tanto los aspectos técnicos como los éticos de la IA. Como advierte Mittelstadt (2019), los principios éticos por sí solos no pueden garantizar una IA ética, sino que deben traducirse en prácticas y políticas concretas.

Además, la hipótesis central de este estudio es que, aunque la IA tiene el potencial de mejorar significativamente la calidad de vida y la eficiencia en múltiples sectores en México, su implementación sin un marco normativo adecuado puede poner en peligro los derechos humanos fundamentales, particularmente en lo que respecta a la protección de datos y la equidad. Así, se plantea que la falta de regulaciones concretas sobre IA en México incrementa el riesgo de violaciones a la privacidad y los sesgos discriminatorios en los sistemas automatizados.

La relevancia de esta investigación radica en la necesidad inminente de abordar los desafíos legales que presenta la IA, enfatizando la importancia de desarrollar una regulación proactiva y sólida que salvaguarde los derechos humanos mientras se fomenta el avance tecnológico en México.

En la era digital, donde la adopción de la IA está en aumento, resulta imperativo que en México las políticas públicas y las leyes evolucionen para abordar los desafíos únicos que presenta esta tecnología. Asimismo, al examinar cómo la legislación puede adaptarse para proteger la privacidad, prevenir la discriminación algorítmica y equilibrar los beneficios de la IA con la protección de los derechos humanos, el presente estudio tiene como objetivo contribuir al desarrollo de un enfoque integral para regulación de la IA en el caso de estudio, centrado en el ser humano (Castaño, 2020).

Materiales y Métodos

La presente investigación cualitativa se centró en analizar la incidencia de la IA en los derechos humanos, con una perspectiva particular en el contexto mexicano. El estudio se llevó a cabo mediante un enfoque metodológico cualitativo, utilizando técnicas de análisis documental (Bowen, 2009) y análisis de contenido (Krippendorff, 2018) para recopilar y analizar datos relevantes (Hernández-Sampieri & Mendoza, 2022; Medina-Romero et al., 2023).

La indagación se desarrolló en México, un país que enfrenta desafíos significativos en la regulación de la IA debido a la falta de un marco legal sólido que garantice la protección de los derechos humanos en el contexto del avance tecnológico. Este contexto es particularmente relevante dado que México, como muchos países en desarrollo, se encuentra en una posición única donde la adopción de tecnologías de la IA está creciendo rápidamente, pero las estructuras regulatorias aún están en desarrollo (Becerril, 2021).

Así, la recolección de datos se realizó a través de los siguientes procedimientos metodológicos:

  • Análisis documental. Se llevó a cabo una revisión de documentos legales, informes gubernamentales, artículos académicos y publicaciones de organizaciones no gubernamentales que abordan la relación entre la IA y los derechos humanos. Esta revisión permitió identificar los principales desafíos y oportunidades que presenta la IA en el ámbito de los derechos humanos. Así, se incluyeron documentos clave como la Declaración Universal de los Derechos Humanos (Organización de las Naciones Unidas [ONU], 1948); tratados internacionales relevantes; legislación extranjera -como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea y el AI Act (Parlamento Europeo, 2023, 2024)-; informes de organizaciones internacionales como la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura [UNESCO] (2021) y la ONU (2024), así como de instituciones nacionales como Instituto Federal de Telecomunicaciones [IFT] (2022a, 2022b, 2023) y el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales [INAI] (2021, 2022, 2023), sobre IA y derechos humanos; y legislación mexicana e iniciativas legislativas en proceso relacionadas con la tecnología y los derechos humanos: Constitución Política de los Estados Unidos Mexicanos -artículos 6 y 16- (Cámara de Diputados, 2024), Ley Federal de Protección de Datos Personales en Posesión de los Particulares (Cámara de Diputados, 2010), Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (Cámara de Diputados, 2017), Ley Federal de Telecomunicaciones y Radiodifusión (Cámara de Diputados, 2021), Estrategia Digital Nacional 2021-2024 (Diario Oficial de la Federación, 2021, septiembre 6), Iniciativa que reforma y adiciona diversas disposiciones a la Ley de Ciencia y Tecnología y a la Ley General de Salud (Cámara de Diputados, 2020, abril 28), Iniciativa que expide la Ley que crea la Universidad de Tecnologías de la Información, Comunicaciones e Innovación (Cámara de Diputados, 2020, agosto 12), Iniciativa que reforma y adiciona diversas disposiciones a la Ley de Ciencia y Tecnología (Cámara de Diputados, 2021, enero 7), Iniciativa que adiciona el artículo 77 Bis a la Ley General de Salud (Senado de la República, 2021, enero 13), Propuesta de reforma para crear la Estrategia Nacional para el Uso Adecuado y Ético de la Inteligencia Artificial (Cámara de Diputados, 2024, febrero 25) y Propuesta de Agenda Nacional de la Inteligencia Artificial para México 2024-2030 (Senado de la República, 2024, mayo 15).

  • La selección de estos documentos se basó en su relevancia y actualidad, priorizando aquellos publicados en los últimos catorce años -en el caso de artículos académicos y publicaciones de organizaciones no gubernamentales-, para apreciar las tendencias recientes en el campo de la IA y los derechos humanos.

  • Análisis de contenido. Se realizó un análisis de contenido de medios de comunicación para comprender cómo se percibe la IA en la sociedad mexicana y qué preocupaciones existen en torno a su impacto en los derechos humanos. Este método permitió captar una variedad de perspectivas y discursos presentes en el dominio público. Así, fueron revisados artículos de prensa de periódicos nacionales e internacionales, y trabajos publicados en revistas de difusión que abordan las temáticas de tecnología y derechos humanos. El período de examen abarcó los últimos diez años para capturar discusiones recientes sobre el tema.

Se seleccionaron materiales relevantes y actuales para el tema de estudio, y se priorizaron fuentes que ofrecieran un análisis crítico y detallado de las implicaciones de la IA en los derechos humanos. Además, se buscó incluir una representativa gama de perspectivas, desde académicos, expertos en tecnología y autoridades hasta activistas de derechos humanos y ciudadanos comunes a través de las organizaciones no gubernamentales (Sabater & De Manuel, 2024).

El análisis de los datos cualitativos se realizó mediante un enfoque de codificación temática (Braun & Clarke, 2006; Gibbs, 2007). Los datos recopilados de los documentos y el análisis de contenido fueron transcritos y analizados para identificar patrones, temas recurrentes y discrepancias en las percepciones sobre la IA y los derechos humanos. Se identificaron temas clave como derechos humanos y dignidad, marco regulatorio, seguridad y privacidad, sesgos algorítmicos, transformación laboral, percepción pública, ética y valores, la transparencia y la responsabilidad en el uso de la IA.

Se empleó el software NVivo (versión 14) para efectuar la organización y análisis de los datos cualitativos (Lumivero, 2023), así como para realizar la codificación de datos y la identificación de temas clave, lo que ayudó a estructurar los hallazgos de manera coherente. Y, para asegurar la validez y confiabilidad del estudio, se implementaron las siguientes estrategias:

  • Triangulación de datos. Se compararon y contrastaron datos de varias fuentes para verificar la consistencia de los hallazgos (Flick, 2018).

  • Revisión por pares. Los resultados preliminares fueron revisados por expertos en ética de la IA y derechos humanos para obtener retroalimentación y validación.

  • Auditoría de investigación. Se mantuvo un registro detallado de todas las decisiones metodológicas y analíticas para garantizar la transparencia del proceso de investigación.

Este estudio priorizó el análisis de la no discriminación en el contexto de la IA en el caso mexicano, sin descuidar el de la privacidad, aunque con menor espacio comparativo. Esta decisión metodológica respondió a la urgencia e impacto de los desafíos de discriminación algorítmica en sectores clave de la sociedad mexicana. Además, se reconoce la interrelación entre privacidad y no discriminación en la IA, por lo que muchos aspectos de privacidad se abordan indirectamente al analizar prácticas no discriminatorias.

La combinación de análisis documental y de contenido hizo posible una triangulación de datos que enriqueció la validez de los hallazgos y las conclusiones del estudio. Esta aproximación multifacética facilitó la identificación de áreas de consenso y discrepancia en la percepción de la IA y su impacto en los derechos humanos, proporcionando una base sólida para futuras investigaciones y desarrollos de políticas en este campo crucial.

Resultados

A través del análisis documental y de contenido, se identificaron los retos regulatorios que presenta la IA para los derechos humanos en México (ver Tablas 1 y 2 del Anexo). Este estudio de incidencia reveló hallazgos significativos en varios ámbitos clave. Estos resultados se presentan de manera clara y ordenada para facilitar su comprensión.

En primer lugar, la investigación identificó una brecha significativa en el marco regulatorio mexicano con respecto a la IA. Se encontró que, a diferencia de otros países como Estados Unidos o la Unión Europea, México carece de legislación específica que regule el desarrollo y uso de la IA, y que aborde los desafíos legales de esta tecnología (Maqueo et al., 2021; Ortega, 2024). Esta ausencia de regulación comprehensiva expone a los ciudadanos a riesgos potenciales en términos de privacidad y protección de datos. Por ejemplo, mientras que la Unión Europea cuenta con el Reglamento General de Protección de Datos (GDPR) que establece estrictos requisitos de consentimiento y transparencia para el procesamiento de datos personales, incluso en aplicaciones de IA, México aún carece de un marco regulatorio específico para estas tecnologías (Pérez-Ugena, 2024; Becerril, 2021). Según informes del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI), esta brecha regulatoria contribuyó al aumento en las quejas por violaciones de privacidad en los años 2021 y 2022 (Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales, 2021, 2022, 2023). Esta situación pone de manifiesto la necesidad de desarrollar normativas que aborden específicamente los desafíos planteados por la IA en términos de protección de datos y privacidad.

En segundo término, mientras que la Unión Europea ha implementado el Reglamento General de Protección de Datos (GDPR) y está desarrollando el AI Act (Parlamento Europeo, 2023, 2024), y Estados Unidos ha establecido directrices a través de la Oficina de Política Científica y Tecnológica de la Casa Blanca, México aún no cuenta con una normatividad concreta para la IA (Maqueo et al., 2021; Ortega, 2024; Becerril, 2021) aunque hay propuestas gubernamentales e iniciativas legislativas en curso (Villanueva, et al., 2024). No obstante, el gobierno presentó una Estrategia de Inteligencia Artificial de México 2018 (Gobierno de México, 2018) y una Estrategia Digital Nacional 2021-2024 (Diario Oficial de la Federación, 2021), y los diputados y senadores han impulsado la propuesta de reforma para crear la Estrategia Nacional para el Uso Adecuado y Ético de la Inteligencia Artificial (Cámara de Diputados, 2024), así como la iniciativa de Agenda Nacional de la Inteligencia Artificial para México 2024-2030 (Senado de la República, 2024), respectivamente, estos esfuerzos aún no se han traducido en legislación concreta, lo que deja un vacío significativo en la protección de los ciudadanos frente a los riesgos asociados con la IA.

La indagación, igualmente, identificó sesgos algorítmicos en sistemas de IA utilizados en México, particularmente en sectores como el laboral. Por ejemplo, el INAI (2021, 2022, 2023) abordó el uso de sistemas de IA en procesos de contratación en empresas mexicanas, y los resultados revelaron que existe un riesgo significativo de sesgos algorítmicos en estos sistemas, lo cual podría derivar en discriminación en los procesos de selección. Estos hallazgos son consistentes con tendencias globales identificadas que señalan que los sesgos algorítmicos son un desafío persistente en el creciente ecosistema de IA (Ferrante, 2021; Rebollar, 2023; Comas-Forgas, 2023). Además, al discutir los sesgos algorítmicos en procesos de contratación, se está implícitamente abordando cómo se recopilan, procesan y utilizan los datos personales de los ciudadanos (aspectos cruciales de la privacidad). Además, Gómez Mont et al. (2020b) destacan el imperativo de tratar estos sesgos mediante políticas y enfoques éticos sólidos en toda América Latina.

Por otra parte, la investigación indicó que la adopción de IA en varios sectores está transformando el mercado laboral mexicano. El Instituto Federal de Telecomunicaciones (IFT) ha revisado el uso de sistemas de IA en procesos de toma de decisiones en empresas mexicanas de diversos sectores, advirtiendo que de las empresas revisadas y que utilizan sistemas de IA en sus procesos, un número significativo presentó sesgos significativos que podrían llevar a decisiones discriminatorias, especialmente en procesos de contratación y evaluación de desempeño (Instituto Federal de Telecomunicaciones, 2023, 2022b). Estas condiciones coinciden con estudios globales que identifican los sesgos algorítmicos como un desafío persistente en el desarrollo de la IA en México; y, por ello, investigaciones recientes subrayan la urgencia de abordar estos sesgos a través de políticas y marcos éticos efectivos en América Latina, incluyendo México (Ferrante, 2021; Rebollar, 2023; Comas-Forgas, 2023; Gómez Mont et al., 2020b; Instituto Federal de Telecomunicaciones, 2022c).

El último aspecto contemplado por el estudio fue la percepción pública y conciencia sobre la IA en México. Los datos de la Encuesta conocimiento de los usuarios de internet fijo y/o móvil sobre la Inteligencia Artificial reportan que únicamente el 30.3% de los usuarios saben o han oído algo acerca de la IA, en tanto que el 67.8% desconocen el tema completamente; y, la misma fuente arrojó que la preocupación principal de los usuarios cuando proporcionan información para el funcionamiento de la IA es que sea usada para otros fines (25.3%) y el robo de información/identidad (24.5%) (Instituto Federal de Telecomunicaciones, 2022)a. Además, a partir de sus estudios sobre los hábitos de los usuarios de Internet de varios años, la Asociación de Internet MX (2023, 2022, 2021) concluye que la confianza en las nuevas tecnologías, incluida la IA, está vinculada con la percepción de seguridad y regulación. Estos hallazgos en México coinciden con las tendencias internacionales. Según datos sobre la IA y el mercado laboral de la Organización para la Cooperación y el Desarrollo Económico (OCDE) (2023), ciudadanos en países miembros expresaron preocupaciones similares sobre la privacidad y la necesidad de una regulación efectiva de la IA. Esta convergencia de opiniones a nivel internacional subraya la importancia de desarrollar marcos regulatorios robustos y armonizados para la IA, no solo en México sino en todo el mundo.

Discusión

Los resultados subrayan la necesidad apremiante de desarrollar un marco regulatorio sólido para la IA en México. La ausencia de legislación concreta coloca al país en desventaja frente a otras naciones que ya han implementado directrices éticas y legales para la IA (Jobin et al., 2019). Esta brecha regulatoria no solo expone a los ciudadanos a riesgos potenciales, sino que también podría obstaculizar la innovación y el desarrollo responsable de la IA en el país.

Igualmente, el aumento en las violaciones de privacidad relacionadas con la IA sugiere que las protecciones actuales son insuficientes. Esto plantea preocupaciones significativas sobre la capacidad del marco legal existente para salvaguardar los derechos humanos en la era digital. Es crucial que la futura regulación de la IA en México priorice la protección de la privacidad y el consentimiento informado (Fjeld et al., 2020).

Además, la presencia de sesgos algorítmicos en sistemas de IA utilizados en México resalta la necesidad de implementar mecanismos de auditoría y control más rigurosos. Estos hallazgos subrayan la importancia de desarrollar estándares éticos que garanticen la equidad y la no discriminación en el diseño y la implementación de sistemas de IA (Jobin et al., 2019).

También, la proyección de automatización de empleos plantea desafíos significativos para el mercado laboral mexicano. Es imperativo que el gobierno, en colaboración con el sector privado y la academia, desarrolle políticas proactivas de educación y capacitación para preparar a la fuerza laboral para la transición hacia una economía más automatizada (Ripani, 2020; Minian et al., 2018; Gómez Mont et al., 2020a).

Por otra parte, la percepción pública sobre la IA revela una creciente preocupación entre los ciudadanos mexicanos. Esto resalta la importancia de promover un diálogo público amplio sobre los impactos de la IA y de involucrar a la sociedad civil en el desarrollo de políticas y regulaciones relacionadas con estas tecnologías.

Con base en los hallazgos, se justifica el desarrollo de un marco regulatorio integral para la IA en México que aborde los siguientes principios clave:

  • Transparencia y explicabilidad de los sistemas de IA.

  • Protección de la privacidad y los datos personales.

  • Equidad y no discriminación en el diseño y uso de la IA

  • Responsabilidad y rendición de cuentas en la implementación de la IA.

  • Promoción del bienestar humano y social.

Este marco debe ser desarrollado a través de un proceso participativo que incluya a todas las partes interesadas relevantes, desde tomadores de decisiones, autoridades, legisladores, académicos, hasta expertos en ética, tecnólogos y representantes de la sociedad civil (Fjeld et al., 2020; Medina, 2024).

Por lo tanto, los resultados de esta indagación subrayan la necesidad apremiante de abordar los desafíos legales planteados por la IA en el caso de México. El desarrollo de un marco jurídico sólido, basado en principios éticos robustos y en consonancia con las mejores prácticas internacionales, es crucial para garantizar que la IA contribuya positivamente al desarrollo social y económico del país, mientras se protegen los derechos humanos fundamentales.

Conclusión

Esta investigación ha cumplido su objetivo principal de analizar los desafíos legales que la IA presenta para los derechos humanos en México, centrándose en dos áreas críticas: la privacidad y la no discriminación. El estudio ha explorado la compleja intersección entre la IA y los derechos humanos en el contexto específico de la sociedad mexicana, revelando matices importantes en esta relación. Además, los hallazgos confirman la hipótesis inicial de que, si bien la IA tiene el potencial de mejorar significativamente la calidad de vida y la eficiencia en múltiples sectores, su implementación sin un marco regulatorio adecuado puede poner en riesgo los derechos humanos fundamentales. Este riesgo se manifiesta de manera particular en las áreas de privacidad y no discriminación, donde se han identificado brechas significativas en la protección legal actual.

Así, la falta de un marco normativo específico y consistente en México expone a los ciudadanos a violaciones de su privacidad y discriminación algorítmica. Esta brecha regulatoria es particularmente preocupante dado el ritmo acelerado de adopción de tecnologías de IA en diversos sectores de la sociedad mexicana. En el estudio se identificaron desafíos significativos que requieren atención urgente, como el riesgo de invasión de la privacidad debido a la recopilación masiva y el procesamiento de datos personales sin un consentimiento informado adecuado. En un contexto donde los datos personales tienen un valor estratégico, su protección es determinante para salvaguardar la autonomía y la dignidad de los individuos.

Otro desafío crítico identificado fue la posibilidad de discriminación algorítmica, especialmente en sectores clave como el laboral. Los algoritmos de IA, si no se diseñan y auditan cuidadosamente, pueden perpetuar y amplificar sesgos existentes en la sociedad, llevando a decisiones injustas en áreas como la concesión de créditos o la selección de candidatos para puestos de trabajo. Esto no solo viola el principio fundamental de no discriminación, sino que también puede exacerbar las desigualdades existentes en la sociedad mexicana.

En aras de abordar estos desafíos de manera efectiva, la investigación sugiere que México necesita desarrollar urgentemente un marco regulatorio integral y proactivo que aborde explícitamente la protección de la privacidad y la prevención de la discriminación en el uso de la IA. Para lograrlo, es necesario implementar una serie de acciones concretas. En primer lugar, las leyes existentes deben ser revisadas y actualizadas para abordar los desafíos únicos planteados por la IA en términos de recopilación, procesamiento y uso de datos personales. Paralelamente, es crucial establecer procesos rigurosos para evaluar y monitorear los algoritmos de IA en busca de sesgos y resultados discriminatorios.

El desarrollo de pautas claras y aplicables para el uso ético de tecnologías de IA es fundamental, sirviendo como guía para desarrolladores, empresas y organismos gubernamentales. Estas pautas deben ir acompañadas de evaluaciones de impacto de privacidad y derechos humanos específicos para proyectos de IA, especialmente aquellos que afectan a sectores críticos o poblaciones vulnerables. Para reducir los sesgos inherentes y asegurar que las tecnologías desarrolladas sean inclusivas y representativas de toda la sociedad mexicana, es esencial fomentar la diversidad en los equipos de desarrollo de IA.

La creación de organismos independientes y sólidos para supervisar el desarrollo y la implementación de sistemas de IA es necesaria, dotándolos del poder para investigar y sancionar violaciones. La transparencia juega un papel fundamental en este marco regulatorio. Por ello, es crucial establecer estándares que permitan a las personas comprender cómo funcionan los sistemas de IA que afectan sus vidas y decisiones, garantizándoles el derecho a conocer, cuestionar y, en su caso, impugnar las decisiones adoptadas por sistemas de IA que afectan sus prerrogativas o intereses.

Además, se enfatiza la necesidad de un enfoque multidisectorial que priorice la protección de la privacidad y la no discriminación, al tiempo que reconozca y aproveche los beneficios potenciales de la IA. Este equilibrio delicado requiere la colaboración estrecha entre diversos actores: el gobierno, para establecer y hacer cumplir regulaciones; la academia, para proporcionar investigación y conocimientos especializados; el sector privado, para implementar prácticas éticas en el desarrollo de IA; y la sociedad civil, para representar los intereses y preocupaciones de los ciudadanos. Asimismo, se recomienda desarrollar políticas públicas integrales que no solo fomenten la innovación tecnológica, sino que también establezcan salvaguardas robustas para proteger los derechos humanos. Estas políticas deben incluir programas de educación y concienciación sobre el uso ético de la IA, dirigidos tanto a desarrolladores como al público en general. La alfabetización digital y la comprensión de los principios básicos de la IA serán cruciales para empoderar a los ciudadanos en la era digital.

El estudio realizado proporciona una base sólida y fundamentada para el desarrollo de políticas y regulaciones que aseguren que la implementación de la IA en la sociedad mexicana se realice de manera que respete y promueva activamente los derechos humanos, por el sendero de una integración ética y responsable, y con esfuerzo sostenido y colaborativo. Mirando hacia el futuro, la complejidad de los desafíos identificados demanda una vigilancia constante y una disposición a adaptar las estrategias a medida que surgen nuevas tecnologías y retos.

En conclusión, el éxito en la gestión de la relación entre la IA y los derechos humanos en México no solo beneficiará a los ciudadanos mexicanos, sino que también serviría como modelo para otros países en desarrollo que enfrentan desafíos similares. Al abordar proactivamente estos desafíos, México tiene la oportunidad de posicionarse como líder en el desarrollo ético y responsable de la IA, demostrando que es posible aprovechar los beneficios de la tecnología avanzada sin comprometer los valores fundamentales de dignidad, igualdad y respeto por los derechos humanos.

Futuras líneas de investigación

El presente estudio sobre los desafíos legales que presenta la IA para los derechos humanos en el caso de México ha revelado varias áreas generales para futuras investigaciones. Estas líneas de estudio abordan aspectos que, si bien son cruciales, exceden el alcance inicial de este trabajo y merecen un análisis más profundo. En primer lugar, se propone desarrollar y aplicar enfoques metodológicos integrales (mixtos) que combinen métodos cualitativos y cuantitativos, incluyendo herramientas de evaluación de impacto específicas para IA, adaptadas al contexto mexicano.

Paralelamente, se sugiere realizar un estudio comparativo de marcos regulatorios internacionales de IA, con el objetivo de identificar mejores prácticas y desarrollar un modelo adaptado a las necesidades y realidades de México. Otra línea de investigación importante sería estudiar cómo México puede participar efectivamente en iniciativas globales para establecer estándares éticos en IA, mientras se realiza un seguimiento longitudinal de la percepción pública sobre la IA y su impacto en los derechos humanos.

También, se recomienda efectuar un estudio complementario que se centre específicamente en los desafíos de protección de datos relacionados con la IA en México, para abordar con mayor expansión y profundización adicional esta brecha en la investigación actual.

Asimismo, se identificaron las siguientes áreas particulares que abordan los desafíos específicos relacionados con la privacidad y la equidad en el contexto de la IA en el caso de estudio. Primeramente, es pertinente llevar a cabo el desarrollo de marcos de auditoría algorítmica para sistemas de IA en México, con énfasis en la detección y mitigación de sesgos en sectores críticos.

En segundo lugar, resulta relevante analizar el impacto de la IA en grupos vulnerables y estrategias para garantizar la equidad algorítmica, asegurando que estas tecnologías no perpetúen desigualdades existentes. Por último, habría que considerar un estudio comparativo sobre la efectividad de las regulaciones de privacidad de datos en IA entre México y otros países, evaluando su eficacia en la protección de datos personales.

Estas líneas de investigación buscan profundizar nuestra comprensión de la compleja relación entre la IA y los derechos humanos en México, proporcionando una base sólida para el desarrollo de políticas y prácticas que maximicen los beneficios de la IA mientras protegen y promueven los derechos fundamentales de todos los ciudadanos.

Referencias

Asociación de Internet MX. (2021). 17° Estudio sobre los Hábitos de los Usuarios de Internet en México 2021.https://irp.cdn-website.com/81280eda/files/uploaded/17%C2%B0%20Estudio%20sobre%20los%20Ha%CC%81bitos%20de%20los%20Usuarios%20de%20Internet%20en%20Me%CC%81xico%202021%20v16%20Publica.pdfLinks ]

Asociación de Internet MX. (2022). 18° Estudio sobre los Hábitos de Personas Usuarias de Internet en México 2022.https://irp.cdn-website.com/81280eda/files/uploaded/18%C2%B0%20Estudio%20sobre%20los%20Habitos%20de%20Personas%20Usuarias%20de%20Internet%20en%20Mexico%202022%20%28Publica%29%20v2.pdfLinks ]

Asociación de Internet MX. (2023). 19° Estudio sobre los hábitos de usuarios de internet en México 2023.https://irp.cdn-website.com/81280eda/files/uploaded/19%20Estudio%20sobre%20los%20Hai-bitos%20de%20Usuarios%20de%20Internet%20en%20Mei-xico%202023%20.pptx.pdfLinks ]

Becerril, A. A. (2021, marzo 14). Retos para la regulación jurídica de la Inteligencia Artificial en el ámbito de la Ciberseguridad. Revista IUS, 15(48). https://doi.org/10.35487/rius.v15i48.2021.705Links ]

Bowen, G. A. (2009). Document Analysis as a Qualitative Research Method. Qualitative Research Journal, 9(2), 27-40. https://doi.org/10.3316/QRJ0902027Links ]

Braun, V., & Clarke, V. (2006). Using thematic analysis in psychology. Qualitative Research in Psychology, 3(2), 77-101. https://doi.org/10.1191/1478088706qp063oaLinks ]

Cámara de Diputados. (2024). Constitución Política de los Estados Unidos Mexicanos.https://www.diputados.gob.mx/LeyesBiblio/pdf/CPEUM.pdfLinks ]

Cámara de Diputados. (2010). Ley Federal de Protección de Datos Personales en Posesión de los Particulares.https://www.diputados.gob.mx/LeyesBiblio/pdf/LFPDPPP.pdfLinks ]

Cámara de Diputados. (2017). Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados.https://www.diputados.gob.mx/LeyesBiblio/pdf/LGPDPPSO.pdfLinks ]

Cámara de Diputados. (2020, abril 28). Iniciativa que reforma y adiciona diversas disposiciones de la Ley de Ciencia y Tecnología y de la Ley General de Salud, presentada por el dip. Carlos Humberto Castaños. Gaceta Parlamentaria.http://sil.gobernacion.gob.mx/Librerias/pp_ContenidoAsuntos.php?SID=108feb6642719b52eb7d183beaa96a70&Clave=4035539Links ]

Cámara de Diputados. (2020, agosto 12). Iniciativa con proyecto de decreto por el que se expide la ley que crea la Universidad de Tecnologías de la Información, Comunicaciones e Innovación, presentada por el dip. Carlos Iván Ayala. Gaceta Parlamentaria.http://sil.gobernacion.gob.mx/Librerias/pp_ContenidoAsuntos.php?SID=108feb6642719b52eb7d183beaa96a70&Clave=4059591Links ]

Cámara de Diputados. (2021). Ley Federal de Telecomunicaciones y Radiodifusión.https://www.diputados.gob.mx/LeyesBiblio/pdf/LFTR.pdfLinks ]

Cámara de Diputados. (2021, enero 7). Iniciativa que reforma y adiciona diversas disposiciones de la Ley de Ciencia y Tecnología, presentada por el dip. Mario Alberto Rodríguez, Gaceta Parlamentaria.http://sil.gobernacion.gob.mx/Librerias/pp_ContenidoAsuntos.php?SID=bcfc898d03f757d8aedb8d776c83a077&Clave=4128934Links ]

Cámara de Diputados. (2024, febrero 25). Impulsan reforma para crear la “Estrategia Nacional para el Uso Adecuado y Ético de la Inteligencia Artificial”. Boletines, No. 6064. LXV Legislatura. https://comunicacionsocial.diputados.gob.mx/index.php/boletines/impulsan-reforma-para-crear-la-estrategia-nacional-para-el-uso-adecuado-y-tico-de-la-inteligencia-artificial-Links ]

Castaño, D. (2020). La gobernanza de la Inteligencia Artificial en América Latina: entre la regulación estatal, la privacidad y la ética digital. En C. Aguerre. (Ed.). Inteligencia artificial en América Latina y el Caribe. Ética, gobernanza y políticas. Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés. https://proyectoguia.lat/wp-content/uploads/2020/10/compilado-espanol-compressed.pdfLinks ]

Comas-Forgas, R. (2023). Sesgos algorítmicos en educación: análisis y soluciones. En REDINE (Ed.), Conference Proceedings EDUNOVATIC 2023 (p. 329). Adaya Press. https://doi.org/10.58909/adc24139168Links ]

Diario Oficial de la Federación. (2021, septiembre 6). Acuerdo por el que se expide la Estrategia Digital Nacional 2021-2024. https://dof.gob.mx/nota_detalle.php?codigo=5628886&fecha=06/09/2021#gsc.tab=0Links ]

Ferrante, E. (2021). Inteligencia artificial y sesgos algorítmicos ¿Por qué deberían importarnos? Nueva Sociedad, (294), 27-36. [ Links ]

Fjeld, J. et al. (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI. Berkman Klein Center Research Publication, No. 2020-1. https://doi.org/10.2139/ssrn.3518482Links ]

Flick, U. (2018). Doing triangulation and mixed methods. SAGE Publications Ltd. https://methods.sagepub.com/book/doing-triangulation-and-mixed-methodsLinks ]

Floridi, L., & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 1(1), 2-15. https://doi.org/10.1162/99608f92.8cd550d1Links ]

Gibbs, G. R. (2007). Analyzing qualitative data. SAGE Publications Ltd. [ Links ]

Gobierno de México. (2018). Inteligencia Artificial de México. Coordinación de Estrategia Digital Nacional. https://www.gob.mx/epn/es/articulos/inteligencia-artificial-en-mexicoLinks ]

Gómez Mont, C. et al. (2020a). La inteligencia artificial al servicio del bien social en América Latina y el Caribe: Panorámica regional e instantáneas de doce países. Banco Interamericano de Desarrollo (BID). http://dx.doi.org/10.18235/0002393Links ]

Gómez Mont, C. et al. (2020b). La inteligencia artificial en América Latina y el Caribe: Ética, gobernanza y políticas. En C. Aguerre. (Ed.). Inteligencia artificial en América Latina y el Caribe. Ética, gobernanza y políticas. Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés. https://proyectoguia.lat/wp-content/uploads/2020/10/compilado-espanol-compressed.pdfLinks ]

Güicho, M. (2024, 16 de mayo). Inteligencia artificial y legislación: un equilibrio necesario. El Universal.https://www.eluniversal.com.mx/opinion/monica-guicho/inteligencia-artificial-y-legislacion-un-balance-necesario/Links ]

Hernández-Sampieri, R., & Mendoza Torres, C. P. (2022). Metodología de la investigación: las rutas cuantitativas, cualitativas y mixta. Editorial McGraw Hill. [ Links ]

Instituto Federal de Telecomunicaciones. (2022a). 4º. Informe Trimestral Estadístico 2022.https://www.ift.org.mx/sites/default/files/contenidogeneral/estadisticas/ite4t2022.pdfLinks ]

Instituto Federal de Telecomunicaciones. (2022b). Anuario Estadístico 2022.https://www.ift.org.mx/sites/default/files/contenidogeneral/estadisticas/anuarioestadistico2022acc.pdfLinks ]

Instituto Federal de Telecomunicaciones. (2022c). Estudios Internacionales en materia de Telecomunicaciones 2022.https://www.ift.org.mx/usuarios-y-audiencias/estudios-internacionales-en-materia-de-telecomunicaciones-2022Links ]

Instituto Federal de Telecomunicaciones. (2023). Anuario Estadístico 2023.https://www.ift.org.mx/sites/default/files/contenidogeneral/estadisticas/anuarioestadistico2023acc.pdfLinks ]

Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales. (2021). Informe de Labores 2021.https://micrositios.inai.org.mx/informeshistorico/wp-content/uploads/2022/10/InformeLaboresINAI2021.pdfLinks ]

Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales. (2023). Informe de Labores 2022.https://micrositios.inai.org.mx/informesinai/Links ]

Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales. (2023). Informe de Labores 2023.https://home.inai.org.mx/wp-content/uploads/Informe-Laboral-INAI-2023_WEB_B-1.pdfLinks ]

Jobin et al. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2Links ]

Krippendorff, K. (2018). Content analysis: An introduction to its methodology. (4ª ed.). SAGE Publications. [ Links ]

Legaspi, A. (2024, 14 de mayo). La era del Internet y la promesa de la inteligencia artificial. El Financiero.https://www.elfinanciero.com.mx/opinion/colaborador-invitado/2024/05/14/la-era-del-internet-y-la-promesa-de-la-inteligencia-artificial/Links ]

Limón, R. (2023, 19 de diciembre). Las grandes compañías desarrollan plataformas para asegurar un desarrollo ético y legal de la inteligencia artificial. El País.https://elpais.com/tecnologia/2023-12-20/las-grandes-companias-desarrollan-plataformas-para-asegurar-un-desarrollo-etico-y-legal-de-la-inteligencia-artificial.html [ Links ]

Lumivero. (2023). NVivo (Version 14). [Computer software]. https://lumivero.com/products/nvivo/Links ]

Maqueo, M. S., Moreno, J., Mendoza, O. A., & Rentería, C. (2021). Evaluación del grado de preparación para la adopción de inteligencia artificial en los sistemas judiciales de la región. Caso México. Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés. https://repositorio.udesa.edu.ar/jspui/handle/10908/18634Links ]

Medina-Romero et al. (2023). Método mixto de investigación: Cuantitativo y cualitativo. Instituto Universitario de Innovación Ciencia y Tecnología Inudi Perú. https://doi.org/10.35622/inudi.b.105Links ]

Medina, M. (2024). Aplicaciones de la Inteligencia Artificial para la investigación y la innovación en la educación superior. Revista Social Fronteriza, 4(4). https://doi.org/10.59814/resofro.2024.4(4)336Links ]

Méndez, R., & Sánchez, L. (2023, 24 de abril). Inteligencia artificial y el futuro del derecho. Nexos.https://eljuegodelacorte.nexos.com.mx/inteligencia-artificial-y-el-futuro-del-derecho/Links ]

Minian, I., & Martínez Monroy, Á. (2018). El impacto de las nuevas tecnologías en el empleo en México. Problemas del desarrollo, 49(195), 27-53. https://doi.org/10.22201/iiec.20078951e.2018.195.64001Links ]

Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1, 501-507. https://doi.org/10.1038/s42256-019-0114-4Links ]

Organisation for Economic Co-operation and Development. (2023). Artificial intelligence and the labour market: What we know so far. OECD Social, Employment and Migration Working Papers, No. 282. OECD Publishing. https://doi.org/10.1787/08785bba-enLinks ]

Organización de las Naciones Unidas. (1948). Declaración Universal de los Derechos Humanos.https://www.ohchr.org/sites/default/files/UDHR/Documents/UDHR_Translations/spn.pdfLinks ]

Organización de las Naciones Unidas. (2024, 7 de marzo). La Asamblea General adopta una resolución histórica sobre la IA. https://news.un.org/es/story/2024/03/1528511Links ]

Ortega, M. J. (2024, 15 de mayo). Legislar para Proteger: La urgencia de regular la Inteligencia Artificial en México. DLMEX.https://dlmex.org/legislar-para-proteger-la-urgencia-de-regular-la-inteligencia-artificial-en-mexico/Links ]

Ortiz, A. (2023, 10 de noviembre). Más allá de los algoritmos: desafíos y tendencias en la regulación global de la Inteligencia Artificial. El Economista.https://www.eleconomista.com.mx/opinion/Mas-alla-de-los-algoritmos-desafios-y-tendencias-en-la-regulacion-global-de-la-Inteligencia-Artificial-20231110-0030. HTML [ Links ]

Parlamento Europeo. (2023, diciembre 9). Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI.https://www.europarl.europa.eu/news/es/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-aiLinks ]

Parlamento Europeo. (2024, marzo 13). La Eurocámara aprueba una ley histórica para regular la inteligencia artificial.https://www.europarl.europa.eu/news/es/press-room/20240308IPR19015/la-eurocamara-aprueba-una-ley-historica-para-regular-la-inteligencia-artificialLinks ]

Parlamento Europeo y Consejo de la Unión Europea. (2016, abril 27). Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo relativo a la protección de las personas físicas en lo que respeta al tratamiento de datos personales y la libre circulación de estos datos (Reglamento General de Protección de Datos). Diario Oficial de la Unión Europea.Links ]

Parlamento Europeo y Consejo de la Unión Europea. (2024, junio 13). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo por el que se establecieron normas armonizadas sobre la inteligencia artificial (Ley de Inteligencia Artificial). Diario Oficial de la Unión Europea.Links ]

Pascual, M. G. (2023, 22 de noviembre). Cómo impedir que la inteligencia artificial genere más carga de trabajo y más control sobre el empleado. El País.https://elpais.com/economia/2023-11-23/como-impedir-que-la-inteligencia-artificial-genere-mas-carga-de-trabajo-y-mas-control-sobre-el-empleado. HTML [ Links ]

Pérez-Ugena, M. (2024). Análisis comparado de los distintos enfoques regulatorios de la inteligencia artificial en la Unión Europea, EE. UU., China e Iberoamérica. Anuario Iberoamericano de Justicia Constitucional, 28(1). https://doi.org/10.18042/cepc/aijc.28.05Links ]

Rebollar, A. (2023, mayo 16). Sesgos algorítmicos y ética en la IA. ADP México.https://adpmx.com/sesgos-algoritmicos-y-etica-en-la-ia/Links ]

Ripani, L. et al. (2020). El futuro del trabajo en América Latina y el Caribe. Banco Interamericano de Desarrollo. [ Links ]

Riquelme, R. (2024, Julio 17). 60% de mexicanos desconoce que la Inteligencia Artificial se entrena con datos personales. El Economista. https://www.eleconomista.com.mx/tecnologia/60-de-mexicanos-desconoce-que-a-Inteligencia-Artificial-se-entrena-con-datos-personales-20240717-0034.htmlLinks ]

Sabater, A., & De Manuel, A. (2024, mayo 18). Una mirada y discusión a través de la literatura especializada y de opiniones expertas. Revista Inteligencia Artificial, Ética y Sociedad.https://www.udg.edu/ca/Portals/57/OContent_Docs/Informe_OEIAC_2021_cast.pdfLinks ]

Senado de la República. (2021, enero 13). Iniciativa que adiciona el artículo 77 Bis a la Ley General de Salud, presentada por la sen. Nuvia Magdalena Mayorga. Gaceta Parlamentaria.http://sil.gobernacion.gob.mx/Archivos/Documentos/2021/01/asun_4129756_20210113_1610551834.pdfLinks ]

Senado de la República. (2024, mayo 15). Presentan en el Senado Agenda Nacional de la Inteligencia Artificial para México 2024-2030. Coordinación de Comunicación Social. LXV Legislatura. https://comunicacionsocial.senado.gob.mx/informacion/comunicados/8982-presentan-en-el-senado-agenda-nacional-de-la-inteligencia-artificial-para-mexico-2024-2030Links ]

United Nations Educational, Scientific and Cultural Organization. (2021). Recommendation on the Ethics of Artificial Intelligence.https://unesdoc.unesco.org/ark:/48223/pf0000381133/PDF/381133eng.pdf.multi.page=62Links ]

Villanueva, D. et al. (2024, abril 1). La intersección entre la inteligencia artificial y la protección de datos personales en México. IAPP.https://iapp.org/news/a/la-interseccion-entre-la-inteligencia-artificial-y-la-proteccion-de-datos-personales-en-mexicoLinks ]

Rol de Contribución Autor(es)
Conceptualización Miguel Ángel Medina Romero (igual),
Tania Haideé Torres Chávez (igual).
Metodología Miguel Ángel Medina Romero (principal),
Tania Haideé Torres Chávez (apoyo).
Software No aplica.
Validación No aplica.
Análisis Formal Miguel Ángel Medina Romero.
Investigación Miguel Ángel Medina Romero (igual),
Tania Haideé Torres Chávez (igual).
Recursos Tania Haideé Torres Chávez.
Curación de datos Tania Haideé Torres Chávez.
Escritura - Preparación del borrador original Miguel Ángel Medina Romero (principal),
Tania Haideé Torres Chávez (apoyo).
Escritura - Revisión y edición Miguel Ángel Medina Romero (igual),
Tania Haideé Torres Chávez (igual).
Visualización Miguel Ángel Medina Romero (principal),
Tania Haideé Torres Chávez (apoyo).
Supervisión Tania Haideé Torres Chávez (principal),
Miguel Ángel Medina Romero (apoyo).
Administración de Proyectos Miguel Ángel Medina Romero.
Adquisición de fondos Tania Haideé Torres Chávez.

Anexo

Tabla 1 Análisis documental en torno a la regulación de la inteligencia artificial (IA) para la garantía de los derechos humanos en México 

Temas principales Derechos humanos fundamentales Protección de datos personales, privacidad Regulación específica de IA Ética de la IA, derechos humanos Regulación tecnológica, protección de derechos
Tipo Declaración internacional Legislación europea Legislación europea Recomendación internacional Legislación nacional (México)
Desafíos éticos y legales Aplicación de principios a nuevas tecnologías Consentimiento informado, transparencia en IA Sesgos algorítmicos, sistemas de alto riesgo Impacto en privacidad, empleo, toma de decisiones Brecha regulatoria en IA
Oportunidades Marco ético fundamental Estándares de protección de datos Marco regulatorio específico Marco ético global Desarrollo de marco legal nacional
Relevancia para IA y derechos humanos Relevancia alta. Establece el marco básico de derechos humanos aplicable a la IA Relevancia alta. Define estándares de protección de datos aplicables a sistemas de IA Relevancia muy alta. Primera legislación integral sobre IA a nivel mundial Relevancia alta. Proporciona un marco ético global para el desarrollo de la IA Relevancia media. Establece el marco legal nacional aplicable a la IA
Referentes del análisis documental Declaración Universal de los Derechos Humanos (Organización de las Naciones Unidas, 1948) Reglamento General de Protección de Datos (Parlamento Europeo y Consejo de la Unión Europea, 2016) Ley de Inteligencia Artificial (Parlamento Europeo y Consejo de la Unión Europea, 2024) Recomendación sobre la Ética de la Inteligencia Artificial [IA] de la UNESCO (2021) - Legislación mexicana sobre tecnología y derechos humanos: Constitución Política de los Estados Unidos Mexicanos (artículos 6 y 16) (Cámara de Diputados, 2024). Ley Federal de Protección de Datos Personales en Posesión de los Particulares (Cámara de Diputados, 2010). Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (Cámara de Diputados, 2017). Ley Federal de Telecomunicaciones y Radiodifusión (Cámara de Diputados, 2021). Estrategia Digital Nacional 2021-2024 (Diario Oficial de la Federación, 2021, septiembre 6). - Iniciativas legislativas en proceso: Iniciativa que reforma y adiciona diversas disposiciones a la Ley de Ciencia y Tecnología y a la Ley General de Salud (Cámara de Diputados, 2020, abril 28). Iniciativa que expide la Ley que crea la Universidad de Tecnologías de la Información, Comunicaciones e Innovación (Cámara de Diputados, 2020, agosto 12). Iniciativa que reforma y adiciona diversas disposiciones a la Ley de Ciencia y Tecnología (Cámara de Diputados, 2021, enero 7). Iniciativa que adiciona el artículo 77 Bis a la Ley General de Salud (Senado de la República, 2021, enero 13). Propuesta de reforma para crear la Estrategia Nacional para el Uso Adecuado y Ético de la Inteligencia Artificial (Cámara de Diputados, 2024, febrero 25). Propuesta de Agenda Nacional de la Inteligencia Artificial para México 2024-2030 (Senado de la República, 2024, mayo 15).

Fuente: Elaboración propia a partir del uso de la técnica de análisis documental, con empleo del software NVivo (versión 14)

Tabla 2 Análisis integrado (documental y de contenido) sobre la regulación de la inteligencia artificial (IA) para la garantía de los derechos humanos en México 

Tema clave / Nodo principal Marco regulador Protección de datos y privacidad Sesgos algorítmicos Impacto en el mercado laboral Percepción pública Ética y valores
Subtemas / Subnodos

  • Legislación concreta

  • Protección de derechos

  • Comparación internacional

  • Consentimiento informado

  • Transparencia

  • Seguridad de datos

  • Discriminación

  • Equidad

  • Auditoría de sistemas

  • Automatización

  • Nuevas habilidades

  • Desplazamiento laboral

  • Conocimiento sobre IA

  • Preocupaciones

  • Confianza en tecnologías

  • Dignidad humana

  • Bienestar

  • No maleficencia

Referentes del análisis documental Gobernanza de IA inclusiva y multidisciplinaria (UNESCO, 2021). Normas armonizadas para sistemas de IA en la Unión Europea (Parlamento Europeo y Consejo de la UE, 2024) Protección de datos personales y transparencia (Parlamento Europeo y Consejo de la Unión Europea, 2024) Pruebas de sesgos en IA y combate de estereotipos (Parlamento Europeo y Consejo de la Unión Europea, 2024; UNESCO, 2021) Derecho al trabajo y evaluación del impacto de la IA en el empleo (ONU, 1948; UNESCO, 2021) Promover la sensibilización sobre avances, oportunidades y desafíos de la IA (UNESCO, 2021) Gobernanza ética de la IA con participación multisectorial y respeto a los derechos fundamentales (UNESCO, 2021; Parlamento Europeo y Consejo de la Unión Europea, 2024)
México carece de legislación concreta que regule el desarrollo y uso de la IA, y que aborde los desafíos éticos y legales de esta tecnología (Maqueo et al., 2021; Ortega, 2024), aunque hay propuestas gubernamentales e iniciativas legislativas en curso (Villanueva, et al., 2024) Esta brecha regulatoria ha contribuido al aumento en las quejas por violaciones de privacidad en los años 2021 y 2022 (INAI, 2021, 2022, 2023) Existe un riesgo significativo de sesgos algorítmicos en estos sistemas, lo que podría llevar a discriminación en los procesos de selección (INAI, 2021, 2022, 2023) La adopción de IA en varios sectores está transformando el mercado laboral mexicano (IFT, 2023, 2022b) Únicamente el 30.3% de los usuarios saben o han oído algo acerca de la IA" (IFT, 2022)a Los sistemas de IA deben diseñarse y desarrollarse de manera que respeten la autonomía y los derechos fundamentales de las personas (UNESCO, 2021)
Referentes del análisis de contenido Inteligencia artificial y legislación: un balance necesario (Güicho, 2024): El Universal Inteligencia artificial y el futuro del derecho (Méndez & Sánchez, 2023): Nexos 60% de mexicanos desconoce que la Inteligencia Artificial se entrena con datos personales (Riquelme, 2024): El Economista Más allá de los algoritmos: desafíos y tendencias en la regulación global de la Inteligencia Artificial (Ortiz, 2023): El Economista Cómo impedir que la inteligencia artificial discrimine, genere más carga de trabajo y más control sobre el empleado (Pascual, 2023): El País La era del Internet y la promesa de la inteligencia artificial (Legaspi, 2014). El Financiero Las grandes compañías buscan cómo asegurar un desarrollo ético y legal de la inteligencia artificial (Limón, 2023): El País.
Frecuencia de palabras

  1. Regulación

  2. Legislación

  3. Ética

  4. 5. Derechos

  1. Datos

  2. Privacidad

  3. Protección

  4. Consentimiento

  5. 5. Seguridad

  1. Sesgos

  2. Discriminación

  3. Equidad

  4. Auditoría

  5. 5. Algoritmos

  1. Empleo

  2. Habilidades

  3. Automatización

  4. Mercado

  5. 5. Recualificación

  1. Conocimiento

  2. Conciencia

  3. Educación

  4. Preocupaciones

  5. 5. Confianza

  1. Ética

  2. Valores

  3. Dignidad

  4. Derechos

  5. 5. Bienestar

Mapa de relaciones conceptuales Relaciones fuertes con:

  • Ética y valores

  • Protección de datos

  • Sesgos algorítmicos

Relaciones fuertes con:

  • Marco regulatorio

  • Ética y valores

  • Percepción pública

Relaciones fuertes con:

  • Ética y valores

  • Impacto en el mercado laboral

  • Marco regulatorio

Relaciones fuertes con:

  • Sesgos algorítmicos

  • Percepción pública

  • Ética y valores

Relaciones fuertes con:

  • Ética y valores

  • Protección de datos

  • Impacto en el mercado laboral

Relaciones fuertes con:

  • Marco regulatorio

  • Protección de datos

  • Sesgos algorítmicos

Comparación de codificación entre documentos Mayor presencia en: Parlamento Europeo y Consejo de la Unión Europea (2024); UNESCO. (2021). Menor presencia en: Organización de las Naciones Unidas (1948) Mayor presencia en: Parlamento Europeo y Consejo de la Unión Europea (2016); UNESCO. (2021). Menor presencia en: Organización de las Naciones Unidas (1948) Mayor presencia en: UNESCO. (2021) Menor presencia en: Organización de las Naciones Unidas (1948) Mayor presencia en: UNESCO. (2021). Menor presencia en: Organización de las Naciones Unidas (1948); Parlamento Europeo y Consejo de la Unión Europea (2016) Mayor presencia en: UNESCO. (2021). Menor presencia en: Organización de las Naciones Unidas (1948); Parlamento Europeo y Consejo de la Unión Europea (2016) Mayor presencia en: UNESCO. (2021). Presente en todos los documentos
Hallazgos/ patrones Brecha significativa en regulación de IA en México Aumento en quejas por violaciones de privacidad Riesgos de sesgos en sistemas de IA, especialmente en contratación Transformación del mercado laboral, necesidad de nuevas competencias Bajo conocimiento público sobre IA, preocupaciones sobre privacidad Necesidad de principios éticos en desarrollo y uso de IA
Discrepancias Variaciones en el enfoque regulatorio propuesto (vinculante vs. voluntario) Protección de datos y privacidad Variaciones en el énfasis sobre derechos específicos Diferentes perspectivas sobre el grado de disrupción laboral Variaciones en los enfoques educativos propuestos Variaciones en la prioridad dada a las consideraciones éticas
Codificación temática Necesidad de regulación específica para IA Garantías para la protección de datos personales Prevención de discriminación algorítmica Transformación del empleo por IA Necesidad de educación pública sobre IA Principios éticos para el desarrollo de IA
Recomendaciones Desarrollar un marco regulatorio específico para IA (con evaluaciones de impacto ético) Implementar medidas robustas de protección de datos, incluyendo evaluaciones de impacto en la privacidad Auditorías de IA, diversidad en equipos de desarrollo y evaluaciones de impacto en la equidad Programas de recualificación, educación continua y políticas de transición justa Campañas de concientización, educación en IA y diálogo público sobre ética de la IA Desarrollar marcos éticos, evaluaciones de impacto ético y gobernanza participativa de la IA
Relevancia para IA y derechos humanos Relevancia alta. La regulación es fundamental para garantizar que la IA respete los derechos humanos. Los documentos de la UNESCO (2021) y Parlamento Europeo y Consejo de la Unión Europea (2024) dan directrices a la gobernanza ética de la IA y protegen los derechos humanos Relevancia alta. Protección de datos como derecho fundamental en la era de la IA (Parlamento Europeo y Consejo de la UE, 2016; UNESCO, 2021) Relevancia alta. Prevención de sesgos en IA para proteger la igualdad y los derechos humanos (ONU, 1948; UNESCO, 2021; Parlamento Europeo y Consejo de la Unión Europea, 2024) Relevancia media-alta. Protección de derechos laborales ante la transformación del empleo por IA (ONU, 1948; UNESCO, 2021). Relevancia media. Educación pública sobre IA crucial para ejercer derechos digitales (UNESCO, 2021; implícitamente relacionado con ONU, 1948) Relevancia alta. Principios éticos de IA alineados con la dignidad humana y los derechos humanos (ONU, 1948; UNESCO, 2021; Parlamento Europeo y Consejo de la UE, 2024)

Fuente: Elaboración propia a partir del uso de la técnica de análisis documental, con empleo del software NVivo (versión 14).

Recibido: Agosto de 2024; Aprobado: Febrero de 2025

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons