Introducción
La inteligencia artificial (IA) ha emergido como una fuerza transformadora en la sociedad contemporánea, alterando fundamentalmente la forma en que interactuamos con la tecnología y entre nosotros. Este avance tecnológico, si bien promete enormes beneficios, también plantea desafíos significativos para los derechos humanos (Floridi & Cowls, 2019). En el contexto mexicano, donde el marco regulatorio para la IA aún está en desarrollo, es crucial examinar cómo estas tecnologías impactan los derechos fundamentales de los ciudadanos.
El objetivo principal de esta investigación es analizar los desafíos legales que presenta la IA para los derechos humanos en México, con un énfasis particular en la privacidad y la no discriminación. Este enfoque, además, se alinea con la creciente preocupación global sobre los impactos éticos de la IA, como lo señalan Floridi y Cowls (2019), quienes proponen un marco unificado de cinco principios para la IA en la sociedad: beneficencia, no maleficencia, autonomía, justicia y explicabilidad.
Para abordar este objetivo, se plantean las siguientes preguntas de investigación:
¿Cómo afecta la IA los derechos humanos en México?
¿Qué desafíos legales presenta la implementación de la IA en relación con la privacidad y la no discriminación?
¿Cómo puede adaptarse la legislación mexicana para proteger los derechos humanos frente al avance de la IA?;
¿Qué medidas son susceptibles de implementarse para prevenir la discriminación algorítmica en los sistemas de IA utilizados en México?
¿Cómo es posible equilibrar los beneficios de la IA con la protección de los derechos humanos en el contexto mexicano?
Estas interrogantes reflejan la necesidad de un enfoque holístico que considere tanto los aspectos técnicos como los éticos de la IA. Como advierte Mittelstadt (2019), los principios éticos por sí solos no pueden garantizar una IA ética, sino que deben traducirse en prácticas y políticas concretas.
Además, la hipótesis central de este estudio es que, aunque la IA tiene el potencial de mejorar significativamente la calidad de vida y la eficiencia en múltiples sectores en México, su implementación sin un marco normativo adecuado puede poner en peligro los derechos humanos fundamentales, particularmente en lo que respecta a la protección de datos y la equidad. Así, se plantea que la falta de regulaciones concretas sobre IA en México incrementa el riesgo de violaciones a la privacidad y los sesgos discriminatorios en los sistemas automatizados.
La relevancia de esta investigación radica en la necesidad inminente de abordar los desafíos legales que presenta la IA, enfatizando la importancia de desarrollar una regulación proactiva y sólida que salvaguarde los derechos humanos mientras se fomenta el avance tecnológico en México.
En la era digital, donde la adopción de la IA está en aumento, resulta imperativo que en México las políticas públicas y las leyes evolucionen para abordar los desafíos únicos que presenta esta tecnología. Asimismo, al examinar cómo la legislación puede adaptarse para proteger la privacidad, prevenir la discriminación algorítmica y equilibrar los beneficios de la IA con la protección de los derechos humanos, el presente estudio tiene como objetivo contribuir al desarrollo de un enfoque integral para regulación de la IA en el caso de estudio, centrado en el ser humano (Castaño, 2020).
Materiales y Métodos
La presente investigación cualitativa se centró en analizar la incidencia de la IA en los derechos humanos, con una perspectiva particular en el contexto mexicano. El estudio se llevó a cabo mediante un enfoque metodológico cualitativo, utilizando técnicas de análisis documental (Bowen, 2009) y análisis de contenido (Krippendorff, 2018) para recopilar y analizar datos relevantes (Hernández-Sampieri & Mendoza, 2022; Medina-Romero et al., 2023).
La indagación se desarrolló en México, un país que enfrenta desafíos significativos en la regulación de la IA debido a la falta de un marco legal sólido que garantice la protección de los derechos humanos en el contexto del avance tecnológico. Este contexto es particularmente relevante dado que México, como muchos países en desarrollo, se encuentra en una posición única donde la adopción de tecnologías de la IA está creciendo rápidamente, pero las estructuras regulatorias aún están en desarrollo (Becerril, 2021).
Así, la recolección de datos se realizó a través de los siguientes procedimientos metodológicos:
Análisis documental. Se llevó a cabo una revisión de documentos legales, informes gubernamentales, artículos académicos y publicaciones de organizaciones no gubernamentales que abordan la relación entre la IA y los derechos humanos. Esta revisión permitió identificar los principales desafíos y oportunidades que presenta la IA en el ámbito de los derechos humanos. Así, se incluyeron documentos clave como la Declaración Universal de los Derechos Humanos (Organización de las Naciones Unidas [ONU], 1948); tratados internacionales relevantes; legislación extranjera -como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea y el AI Act (Parlamento Europeo, 2023, 2024)-; informes de organizaciones internacionales como la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura [UNESCO] (2021) y la ONU (2024), así como de instituciones nacionales como Instituto Federal de Telecomunicaciones [IFT] (2022a, 2022b, 2023) y el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales [INAI] (2021, 2022, 2023), sobre IA y derechos humanos; y legislación mexicana e iniciativas legislativas en proceso relacionadas con la tecnología y los derechos humanos: Constitución Política de los Estados Unidos Mexicanos -artículos 6 y 16- (Cámara de Diputados, 2024), Ley Federal de Protección de Datos Personales en Posesión de los Particulares (Cámara de Diputados, 2010), Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (Cámara de Diputados, 2017), Ley Federal de Telecomunicaciones y Radiodifusión (Cámara de Diputados, 2021), Estrategia Digital Nacional 2021-2024 (Diario Oficial de la Federación, 2021, septiembre 6), Iniciativa que reforma y adiciona diversas disposiciones a la Ley de Ciencia y Tecnología y a la Ley General de Salud (Cámara de Diputados, 2020, abril 28), Iniciativa que expide la Ley que crea la Universidad de Tecnologías de la Información, Comunicaciones e Innovación (Cámara de Diputados, 2020, agosto 12), Iniciativa que reforma y adiciona diversas disposiciones a la Ley de Ciencia y Tecnología (Cámara de Diputados, 2021, enero 7), Iniciativa que adiciona el artículo 77 Bis a la Ley General de Salud (Senado de la República, 2021, enero 13), Propuesta de reforma para crear la Estrategia Nacional para el Uso Adecuado y Ético de la Inteligencia Artificial (Cámara de Diputados, 2024, febrero 25) y Propuesta de Agenda Nacional de la Inteligencia Artificial para México 2024-2030 (Senado de la República, 2024, mayo 15).
La selección de estos documentos se basó en su relevancia y actualidad, priorizando aquellos publicados en los últimos catorce años -en el caso de artículos académicos y publicaciones de organizaciones no gubernamentales-, para apreciar las tendencias recientes en el campo de la IA y los derechos humanos.
Análisis de contenido. Se realizó un análisis de contenido de medios de comunicación para comprender cómo se percibe la IA en la sociedad mexicana y qué preocupaciones existen en torno a su impacto en los derechos humanos. Este método permitió captar una variedad de perspectivas y discursos presentes en el dominio público. Así, fueron revisados artículos de prensa de periódicos nacionales e internacionales, y trabajos publicados en revistas de difusión que abordan las temáticas de tecnología y derechos humanos. El período de examen abarcó los últimos diez años para capturar discusiones recientes sobre el tema.
Se seleccionaron materiales relevantes y actuales para el tema de estudio, y se priorizaron fuentes que ofrecieran un análisis crítico y detallado de las implicaciones de la IA en los derechos humanos. Además, se buscó incluir una representativa gama de perspectivas, desde académicos, expertos en tecnología y autoridades hasta activistas de derechos humanos y ciudadanos comunes a través de las organizaciones no gubernamentales (Sabater & De Manuel, 2024).
El análisis de los datos cualitativos se realizó mediante un enfoque de codificación temática (Braun & Clarke, 2006; Gibbs, 2007). Los datos recopilados de los documentos y el análisis de contenido fueron transcritos y analizados para identificar patrones, temas recurrentes y discrepancias en las percepciones sobre la IA y los derechos humanos. Se identificaron temas clave como derechos humanos y dignidad, marco regulatorio, seguridad y privacidad, sesgos algorítmicos, transformación laboral, percepción pública, ética y valores, la transparencia y la responsabilidad en el uso de la IA.
Se empleó el software NVivo (versión 14) para efectuar la organización y análisis de los datos cualitativos (Lumivero, 2023), así como para realizar la codificación de datos y la identificación de temas clave, lo que ayudó a estructurar los hallazgos de manera coherente. Y, para asegurar la validez y confiabilidad del estudio, se implementaron las siguientes estrategias:
Triangulación de datos. Se compararon y contrastaron datos de varias fuentes para verificar la consistencia de los hallazgos (Flick, 2018).
Revisión por pares. Los resultados preliminares fueron revisados por expertos en ética de la IA y derechos humanos para obtener retroalimentación y validación.
Auditoría de investigación. Se mantuvo un registro detallado de todas las decisiones metodológicas y analíticas para garantizar la transparencia del proceso de investigación.
Este estudio priorizó el análisis de la no discriminación en el contexto de la IA en el caso mexicano, sin descuidar el de la privacidad, aunque con menor espacio comparativo. Esta decisión metodológica respondió a la urgencia e impacto de los desafíos de discriminación algorítmica en sectores clave de la sociedad mexicana. Además, se reconoce la interrelación entre privacidad y no discriminación en la IA, por lo que muchos aspectos de privacidad se abordan indirectamente al analizar prácticas no discriminatorias.
La combinación de análisis documental y de contenido hizo posible una triangulación de datos que enriqueció la validez de los hallazgos y las conclusiones del estudio. Esta aproximación multifacética facilitó la identificación de áreas de consenso y discrepancia en la percepción de la IA y su impacto en los derechos humanos, proporcionando una base sólida para futuras investigaciones y desarrollos de políticas en este campo crucial.
Resultados
A través del análisis documental y de contenido, se identificaron los retos regulatorios que presenta la IA para los derechos humanos en México (ver Tablas 1 y 2 del Anexo). Este estudio de incidencia reveló hallazgos significativos en varios ámbitos clave. Estos resultados se presentan de manera clara y ordenada para facilitar su comprensión.
En primer lugar, la investigación identificó una brecha significativa en el marco regulatorio mexicano con respecto a la IA. Se encontró que, a diferencia de otros países como Estados Unidos o la Unión Europea, México carece de legislación específica que regule el desarrollo y uso de la IA, y que aborde los desafíos legales de esta tecnología (Maqueo et al., 2021; Ortega, 2024). Esta ausencia de regulación comprehensiva expone a los ciudadanos a riesgos potenciales en términos de privacidad y protección de datos. Por ejemplo, mientras que la Unión Europea cuenta con el Reglamento General de Protección de Datos (GDPR) que establece estrictos requisitos de consentimiento y transparencia para el procesamiento de datos personales, incluso en aplicaciones de IA, México aún carece de un marco regulatorio específico para estas tecnologías (Pérez-Ugena, 2024; Becerril, 2021). Según informes del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI), esta brecha regulatoria contribuyó al aumento en las quejas por violaciones de privacidad en los años 2021 y 2022 (Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales, 2021, 2022, 2023). Esta situación pone de manifiesto la necesidad de desarrollar normativas que aborden específicamente los desafíos planteados por la IA en términos de protección de datos y privacidad.
En segundo término, mientras que la Unión Europea ha implementado el Reglamento General de Protección de Datos (GDPR) y está desarrollando el AI Act (Parlamento Europeo, 2023, 2024), y Estados Unidos ha establecido directrices a través de la Oficina de Política Científica y Tecnológica de la Casa Blanca, México aún no cuenta con una normatividad concreta para la IA (Maqueo et al., 2021; Ortega, 2024; Becerril, 2021) aunque hay propuestas gubernamentales e iniciativas legislativas en curso (Villanueva, et al., 2024). No obstante, el gobierno presentó una Estrategia de Inteligencia Artificial de México 2018 (Gobierno de México, 2018) y una Estrategia Digital Nacional 2021-2024 (Diario Oficial de la Federación, 2021), y los diputados y senadores han impulsado la propuesta de reforma para crear la Estrategia Nacional para el Uso Adecuado y Ético de la Inteligencia Artificial (Cámara de Diputados, 2024), así como la iniciativa de Agenda Nacional de la Inteligencia Artificial para México 2024-2030 (Senado de la República, 2024), respectivamente, estos esfuerzos aún no se han traducido en legislación concreta, lo que deja un vacío significativo en la protección de los ciudadanos frente a los riesgos asociados con la IA.
La indagación, igualmente, identificó sesgos algorítmicos en sistemas de IA utilizados en México, particularmente en sectores como el laboral. Por ejemplo, el INAI (2021, 2022, 2023) abordó el uso de sistemas de IA en procesos de contratación en empresas mexicanas, y los resultados revelaron que existe un riesgo significativo de sesgos algorítmicos en estos sistemas, lo cual podría derivar en discriminación en los procesos de selección. Estos hallazgos son consistentes con tendencias globales identificadas que señalan que los sesgos algorítmicos son un desafío persistente en el creciente ecosistema de IA (Ferrante, 2021; Rebollar, 2023; Comas-Forgas, 2023). Además, al discutir los sesgos algorítmicos en procesos de contratación, se está implícitamente abordando cómo se recopilan, procesan y utilizan los datos personales de los ciudadanos (aspectos cruciales de la privacidad). Además, Gómez Mont et al. (2020b) destacan el imperativo de tratar estos sesgos mediante políticas y enfoques éticos sólidos en toda América Latina.
Por otra parte, la investigación indicó que la adopción de IA en varios sectores está transformando el mercado laboral mexicano. El Instituto Federal de Telecomunicaciones (IFT) ha revisado el uso de sistemas de IA en procesos de toma de decisiones en empresas mexicanas de diversos sectores, advirtiendo que de las empresas revisadas y que utilizan sistemas de IA en sus procesos, un número significativo presentó sesgos significativos que podrían llevar a decisiones discriminatorias, especialmente en procesos de contratación y evaluación de desempeño (Instituto Federal de Telecomunicaciones, 2023, 2022b). Estas condiciones coinciden con estudios globales que identifican los sesgos algorítmicos como un desafío persistente en el desarrollo de la IA en México; y, por ello, investigaciones recientes subrayan la urgencia de abordar estos sesgos a través de políticas y marcos éticos efectivos en América Latina, incluyendo México (Ferrante, 2021; Rebollar, 2023; Comas-Forgas, 2023; Gómez Mont et al., 2020b; Instituto Federal de Telecomunicaciones, 2022c).
El último aspecto contemplado por el estudio fue la percepción pública y conciencia sobre la IA en México. Los datos de la Encuesta conocimiento de los usuarios de internet fijo y/o móvil sobre la Inteligencia Artificial reportan que únicamente el 30.3% de los usuarios saben o han oído algo acerca de la IA, en tanto que el 67.8% desconocen el tema completamente; y, la misma fuente arrojó que la preocupación principal de los usuarios cuando proporcionan información para el funcionamiento de la IA es que sea usada para otros fines (25.3%) y el robo de información/identidad (24.5%) (Instituto Federal de Telecomunicaciones, 2022)a. Además, a partir de sus estudios sobre los hábitos de los usuarios de Internet de varios años, la Asociación de Internet MX (2023, 2022, 2021) concluye que la confianza en las nuevas tecnologías, incluida la IA, está vinculada con la percepción de seguridad y regulación. Estos hallazgos en México coinciden con las tendencias internacionales. Según datos sobre la IA y el mercado laboral de la Organización para la Cooperación y el Desarrollo Económico (OCDE) (2023), ciudadanos en países miembros expresaron preocupaciones similares sobre la privacidad y la necesidad de una regulación efectiva de la IA. Esta convergencia de opiniones a nivel internacional subraya la importancia de desarrollar marcos regulatorios robustos y armonizados para la IA, no solo en México sino en todo el mundo.
Discusión
Los resultados subrayan la necesidad apremiante de desarrollar un marco regulatorio sólido para la IA en México. La ausencia de legislación concreta coloca al país en desventaja frente a otras naciones que ya han implementado directrices éticas y legales para la IA (Jobin et al., 2019). Esta brecha regulatoria no solo expone a los ciudadanos a riesgos potenciales, sino que también podría obstaculizar la innovación y el desarrollo responsable de la IA en el país.
Igualmente, el aumento en las violaciones de privacidad relacionadas con la IA sugiere que las protecciones actuales son insuficientes. Esto plantea preocupaciones significativas sobre la capacidad del marco legal existente para salvaguardar los derechos humanos en la era digital. Es crucial que la futura regulación de la IA en México priorice la protección de la privacidad y el consentimiento informado (Fjeld et al., 2020).
Además, la presencia de sesgos algorítmicos en sistemas de IA utilizados en México resalta la necesidad de implementar mecanismos de auditoría y control más rigurosos. Estos hallazgos subrayan la importancia de desarrollar estándares éticos que garanticen la equidad y la no discriminación en el diseño y la implementación de sistemas de IA (Jobin et al., 2019).
También, la proyección de automatización de empleos plantea desafíos significativos para el mercado laboral mexicano. Es imperativo que el gobierno, en colaboración con el sector privado y la academia, desarrolle políticas proactivas de educación y capacitación para preparar a la fuerza laboral para la transición hacia una economía más automatizada (Ripani, 2020; Minian et al., 2018; Gómez Mont et al., 2020a).
Por otra parte, la percepción pública sobre la IA revela una creciente preocupación entre los ciudadanos mexicanos. Esto resalta la importancia de promover un diálogo público amplio sobre los impactos de la IA y de involucrar a la sociedad civil en el desarrollo de políticas y regulaciones relacionadas con estas tecnologías.
Con base en los hallazgos, se justifica el desarrollo de un marco regulatorio integral para la IA en México que aborde los siguientes principios clave:
Transparencia y explicabilidad de los sistemas de IA.
Protección de la privacidad y los datos personales.
Equidad y no discriminación en el diseño y uso de la IA
Responsabilidad y rendición de cuentas en la implementación de la IA.
Promoción del bienestar humano y social.
Este marco debe ser desarrollado a través de un proceso participativo que incluya a todas las partes interesadas relevantes, desde tomadores de decisiones, autoridades, legisladores, académicos, hasta expertos en ética, tecnólogos y representantes de la sociedad civil (Fjeld et al., 2020; Medina, 2024).
Por lo tanto, los resultados de esta indagación subrayan la necesidad apremiante de abordar los desafíos legales planteados por la IA en el caso de México. El desarrollo de un marco jurídico sólido, basado en principios éticos robustos y en consonancia con las mejores prácticas internacionales, es crucial para garantizar que la IA contribuya positivamente al desarrollo social y económico del país, mientras se protegen los derechos humanos fundamentales.
Conclusión
Esta investigación ha cumplido su objetivo principal de analizar los desafíos legales que la IA presenta para los derechos humanos en México, centrándose en dos áreas críticas: la privacidad y la no discriminación. El estudio ha explorado la compleja intersección entre la IA y los derechos humanos en el contexto específico de la sociedad mexicana, revelando matices importantes en esta relación. Además, los hallazgos confirman la hipótesis inicial de que, si bien la IA tiene el potencial de mejorar significativamente la calidad de vida y la eficiencia en múltiples sectores, su implementación sin un marco regulatorio adecuado puede poner en riesgo los derechos humanos fundamentales. Este riesgo se manifiesta de manera particular en las áreas de privacidad y no discriminación, donde se han identificado brechas significativas en la protección legal actual.
Así, la falta de un marco normativo específico y consistente en México expone a los ciudadanos a violaciones de su privacidad y discriminación algorítmica. Esta brecha regulatoria es particularmente preocupante dado el ritmo acelerado de adopción de tecnologías de IA en diversos sectores de la sociedad mexicana. En el estudio se identificaron desafíos significativos que requieren atención urgente, como el riesgo de invasión de la privacidad debido a la recopilación masiva y el procesamiento de datos personales sin un consentimiento informado adecuado. En un contexto donde los datos personales tienen un valor estratégico, su protección es determinante para salvaguardar la autonomía y la dignidad de los individuos.
Otro desafío crítico identificado fue la posibilidad de discriminación algorítmica, especialmente en sectores clave como el laboral. Los algoritmos de IA, si no se diseñan y auditan cuidadosamente, pueden perpetuar y amplificar sesgos existentes en la sociedad, llevando a decisiones injustas en áreas como la concesión de créditos o la selección de candidatos para puestos de trabajo. Esto no solo viola el principio fundamental de no discriminación, sino que también puede exacerbar las desigualdades existentes en la sociedad mexicana.
En aras de abordar estos desafíos de manera efectiva, la investigación sugiere que México necesita desarrollar urgentemente un marco regulatorio integral y proactivo que aborde explícitamente la protección de la privacidad y la prevención de la discriminación en el uso de la IA. Para lograrlo, es necesario implementar una serie de acciones concretas. En primer lugar, las leyes existentes deben ser revisadas y actualizadas para abordar los desafíos únicos planteados por la IA en términos de recopilación, procesamiento y uso de datos personales. Paralelamente, es crucial establecer procesos rigurosos para evaluar y monitorear los algoritmos de IA en busca de sesgos y resultados discriminatorios.
El desarrollo de pautas claras y aplicables para el uso ético de tecnologías de IA es fundamental, sirviendo como guía para desarrolladores, empresas y organismos gubernamentales. Estas pautas deben ir acompañadas de evaluaciones de impacto de privacidad y derechos humanos específicos para proyectos de IA, especialmente aquellos que afectan a sectores críticos o poblaciones vulnerables. Para reducir los sesgos inherentes y asegurar que las tecnologías desarrolladas sean inclusivas y representativas de toda la sociedad mexicana, es esencial fomentar la diversidad en los equipos de desarrollo de IA.
La creación de organismos independientes y sólidos para supervisar el desarrollo y la implementación de sistemas de IA es necesaria, dotándolos del poder para investigar y sancionar violaciones. La transparencia juega un papel fundamental en este marco regulatorio. Por ello, es crucial establecer estándares que permitan a las personas comprender cómo funcionan los sistemas de IA que afectan sus vidas y decisiones, garantizándoles el derecho a conocer, cuestionar y, en su caso, impugnar las decisiones adoptadas por sistemas de IA que afectan sus prerrogativas o intereses.
Además, se enfatiza la necesidad de un enfoque multidisectorial que priorice la protección de la privacidad y la no discriminación, al tiempo que reconozca y aproveche los beneficios potenciales de la IA. Este equilibrio delicado requiere la colaboración estrecha entre diversos actores: el gobierno, para establecer y hacer cumplir regulaciones; la academia, para proporcionar investigación y conocimientos especializados; el sector privado, para implementar prácticas éticas en el desarrollo de IA; y la sociedad civil, para representar los intereses y preocupaciones de los ciudadanos. Asimismo, se recomienda desarrollar políticas públicas integrales que no solo fomenten la innovación tecnológica, sino que también establezcan salvaguardas robustas para proteger los derechos humanos. Estas políticas deben incluir programas de educación y concienciación sobre el uso ético de la IA, dirigidos tanto a desarrolladores como al público en general. La alfabetización digital y la comprensión de los principios básicos de la IA serán cruciales para empoderar a los ciudadanos en la era digital.
El estudio realizado proporciona una base sólida y fundamentada para el desarrollo de políticas y regulaciones que aseguren que la implementación de la IA en la sociedad mexicana se realice de manera que respete y promueva activamente los derechos humanos, por el sendero de una integración ética y responsable, y con esfuerzo sostenido y colaborativo. Mirando hacia el futuro, la complejidad de los desafíos identificados demanda una vigilancia constante y una disposición a adaptar las estrategias a medida que surgen nuevas tecnologías y retos.
En conclusión, el éxito en la gestión de la relación entre la IA y los derechos humanos en México no solo beneficiará a los ciudadanos mexicanos, sino que también serviría como modelo para otros países en desarrollo que enfrentan desafíos similares. Al abordar proactivamente estos desafíos, México tiene la oportunidad de posicionarse como líder en el desarrollo ético y responsable de la IA, demostrando que es posible aprovechar los beneficios de la tecnología avanzada sin comprometer los valores fundamentales de dignidad, igualdad y respeto por los derechos humanos.
Futuras líneas de investigación
El presente estudio sobre los desafíos legales que presenta la IA para los derechos humanos en el caso de México ha revelado varias áreas generales para futuras investigaciones. Estas líneas de estudio abordan aspectos que, si bien son cruciales, exceden el alcance inicial de este trabajo y merecen un análisis más profundo. En primer lugar, se propone desarrollar y aplicar enfoques metodológicos integrales (mixtos) que combinen métodos cualitativos y cuantitativos, incluyendo herramientas de evaluación de impacto específicas para IA, adaptadas al contexto mexicano.
Paralelamente, se sugiere realizar un estudio comparativo de marcos regulatorios internacionales de IA, con el objetivo de identificar mejores prácticas y desarrollar un modelo adaptado a las necesidades y realidades de México. Otra línea de investigación importante sería estudiar cómo México puede participar efectivamente en iniciativas globales para establecer estándares éticos en IA, mientras se realiza un seguimiento longitudinal de la percepción pública sobre la IA y su impacto en los derechos humanos.
También, se recomienda efectuar un estudio complementario que se centre específicamente en los desafíos de protección de datos relacionados con la IA en México, para abordar con mayor expansión y profundización adicional esta brecha en la investigación actual.
Asimismo, se identificaron las siguientes áreas particulares que abordan los desafíos específicos relacionados con la privacidad y la equidad en el contexto de la IA en el caso de estudio. Primeramente, es pertinente llevar a cabo el desarrollo de marcos de auditoría algorítmica para sistemas de IA en México, con énfasis en la detección y mitigación de sesgos en sectores críticos.
En segundo lugar, resulta relevante analizar el impacto de la IA en grupos vulnerables y estrategias para garantizar la equidad algorítmica, asegurando que estas tecnologías no perpetúen desigualdades existentes. Por último, habría que considerar un estudio comparativo sobre la efectividad de las regulaciones de privacidad de datos en IA entre México y otros países, evaluando su eficacia en la protección de datos personales.
Estas líneas de investigación buscan profundizar nuestra comprensión de la compleja relación entre la IA y los derechos humanos en México, proporcionando una base sólida para el desarrollo de políticas y prácticas que maximicen los beneficios de la IA mientras protegen y promueven los derechos fundamentales de todos los ciudadanos.