SciELO - Scientific Electronic Library Online

 
 número18Blockchain e identidad. Oportunidades de implementación para la Ley de Ciudadanía Digital de la Ciudad de MéxicoSubvenciones a grupos parlamentarios y rendición de cuentas. Reflexiones en torno al alcance de la Ley de Transparencia índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Estudios en derecho a la información

versión On-line ISSN 2594-0082versión impresa ISSN 2683-2038

Estud. derecho inf.  no.18 Ciudad de México jul./dic. 2024  Epub 12-Ago-2025

https://doi.org/10.22201/iij.25940082e.2024.18.18852 

Artículos

Inteligencia artificial generativa y los retos en la protección de los datos personales

Generative artificial intelligence and the challenges in the protection of personal data

María Fernanda Sánchez Díaz* 
http://orcid.org/0000-0002-7519-5258

* Universidad Nacional Autónoma de México. México. Correo: mafernandasanchezdiaz@gmail.com


Resumen:

El artículo realiza un análisis acerca de la vulnerabilidad en la protección de datos personales derivado de la carencia de un marco jurídico especializado capaz de hacer frente a los avances tecnológicos, particularmente aquellos desprovistos de una perspectiva ética en su creación, fomento y utilización. La atención se centra específicamente en la inteligencia artificial generativa, utilizando el enfoque de derechos humanos como marco analítico. En este sentido, aporta una comprensión profunda del impacto de esta tecnología en la vida cotidiana, abarcando tanto el ámbito público como el privado. Se destaca la preocupación por la falta de sincronía entre los avances normativos y la rápida evolución tecnológica. Se evidencia que los gobiernos han optado por una estrategia de autorregulación por parte de las empresas tecnológicas, comprometiendo así la protección adecuada de los derechos humanos, especialmente en lo relacionado con la seguridad de los datos personales, en un contexto cada vez más digitalizado. En conclusión, el estudio resalta la necesidad imperante de actualizar y fortalecer los marcos normativos para garantizar una protección efectiva de los derechos humanos en un entorno digital en constante crecimiento. La falta de regulación clara y precisa presentan desafíos significativos que requieren de atención inmediata para salvaguardar la privacidad y seguridad de los datos en la era digital.

Palabras clave: protección de datos personales; privacidad; inteligencia; artificial generativa; regulación; derechos humanos

Abstract:

The article conducts an analysis concerning the vulnerability in the protection of personal data arising from the lack of a specialized legal framework capable of addressing technological advancements, particularly those devoid of an ethical perspective in their creation, promotion, and utilization. The focus is specifically on generative artificial intelligence, employing a human rights approach as an analytical framework. In this regard, it provides a profound understanding of the impact of this technology on daily life, encompassing both the public and private spheres. There in an emphasis on the concern regarding the lack of synchronization between regulatory developments and the rapid technological evolution. It is evident that governments have chosen a strategy of self-regulation by technology companies, thereby compromising the adequate protection of human rights, especially concerning the security of personal data, in an increasingly digitalized context. In conclusion, the study underscores the urgent need to update and strengthen regulatory frameworks to ensure effective protection of human rights in a continually expanding digital environment. The absence of clear and precise regulations poses significant challenges that require immediate attention to safeguard the privacy and security of data in the digital era.

Keywords: protection of personal data; privacy; generative artificial intelligence; regulation; human rights

Sumario: I. Introducción. II. Apartado metodológico. III. Consideraciones preliminares. IV. Inteligencia artificial e inteligencia artificial generativa. V. La protección de los datos personales. VI. La regulación de la inteligencia artificial generativa frente a la vulnerabilidad de los datos personales. VII. Conclusiones. VIII. Referencias.

I. Introducción

En México, Estados Unidos y Europa, se encuentra en debate uno de los temas más relevantes en la actualidad, donde se ha instado a detener las investigaciones en la materia. Este llamado surge ante la posibilidad de un escenario irreparable para la humanidad, derivado de la falta de comprensión de los posibles alcances de la inteligencia artificial (IA), principalmente la inteligencia artificial generativa (IAG) y su impacto en los derechos humanos.

La IA, en especial la generativa, es aún desconocida para un gran sector de la sociedad, a pesar de que la utilizamos cotidianamente a través de dispositivos como teléfonos celulares, televisiones inteligentes, plataformas de streaming por señalar algunos ejemplos con impacto en nuestro día a día. Sin embargo, la ignorancia sobre la IAG nos impide reconocer que somos beneficiarios y, al mismo tiempo, potenciales afectados por esta tecnología que va más allá de la concepción inicial de la IA.

En la actualidad, nos encontramos con noticias en diversas redes cuya veracidad ya no puede ser garantizada. Las denominadas fake news, fortalecidas con deep fake, han amplificado el impacto de la desinformación. Esto compromete el derecho a la información, vinculado directamente con la protección de datos personales como el rostro y la voz, manipulados a través de dispositivos que emplean programas de la IAG.

En este contexto, es imperativo cuestionarnos acerca de la obligación que tendríamos hoy en día de conocer sobre la IA y, específicamente, de la IAG. Es posible que hayamos identificado los aspectos positivos sin evaluar debidamente los costos a corto, mediano y largo plazo para nuestra privacidad, imagen, honor y otros aspectos susceptibles de ser afectados por el uso indebido de nuestra información, obtenido en ocasiones de forma legal, pero en muchos otros casos de forma ilegal.

Ante tal panorama, esta investigación abordará los riesgos asociados con la transición hacia una digitalización masiva no regulada. Además, se explorará la transformación del comportamiento humano en un entorno cada vez más digitalizado, donde la automatización nos lleva a proporcionar automáticamente nuestros datos personales en el mundo digital para acceder a servicios, sin comprender completamente el tratamiento que se les dará o si se utilizarán para el entrenamiento de tecnologías como la IAG.

El artículo también hará referencia a la regulación en protección de datos personales para abordar los desafíos que plantea el uso de la IAG, así como las consecuencias sociales, económicas y, sobre todo, personales, derivadas de la falta de regulación específica para la creación y gestión de tecnología basada en la IAG. Esto es especialmente relevante en situaciones que podrían dar lugar a la comisión de delitos, como el robo de identidad.

La intención del presente estudio no es adoptar una postura negativa hacía la evolución tecnológica, sino más bien crear conciencia sobre los beneficios que conlleva, al mismo tiempo que se reconocen y comprenden los riesgos derivados del uso inescrupuloso, discriminatorio y sin control normativo de esta tecnología. En el ámbito de la tecnología y el derecho a la protección de datos personales, ha habido buenas intenciones a nivel legislativo, como la presentación de una iniciativa para regular el uso de la IA. La iniciativa presentada ante la Cámara de Senadores requiere un consenso político sobre la necesidad de contar con una regulación en estos temas para salvaguardar los derechos humanos.

II. Apartado metodológico

Para la elaboración del presente artículo, se llevó a cabo un análisis documental sobre el concepto e historia de la IA, abordando progresivamente la IAG y los peligros que plantea para la eficacia de los derechos humanos, especialmente en lo que respecta a la salvaguarda de datos personales. Dicho aspecto requiere una atención especial en relación con el cumplimiento de la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP) de 2010, la cual demanda una profunda actualización para adecuarse al contexto jurídico actual. En este entorno, los datos personales se han convertido en una valiosa mercancía tanto para empresas como para gobiernos, con todas las implicaciones jurídicas y sociales que eso conlleva.

La hipótesis principal de esta investigación postula que los datos personales enfrentan un riesgo significativamente mayor para su protección en ausencia de regulación especializada en temas de IA e IAG.

El objetivo primordial es concientizar sobre los riesgos asociados a la falta de regulación de la IAG, contrastando tal carencia con la efectividad de los derechos humanos, particularmente en lo que concierne a la protección de datos personales, en una sociedad que ha otorgado un valor económico a la información personal.

La metodología empírica, conforme a Carlos Manuel Villabella (2020), se basa en la exploración de casos reales en los cuales la IAG ha puesto en situación de mayor vulnerabilidad derechos humanos como la protección de datos personales, el honor, la privacidad, la no discriminación y la seguridad, entre otros, atendiendo por supuesto a la interconexión que existe entre los derechos humanos.

III. Consideraciones preliminares

Los progresos tecnológicos, como la Internet y aplicaciones que hacen uso de la IA, constituyen un atractivo considerable para la sociedad, dado el potencial de generar imágenes, videos, melodías e incluso textos a una velocidad rentable para las empresas y fascinante para los jóvenes. No obstante, es imperativo examinar tanto los aspectos positivos como los negativos de estos adelantos, especialmente cuando la disrupción tecnológica podría comprometer los derechos humanos.

La capacidad de llevar a cabo diversas actividades en el ámbito digital, tales como la adquisición de productos, servicios bancarios, educación, salud y relaciones sociales, entre otras, inevitablemente demanda la utilización de datos para su concreción y perfeccionamiento. Esos datos, en ocasiones obtenidos de manera legítima con el consentimiento del titular, constituyen un elemento crucial en este contexto. Sin embargo, es esencial reconocer la presencia de un mercado negro de datos personales, los cuales, aunque inicialmente pudieron haber sido conseguidos de manera lícita, se ven envueltos en prácticas no informadas a sus titulares durante su procesamiento, como viene sucediendo como el denominado home office a través de computadoras o teléfonos proporcionados por los empleadores y que obtienen datos sobre el comportamiento de sus trabajadores en los dispositivos electrónicos proporcionados por los patrones.1

Este escenario adverso en la protección de datos ante tecnologías tan avanzadas como la IA y la IAG plantea retos significativos. La IAG, al necesitar una cantidad considerable de datos para su entrenamiento (Smink, 2023), ha transformado a las personas en un producto de gran interés económico, especialmente en lo que respecta a sus datos personales (Bayona, 2024), situación que ha sido permitida por la falta de legislación especializada en este ámbito.

En respuesta a tal problemática, en la Comunidad Económica Europea (Ordelin, 2024), en Estados Unidos de Norteamérica e incluso México ya se está debatiendo la necesidad de contar con un marco jurídico específico, incluso presentando iniciativas que deberán ser abordados por los poderes legislativos para su aprobación y posterior promulgación. En este trabajo, realizaremos un análisis del impacto de la inteligencia artificial frente a la eficacia de la protección de los datos personales y su obligada regulación.

IV. Inteligencia artificial e inteligencia artificial generativa

El primer aspecto a considerar en la presente investigación es comprender el concepto de IA y la relevancia de entender las implicaciones que puede tener en nuestra vida. En este contexto, la IA se define como “sistemas computacionales que imitan ciertas funciones cognitivas” (Delgadillo y González, 2023). Esas funciones, a medida que los sistemas adquieren mayor entrenamiento a través de modelos de aprendizaje y la utilización de datos, permiten una interacción más cercana a la humana.

La IA, tal como la conocemos hoy en día, ha experimentado un desarrollo continuo. Esta disciplina disruptiva ha posibilitado la creación de máquinas capaces de pensar y tomar decisiones inteligentes frente a problemas de manera más ágil que el ser humano. Tal avance tecnológico se atribuye a la diversidad de algoritmos (Ibáñez, 2023) y, por supuesto, al procesamiento de datos que conforman y se convierten en la base alimenticia de la IA.

Es esencial destacar que, aun cuando se puede tener la percepción de que alimentan esta tecnología y se adquieren de manera lícita, es igualmente fundamental reconocer la existencia de un mercado negro en ascenso. Esto implica que una considerable cantidad de éstos pudieron ser obtenidos sin el consentimiento informado de sus titulares. Dicha situación plantea desafíos éticos y legales que deben ser objeto de análisis y debate exhaustivo para comprender el impacto que está teniendo y tendrá la IA en la sociedad, especialmente en lo que respecta a la protección de la privacidad como derecho humano.

Ese significativo avance tecnológico en la era actual se atribuye a quien se considera como el padre de la IA, el británico Alan Turing (Marcos, 2022), nacido en la ciudad de Londres en 1912 (López, 2012). Turing sentó las bases téoricas de lo que hoy conocemos como IA al desarrollar un método matemático conocido como “Máquina de Turing” (Calderón, 2022), la cual tiene la capacidad de realizar tareas que tradicionalmente eran llevadas a cabo por personas.

La contribunación más importante de Turing se sitúa durante la Segunda Guerra Mundial, propiamente en el campamento de nombre Bletchley Park (cfr. Plaza, 2014) que operaba como un centro de inteligencia británico dedicado a descifrar los códigos nazis. Turing desempeñó un papel crucial en esta encomienda mediante una computadora de su creación, el famoso código Enigma (cfr.Bejarano, 2014).

En el año 1950,Turing presentó su obra Computing Machinery and Intelligence (cfr. Turing, 1950). En este escrito, planteó una de las principales incógnitas acerca de si las máquinas eran capaces de pensar. Frente a esta cuestión, Turing reformuló su planteamiento, decidiendo abordarla desde la perspectiva del juego de la imitación (Barón, 2008).

Turing logró hallar una respuesta a este dilema al afirmar que “un ordenador era capaz de “pensar” si sus resultados eran tan convincentes que una persona que interactuara con él no pudiese distinguir sus respuestas de las de un ser humano real” (Blakemore, 2023). La pregunta fundamental sobre si las máquinas pueden pensar constituye en la actualidad el centro del debate, especialmente con los avances en IAG, como ChatGPT o Gemini de Google, por mencionar solo algunos ejemplos.

Turing desarrolló un test diseñado para evaluar el nivel de inteligencia de una máquina, conocido como el Test de Turing. Éste “precisa de manera sistemática un método para acopiar evidencia de vida mental inteligente en computadores programados” (González, 2007, p. 39). El desafío radicaba en determinar si se interactuaba con una persona o con una máquina, una prueba basada en la simulación del comportamiento humano por parte de la máquina. Si la máquina lograba confundir al interrogador en múltiples ocasiones, se concluía que la computadora era inteligente, aunque no poseía la misma inteligencia que un ser humano.

Se ha observado que uno de los pilares esenciales para el progreso tecnológico es la utilización de datos, los cuales, junto con los algoritmos, constituyen la base del entrenamiento de los programas (Ministerio para la transformación digital y de la función pública, 2023). En la época de Turing, resultaba imposible acceder a los grandes volúmenes de datos, y mucho menos realizar análisis a la escala posibilitada por el big data, que “abarca tanto volumen como variedad de datos y velocidad de acceso y procesamiento. En la actualidad se ha pasado de la transacción a la interacción, con el propósito de obtener el mejor provecho de la información que se genera minuto a minuto” (Hernández-Leal y Duque-Méndezy et al., 2017).

Es crucial destacar las diferencias entre el aprendizaje automatizado y el cómputo evolutivo. El primero, considerado una subdisciplina de la IA (Guersenzvaig y Casacuberta, 2022), requiere el uso de datos para entrenar sus modelos de sistemas informáticos, capacitándolos para reconocer patrones y tomar decisiones basadas en la información adquirida.

En cuanto al cómputo evolutivo, implica la evolución progresiva de los sistemas informáticos, generando soluciones a problemas hasta alcanzar la considerada más efectiva (Iglesias, 2011). Esta dinámica se refleja actualmente en la IAG con la que convivimos diariamente, como en los casos antes referidos. En este contexto (Coello, 2023), la interacción de las personas con el sistema contribuye al entrenamiento de esta IAG, proporcionando información más amplia y precisa, pretendiendo hacerla más confiable.

El aprendizaje automático no es Inteligencia Artificial (IA) en sí mismo y es mucho más que automatizar un montón de tareas simples. Es una rama específica dedicada a ayudar a las computadoras a aprender de los humanos como interactuar con nosotros de una manera similar a la de los humanos.

La IA, que impulsa la mayoría de las aplicaciones modernas, se debe a los algoritmos diseñados rigurosamente creados por desarrolladores e ingenieros informáticos. Toneladas de conjuntos de datos se construyen y reconstruyen hasta que están listos para funcionar. Luego, las máquinas las usan para ayudar a anticipar diferentes aspectos del comportamiento humano. (Mayorga, 2019)

En el caso del cómputo evolutivo tenemos que “es parte de la inteligencia artificial y contribuye a resolver problemas complejos, de optimización o clasificación” (Coello, 2023).

En consecuencia, la IA y la IAG operan mediante modelos de aprendizaje, utilizando tecnología de machine learning. Según la compañía SAP, “la IA generativa hace uso de técnicas de machine learning para aprender y crear nuevos datos” (SAP, 2023). La IAG se materializa en programas como ChatGPT o Gemini, así como en sistemas como Stable Diffusion 3 (Edwards, 2024) para la creacion de imágenes, Microsoft Bing, Adobe Firefly, Canva, entre otros. Esos sistemas seguirán evolucionando en busca de mayor precisión y accesibilidad económica; sin embargo, es esencial tener presente que esta tecnología no se encuentra exenta de presentar sesgos que puedan derivar en discriminación hacia grupos vulnerables, generados por la falta de datos de dichos sectores que permitan realizar análisis desde un enfoque más amplio, como ha sucedido con el tema de la perspectiva de género en el entrenamiento de algoritmos utilizados en tecnología de inteligencia artificial, resultando en la presentación predominante de información proporcionada por hombres y, por ende, en situaciones de desigualdad y discriminación hacia grupos históricamente vulnerables (Viteri, 2023).

OpenAI, la compañía detrás del primer GPT y sus versiones posteriores, agregó barandillas para ayudar a ChatGPT a evadir las respuestas problemáticas de los usuarios que le piden al chatbot que, por ejemplo, diga un insulto o cometa delitos.

Sin embargo, a los usuarios les resultó extremadamente fácil evitar esto reformulando sus preguntas o simplemente pidiendo al programa que ignorara sus barandillas, lo que provocó respuestas con un lenguaje cuestionable, y a veces francamente discriminatorio. (Getahun, 2023)

Tal hecho refleja claramente que, a medida que la tecnología progresa, surgen elementos que pueden contravenir las normas, particularmente generando perjuicios hacia un grupo específico de personas. Esto impulsa la necesidad de perfeccionar dichos sistemas con el objetivo de que sean lo más beneficiosos posibles y al mismo tiempo, lo menos perjudiciales para sus usuarios.

A finales de 2023, la empresa Meta, que engloba Facebook e Instagram, presentó al público su más reciente modelo de IAG denominado “Emu”. Este innovador modelo tiene como finalidad generar imágenes mediante IAG a partir de instrucciones proporcionadas por el usuario. El entrenamiento de este modelo se llevó a cabo utilizando 1,100 millones de datos compuestos por fotografías disponibles en las plataformas de Facebook e Instagram (Edwards, 2023).

Esta situación subraya la imperativa necesidad de contar con un marco legal que proteja los derechos humanos que pudieran encontrarse en riesgo ante el uso de tal tecnología, como es la protección de datos personales, evitando depender exclusivamente de la autorregulación, como ha sucedido con el tema de la violencia en redes sociales y que en palabras de Carmen Quijano, “para que la autorregulación fuera realmente efectiva, se requiere transparencia, rendición de cuentas y un cierto grado de participación del Estado y de los ciudadanos para asegurar que se cumplan los compromisos asumidos” (Quijano, 2022, p. 216).

No obstante, en todos los ámbitos, la IAG, cuando se utiliza adecuadamente, puede contribuir a la creación de arte, música, literatura, entre otros campos.

En ese contexto, uno de los principales riesgos experimentados se encuentra en el ámbito laboral, donde inicialmente se temía que esta tecnología reemplazara al humano en diversas actividades como en el campo laboral. Actualmente, ya nos encontramos en esta situación, como se observa en una de las compañías líderes en IG, IBM, que anunció que “dejará de contratar a personas para cubrir cerca de 8,000 puestos de trabajo que podrán ser manejados por IA. Un informe del banco de inversión Goldman Sachs estimó a finales de marzo que la IA podría reemplazar a un cuarto de todos los empleos[...]” (Smink, 2023).

Esto representa uno de los impactos sociales en derechos humanos que se están presentando con la introducción de la IA en los escenarios públicos, ante lo cual debemos adaptarnos y evolucionar para armonizar nuestras actividades con la IA, principalmente con la IAG convertirla en nuestra aliada.

Según datos recopilados por el portal McKinsey, la IAG ha contribuido a optimizar las operaciones empresariales. Según sus estadísticas, “el 44 % de las empresas que han implementado la IA informan una reducción de los costes empresariales; casi 9 de cada 10 organizaciones creen que la IA les dará alguna ventaja, y un 54 % de los ejecutivos dicen que la IA aumentó la productividad en sus empresas” (Espinoza, 2024).

La empresa Google, a través de su equipo de IA, ha estado trabajando en mejorar la eficiencia en la toma de decisiones de sus robots, con el objetivo de hacelos más veloces, eficientes y seguros. “Estos sistemas, llamados AutoRT, SARA-RT y RT-Trajectory, buscan acercar un futuro donde las máquinas sean más inteligentes y autónomas.” (Espinoza, 2024). Dichos robots incorporan un mecanismo de seguridad denominado “Constitución del Robot”, a través del cual se pretende garantizar que jamás intenten lastimar a una persona (Pepinosa, 2024). Esta situación nos sitúa nuevamente en la autorregulación de las empresas de tecnología, lo que de acuerdo con Carmen Quijano “es una buena alternativa ya que son las empresas privadas las que cuentan con la experiencia, capacidad y recursos necesarios para hacer frente a los retos del ciberespacio, además, se evita la necesidad de seguir un proceso legislativo formal, que puede ser complejo y tardado” (Quijano, 2022, p. 216).

V. La protección de los datos personales

La protección de datos personales se presenta actualmente como uno de los desafíos más significativos para los gobiernos, las empresas y, por supuesto, para los titulares de los datos personales. En el contexto específico de México, la legislación vigente es considerada desactualizada por el propio Instituto Nacional de Transparencia, Acceeso a la Información y Protección de Datos Personales (INAI), que indica que desde la promulgación de la LFPDPPP en el año 2010, no ha experimentado actualizaciones y, en consecuencia, no aborda el impacto de la IA y la IAG en los datos personales (Román, 2024). Esto es respaldado por un estudio de la firma ESET, que analizó diversos países de Latinoamerica y concluyó que la legislación mexicana sobre protección de datos personales por terceros es una de las más antiguas de la región (ESET, 2023).

Este derecho a la protección de datos personales se encuentra estrechamente vinculado al derecho a la privacidad, que implica nuestra capacidad para decidir qué aspectos de nuestra vida compartimos públicamente y cuáles mantenemos en el ámbito privado. Sin embargo, es esencial reconocer que el uso de las redes sociales e Internet comprometen considerablemente nuestra privacidad. A pesar de nuestras decisiones para reservar información en un ámbito más privado, la realidad es que no tenemos control sobre la información que terceros comparten sobre nosotros en diversas plataformas. Además, la información que proporcionamos de manera inconsciente al utilizar dispositivos tecnológicos se convierte en datos sobre nuestro comportamiento desde el momento en que nos conectamos a la red, aumentando así la vulnerabilidad de nuestra vida privada.

La toma de conciencia sobre los alcances del Internet y nuestra vida personal es analizada por Carissa Véliz (Véliz, 2022) al cuestionar nuestras acciones al despertar, centrándose en la responsabilidad que tenemos de alimentar las bases de datos que posibilitan estudios a través del big data. Este proceso convierte nuestros datos en dinero y, por supuesto, en información que nos transforma en productos consumibles, con todas las implicaciones de seguridad que eso conlleva.

¿Qué es lo primero que haces cuando te despiertas por la mañana? Probablemente, miras tu teléfono. Voilà! Ese es el primer dato que pierdes en el día. Al coger tu teléfono a primera hora de la mañana estás informando a toda una serie de entrometidos -el fabricante de tu móvil, todas las aplicaciones que tienes instaladas en él, tu compañía de teléfono, así como las agencias de inteligencia, si resultas ser una personas «de interés»- de a qué hora te despiertas, dónde has dormido y con quién (suponiendo que la persona con quien compartes cama también tenga su propio teléfono cerca) (Véliz, 2022, p. 17).

La perspectiva presentada por Carissa Véliz destaca el proceso mediante el cual se efectúan las perfilaciones de los titulares de los datos, permitiendo entender cómo estas intrusiones se han vuelto tan penetrantes, situación que se ha acentuado en tiempos recientes. Aunque en el mejor de los casos esta práctica es realizada por analistas de datos empleados por grandes empresas, en circunstancias menos idóneas, estos datos pueden llegar a ser utilizados en el mercado negro de información personal, un negocio que ha experimentado un crecimiento constante en términos de rentabilidad.

Anualmente, Privacy Affairs presenta el Índice de Precios en la Dark Web (Dark Web Price Index). En su informe del año 2023, se presenta una tabla que muestra la variación en los precios de los datos personales desde 2020 a 2022 (Soto, 2023).

La sustracción y comercio de nuestros datos personales adquieren una relevancia especial al considerar que la pandemia ocasionada por el COVID-19 ha alterado los patrones de comportamiento en ámbitos económicos, laboral, de salud, judiciales y de interacción social. La sociedad se ha visto forzada a trasladar sus actividades al entorno virtual, generando oportunidades económicas significativas pero también incrementando los riesgos asociados con el robo de datos personales, extorsiones, secuestros virtuales, fraudes y suplantación de identidad, entre otras conductas. Estas amenazas evidencian la necesidad de actualizar el marco normativo para adaptarse a una nueva realidad.

En este sentido, con la digitalización de nuestra vida diaria que ha contribuido al análisis de datos digitalizados por la incorporación de la IAG y el uso más extendido de servicios en la nube para el almacenamiento de datos, tales avances tecnológicos conllevan riesgos que deben ser prevenidos. Según la empresa de ciberseguridad Kaspersky:

Los problemas de seguridad en la nube se han disparado, porque gran parte de nuestra actividad vital ahora transcurre en línea. A la luz de los recientes eventos, las actividades de los delincuentes han puesto de manifiesto los numerosos defectos de la nube, que han captado la atención de muchos equipos de TI de todo el mundo. Aunque las amenazas de ciberseguridad en todo el panorama digital hayan aumentado durante el brote, los problemas de la seguridad en la nube ocupan el primer plano.

[...] la mayor preocupación actual es la seguridad de las operaciones empresariales y gubernamentales. (Kaspersky, 2023)

En este sentido, independientemente de contar con instrumentos normativos para la protección de datos personales, alineados con el Convenio 108 de Europa y la iniciativa de Ley Federal que Regula la Inteligencia Artificial, a través de la cual “se busca que el uso de la Inteligencia Artificial se realice de manera ética y responsable para evitar un mal uso de estas tecnologías” (Ventura, 2024), la eficacia de esta legislación requiere la creación de un organismo, sin especificar si será autónomo, denominado “Comisión Nacional de Inteligencia” (Ventura, 2024). Nuestra legislación no ha evolucionado de manera proporcional al avance tecnológico. Con la incorporación de la IAG, surgen nuevos desafíos para la efectiva protección de los datos personales. Estos desafíos incluyen la falta de sistemas de ciberseguridad actualizados para enfrentar las amenazas emergentes, la educación deficiente en ciberseguridad y la necesidad de concientizar sobre la importancia de no poner en riesgo nuestros datos personales.

Además, es crucial exigir al responsable del tratamiento de datos que este se lleve a cabo conforme a la normatividad vigente. En caso de incumplimiento, se debe denunciar al responsable ante las autoridades competentes, como el INAI en México, mediante una denuncia por vulneración de datos personales, y ante las instancias legales competentes por el daño causado debido al uso de los mismos.

La LFPDPPP establece una serie de principios para la correcta protección de los datos personales en el sector privado. Estos principios, que incluyen la licitud, consentimiento, información, calidad, finalidad, lealtad, proporcionalidad y responsabilidad, deben ser observados obligatoriamente por todas las personas que lleven a cabo tratamiento de datos personales.

Estos principios restringen las acciones del responsable del tratamiento de los datos personales, al tiempo que resguardan la forma en que se adquiere dicha información. En consecuencia, la obtención de los datos debe ser lícita, con el consentimiento informado del titular, y se debe especificar la información que será objeto de tratamiento, si se transferirá a terceros (nacionales o internacionales), y se debe establecer la finalidad para la cual se solicitan los datos. Cualquier modificación en la finalidad debe ser notificada al titular. Además, los datos solicitados requieren ser proporcionales al servicio que se pretende brindar, evitando la solicitud excesiva de información personal sin justificación. Se deben implementar medidas de seguridad que garanticen la protección de dichos datos, y en caso de violación a estas medidas, se debe informar de inmedato al titular para tomar las acciones pertinentes. Además, se debe asegurar en todo momento que el titular de los datos tenga acceso a su información, y que ésta se encuentre actualizada y correcta (LFPDPPP, 2010).

A pesar de contar con un marco normativo que ofrece cierta protección a nuestros datos personales, es necesario reconocer y ser conscientes de que la regulación actual no ha logrado prevenir el uso indebido de nuestra información personal, como señala Carissa Véliz en su obra “Privacidad es Poder”. Estamos siendo vigilados constantemente tanto por el sector público como por el privado.

Nos vigilan. Saben que estoy escribiendo estas palabras. Saben que las estás leyendo. Gobiernos y cientos de empresas nos espían: a ti, a mí y a todos nuestros conocidos. Cada minuto, todos los días. Rastrean y registran todo lo que pueden: nuestra ubicación, nuestras comunicaciones, nuestas búsquedas en internet, nuestra información biométrica, nuestras relaciones sociales, nuestras compras y mucho más. Quieren saber quiénes somos, qué pensamos, dónde nos duele. Quieren predecir nuestro comportamiento e influir en él. Tienen demasiado poder. Su poder proviene de nosotros, de ti, de tus datos. Es hora de volver a tomar el control. Recuperar la privacidad es la única manera de que podamos asumir de nuevo el mando de nuestra vida y de nuestras sociedades. (Véliz, 2022, p. 11)

La vigilancia y el poder conferido a quienes manejan nuestros datos personales, permitiéndoles realizar perfilaciones que nos convierten en mercancía, en dinero que circula globalmente a expensas de nuestra privacidad, es hoy en día la moneda de cambio. Los datos personales son considerados como el oro del siglo XXI (Pons, 2022), marcando la entrada a la economía de los datos.2 Aunque esta economía puede contribuir a fomentar la innovación, en el mejor de los casos; en el peor escenario, implica un riesgo para nuestra integridad y la de las personas cercanas a nosotros. La IAG, puede ser utilizada con fines maliciosos, lo que se facilita ante la falta de regulación, situación que se vuelve cada vez más apremiante.

La IAG ya es un instrumento que facilita la obtención y el tratamiento ilegal e incontrolable de nuestros datos personales, como es el caso de la tecnología deepfake respecto de la cual ya hemos realizado un análisis, con consecuencias a corto, mediano y largo plazo. Es fundamental comprender cómo esta tecnología manipula nuestros datos personales y tener presente la rapidez con la que se recopila la información de forma automatizada, con bajos costos de almacenamiento y sin el conocimiento y consentimiento de los titulares de los datos personales. Ese hecho vulnera el derecho a la privacidad de toda persona. En situaciones como estas, la información sobre el uso de la IAG para el tratamiento de datos personales debe ser informada por parte del responsable del tratamiento al titular de los datos personales, éste debería tener la opción única de otorgar su consentimiento de manera expresa y no tácita, como se permite en México, a diferencia de la Unión Europea con el Reglamento General de Protección de Datos.

Además, si se va a utilizar tecnología basada en IAG para el tratamiento de datos personales, se debe informar a los titulares sobre el propósito, los datos recopilados, a quiénes se transferirán, las medidas de seguridad y los derechos de acceso, rectificación, cancelación, oposición y portabilidad (ARCOP).

Aunado a lo anterior, la forma en que interactuamos con nuestros datos personales en plataformas digitales como Facebook, X, Linkedin, Tiktok, entre otras, tendrá un impacto significativo con el uso de la IAG. Lo que para nosotros puede ser una foto o video compartido en Internet puede convertirse, para esta tecnología, en datos que, en el futuro podrían generar impactos negativos en nuestra vida diaria, tanto en el ámbito familiar, laboral, escolar y social. La manipulación de nuestras imágenes y voces a través de la IAG, como el llamado deepfake, el cual consiste en “...creaciones multimedia generadas por inteligencia artificial (IA) que utilizan técnicas de deep learning para manipular imágenes, videos o audio.” (Jabbour, 2023), “cada vez se vuelven más comunes y virales este tipo de imágenes. Por ejemplo, si viste al Papa Francisco con una chamarra Balenciaga, o a Barack Obama jugando basquetbol con una playera del equipo Lakers, son ejemplos de deepfakes” (Jabbour, 2023). Esta situación representa riesgos significativos que reflejan la necesidad de un marco regulatorio para prevenir el uso indebido de dicha tecnología, principalmente cuando hay menores de edad en riesgo, atendiendo al interés superior del menor.

En el mejor de los casos, nuestras imágenes podrían ser utilizadas de forma inofensiva. Sin embargo, debemos tener presente que esas imágenes pueden ser manipuladas con fines de extorsión o difamación. La incertidumbre ante el uso de las deepfakes hace evidente, una vez más, la necesidad de un marco regulador adecuado para atender esta nueva modalidad fraudelenta.

VI. La regulación de la inteligencia artificial generativa frente a la vulnerabilidad de los datos personales

Aunque en México contamos con el reconocimiento constitucional, así como la suscripción y ratificación de instrumentos internacionales para la protección de datos personales y con regulaciones en la materia tanto en el sector público como en el privado, es evidente que dicha normativa está quedando obsoleta ante los riesgos inminentes asociados con la implementación de la IAG en el tratamiento de datos personales y, consecuentemente, en la vulneración de la vida privada, el derecho al honor, a la imagen, entre otros derechos que se ven comprometidos con esta tecnología.

Nunca resultó más evidente que nuestra interacción con las tecnologías digitales no es del todo voluntaria que durante los meses del confinamiento debido al coronavirus. La gente tuvo que usar entonces -para su trabajo, para no interrumpir la escolarización de sus hijos, o para mantenerse en contacto con la familia- tecnologías que son muy poco respetuosas con la privacidad. Desde el momento en que las plataformas digitales se convirtieron en indispensables, en obligatorias para poder participar de lleno en nuestra sociedad, ya no hubo posibilidad de autoexcluirnos de forma voluntaria de la recopilación de datos. (Véliz, 2022, p. 46)

En febrero de 2024, el senador Ricardo Monreal presentó una iniciativa de Ley para “regular el uso, comercialización y desarrollo de la inteligencia artifcial (SIA) en México” (Vega, 2024). Con esta legislación, que debe cumplir con cada una de las etapas que establece la Constitución Política de los Estados Unidos Mexicanos para ser considerada derecho positivo, se pretende regular aspectos como la “identificación biométrica y categoriazación de personas físicas; generación de imágenes, sonidos o videos; creación de documentos legales; uso de los SIA por agencias gubernamentales para el otorgamiento de beneficios de programas sociales; gestión de migración, asilo, control de fronteras y la administración de justicia; protección de la propiedad intelectual” (Ventura, 2024). En este sentido podemos observar una regulación que abarca incluso a la IAG.

A nivel internacional, podemos afirmar que el Reglamento General de Protección de Datos de la Unión Europea, se erige como el referente a seguir para lograr una protección más efectiva y amplia de los datos personales. Esto es especialmente relevante considerando que podría convertirse en el modelo a seguir para abordar y combatir un problema global ante el creciente flujo de datos transfronterizo impulsado por el uso de la tecnología y los tratados de libre comercio que han conectado de manera más estrecha a este mundo ya interconectado, como se observa a continuación:

Una organización internacional puede compartir datos anónimos con un gobierno para responder a crisis, pero cuando estos datos se combinan con otros conjuntos de información, podrían identificar y divulgar involuntariamente datos de personas vulnerables o comprometer ubicaciones críticas. Esto plantea un dilema ético y humanitario.

El derecho a la privacidad se compone de dos elementos clave: el derecho a no ser observado y el derecho a controlar el flujo de información cuando observamos. A medida que se recopilan cada vez más datos y las tecnologías emergentes adquieren mayor poder, los individuos corren el riesgo de ser monitoreados y atacados en una escala sin precedentes.

La vida digitalizada de las personas se registra y se mercantiliza a través de dispositivos conectados a Internet, lo que aumenta la preocupación por la privacidad. (Arvizu, 2023)

Es fundamental comprender que la IAG es una tecnología disruptiva (Content, 2024) en todos los aspectos de nuestra vida. Este impacto se manifiesta a diario, y mientras algunas personas han sabido utilizar estas herramientas tecnológicas para su beneficio, otras pueden encontrarse en la situación de no comprender cómo beneficiarse de la misma. En algunos casos, se ha hecho uso ilegal de la IA y particularmente de la IAG, y es importante señalar que esta situación está afectando principalmente a las mujeres, como podemos observar a continuación:

El 2023 ha sido el año de la Inteligencia Artificial generativa. Sin embargo, este desarrollo en la proliferación de contenido desinformativo y también en herramientas que promueven la violencia sexual en el plano digital, las cuales afectan mayoritariamente a las mujeres.

De acuerdo con datos de la plataforma de análisis de la industria de la IG, Genevieve Oh, los 10 principales sitios web que albergan imágenes de pornografía generadas con inteligencia artificial, los desnudos falsos han crecido un 290 % desde el 2018, en donde se encuentran desde personalidades del entretenimiento y política, hasta gente que no es famosa. (Guarneros, 2023)

Como podemos apreciar, el impacto de la IAG puede ser tanto positivo como negativo. Entre los beneficios derivados de su uso adecuado se encuentran el análisis de la eficacia de políticas públicas, la propuesta de acciones para combatir el cambio climático y la atención a poblaciones en situación de pobreza extrema. Además, destaca su aplicación en el sector salud desde la década de los años 70 para la detección de enfermedades.3

De esta manera, resulta evidente la necesidad de una regulación de la IAG. Por un lado, esto permitirá aprovechar los aspectos positivos que esta tecnología y conocimiento pueden generar. Por otro lado, la regulación es crucial para establecer mecanismos de control y protección, así como los recursos legales en caso de su uso indebido. En particular, en este estudio, se hace hincapié en la protección de datos personales y los efectos ante su vulneración. Tales aspectos deberán atenderse en las instancias legales correspondientes según el tipo de daño que se genere en las víctimas, ya sea de índole civil, penal, laboral o administrativo respectivamente.

Es imperioso delimitar el rumbo que debe seguir la IAG para evitar un descontrol con daños irreparables e incontenibles. Actualmente, se discute sobre las “tres leyes de la Inteligencia Artificial”, las cuales se correlacionan con las Leyes de la Robótica de Asimov de 19414 (Sostillos, 2023).

En cuanto a las tres Leyes de la Inteligencia Artiticial, comprenden lo siguiente:

Primera: Una Inteligencia Artificial no puede engañar a un ser humano o, a sabiendas, dejar que un ser humano sea engañado.

Segunda: Una Inteligencia Artificial debe responder a las preguntas que le son formuladas por un ser humano advirtiendo de forma expresa que quien lo hace es una IA, salvo que la respuesta vaya en contra de la Primera Ley.

Tercera: Una Inteligencia Artificial debe incrementar su capacidad de respuesta, hasta donde este incremento de capacidades no viole la Primera o la Segunda Leyes. (Sotillos, 2023)

En marzo de 2023, se hizo público un comunicado firmado por más de mil expertos en temas de tecnología, solicitando la suspensión temporal del entrenamiento de sistemas de IA. En la carta, manifiestan que “[...] los laboratorios que trabajan con esta tecnología están en “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable” (BBC News, 2023).

Nos hemos habituado a que las empresas tecnológicas o las plataformas digitales de índole social asuman una posición de autorregulación para asegurar, aparentemente, el uso correcto de la información generada por sus usuarios. Sin embargo, los clientes, sin percatarse, son los generadores de información con la cual estas empresas comercian productos de publicidad o colaboran en el entrenamiento de sus sistemas de IA. En la práctica, la autorregulación ha resultado ser una simulación de buenas prácticas y ética en las compañías, quedando a interpretación de las propias plataformas las denuncias presentadas ante lo que puede considerarse una afectación para un usuario por parte de otro, mientras que el Estado ha permanecido ausente hasta que surge un problema, como el conocido caso de Cambridge Analytica y facebook, uno de los más destacados con un impacto trascendental, como fue evidente en las elecciones presidenciales de Estados Unidos en 2018.

Frente a este escentario, reflexionemos sobre los beneficios que derivarían de la regulación de la IA y la IAG, como la salvaguarda de los derechos humanos, reconociendo que la vulneración de la privacidad y la protección de datos personales afectaría derechos como la igualdad, el acceso al trabajo, la educación, la libertad de expresión, el derecho a la identidad personal, el libre desarrollo de la personalidad, a la seguridad, entre otros. En segundo lugar, se encuentran las medidas de seguridad, contempladas actualmente en la legislación vigente pero que no son debidamente atendidas por los responsables del tratamiento de los datos personales. Por lo tanto, es imperativo establecer un mínimo de seguridad para los datos personales, construyendo puentes que permitan el respaldo en red y creando un sistema de IA e IAG probado para detectar sesgos y vulnerabilidades. En tercer lugar, tenemos el fomento de la innovación responsable, donde las empresas que desarrollan tecnologías de IA podrían coadyuvar con organismos defensores de derechos humanos para fomentar la innovación responsable en este ámbito. Esto implica la creación de productos que beneficien a la sociedad. Este factor es crucial, considerando lo que ocurre en China actualmente, donde se emplea la IAG para “resucitar virtualmente” personas con la imagen y la voz del difunto (Grupo Reforma, 2023). Estos datos personales, incluso después de la muerte, destacan la necesidad de ampliar su protección.

Esta tendencia, que no tardará en propagarse por el resto del mundo, podría encontrar limitaciones en el aspecto económico, incluso derivando en un mercado negro de avatares de personas difuntas. Es necesario comenzar a contemplar esta situación desde una perspectiva jurídica, particularmente en lo que respecto al derecho a la cancelación de los datos personales de los difuntos.

La Primera Sala de la Suprema Corte de Justicia de la Nación, al declarar la inconstitucionalidad del último párrafo del artículo 1392 bis del Código Civil para el Distrito Federal (hoy Ciudad de México), destacó que “debido a la amplitud del concepto constitucional de datos personales, el cual no está limitado a información de alguna naturaleza (información u opiniones), ni al formato o medio en el que se contenga, ni a su carácter privado o íntimo, tampoco si es generada por el titular o tercero, pueden llegar a suscitarse conflictos entre la libertad de expresión y este derecho” (Suprema Corte de la Justicia de la Nación [SCJN], 2022). Según el criterio de la Primera Sala, el albacea de la sucesión debe contar con una cláusula expresa en el testamento para ejercer el derecho de cancelación de datos personales del difunto. Sin embargo, llevando esta problemática a la realidad social, al menos de México, un país con baja cultura del testamento, ello permitiría el uso indiscriminado de la información personal después de la muerte. Esto generaría un mayor daño si quienes manipulan estos datos personales con IAG caen en posesión de personas con pocos escrúpulos que utilicen los datos con fines delictivos.

Ante esta incertidumbre jurídica generada por el rápido avance de la inteligencia artificial, particularmente la generativa, diversas voces, incluyendo la del Papa Francisco I, han demandado una regulación. El Papa “instó a la comunidad mundial de naciones a que trabajen juntas para adoptar un tratado internacional vinculante que regule el desarrollo y el uso de la inteligencia artificial en sus múltiples formas” (AP y Reuters, 2023). La carrera desatada por la IA y los graves retos que plantea para la eficacia de los derechos humanos, como la protección de datos personales y el derecho al trabajo, entre otros, tiene ya una luz en Europa con la reciente Ley de Inteligencia Artificial, que se encuentra en proceso de ratificación por parte del Parlamento Europeo y el Consejo de la Unión Europea. Se espera que entre en vigor hasta después de dos años de su publicación en el Diario Oficial de la Unión Europea y contempla aspectos tan importantes como los siguientes:

La nueva legislación se centra -según los organismos oficiales que la proponen- en garantizar que la IA en territorio europeo sea segura y respete los derechos fundamentales y la democracia, al tiempo que fomenta la innovación. Entre sus puntos clave se incluyen prohibiciones sobre ciertas aplicaciones de inteligencia artificial, como la categorización biométrica basada en características sensibles -creencias políticas, religiosas, filosóficas o por su raza y orientación sexual-, el reconocimiento de emociones en los lugares de trabajo, la puntuación social y la IA que manipula el comportamiento humano o explota vulnerabilidades. La norma dicta obligaciones para los ‘sistemas de IA de alto riesgo’, incluidas evaluaciones obligatorias del impacto en los derechos fundamentales o revisión humana, así como requisitos de transparencia para los sistemas de inteligencia artificial de uso general. Asimismo, exige que se identifiquen los contenidos generados por inteligencia artificial. (Gascón, 2023)

Aunque los aspectos contemplados en la Ley en cuestión son de gran relevancia, el tiempo que tarde en entrar en vigor podría convertirla en una legislación obsoleta. Esto podría llevarnos, como suele suceder, a implementar los denominados “parches” para subsanar aquello que ya esté rebasado por la propia tecnología y el comportamiento humano. Será una ley más reactiva que preventiva. Sin embargo, al igual que el Reglamento General de Protección de Datos puede considerarse como una ley marco a partir de la cual otros países comiencen a trabajar en su propia normatividad. Otros países que han empezado a trabajar en la regulación de la IA, incluyen por supuesto, Estados Unidos de América y China. Entre los puntos que contempla Estados Unidos, que hasta el momento solo abarca una orden ejecutiva del Presidente de ese país, se encuentra la necesidad de “compartir los resultados de las pruebas de seguridad y otra información con el Gobierno” (Gascón, 2023). También se busca establecer estándares para garantizar la seguridad de las herramientas generadas con IA y la IAG, además de informar cuando el contenido generado se haya producido a través de dicha tecnología (Gascón, 2023).

Por lo que se refiere a China, solamente existe una orden denominada “medidas provisionales” para la gestión de tecnología similar a la que utiliza para ChatGPT. Estas medidas no tendrán una aplicación general, sino solamente para desarrolladores de modelos de IA disponibles para todo tipo de público, independientemente de que el desarrollador sea Chino o extranjero. Quedan exceptuados los desarrollos realizados en instituciones de investigación (Gascón, 2023).

Aunque los avances en la regulación de la IA y la IAG son un punto positivo, es fundamental entender que la evolución tecnológica y el derecho están intimamente vinculados, particularmente en lo que respecta a la protección de los derechos humanos. Esto nos obliga a repensar esta evoluación desde un enfoque de ética jurídica, colocando como punto central la protección y eficacia de los derechos humanos.

VII. Conclusiones

A modo de conclusión, se subraya la importancia de sensibilizar a la población y a los creadores de tecnología desde una perspectiva de derechos humanos, con el fin de comprender los alcances y límites que se deben establecerse mediante regulación en la evolución y utilización de la tecnología, especialmente cuando nuestros derechos, como la privacidad y el honor, están en mayor riesgo. Esto requiere contar con una normativa en el ámbito de la IA y la IAG, ya sea de carácter global, regional o nacional. Es crucial y, hasta cierto punto, podría considerarse que esta regulación se está gestando con cierta demora. Esta normativa es bastante compleja dada la incertidumbre acerca de los posibles caminos que podría tomar la evolución de la IAG.

Esta situación pone de manifiesto la necesidad de una interacción efectiva entre el derecho y la tecnología. Los avances tecnológicos requieren controles desde la ética jurídica y los derechos humanos. El propósito no es obstaculizar el progreso tecnológico, sino asegurar que este avance se realice de manera responsable, evitando la generación de víctimas derivadas del uso de la tecnología.

En el artículo se ha examinado el papel que desempeñan nuestros datos personales en el funcionamiento de la IA y particularmente la IAG. Éstas se entrenan con la información personal que compartimos en diversas plataformas y dispositivos electrónicos. Desde relojes inteligentes hasta las aplicaciones que utilizamos, permitimos que los creadores y diseñadores accedan a los datos más íntimos de nuestra persona, un acceso que se está llevandoa cabo desde una temprana edad al compartir información sobre menores de edad.

Dada esta realidad, la regulación de tal tipo de tecnología adquiere especial relevancia. No se debe confiar exclusivamente en la autorregulación por parte de las empresas que han asumido el papel de analizar y juzgar las quejas presentadas por sus usuarios derivadas de situaciones de violencia en sus propias plataformas. Estas empresas terminan convirtiéndose en tribunales especiales que, al final de cuentas, tomarán decisiones con impacto en nuestros derechos humanos.

VIII. Referencias

AP y Reuters (2023). Papa Francisco pide tratado internacional para regular IA. Reforma. https://www.reforma.com/papa-francisco-pide-tratado-internacional-para-regular-ia/gr/ar2726682?md5=16ad6778728b5fce9c9b977ea6039f42&ta=0dfdbac11765226904c16cb9ad1b2efe&utm_source=elemento_web&utm_medium=email&utm_campaign=promocion_suscriptorLinks ]

Arvizu, D. (2023). El desafío de la privacidad en la era digital: Proteger los datos personales en un mundo interconectado. HoyDinero. https://www.hoydinero.com/cuidatubolsillo/El-desafio-de-la-privacidad-en-la-era-digital-Proteger-los-datos-personales-en-un-mundo-interconectado-20230530-0008.htmlLinks ]

Baig, E. C. (2022). La empresa donde trabajas puede espiarte en la oficina o en tu casa. AARP. https://www.aarp.org/espanol/hogar-familia/tecnologia/info-2022/software-monitoreo-de-empleados.htmlLinks ]

Barón, L. (2008). El juego de imitación de Turing y el pensamiento humano. Avances en psicología latinoamericana, 26(2). https://www.redalyc.org/pdf/799/79926206.pdfLinks ]

Bayona, A. (2024). La inteligencia artificial desde la economía del comportamiento. Esade. https://dobetter.esade.edu/es/IA-economia-comportamientoLinks ]

BBC News (2023). La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una “amenaza para la humanidad”. https://www.bbc.com/mundo/noticias-65117146Links ]

Bejarano, P. (2014). Código Enigma, descifrado: el papel de Turing en la Segunda Guerra Mundial. El Diario. https://www.eldiario.es/turing/criptografia/alan-turing-enigma-codigo_1_5038272.htmlLinks ]

Blakemore, E. (2023). La nueva IA podría superar el famoso Test de Turing; este es el hombre que lo creó. National Geographic. https://www.nationalgeographic.es/ciencia/2023/03/alan-turing-test-inteligencia-artificialLinks ]

Calderón, E. (2022). El cerebro y la máquina de Turing. Nueva educación Latinoamericana, (5). https://revista.ilce.edu.mx/index.php/cerebro-3/276-el-cerebro-y-la-maquina-de-turingLinks ]

Coello, C. (2023). La computación evolutiva contribuirá a resolver problemas cada vez más complejos. Cinvestav. https://conexion.cinvestav.mx/Publicaciones/la-computaci243n-evolutiva-contribuir225-a-resolver-problemas-cada-vez-m225s-complejosLinks ]

Content, B. (2024). Navegando la Ola de la Disrupción de la IA: Cómo la IA está transformando las Industrias. El Economista. https://www.eleconomista.com.mx/empresas/Navegando-la-Ola-de-la-Disrupcion-de-la-IA-Como-la-IA-Esta-Transformando-las-Industrias-20240208-0046.htmlLinks ]

Delgadillo, A. y González, C. (2023). Inteligencia artificial generativa: ¿qué es? ¿es un riesgo o ventaja? Revista Conecta. https://conecta.tec.mx/es/noticias/guadalajara/educacion/inteligencia-artificial-generativa-que-es-es-un-riesgo-o-ventajaLinks ]

Díaz, J. (2023). La realidad de la Inteligencia Artificial en Salud. Instituto de Ingeniería del Concimiento. https://www.iic.uam.es/lasalud/realidad-inteligencia-artificial-salud/Links ]

Edwards, B. (2023). El nuevo generador de imágenes de IA de Meta fue entrenado en 1.100 millones de fotos de Instragram y Facebook. Ars Technica. https://arstechnica.com/information-technology/2023/12/metas-new-ai-image-generator-was-trained-on-1-1-billion-instagram-and-facebook-photos/Links ]

Edwards, B. (2024). Stabble Diffusion 3 ya es oficial y estrena tecnología IA para creación de imágenes. Ars Technica. https://es.wired.com/articulos/stable-diffusion-3-ya-es-oficial-nueva-tecnologia-creacion-de-imagenesLinks ]

ESET. (2023). Protección de Dato: Panorama y tendencias legislativas en Latinoamérica. https://www.eset.com/py/acerca-de-eset/sala-de-prensa/comunicados-de-prensa/articulos-de-prensa/proteccion-de-datos-panorama-y-tendencias-legislativas-en-latinoamerica/Links ]

Espinoza, M. (2024). Google integra ética en su IA, México. Merca2.0. https://www.merca20.com/google-integra-etica-en-su-ia/Links ]

Gascón, M. (2023). ¿En qué se diferencia la Ley de IA de la regulación de otros países? 20 minutos. https://www.20minutos.es/tecnologia/inteligencia-artificial/que-se-diferencia-ley-ia-europea-regulacion-otros-paises-5198525/Links ]

Getahun, H. (2023). ChatGPT podría usarse para siempre, pero como muchos otros modelos de IA, está arregado de prejuicios racistas y discriminatorios. https://www.businessinsider.com/chatgpt-is-like-many-other-ai-models-rife-with-bias-2023-1?r=MX&IR=TLinks ]

González, R. (2007). El Test de Turing: Dos mitos, un dogma. Revista de Filosofía, 63. https://www.scielo.cl/pdf/rfilosof/v63/art03.pdfLinks ]

Grupo Reforma. (2023). Usan en China IA para ‘resucitar’ a difuntos. Reforma. https://www.reforma.com/usan-en-china-ia-para-resucitar-a-difuntos/gr/ar2727134?md5=16670b5d6480bc38b3e1fdd57a3ef960&ta=0dfdbac11765226904c16cb9ad1b2efe&utm_source=elemento_web&utm_medium=email&utm_campaign=promocion_suscriptorLinks ]

Guarneros, F. (2023). La IA aceleró un nuevo tipo de violencia sexual digital que afecta a la mujeres. Expansión. https://expansion.mx/tecnologia/2023/11/06/inteligencia-artificial-violencia-sexual-digital-mujeresLinks ]

Guersenzvaig, A. y Casacuberta, D. (2022). La quimera de la objetividad algorítmica: dificultades del aprendizaje automático en el desarrollo de una noción no normativa de salud. IUS ET SCIENTIA, 8(1). https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwi4laqr9NODAxVdNEQIHcQtDBk4ChAWegQIBxAB&url=https%3A%2F%2Frevistascientificas.us.es%2Findex.php%2Fies%2Farticle%2Fdownload%2F19980%2F18561%2F85189&usg=AOvVaw19Vfc5XORrNa7zgkNr-B-I&opi=89978449Links ]

Gutiérrez, A. (2019). Metodología para la comparación de algoritmos de aprendizaje automático. Caso de estudio: clasificación de eventos académicos. Universidad Autónoma Metropolitana. http://zaloamati.azc.uam.mx//handle/11191/6066Links ]

Hernández-Leal, E., Duque-Méndezy, N. et al. (2017). Big Data: una exploración de investigaciones, tecnologías y casos de aplicación. Instituto Tecnológico Metropolitano, 20(39). https://www.redalyc.org/journal/3442/344251476001/html/Links ]

Ibañez, J. (2023). Las dos caras de la inteligencia artificial y sus algoritmos. Madridmasd.orghttps://www.madrimasd.org/blogs/universo/2023/02/07/153964Links ]

Iglesias, A. e Iglesias, A. B. (2011). La computación evolutiva y sus paradigmas. Revista Universidad Simón Bolivar. https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwjG5aOTsNODAxWKKkQIHeqgBbMQFnoECC4QAQ&url=https%3A%2F%2Frevistas.unisimon.edu.co%2Findex.php%2Fidentic%2Farticle%2Fdownload%2F2456%2F2349&usg=AOvVaw03dXq04G3Pr1mz8Cwz4-Pp&opi=89978449Links ]

Jabbour, G. (2023). Te engañaron: ¿qué es un deepfake y cómo detectarlo? Expansión. https://expansion.mx/tecnologia/2023/12/05/deepfake-como-identificarLinks ]

Kapersky. (2023). Problemas y riesgos de la seguridad en la nube. https://latam.kaspersky.com/resource-center/preemptive-safety/cloud-security-issues-challengesLinks ]

López, J. (2024). INAI urge a actualizar Ley de Protección de Datos para regular uso de IA. https://lopezdoriga.com/nacional/inai-urge-actualizar-ley-de-proteccion-de-datos-regular-ia/Links ]

López, M. (2012). El enigma Turing. Universidad Autónoma de Metropolitana. https://www.uam.mx/difusion/casadeltiempo/56_v_jun_2012/casa_del_tiempo_eIV_num_56_07_11.pdfLinks ]

Marcos, L. (2022). Cinco datos sobre la vida de Alan Turing, padre de la inteligencia artificial y condenado por homosexual. Esquire. https://www.esquire.com/es/ciencia/a40210260/alan-turing-padre-inteligencia-artificial/Links ]

Mayorga, L. (2019). ¿Qué es el aprendizaje automático y cómo funciona? UNAM Global. https://unamglobal.unam.mx/global_revista/que-es-el-aprendizaje-automatico-y-como-funciona/Links ]

Ministerio para la transformación digital y de la función pública. (2023). Cómo preparar un conjunto de datos para machine learning y análisis. Ministerio para la transformación digital y de la función pública. https://datos.gob.es/es/blog/como-preparar-un-conjunto-de-datos-para-machine-learning-y-analisisLinks ]

Ordelin, J. (2024). La inversión en innovación: a propósito de la Ley de Inteligencia Artificial de la Unión Europea. El Economista. https://www.eleconomista.com.mx/opinion/La-inversion-en-innovacion-a-proposito-de-la-Ley-de-Inteligencia-Artificial-de-la-Union-Europea-20240221-0029.htmlLinks ]

Pepinosa, J. (2024). ¿Robots con moral? Google integra ética en su inteligencia artificial con una “constitución”. Infobae. https://www.infobae.com/tecno/2024/01/05/robots-con-moral-google-integra-etica-en-su-inteligencia-artificial-con-una-constitucion/Links ]

Plana, M. (2021). Economía de los datos y propiedad sobre los datos. Ministerio de Ciencia, Innovación y Universidades. https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwj7itf37-yCAxUQPUQIHZt4DToQFnoECAkQAQ&url=https%3A%2F%2Fdialnet.unirioja.es%2Fdescarga%2Farticulo%2F8103852.pdf&usg=AOvVaw1ZAn3yl2K9Q0L6abbsAlmd&opi=89978449Links ]

Pons, E. (2022). El oro del siglo XXI: tus datos. Latinus. https://latinus.us/2022/12/04/el-oro-del-siglo-xxi-tus-datos/Links ]

Quijano, C. (2022). Derecho a la privacidad en Internet. Tirant Lo Blanch. [ Links ]

Smink, V. (2023). Las 3 etapas de la inteligencia artificial: en cuál estamos y por qué muchos piensan que la tercera puede ser fatal. BBC News, Mundo. https://www.bbc.com/mundo/noticias-65617676Links ]

Sostillos, L. (2023). Las tres leyes de la inteligencia artificial. Linkedin. https://www.linkedin.com/pulse/las-tres-leyes-de-la-inteligencia-artificial-luis-sotillos-sanz/?originalSubdomain=esLinks ]

Soto, J. (2023). ¿Cuánto cuesta el acceso a tus redes sociales en el mercado negro? El Economista. https://www.eleconomista.com.mx/tecnologia/Cuanto-cuestan-tus-datos-personales-en-el-mercado-negro-20230601-0059.htmlLinks ]

Suprema Corte de Justicia de la Nación (SCJN). (2022). En la Ciudad de México, es inconstitucional la disposición que prevé la instrucción para que el representante de una persona fallecida gestione la eliminación de su información personal almacenada en registros electrónicos públicos y privados luego de su muerte: Primera Sala. Comunicado de Prensa No. 424/2022. https://www.internet2.scjn.gob.mx/red2/comunicados/noticia.asp?id=7148Links ]

Turing, A. (1950). Computing Machinery and Intelligence. Mind, LIX(236), 433-460. [ Links ]

Vega, P. (2024). Ricardo Monreal promueve iniciativa para regular la IA en México. El Universal. https://www.eluniversal.com.mx/techbit/ricardo-monreal-promueve-iniciativa-para-regular-la-ia-en-mexico/Links ]

Véliz, C. (2022). Privacidad es poder (2a. ed.). Penguin Random House. [ Links ]

Ventura, A. (2024). Presentan iniciativa para regular la inteligencia artificial. Reporte índigo. https://www.reporteindigo.com/energia-industria/tech/presentan-iniciativa-para-regular-la-inteligencia-artificial/Links ]

Villabella, C. (2020). Los métodos en la investigación jurídica. Algunas precisiones. En E. Cáceres (Coord.), Pasos hacia una revolución en la enseñanza del derecho en el sistema romano germánico (pp. 161-177). Instituto de Investigaciones Jurídicas, Universidad Nacional Autónoma de México. https://archivos.juridicas.unam.mx/www/bjv/libros/13/6226/12a.pdfLinks ]

Viteri, M. (2023). Inteligencia artificial y equidad de género: un espejo de nuestras sociedades. Banco Interamericano de Desarrollo. https://blogs.iadb.org/sostenibilidad/es/inteligencia-artificial-y-equidad-de-genero-un-espejo-de-nuestras-sociedades/#:~:text=Los%20sesgos%20de%20género%20en%20la%20IA%20pueden%20perpetuar%20desigualdades,género%20restrictivas%20en%20la%20sociedadLinks ]

Legisgrafía

Ley Federal de Protección de Datos Personales en Posesión de los Particulares, México, 2010. [ Links ]

Reglamento General de Protección de Datos, Parlamento de Europa, 2018. [ Links ]

1 “Ahora que el hogar se ha convertido en el lugar de trabajo para muchos —un cambio permanente para algunos, incluso cuando la pandemia está cediendo—, no supongas que tu empleador ha dejado de vigilarte: ahora lo hace de lejos. Si te han dado una computadora portatil o un teléfono de la empresa, es razonable esperar que tus jefes sepan no solo cuándo te has conectado y desconectado, sino también las aplicaciones que usas, las redes sociales y los sitios web que visitas y cuánto tiempo pasas en actividades que pueden o no estar relacionadas directamente con tu trabajo. O al menos debes saber que cuentan con los medios para descubrir todas esas cosas”. “No se me ocurre un uso válido de nada que sea tan invasivo”, dice. “Los gerentes pueden hablar de cuán[d]o estás en la oficina, pueden mirar por sobre el hombro de los empleados y cosas así. Pero ningún gerente está vigilando por sobre el hombro a un empleado constantemente. Y ningún gerente revisa cada cosa que haces en la computadora para ver en dónde hiciste clic a las 9:17 de la mañana o de qué manera exacta escribiste un correo electrónico… Eso es una intensificación de lo que era posible en el entorno físico de trabajo” (Baig, 2022).

2 “El desarrollo tecnológico, en especial el big data, ha craedo una economía basada en los datos en la que intervienen diferentes sujetos, integrados en un proceso complejo que tiene como resultado una mejora económica basada en la innovación. El proceso de mercantilización de los datos se desarrolla de forma compleja a través de una cadena que comienza en los sujetos que producen o aportan datos; éstos son recogidos, sistematizados y analizados por empresas que tienen capacidad para ello; y por úlitmo se extrae su valor económico, que en muchas ocasiones genera innovación” (Zech, 2021, p. 3).

3 “La Inteligencia Artificial (IA) existe desde 1956, y en los años 70 compartió su primera experiencia en el sector salud con el denominado Mycin, un sistema experto orientado a la detección de enfermedades infecciosas en la sangra que razonaba, se comunicaba en lenguaje natural con el usuario y recetaba medicaciones de forma personalizada a cada paciente” (Díaz, 2023).

4 “La primera ley establece que los robots no pueden causar daño a un ser humano o, por inacción, permitir que un ser humano sufra daño”, “La segunda ley establece que los robots deben obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley” y la “tercera ley establece que los robots deben proteger su propia existencia siempre y cuando esto no entre en conflicto con la Primera o la Segunda Leyes” (Sostillos, 2023).

Cómo citar

Sistema IIJ

Sánchez Díaz, María Fernanda, “Inteligencia artificial generativa y los retos en la protección de los datos personales”, Estudios en derecho a la información, México, vol. 9, núm. 18, julio-diciembre de 2024, pp. 179-205. https://doi.org/10.22201/iij.25940082e.2024.18.18852

APA

Sánchez Díaz, M. F. (2024). Inteligencia artificial generativa y los retos en la protección de los datos personales. Estudios en derecho a la información, 9(18), 179-205. https://doi.org/10.22201/iij.25940082e.2024.18.18852

Recibido: 16 de Enero de 2024; Aprobado: 28 de Febrero de 2024

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons