Sumario: I. Introducción. II. Regulación e innovación: cargas normativas. IV. Conclusiones. VI. Referencias.
I. Introducción
La innovación tecnológica produce determinados riesgos. Al propio tiempo que es motor del crecimiento económico, puede poner en riesgo determinados bienes e intereses al incluir aquellos que son de orden público, así como valores sociales. Por un lado, el Índice Mundial de Innovación 2022 reconoce, como nuevas oleadas de innovación, la supercomputación, la inteligencia artificial y la automatización, con importantes repercusiones en la productividad de todos los sectores. Por otro, se encuentra la denominada ciencia profunda, con avances en materia de biotecnología, nanotecnologías, nuevos materiales, etcétera, e impacto determinante en la salud, la alimentación, el medio ambiente y la movilidad (OMPI, 2022), aunque se reconocen también como obstáculos la adopción y difusión de las tecnologías.
La inteligencia artificial, y su impacto tecnológico como innovación disruptiva, no está exenta de ser expresión de la situación que se manifiesta entre innovación y riesgos tecnológicos y sociales. Los niveles de riesgo, aceptables o no, en la innovación en la IA, dependen claramente del sector en el que se aplique y el contexto. La regulación parece una vía necesaria para poder abordar y mitigar dichos riesgos, por lo cual éste es un sector tecnológico donde ha ganado importancia el ámbito regulatorio. Regular o no regular, y cómo hacerlo, se encuentran dentro de las principales disyuntivas que hoy existen en el tema.
La respuesta, en principio, parece ser la regulación; sin embargo, existen dudas fundadas con relación a cómo hacerlo. ¿Cómo evaluar los sistemas de la IA y mitigar sus riesgos? Teniendo en cuenta que todos los sectores interesados en el proceso y su regulación constituyen parte de los debates en este tema. La respuesta es compleja y depende de múltiples factores, entre los que se encuentran las capacidades de cada país para adoptar y desarrollar la tecnología, así como las particularidades de cada ordenamiento jurídico. Sin embargo, una cuestión que debe ser señalada es que la regulación por sí misma no es suficiente para poder abordar los riesgos de este tipo de tecnología, hacerlo significa caer en un determinismo regulatorio que no existe ni tampoco es parte de la función del derecho.
El presente artículo tiene como objetivo analizar la relación que existe entre las cargas normativas en la regulación de los sistemas de inteligencia artificial y su impacto en la innovación en esta tecnología. El texto se divide en dos partes. La primera, dirigida a analizar la relación que existe entre regulación e innovación; la segunda, la relación que existe entre cargas normativas e inteligencia artificial, con especial referencia al tema de los riesgos que supone la innovación en inteligencia artificial y el impacto de las cargas normativas en materia de competitividad y el tamaño de las empresas.
II. Regulación e innovación: cargas normativas
La definición general de innovación es un producto o proceso -o combinación de ellos- nuevo o mejorado que difiere significativamente de los productos o procesos anteriores de la unidad, y que ha sido puesto a disposición de usuarios potenciales (producto), o puesto en uso por la unidad (proceso) (OECD/Eurostat, 2007). Como componentes claves de este concepto, se incluyen el papel del conocimiento, la novedad, la utilidad, el valor añadido, la creación o preservación de valor. La utilidad o aplicación es un concepto que distingue a la innovación de la invención (OECD/Eurostat, 2007). Sin embargo, en todos los casos necesita el producto o procedimiento ser puesto en uso o introducido en el mercado.
El término “innovación” se refiere tanto a la actividad como a su resultado. Dentro de dicha actividad se encuentran todas las acciones de desarrollo, financieras y comerciales que se realizan para innovar; pero cuando hablamos de innovación debe distinguirse entre la capacidad de los países para generar tecnología puntera y su capacidad de integración y adaptación a estas. De acuerdo con el Informe de Innovación, sólo muy pocas economías emergentes son capaces de impulsar por sí mismas innovaciones de vanguardia (WIPO, 2022). Aunque esta capacidad les permite difundir estas tecnologías rentables cuando se analiza en un contexto determinado (como es el de la inteligencia artificial), deben tenerse en cuenta no sólo aspectos generales del ecosistema de innovación, sino también, políticas públicas que van dirigidas a promover el desarrollo e implementación de la tecnología y su uso en sectores específicos.
Sin embargo, para comprender la relación entre innovación y derecho deben tenerse en cuenta no sólo cuestiones jurídicas, sino además el propio papel del Estado en la conformación de políticas públicas, dentro de las cuales las leyes constituyen una expresión que debe ser analizada en relación con otros elementos y aspectos, como son la financiación de la investigación básica, facilidades para la realización de transferencia tecnológica, así como la adopción de estas tecnologías, y otras prioridades políticas.
El derecho forma parte de las políticas de innovación, pero no es el único elemento, se encuentra relacionado con otros aspectos. Forma parte de la política pública de innovación, pero no la determina. Como se reconoce en el Manual de Oslo, la aplicación de las políticas y prácticas de innovación puede ser compleja, dado que no sólo está influida por la intención de la legislación que las hace posibles, sino también por su uso real en diferentes niveles institucionales y jurisdiccionales. Ello exige, conforme lo ha reconocido la OCDE, la coordinación y realización de acuerdos institucionales, más allá de las entidades que rigen las políticas de ciencia e investigación, y que todo ello se entienda como enfoque de gobierno (OECD/Eurostat, 2018).
Tradicionalmente, el entorno normativo se ubica dentro del aparato institucional, de conjunto con el entorno político y empresarial. Según el Banco Mundial, el entorno político está dado por la estabilidad política y operativa, así como la eficacia del gobierno, mientras que el entorno empresarial se define por las políticas para hacer negocios, así como las políticas culturales empresariales. Por su parte, el entorno normativo está determinado por la calidad de la reglamentación, el Estado de derecho y el coste del despido (Kaufmann and Kraay, 2023).
El índice de calidad regulatoria está definido en los indicadores mundiales de gobernanza del Banco Mundial y se entiende como aquel que refleja la capacidad del gobierno “para formular y aplicar políticas y normativas sólidas que permitan y promuevan el desarrollo del sector privado” (Kaufmann y Kraay, 2023). Este índice se ubica en la dimensión relacionada con la capacidad del gobierno para formular y aplicar eficazmente políticas sólidas. Son diversas las variables que se utilizan para construirlo, dentro de las que encontramos controles de precios, aranceles discriminatorios, protecciones excesivas, libertad de inversión y financiera, entre otros. Sin embargo, sobresalen aquellos criterios que están relacionados con las prácticas de competencia desleal, carga de la normativa gubernamental y la prevalencia de barreras no arancelarias, entre otras (Banco Mundial, 2020). El presente trabajo se enfocará sólo en la carga reglamentaria, es decir, en el riesgo de que las operaciones empresariales normales resulten más costosas debido al entorno normativo, lo que incluye el cumplimiento de la normativa y la ineficiencia y/o la opacidad burocrática (Kaufmann, Kraay, Mastruzzi, 2011).
Se ha reconocido que el marco normativo y de aplicación influye en la forma que las empresas se apropian de los resultados de sus esfuerzos de innovación, así como de las relaciones y transacciones que establecen; lo que influye en su capacidad para explotar las innovaciones (OECD/Eurostat, 2018). No puede pretenderse que menos regulación, necesariamente, trae consigo una mayor inversión en innovación. No suele ocurrir así. Incluso, tampoco puede pensarse que es igual el comportamiento entre todos los sectores. La regulación y la norma jurídica pueden devenir en barreras normativas para desarrollar y/o adaptar una tecnología determinada. Sin embargo, debe tenerse en cuenta que la regulación jurídica en sí misma no implica una carga normativa, aunque toda carga normativa tiene su sustento en una regulación.
Estudios realizados sobre la relación entre regulación e industria han identificado diversas barreras normativas. Entre estas, se pueden mencionar los costes prohibitivos del cumplimiento de la normativa, el alcance o implicaciones poco claros de la normativa, la incapacidad de la empresa para desarrollar o asignar los recursos necesarios para cumplir la normativa, la incoherencia a lo largo del tiempo en la aplicación de la normativa por parte del organismo, los conflictos e incoherencias entre normativas, la falta de un procedimiento de recurso eficaz, la incapacidad o falta de voluntad de la agencia para modificar la normativa a la vista de las circunstancias, la incapacidad de la empresa para cumplir los plazos establecidos en la normativa, la falta de mecanismos dentro de la agencia para explicar la normativa, el trato diferenciado por parte de la agencia de las entidades afectadas por la normativa, entre otras (Rothwell, 1980).
Para Rothwell, la inclusión del elemento normativo y regulatorio dentro de la medición de las actividades de innovación es parte de la potencial incompatibilidad que existe entre la regulación y el estímulo de la innovación, generalmente calculado en la actividad industrial (1980). Esta contradicción responde a la pregunta, según el propio autor, de cuándo se puede decir que existe un exceso de regulación y/o una regulación insuficiente que impacte en el desarrollo de la innovación; o como el propio autor plantea, el dilema de los gobiernos, ¿cómo regular de forma tal que los costos de cumplimiento y las limitaciones a la libertad de acción no reduzcan la inversión en crecimiento e innovación? (1980).
Sin duda, esta es una pregunta compleja que no tiene una respuesta sencilla. La regulación es parte del entorno externo al de las actividades de innovación de las empresas; forma parte del sistema político, social y organizativo en el cual la innovación se desarrolla. No hay duda de que los factores externos inciden en la capacidad y resultados de innovación de las empresas. Sin embargo, debe tenerse en cuenta que el impacto de este factor no es viable de determinar hasta su aplicación, lo cual, además, es un dilema metodológico que incide en su cálculo. Conforme al Manual de Oslo, la influencia de la regulación puede medirse de forma indirecta o directa. La primera, al tener en cuenta todos los factores externos en la empresa, sin hacer referencia a la innovación; mientras que la segunda sí toma en cuenta este factor específico. Sin embargo, no es fácil medir los efectos de la regulación en la innovación, incluso, aun cuando se pudiera determinar, no es igual la relación que existe entre la regulación y la industria y la regulación y la innovación (OECD/Eurostat, 2018). Las interacciones entre estos factores son disímiles.
Otro elemento que debe ser tenido en cuenta es que el análisis no puede obviar que las cargas reglamentarias varían según los sectores. Es importante analizar la carga normativa según el sector al cual se quiere fomentar y cómo contribuye al desarrollo de la tecnología. Esto no significa un menoscabo de los derechos, sino todo lo contrario. Como Rothwell afirma, “La regulación de la industria no es, por supuesto, nada nuevo [...] La cuestión es que los rápidos índices de industrialización de la posguerra han hecho que las externalidades de la producción industrial (por ejemplo, la contaminación) se hayan extendido cada vez más y sean más evidentes para la sociedad en general” (Rothwell, 1980).
Para el autor, la necesidad de la regulación se encuentra precisamente en el bienestar general de la sociedad, no siendo siempre compatible la búsqueda de este bienestar por medio de la regulación y la actividad innovadora. A su juicio, el dilema de los gobiernos se encuentra en cómo regular dichas operaciones de forma tal que el costo del cumplimiento no sea tan grande que reduzca la inversión en innovación, al mismo tiempo que se protegen los intereses de la sociedad. Es necesario minimizar los efectos nocivos de la regulación de la tecnología y, al propio tiempo, la protección contra los perjuicios que esta provoca. En la búsqueda de este equilibrio, no se pueden dejar de lado los beneficios de la regulación, así como la necesidad de aplicación de la tecnología, cualquiera que sea.
Ubicarse en uno de los extremos es potencialmente perjudicial para la innovación, especialmente si se pretende que ésta sea responsable. Por ello, sin dejar de lado el impacto que tiene la regulación en la innovación, debe evitarse exagerar los efectos de aquella en ésta, así como maximizar los supuestos beneficios de la desregulación sobre innovación, en menoscabo de la seguridad y protección de los derechos. Existen múltiples formas de regular los usos y aplicaciones de la tecnología; por ende, no puede analizarse cualquier regulación como una carga normativa, ni pensarse a estas exclusivamente desde el ámbito del cumplimiento de obligaciones jurídicas; hay que tener en cuenta otros aspectos como son la interpretación y aplicación de la norma, así como aquellas limitaciones de índole burocrática.
III. Cargas normativas e inteligencia artificial
Las cargas normativas están relacionadas con el aspecto regulatorio; empero, también con cómo se aplica la ley en el contexto de la innovación y cómo esta aplicación tiene lugar en cada sector en particular. Por lo tanto, el factor de las cargas normativas no puede ser analizado sin tener en cuenta la tecnología sobre la que recae y el contexto en el que se aplica, lo que está determinado por políticas públicas, prácticas empresariales de innovación, mercado, competidores, entre otros factores. El estudio y análisis del tema de las cargas normativas es complejo, y no puede estar determinado sólo por la norma y su formulación, sino también, por la propia institución que la desarrolla y/o aplica.
En el tema de la inteligencia artificial no se han realizado estudios sobre cargas normativas. Por un lado, se apela a la innovación en esta tecnología para poder justificar la autorregulación de las empresas; por otro, se habla de los riesgos de la tecnología y la necesidad de contar con otros instrumentos regulatorios para poder impedir éstos o, al menos, minimizarlos. Cuando no existe regulación, o sólo se habla de autorregulación, el costo es la seguridad jurídica, y éste lo suelen pagar las personas y sus derechos. Por ello, todo parece indicar que, en principio, la respuesta es la regulación jurídica y el establecimiento de normas y mecanismos; sin embargo, el tema se encuentra en cuáles serán estas normas y mecanismos que operacionalizarán dicha regulación. Cuáles serán las cargas que se impondrán al respecto, al tener en cuenta la tecnología, el ámbito de su aplicación, los riesgos generados, los derechos involucrados, los posibles usos y la existencia -o no- de medidas para minimizar dichos riesgos.
El enfoque regulatorio para fomentar la innovación en tecnologías disruptivas -como la IA- no es fácil. La OCDE (2021) habla del enfoque de “adaptar y aprender”, así como la necesidad de desarrollar enfoques anticipatorios, pero también de regular los riesgos potenciales, preocupaciones éticas, protección de los derechos humanos y del medio ambiente. Sin embargo, concretar esto en propuestas específicas puede ser difícil; además de las complejidades propias de la tecnología IA, también existen retos en cuestiones transfronterizas y de competencia de los entes reguladores, al menos, como tradicionalmente se han conocido y/o regulado.
La relación entre regulación e innovación depende básicamente de que se hayan aplicado las políticas públicas. No basta sólo con la aprobación y entrada en vigor de la norma, es necesario además analizar cuál será el impacto de la regulación antes de su entrada en vigor -así como, posteriormente, durante su implementación-, al identificar sus posibles consecuencias y efectos en sectores específicos (Auby y Perroud, 2013, p. 20). Mientras existen inconvenientes que son propios de la regulación, también hay aquellos que son particulares de su adopción, por ejemplo, las habilidades, experiencia o conocimientos limitados de IA (34 %), el alto precio (29 %), la falta de herramientas o plataformas para desarrollar modelos (25 %), la complejidad de los proyectos y su dificultad para escalarlos (24 %), y la complejidad de los datos (24 %) (IBM, 2022).
La OCDE afirma que la influencia indirecta de la regulación en la innovación es mayor que la influencia directa (OECD/Eurostat, 2018); lo cual está determinado por diversos factores como los costos de regulación, desvío de recursos de I+D, condiciones de decisiones de gestión, seguridad jurídica (incertidumbre), entre otros factores. Como se reconoce en el Manual de Oslo, los cambios tecnológicos, de mercado y normativos también pueden influir en los incentivos (OECD/Eurostat, 2018).
No obstante, por las experiencias de otros países con iguales condiciones socioeconómicas, pudiera obtenerse una aproximación en relación con el impacto de la regulación en la innovación. Sin embargo, hay que tener en cuenta otros elementos como el contexto en el que se aplican estas disposiciones (como el socioeconómico), las políticas adoptadas, y el ámbito tecnológico y/o industrial donde se aplica. Por ende, debe tenerse en cuenta tanto cuestiones generales del país como particulares de la tecnología.
Por ejemplo, Estados Unidos ocupa el número 2 en el ranking mundial de innovación que cada año elabora la Organización Mundial de la Propiedad Intelectual. Ocupa el lugar número 12 en materia de entorno normativo, el 21 en calidad regulatoria, 11 en entorno empresarial, 7 en políticas para hacer negocios y 13 en políticas y culturas empresariales (WIPO, 2022). Según el The AI Index 2023 Annual Report, el país encabezó la lista de leyes promulgadas en 2022 que mencionaban la IA, específicamente con 9 leyes (Maslej et al., 2023). De éstas, sobresale la aprobación de la “Artificial Intelligence Training for the Acquisition Workforce Act” también conocida como “AI Training Act”, en virtud de la cual se establece un programa de formación para que los trabajadores de una agencia ejecutiva puedan conocer las capacidades y riesgos asociados a la IA.1 En América Latina, Chile es el país con el número 50 en el ranking del Índice de Innovación de 2022 y primer lugar en la región de Latinoamérica; también ocupa el puesto 61 en el ítem de entorno normativo, 31 en el de calidad regulatoria, 34 en el de entorno empresarial, 30 en políticas para hacer negocios, y 26 en políticas y cultura empresariales (WIPO, 2022).
Aunque los resultados en innovación deben ser tomados en relación con el nivel de desarrollo económico de los países, si se compara el Índice de Preparación de las Administraciones Públicas con el de Innovación, se puede apreciar que el orden de los países es el mismo. En el primero, Estados Unidos ocupa el número 1, Chile ocupa el 35 y es el primer país de Latinoamérica (Oxford Insights, 2022). Sin embargo, desde el punto de vista normativo e institucional, existen marcadas brechas entre estos ecosistemas de innovación.
Además, Estados Unidos presenta puntuaciones muy altas en madurez y capacidad de innovación, que mide la capacidad de las empresas para suministrar productos listos, así como el tamaño, valor y nivel de inversión en el sector tecnológico. Sin embargo, el pilar tecnológico es precisamente aquel en el que la región de Latinoamérica en sentido general tiene peor puntuación (Oxford Insights, 2022). Aun cuando existen importantes avances, precisamente las áreas de mayor crecimiento de IA en la región son las de logística, gestión de la cadena de suministros, ventas y marketing (MIT, 2020). La capacidad de innovación también incluye la posibilidad de que existan empresas que sean capaces de apoyar la creación de nuevas aplicaciones de IA y competir en precio por contratos públicos; determina la capacidad del sector tecnológico de innovar, al tener en cuenta el entorno empresarial y el flujo de gasto en investigación y desarrollo, esto último está estrechamente relacionado con la denominada inversión pública en IA.2
Otro aspecto que puede ser tenido en cuenta es el referido a la denominada “coherencia regulatoria”. Existen claras diferencias entre el momento de diseñar y aplicar políticas gubernamentales en la materia. La regulación y la financiación constituyen, en principio, un catalizador para la innovación en IA, pero pueden devenir en una barrera cuando se aplican de manera fragmentada. En este sentido, en EUA existe, hasta este momento, acuerdo de los principales partidos políticos sobre los beneficios de la inversión en IA y la política de IA, lo que brinda seguridad a los diferentes agentes, desde inversión pública y aliados geopolíticos, independientemente del partido que esté en el poder. En Latinoamérica, uno de los obstáculos que enfrenta la región, en palabras de Eugenio García, es el de la continuidad de las políticas a medio y largo plazo (Oxford Insights, 2022). La falta de coherencia en relación con la gobernanza y financiación suelen cambiar generalmente cuando cambian los gobiernos, con contadas excepciones, como es el caso de Chile. Esta posición fue confirmada en un estudio realizado por MIT en la región, donde se constata que, en el contexto latinoamericano, los gobiernos suelen desechar las iniciativas de sus predecesores, lo que impacta en la asignación de recursos y en la coherencia regulatoria (MIT, 2020).
También debe existir una correspondencia entre el fin protegido con la carga normativa, que debe ser legítimo y proporcional, con aquel con la carga que se impone y la finalidad que se persigue; es decir, debe haber un equilibrio entre los fines y el medio. Para poder determinar este equilibrio, debe tenerse en consideración no sólo el desarrollo de la tecnología, sino también, el ámbito dónde se aplicará. De esta forma, existe una búsqueda constante de equilibrio entre la regulación y la innovación. Para ello, resulta necesario distinguir entre la normativa que está destinada o dirigida a fomentar la innovación de la propia tecnología, su desarrollo, de aquella otra que está dirigida a su adopción y aplicación en determinados contextos. Con base en esto se podría colegir que la aplicación de la norma no es pareja, como tampoco lo son los riesgos y efectos de la aplicación de la tecnología.
1. Innovación en inteligencia artificial: riesgos
Existe un grupo de peligros latentes en materia de IA que justifican su regulación. Una carta firmada por los principales exponentes de la materia en el mundo, y tan solo con 22 palabras, consideró que los riesgos de la IA son similares a los de una pandemia, así como a los de la bomba atómica (Roose, 2023). Algunos de estos riesgos ya habían sido referidos en el Congreso de los Estados Unidos (Congressional Research Service, 2023) y en otros espacios internacionales. Bajo este contexto, es necesario que la regulación no se vea como una barrera, sino como un mecanismo que genera y garantiza la confianza, es parte de los procesos de innovación seguros y responsables, así como de la propuesta de valor de la tecnología. Todo ello debe traducirse en la adopción y uso de tecnologías responsables en relación con los derechos de las personas lo que incluye la protección de la privacidad, igualdad, protección de datos personales, derechos de propiedad intelectual, entre otros. La regulación no debería significar un impedimento para continuar innovando. Las propuestas deberían partir de una visión de previsión del daño y responsabilidad conforme al riesgo y establecerse, de acuerdo con éste, distintas cargas y obligaciones, y configurar múltiples instrumentos y mecanismos, como pueden ser la autorización de uso, el despliegue de sistemas y la supervisión en entorno real, las obligaciones de transparencia algorítmica, la rendición de cuentas, entre otros.
Es imposible deslindar el concepto de fiabilidad de los de regulación, confianza e innovación. Sin embargo, lo cierto es que la fiabilidad de la IA continúa siendo un foco de atención. De hecho, un estudio realizado por IBM arrojó como resultado que la mayoría de las empresas no toman medidas para garantizar la fiabilidad, en particular para reducir el sesgo (74 %), realizar un seguimiento de las variaciones de rendimiento y la deriva del modelo (68 %), así como tampoco para asegurarse de que pueden explicar las decisiones basadas en la IA (61 %) (IBM, 2022).
Las preguntas que surgen, entonces, están dirigidas a determinar cuándo las cargas son necesarias y cómo establecerlas. ¿Toman estas cargas las diferencias existentes entre las pequeñas y las grandes empresas? ¿Se pueden establecer cargas distintas en dependencia de los ámbitos de aplicación y del tipo de tecnología? Es posible que existan cargas normativas diferentes en relación con el riesgo de la tecnología, el ámbito de aplicación, su papel en el modelo de negocios, el rol que cada agente desempeña en la cadena de valor y en proporción al tamaño de las empresas. Sin duda, es un reto para el derecho, al menos en la forma en la que normalmente este se ha concebido o pensado.
Al respecto, mencionaremos algunos aspectos que deberían ser pensados y tenidos en cuenta, sin llegar a pensar que constituyen un deber ser. El reto más grande que tiene la regulación jurídica del uso de esta tecnología son sus propias características. Cuando se hace referencia a IA se está haciendo referencia a un número muy heterogéneo de subcampos (dentro de los más conocidos machine learning y deep learning, por ejemplo), que se encuentran además en constante evolución. Estas técnicas no sólo son heterogéneas, sino que también tienen un innumerable número de aplicaciones con los más disímiles y variados efectos, que se encuentran constantemente en evolución; por ende, no resulta factible regular su uso en sentido general sino su aplicación en sectores concretos y en función de sus resultados (U.K, Secretary of State for Science, Innovation and Technology, 2023). En otras palabras, la especialización en el uso.
Además del innumerable número de técnicas y métodos que podrían ser comprendidos dentro del concepto “paraguas” de inteligencia artificial y sus innumerables aplicaciones, sus resultados podrían ser distintos en contextos distintos. Por ello, una de las opciones que se abre paso con mayor énfasis en materia regulatoria es la de considerar un enfoque específico, lo cual permite sopesar el riesgo particular, así como su aplicación frente al costo de perder oportunidades en el caso de no hacerlo. De esta forma el marco legal pudiera responder de forma proporcionada, al propio tiempo que se evita ahogar la innovación (U.K, Secretary of State for Science, Innovation and Technology, 2023). Aunque existe la posibilidad de dejar fuera otros posibles usos y aplicaciones. Sin embargo, un elemento que debe tomarse en consideración en este paradigma regulatorio no es sólo su especialización, sino también la posibilidad de que sea más cercano a las personas su implementación, particularmente en el conocido como AI localism. Este término hace alusión a aquellas medidas que son adoptadas por los responsables locales para abordar el uso de la IA en una ciudad o comunidad.3
Otro aspecto que debe tenerse en cuenta es la relación que debe existir entre las cargas normativas y la fiabilidad de la IA. En principio, cualquier análisis que se realice sobre este tema debería tomar, como punto de partida, la consideración de la carga normativa no como un obstáculo para la adopción de la tecnología, sino como un criterio sine qua non para garantizar la fiabilidad de la tecnológica, al tomar en consideración los derechos humanos que se protegen, el riesgo que se minimiza y la inversión que se debe realizar para cumplir con lo establecido en la carga normativa. La fiabilidad se traduce en inversión y es parte del costo que se debe asumir.
La relación entre innovación y fiabilidad se encuentra, precisamente en cómo se abordan los riesgos que un sistema de IA pueda presentar (U.K, Secretary of State for Science, Innovation and Technology, 2023). Ello se debería traducir, en principio, en un equilibrio entre la regulación de la IA, su aplicación en determinados contextos, y el establecimiento de mecanismos de previsión y protección de los riesgos. En el Pro-innovation approach to AI regulation de Reino Unido, por ejemplo, se consideran como características esenciales de la regulación, el hecho de que este sea favorable a la innovación, proporcionado, fiable, adaptable, claro y colaborativo. Se trata, según el propio documento, de adoptar un enfoque regulador proporcionado y ágil sustentado en el “equilibrio entre aportar claridad y generar confianza pública, al tiempo que se permite el desarrollo, la experimentación y el despliegue” (U.K, Secretary of State for Science, Innovation and Technology, 2023). El problema realmente no es declararlo, sino establecer cuáles mecanismos podrían convertir esta declaración en una realidad, teniendo en cuenta, además, la complejidad de la cadena de valor de la IA, y los obstáculos que tanto las empresas como la propia sociedad podrían presentar para su adopción.
La cadena de valor de la IA es compleja; existen distintos actores que participan con distintos niveles de incidencia. Por ello, la identificación de riesgos, responsabilidad y mecanismos para hacer fiable la IA debe tener en cuenta que pueden encontrarse en los diferentes actores de esta cadena y en los diversos momentos del ciclo de vida de la IA. Los riesgos pueden encontrarse no sólo en los usuarios e implementadores, sino también en los desarrolladores y en los proveedores de la tecnología. Por ejemplo, en el ámbito de la implementación a nivel organizacional, se han identificado cuatro grandes tipos de riesgos tecnológicos inherentes que las organizaciones deberían comprender y gestionar: a) riesgos relacionados con los datos; b) riesgos del modelo y sesgo; c) riesgos de introducción de datos, y d) riesgos para el usuario (PWC, 2023).
Sólo cuando se equilibre el riesgo que el uso de la tecnología representa, así como el rol y responsabilidad de los actores en la cadena de valor de la IA, la carga normativa podría devenir en una cuestión de confianza que podría incluso permitir y fomentar el acceso, adopción y uso de la tecnología de forma fiable. Las cargas no pueden ser las mismas para las empresas que generan o crean la tecnología que para aquellas que las adoptan o las utilizan para generar productos y/o prestar servicios. Esta visión diferenciada en el establecimiento de las cargas no sólo nos permitiría compartir el costo de esta en dependencia del rol del actor en la cadena de valor, sino también coadyuvar a la delimitación de responsabilidad y al conocimiento de las personas de saber que se encuentra protegido contra el riesgo tecnológico. Para ello, resulta importante saber cómo se construyen, gestionan y utilizan los sistemas de IA. Se necesitan establecer mecanismos más efectivos y sencillos que permitan la transparencia de estos sistemas de IA durante todo su ciclo de vida, desde una visión de proceso dinámico que se materializa tanto en su diseño, desarrollo, despliegue y aplicación (Felzmann, Fosch‐Villaronga, Lutz, Tamò‐Larrieux, 2020).
Una mayor transparencia algorítmica podría conllevar a una mayor fiabilidad en el uso de la tecnología, y su adopción por parte de los usuarios y de la sociedad en sentido general. Precisamente, estudio realizado por IBM refiere que, en el ámbito de la administración pública y la sanidad al momento de explorar o desplegar la IA, los profesionales de TI se concentraban en identificar los obstáculos relacionados con la explicabilidad y la confianza (IBM, 2022). Identificando la protección de datos como el centro de la confianza y responsabilidad. Sin embargo, el mismo estudio menciona entre los aspectos de confianza y explicabilidad más importantes para las empresas: mantener la integridad de su marca y la confianza de sus clientes (56 %); cumplir las obligaciones reglamentarias y de conformidad externas (50 %); tener la capacidad de gobernar los datos y la IA a lo largo de todo el ciclo de vida (48 %); tener la capacidad de supervisar los datos y la IA a lo largo de todo el ciclo de vida (48 %); cumplimiento de las obligaciones de información interna (45 %); garantizar que las aplicaciones, y los servicios minimizan los sesgos (43 %)(IBM, 2022).
Una regulación más general o realizada de forma horizontal, en la que el establecimiento de las cargas se establezca a partir de supuestos hipotéticos generales y en la que no exista relación directa entre la tecnología, su aplicación, el riesgo que supone y su fiabilidad, podría devenir ineficaz en un corto período de tiempo, no porque sea una barrera a la innovación, sino por el mero hecho de ser inaplicable o fácilmente eludida. Este pareciera ser el supuesto de la regulación en la Unión Europea, donde la aplicación del Reglamento de IA no sólo deviene compleja, sino que, en algunos casos, parece ser inoperante, mientras que en otros no corresponde con el desarrollo tecnológico (EU, 2024).
Cuando la regulación de la IA se realiza desde cargas generales conforme a supuestos generales de riesgo, suele dejar de lado o -al menos, no tener en cuenta- las especificidades sectoriales que existen. Cada sector regulado tiene especificaciones disímiles que deben ser cumplidas al momento de aplicar la IA a campos determinados, como puede ser salud, seguridad pública, finanzas, productos, etcétera. Esta forma de configurar las cargas normativas generales, sin tener en cuenta el campo de aplicación, se traduce en una sobrerregulación en la que coinciden las disposiciones particulares del sector como las generales de la IA, lo que, a su vez, no sólo provoca que exista un mayor número de cargas, sino también, que suele ser costoso y generar incertidumbre jurídica. Por ello, la formulación de cargas normativas para contrarrestar riesgos de la IA en contextos particulares o específicos parecen ser más viables para analizar su efectividad desde un punto de vista objetivo, y servir como verdaderos mecanismos de protección de derechos y minimización de riesgos; lo cual suele diferir de las declaraciones políticas o recomendaciones éticas que poco -o ningún efecto- de protección tienen en los contextos de aplicación específica.
2. Competitividad y tamaño de las empresas: el impacto de las cargas normativas
En sentido general, cualquier carga normativa debe analizarse y estar relacionada con el resto de los componentes del sistema de innovación; por ello, es importante que el análisis del impacto de la carga sea realizado de forma integral, no sólo teniendo en cuenta su formulación en un contexto particular, sino también, la existencia de otros mecanismos e incentivos que pudieran ser implementados para complementar su aplicación y/o minimizar dicho impacto. La regulación de la IA no está sólo relacionada con la eliminación y/o prevención de los riesgos y la innovación sino también es un tema de competencia. Como reconoció Lina Khan, presidenta de la Comisión Federal de Comercio, existe una obligación por parte de los responsables públicos de impedir con la regulación de la IA que se repita la experiencia de la Web 2.0, que se consolidó en el dominio de un puñado de empresas que desarrollaron estrategias agresivas para adquirir o bloquear empresas que amenazaban su posición. “Lo que empezó como un revolucionario conjunto de tecnologías acabó concentrando un enorme poder privado sobre servicios clave y bloqueando modelos de negocio que tienen un coste extraordinario para nuestra privacidad y seguridad” (Khan, 2023).
No se trata sólo de si se protegen o no derechos, sino de que se hace necesario también, como afirma la propia Khan, mantener los mercados abiertos, justos y competitivos sin tolerar modelos de negocio o prácticas que impliquen la explotación masiva de sus usuarios. Establecer cargas normativas desequilibrada-s o extremadamente costosas pueden provocar el efecto deseado al que se provoca, no porque limiten la innovación, sino porque concentren está en determinados actores que tengan el poder económico y tecnológico necesario para cumplir con los estándares normativos implementado. El establecimiento de cargas normativas muy estrictas traería consigo el establecimiento de barreras importantes que impactarían en el acceso a los datos, la concentración de las empresas y pérdida de posibilidades de competencia efectiva.
Por ello, la formulación y aplicación de estas cargas no sólo debe comprender el fomento de la innovación, la protección de los derechos humanos y la disminución de los riesgos asociados a la tecnología, sino también debe ser capaz de promover la competencia, evitar prácticas desleales o engañosas, y evitar, en la medida de lo posible, que se consolide el dominio del mercado de las grandes empresas tecnológicas. Esta concentración puede tener lugar en cualquier momento del ciclo de vida de la tecnología; por ejemplo, es lo que acontece con el acceso a los datos que son utilizados para el entrenamiento de los sistemas de IA.
La consolidación del dominio del mercado pasa precisamente por el acceso a los datos, y los derechos de propiedad intelectual están estrechamente relacionados con este acceso, ya sea por la protección de las obras que se utilizan en el entrenamiento de los datos, como por la protección de las bases de datos que contienen datos, estén o no protegidos por los derechos de autor. En este contexto, la realidad es que “Un puñado de poderosas empresas controlan las materias primas necesarias de las que dependen las start-ups y otras empresas para desarrollar y desplegar herramientas de Inteligencia Artificial” (Khan, 2023). A esto se le suma el poder de las grandes empresas tecnológicas de los servicios en la nube e infraestructura, que le permiten “excluir o discriminar a sus rivales en sentido descendente, eligiendo ganadores y perdedores de manera que afiancen aún más su dominio”. Las decisiones que se adopten sobre el establecimiento de cargas normativas en áreas como acceso a datos e infraestructura inciden, necesariamente, en el fomento de una competencia justa y abierta o en la promoción de la monopolización, discriminación de precios, así como el desarrollo de mecanismos desleales de competencia, entre otros.
Cargas muy estrictas traerían consigo el establecimiento de barreras importantes que impactarían en el acceso a los datos, la concentración de las empresas y pérdida de posibilidades de competencia efectiva. No puede desconocerse que existen brechas a nivel empresarial, sectorial y regional en cuanto al desarrollo de la IA, la innovación y sus aplicaciones. Estas brechas inciden en la desigualdad de los desarrollos, pero también, en su adopción e implementación. Existe el riesgo de que con la implementación de las cargas normativas las brechas en relación con esta tecnología se hagan mayores, existiendo un grupo de empresas que no puedan cumplir con los estándares normativos que se impongan, lo que a su vez pueda devenir en una concentración de unas pocas empresas.
En principio, un aumento del tamaño del mercado debería tener un efecto positivo sobre la innovación (Aghion, Bergeaud y Van Reenen, 2023). Por ello, se debería fomentar y potenciar una mayor participación de empresas y sectores en el mercado de la IA; la configuración e implementación de las cargas normativas debería ser realizada a partir del equilibrio entre la innovación y el tamaño de las empresas. Sin embargo, no parece ser que la regulación legal tenga en cuenta estas diferencias a la hora imponer cargas y obligaciones entre los diferentes tipos de empresas.
Por último, es trascendente delimitar dónde se está apreciando la innovación o, al menos, de qué innovación es a la que se hace referencia. Los retos en esta materia son distintos en relación con quienes desarrollan, comercializan, usan y/o distribuyen la tecnología. Dichos retos no están relacionados únicamente con el desarrollo y adquisición de la IA, sino también con las capacidades, infraestructura, requerimientos de seguridad y cumplimiento de marcos normativos. Comprender a qué denominamos innovación, su carácter, así como el contexto en el cual tendrá lugar, nos permitirá delimitar el impacto de la carga en materia de innovación. Las empresas que desarrollan la tecnología y las que las implementan y aplican no tienen iguales responsabilidades ni los mismos factores que deben vencer para poder lograr resultados innovadores. El riesgo de la tecnología tampoco es el mismo, no es igual la empresa que crea modelos de IA a aquella que adapta estos modelos pre entrenados, utilizando sus propios datos o de terceros. Tampoco será igual aquella que aplica el IA a contextos determinados sin intervenir directa o indirectamente en el diseño, desarrollo o adaptación del sistema, puesto que sólo ha pagado por una licencia de uso.
A diferencia de lo que suele pensarse, y a lo que es práctica en el derecho, no es viable poder aplicar soluciones inequívocas y uniformes en cada ordenamiento jurídico. La complejidad del objeto de la regulación y de los contextos de aplicación demandan pensar y replantear soluciones ágiles y sencillas en distintos ámbitos de aplicación y en diversos niveles, institucional, estatal, regional y global. Estas soluciones no deben ser excluyentes, sino complementarias.
IV. Conclusiones
A partir de lo anteriormente expuesto, pudiéramos arribar a algunas conclusiones relacionadas con este tema. Por un lado, el principal reto que debe ser tenido en cuenta al momento de abordar la cuestión de la regulación jurídica de la IA es, sin duda, el hecho de que no es una tecnología única, sino un grupo heterogéneo de tecnologías, con distintos grados o niveles de autonomía, complejidad y efectos diversos, según los contextos en los que se apliquen. Esto es determinante para poder establecer cargas normativas. Por otro lado, y a diferencia de cualquier norma jurídica, que busca, en principio, estabilidad y un cierto nivel de inmutabilidad, la IA como tecnología es muy dinámica, tanto en relación con su desarrollo, como campos de aplicación. A dicha complejidad se suman los diversos agentes que intervienen en su ciclo de vida, es decir, desde su diseño, desarrollo, implementación y uso.
Al tener en cuenta las limitaciones anteriores, y si se toma como punto de partida que el establecimiento de cargas normativas debe ser realizado conforme a la tecnología y campo de aplicación, se propone que las cargas sean siempre configuradas de forma particular, al tener en cuenta cuál o cuáles son los intereses protegidos con su establecimiento, tecnología aplicable, riesgos de la aplicación y contextos. La configuración de cargas generales basadas en supuestos generales puede provocar mayor inseguridad jurídica, concentración de mercado y devenir en inoperantes e inaplicables.
Cada carga normativa que se establezca debe ser valorada en su contexto, de manera particular, y delimitar su impacto en la innovación, la posibilidad de establecer mecanismos particulares que las complementen o, al menos, coadyuven a minimizar su impacto, así como tener en cuenta la finalidad que se persigue con su implementación, interés jurídico protegido, así como el impacto diferenciado en cada uno de los agentes de la cadena de valor de la IA.










nova página do texto(beta)



