SciELO - Scientific Electronic Library Online

 
vol.23 número1La efectividad de las cláusulas antiabuso en el Código Fiscal de la FederaciónMarketing digital versus investigación sobre lujo: un análisis bibliométrico índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


The Anáhuac journal

versão On-line ISSN 2683-2690versão impressa ISSN 1405-8448

The Anáhuac j. vol.23 no.1 Ciudad de México Jan./Jun. 2023  Epub 28-Ago-2023

https://doi.org/10.36105/theanahuacjour.2023v23n1.04 

Artículos

Inteligencia artificial y tributación: el debate sobre la personalidad jurídica y la responsabilidad

Artificial intelligence and taxation: the debate on legal personality and liability

Sonia Elizabeth Ramos Medina*  ** 
http://orcid.org/0000-0003-0760-327X

*Universidad Autónoma de Sinaloa, México

**Universidad de Salamanca, España


Resumen

Este artículo tiene como objetivo analizar los debates sobre tributación e inteligencia artificial, identificando la problemática asociada con la personalidad jurídica y la responsabilidad. Se plantea que, a pesar de los esfuerzos realizados en la última década, no se ha articulado una base jurídica sólida que responda a los requerimientos de la cuarta revolución industrial y sus externalidades. A través de un examen analítico-deductivo se muestra que, actualmente, no es posible introducir este tipo de impuestos para garantizar la tributación efectiva de los beneficiarios finales de ingresos que provengan del uso de inteligencia artificial.

Palabras clave: derecho tributario; impuesto a los robots; inteligencia artificial; ingresos personales; externalidades

Códigos JEL: K34; D31; D62

Abstract

The purpose of this article is to analyze the debates on taxation and artificial intelligence, identifying the problems associated with legal personality and liability. It is argued that, despite the efforts made in the last decade, a solid legal basis that responds to the requirements of the fourth industrial revolution and its externalities has not been articulated. Through an analytical-deductive examination it is shown that, at present, it is not possible to introduce this type of taxation to ensure effective taxation of the final beneficiaries of income from the use of artificial intelligence.

Keywords: Tax law; robot tax; artificial intelligence; personal income; externalities

JEL Classification: K34; D31; D62

1. Introducción

El uso generalizado de la inteligencia artificial (IA) y su introducción simultánea en diferentes sectores de la economía trae consigo nuevas realidades. Estas conducen a un replanteamiento o actualización de los ordenamientos tributarios, y desafíos para la tributación efectiva de las nuevas expresiones de riqueza, modelos de negocio y puestos de trabajo.

Los avances tecnológicos de los últimos años, incluida la robótica, el aprendizaje automático, el procesamiento de lenguaje natural y otras tecnologías informáticas avanzadas han promovido reflexiones enfocadas en el futuro de la vida social y económica. Estas se incluyen en la agenda de los gobiernos como temas prioritarios para la construcción de futuras políticas.

La IA es un fenómeno característico de la cuarta revolución industrial, con efectos económicos profundos relacionados estrechamente con la robótica y el aprendizaje automático (Ooi y Goh, 2022).

Lo que ahora se discute es el impacto socioeconómico de la introducción de la IA, cuestionando las diferencias entre este fenómeno disruptivo y las revoluciones industriales anteriores. El creciente interés por la IA ha provocado reacciones divergentes que prevén escenarios entusiastas: aumento de los ingresos, mejora en la calidad de vida y generación de nuevos puestos de trabajo que sustituya a los automatizados. De manera semejante, genera inquietudes: pérdida de control sobre los procesos de toma de decisiones, pérdida de recaudación y niveles masivos de desempleo.

En este sentido, el papel del gobierno y la regulación son esenciales para corregir externalidades, que en un primer momento requieren de una reformulación de los sistemas de educación y desarrollo de habilidades, del sistema de seguridad social, de los mecanismos de redistribución, por mencionar algunos. También se prevé que los avances tecnológicos pueden tener un impacto directo sobre los sistemas tributarios. Ello demandaría el reequilibrio de los marcos normativos para proteger a los grupos vulnerables, evitando el desempleo masivo y la exacerbación de las desigualdades de riqueza y oportunidades.

Bajo estas premisas, el presente artículo tiene como objetivo analizar los argumentos de las propuestas presentadas en casos concretos del ámbito internacional para gravar la inteligencia artificial o los robots (como la parte material), identificando la problemática asociada con la responsabilidad y la personalidad jurídica. Además, explora los desafíos a los que se enfrenta el sistema tributario a partir de la generalización y el uso de la IA.

El principal argumento es que, a pesar de los esfuerzos realizados en la última década, no se ha articulado una base jurídica sólida que responda a los requerimientos de la cuarta revolución industrial y sus externalidades.

A partir de un ejercicio analítico-deductivo, se examina la aportación del derecho tributario y su papel compensatorio para paliar los desequilibrios provocados en el orden económico y social. Cabe señalar que el elemento central reside en la incapacidad de dotar tanto de personalidad como responsabilidad jurídica a la IA y sus derivados.

El análisis muestra que, pese a no estar establecido, para la tributación resultaría indispensable dotar a la IA de personalidad jurídica autónoma, además de la determinación de responsabilidad en relación con el desarrollo tecnológico.

El texto está organizado en dos secciones. La primera ofrece elementos teóricos sobre la definición de la IA, esbozando características e identificando las diferencias con los robots. La segunda describe los desafíos que plantea la IA a los sistemas tributarios, analiza algunas propuestas en términos de impuesto sobre la renta (ISR) y recaudación asociada como los impuestos sobre nóminas (ISN) o contribuciones de seguridad social. También explora cómo están vinculados los conceptos de responsabilidad y personalidad jurídica con la tributación. Por último, se presentan las conclusiones.

2. La inteligencia artificial (IA) y sus características

Sin un afán exhaustivo, se esbozan algunas nociones que ayuden a clarificar el concepto de IA. Es una definición de amplio espectro que ha creado debates controvertidos, articulados en abundante literatura, sin llegar a un consenso sobre los límites de la definición de inteligencia.

Por tanto, al cuestionarnos sobre el concepto de IA es probable que no tengamos una sola respuesta. Los objetivos de los investigadores implicados influyen en gran medida en lo que es la IA. Cualquier definición va a depender de los métodos utilizados en la edificación de modelos, así como de sus resultados. Es probable que las dificultades asociadas a la definición de IA se deban precisamente a que su desarrollo no ha concluido (Schank, 1987).

Las diferentes técnicas estadísticas relacionadas con el concepto general de IA han emergido con el paso del tiempo y a partir de campos de investigación como la propia estadística, la informática y la psicología cognitiva. Por tanto, los investigadores tienden a hacer distinciones entre términos como IA y aprendizaje automático, empleándolos para referirse a ideas relacionadas pero diferentes (U.K. Government Office for Science, 2016).

Dado que la definición de IA no es única y sigue siendo discutida, además de la incapacidad de la ciencia para proporcionar una definición de «inteligencia» que todos acepten, es necesario hacer un ejercicio que no solo aborde el concepto, sino sus límites y características. Así, posteriormente, se analizarán los retos socioeconómicos que plantea (Miailhe y Hodes, 2017).

¿Qué es la IA?

A pesar de la falta de definición en el alcance de la IA, sus objetivos principales se refieren a la construcción de una máquina inteligente y a la indagación sobre su propia naturaleza.

Los elementos generalmente aceptados en las definiciones modernas de IA consideran el diseño de «agentes inteligentes» que perciben un entorno y son capaces de tomar decisiones. Esta también se entiende como «la disciplina de crear algoritmos que pueden aprender y razonar» (OECD, 2018).

Canhoto y Clear (2020) definen la IA como un sistema edificado sobre componentes tecnológicos con diversos grados de autonomía que recoge, procesa y actúa sobre los datos, de tal forma que reproduce el intelecto humano, llegando incluso a superarlo. Estas afirmaciones revalidan la idea de que un sistema con IA puede llevar a cabo tareas típicas de la inteligencia humana: percepción, aprendizaje, creatividad, comunicación, toma de decisiones, entre otras.

El Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea define la IA como «sistemas que muestran un comportamiento inteligente analizando su entorno y emprendiendo acciones ―con cierto grado de autonomía― para alcanzar objetivos específicos» (EC, 2019a).

Las definiciones mencionadas son similares a la de la Organización para la Cooperación y el Desarrollo Económicos (OECD, por sus siglas en inglés), que además fue aceptada por 42 países:

Sistema basado en una máquina que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía. Además, son «máquinas que realizan funciones cognitivas similares a las humanas» (OECD, 2019a).

La IA es capaz de manejar cantidades masivas de datos, estos se introducen en modelos de aprendizaje automático: aquellos que pueden «mejorarse a sí mismos», sin necesidad de que, para tal propósito, intervenga un humano (OECD, 2019b).

Para aumentar la capacidad de análisis y la toma de decisiones de las máquinas, la IA recurre a la automatización para reproducir el intelecto humano. Dentro de las ventajas de ello, encontramos una oportunidad sin precedentes para facilitar la complejidad de la toma de decisiones, a la vez que se reduce el tiempo para completar tareas de manera eficiente y efectiva (Huang, 2018).

Con el paso del tiempo, han surgido varias definiciones que relacionan a la IA con términos como big data, minería de datos, cloud computing, aprendizaje automático y profundo, visión artificial, procesamiento de lenguaje natural (PLN) y el razonamiento autónomo. Esto tiene su explicación si consideramos que la IA se refiere a sistemas de información inspirados en «sistemas biológicos», por lo que se acepta como un término general que involucra varias tecnologías (Nishith Desai Associates, 2018).

La aplicación de reglas que conectan entradas y salidas detecta de manera automática patrones a partir de una serie de datos. Adaptarse a los cambios de su entorno y tomar decisiones en entornos inciertos son capacidades del aprendizaje automático, la base de las soluciones de la IA. De acuerdo con la problemática asociada, hay varios tipos de aprendizaje automático y se pueden utilizar técnicas de aprendizaje: predictivo o supervisado, descriptivo o no supervisado, semisupervisado y de refuerzo (Murphy, 2012).

Especificar el modelo para los datos basándose en el conocimiento teórico previo es una característica del aprendizaje supervisado. Es decir, al utilizar un conjunto de datos de entrenamiento, identificará patrones para estimar la salida de la función y creará reglas que puedan aplicarse a casos futuros. El aprendizaje no supervisado, en cambio, no necesita una colección de datos ya clasificados. Su objetivo es identificar patrones significativos teniendo en cuenta la distribución y composición de los datos y formulando reglas sobre cómo podrían estar conectados.

El aprendizaje semisupervisado utiliza datos con y sin etiquetas. Su objetivo es examinar la información contenida en los datos sin etiquetar para crear un modelo de predicción con un rendimiento superior al que sólo utiliza datos etiquetados (Xu et al., 2010). El aprendizaje automático por refuerzo se utiliza para el entrenamiento de modelos que toman una secuencia de decisiones. El enfoque se basa en la prueba y el error para identificar una solución al problema. El agente adquiere la capacidad de cumplir un objetivo y tomar decisiones en un entorno imprevisible (López Boada et al., 2005).

Como lo hemos mencionado anteriormente, aunque la elección del tipo de algoritmo depende del problema o la circunstancia que haya que resolver, en la práctica, las elecciones se determinan en función de otros factores, como la capacidad de procesamiento del equipo disponible, la compatibilidad de los lenguajes de programación, la calidad y variabilidad del conjunto de datos, entre otros (Skiena, 2020; Calvard, 2016).

Las diferencias entre IA y robots

Hay una tendencia a equiparar la IA con robots, por lo que resulta útil analizar de manera sucinta sus fronteras. Ambos términos refieren a «máquinas», sin embargo, la robótica es predominantemente un objeto material que opera en los límites de la ingeniería eléctrica, mecánica y ciencias informáticas. La IA, por su parte, es predominantemente inmaterial y virtual en sus manifestaciones (Miailhe y Hodes, 2017).

A pesar de que los sistemas de automatización están estrechamente relacionados con la IA, son por completo diferentes. La IA es más que la simple automatización de los procesos; implica (en algún grado) establecer un objetivo y dejar que el programa informático encuentre el camino hacia este (U.K. Government Office for Science, 2016).

El uso de la IA no implica necesariamente un robot. Ejemplos actuales incluyen los servicios de traducción y los motores de búsqueda que clasifican los sitios web, que podrían considerarse una especie de IA, pero no un robot. En una máquina autónoma, la inteligencia y las funciones cognitivas se refieren a la IA; por otro lado, las funciones motoras se refieren a la robótica. Sin embargo, la frontera entre funciones cognitivas y motoras es permeable, para asegurar la movilidad se requiere detección y conocimiento del entorno. «Los símbolos más populares de la convergencia entre la IA y la robótica son los coches autodirigidos y los robots humanoides» (Miailhe y Hodes, 2017).

Sin embargo, al referirnos a los robots, Fernández Amor (2018) señala que es posible identificar una diversidad de especialidades: industriales, agrícolas, espaciales, submarinas, entre otras. En este sentido, es probable que la definición no abarque todos los escenarios posibles y, por tanto, sus consecuencias jurídicas son diferentes, principalmente al considerar su función, finalidad o incidencia. Surgen cuestiones como si debe recibir el mismo trato económico un robot que trabaja en una cadena de montaje que otro que ayuda a realizar investigaciones médicas, o si debe estar sujeto a los mismos impuestos un robot que sirve para la limpieza doméstica que uno de transporte de gran capacidad (Fernández Amor, 2018).

Una vez presentados los términos relacionados con IA y en lugar de extendernos con la discusión académica sobre la terminología, para efectos de este artículo se ha optado por utilizar el término general de inteligencia artificial.

3. IA, el debate sobre la responsabilidad y la personalidad jurídica

Como característica de la cuarta revolución industrial, la introducción de la IA requiere un abordaje sistemático de los desafíos y el desarrollo de regulación sobre los efectos económicos, sin sofocar la innovación. La IA ha creado un vacío legal en diversos sectores impactados por este cambio tecnológico sin precedentes (Turner, 2019).

Este escenario ha provocado que legisladores a nivel global inicien una intensa actividad sobre la responsabilidad, la personalidad jurídica y otros retos que plantean las nuevas tecnologías. La responsabilidad es la razón principal de los debates sobre si la IA debe ser considerada personal, por ejemplo, en situaciones tales como si un coche autónomo causa daño a un peatón, o un robot causa daños a un humano en defensa propia (Buyers, 2018). Estos acontecimientos dieron lugar al inicio de discusiones sobre quién debe ser responsable, porque la IA no es naturalmente responsable, es decir, no puede asignársele responsabilidad jurídica.

Cada agente de IA tiene diferentes niveles de autonomía, lo que dificulta proponer soluciones respecto a la ley de responsabilidad. En este sentido, surgen cuestionamientos sobre si las acciones o funciones desarrolladas son resultado del diseño o programación previos, o si en todo caso han mejorado o evolucionado en función de sus características. Por tanto, en términos de derecho ¿podría asignarse responsabilidad a la persona que dirige las acciones de un agente de IA? ¿o de manera parcial?

Teubner (2018) prevé tres nuevas formas de estatus legal de responsabilidad para los agentes de IA: 1) Autonomía: atribuyendo una personalidad jurídica limitada, las decisiones autónomas deberían ser legalmente vinculantes con consecuencias de responsabilidad contractual y extracontractual; 2) Asociación: derivado de la estrecha cooperación entre las personas y los agentes de IA, reconocida como objeto jurídico de atribución de acciones, derechos y obligaciones; y 3) Red: sistemas informáticos vinculados estrechamente con otros.

Esta idea plantea una reflexión sobre la importancia de mantener la relación entre la IA y su creador para el establecimiento de responsabilidades o, incluso, sanciones. En relación con la responsabilidad, la normatividad actual no puede proporcionar un marco adecuado para los avances tecnológicos debido a la falta de personalidad, pero también a la incapacidad de predecir el comportamiento de un robot (Rachum-Twaig, 2020). Respecto a la personalidad, a pesar de que puedan ser inteligentes, tratar a los ordenadores como personas deshumanizaría el mundo (Eidenmüller, 2019).

Otro argumento sostiene que los fundamentos del derecho de responsabilidad extracontractual, que exigen la previsión antes de imponer la responsabilidad, están siendo violados por falta de previsibilidad (Rachum-Twaig, 2020).

Sin embargo, también se han producido errores en la regulación de responsabilidad (Shavell, 1984), principalmente porque los regímenes amplios, diseñados para manejar los daños causados por los seres humanos, no son adecuados para compensar los daños ocasionados por el uso de la IA a través de los robots (Borghetti, 2019).

Para la introducción de la IA en contextos tan diversos, habría que aplicar sistemas de responsabilidad distintos para cada sector (EC, 2019b). El mayor reto de la asignación de responsabilidad es averiguar cómo sancionar a un agente de IA, puesto que hasta el momento no es posible imponer sanciones ni de forma legal ni efectiva (Nishith Desai Associates, 2018).

4. El desafío de la IA a los sistemas tributarios

El ritmo acelerado de la introducción de la automatización, las máquinas y dispositivos interconectados, adaptables y con capacidad de autoaprendizaje causó preocupaciones en la transición dramática de la fuerza laboral y su futuro, en casi todos los sectores productivos, incluido el de servicios (Brynjolfsson y McAfee, 2014; Dobbs et al., 2015).

Respecto a la incorporación de los robots en los procesos productivos, se han generado opiniones divergentes. Por un lado, se argumenta que los avances tecnológicos impulsan la productividad, estimulan el crecimiento económico y crean nuevas oportunidades de trabajo que, eventualmente, compensarán la pérdida de empleos tradicionales (Manyika et al., 2017; Stevens, 2016) con el surgimiento de nuevos perfiles laborales que se caracterizan por tener un conjunto nuevo de competencias (Hyun Park et al., 2017). Por otro lado, se sostiene que esta nueva realidad conduce a una interrupción del mercado laboral: se eliminaría un número considerable de puestos de trabajo, en particular los de menor cualificación (WEF, 2018; Korinek y Stiglitz, 2018).

Esta circunstancia produjo un llamamiento global para gravar a los robots, recurriendo al papel compensatorio que podrían asumir los sistemas tributarios con la finalidad de paliar los efectos fiscales (Álvarez Martínez, 2021) y los desequilibrios ocasionados en el orden económico y social (Grau Ruiz, 2017).

Según estimaciones de la OECD (2018), más de 60 millones de empleados corren el riesgo de ser sustituidos por robots y 14% del empleo en los países industrializados es altamente automatizable. Desde la perspectiva del gobierno nacional, se prevé una reducción de los ingresos por impuestos sobre los salarios y las nóminas, un aumento de la desigualdad y una perturbación del mercado laboral, planteando así un escenario con desafíos fiscales importantes.

Por un lado, en las estructuras actuales de los sistemas fiscales, la recaudación asociada a salarios percibidos representa uno de los más robustos, por lo que la pérdida de esta importante porción de ingresos procedentes de gravar el trabajo constituye motivo de preocupación. Un descenso en el número y el salario de los trabajadores podría repercutir en la capacidad financiera del gobierno.

Por otro lado, el gobierno se vería obligado a asumir los gastos asociados a la puesta en marcha de programas de asistencia para las personas afectadas negativamente por la automatización (programas de recapacitación, prestaciones por desempleo). Además, también habría que considerar el impacto sobre las contribuciones de seguridad social a través de los impuestos sobre nómina (ISN).

El sistema de impuesto sobre la renta (ISR) va detrás en la evolución, basándose en principios desarrollados en el siglo XX, con una predilección por la imposición de las rentas del trabajo en lugar de las de capital (Fernández Amor, 2018; Durán-Cabré, 2021). Sin embargo, nuestra realidad exige plantear el sometimiento a la tributación de la riqueza que produce la IA y el uso de robots (Grau Ruiz, 2017).

Actualmente existen algunas disparidades de la normativa fiscal que favorecen la inclusión de los robots en la actividad económica sobre las personas. Mientras la recaudación por ISR sigue consolidándose, el impuesto sobre sociedades (IS) se ubica en los niveles más bajos debido, principalmente, a los beneficios empresariales, puesto que los ingresos procedentes de este impuesto suelen gravarse sobre una base neta a diferencia de los salarios que lo hacen sobre una base bruta.

Algunas razones por las que los ingresos tributan a una tasa impositiva efectiva más baja son las numerosas deducciones, la depreciación acelerada y las exenciones fiscales a la inversión en investigación, desarrollo e innovación (I+D+i). Los ingresos procedentes de las ganancias de capital se benefician de una tasa impositiva preferencial respecto a las rentas sobre el trabajo.

Las amortizaciones o deducciones de la inversión en I+D+i, así como los incentivos para la contratación de trabajadores, podrían resultar decisivos para el establecimiento de una normativa fiscal de la que alguna de las partes obtenga provecho. Así, el propietario de un robot podría elegir entre los beneficios fiscales que ambos escenarios plantean.

Dado que la incorporación de un robot en la cadena productiva se traduce en una transformación de los recursos de la empresa, este podría concebirse como una inversión. Mientras que la remuneración que conlleva la contratación de un empleado podría entenderse como un gasto y no como una inversión.

Sobre este argumento Sánchez-Archidona (2021: 29-30) señala:

En el marco del Impuesto sobre Sociedades un robot constituye una inversión fiscalmente incentivada mediante un sistema de deducciones flexible, que permite la planificación empresarial, mientras que la contratación de un trabajador supone un coste que siempre disminuirá el beneficio económico, que no goza a su vez del sistema de incentivos de las amortizaciones y no permite en esa medida la planificación empresarial a medio y largo plazo, y a lo que hay que añadir los costes de, entre otros, cotizaciones a la Seguridad Social, que no revierten en un aumento directo o indirecto del beneficio empresarial.

Ante esta circunstancia se plantean dos escenarios posibles. Por un lado, recorte en el número de empleados y su consecuente reducción en la cantidad de ingresos laborales, lo cual produciría una reestructura del mercado laboral que impulsaría la reducción de la base imponible. Por otro lado, aumento de la productividad y de la expansión económica ocasionada por la automatización, lo cual generaría un contexto propicio para que las ganancias puedan contabilizarse como rentas provenientes de capital y estar sujetas a menores obligaciones fiscales.

Si ambos escenarios se produjeran, los gobiernos tendrían dificultades para mantener los niveles de gasto público, ejerciendo presión sobre los presupuestos y, quizás, ampliando la brecha fiscal (Abbott y Bogenschneider, 2018). Además, las demandas de gasto en asistencia para personas desempleadas pueden aumentar la presión sobre el gobierno.

Por lo tanto, es claro que, ante los cambios significativos respecto a las rentas del trabajo y del capital, es imperativo replantear el sistema fiscal actual, en particular la tributación de la riqueza, de modo que la contribución de las rentas de capital sea mayor que las de trabajo.

Retrocediendo en el tiempo, en los años noventa se popularizó el uso de las tecnologías de la información en las relaciones económicas, surgiendo así cuestionamientos sobre la pertinencia de gravar las transacciones realizadas a través de la red, buscando mecanismos para hacerlo posible. Entonces surgieron algunas propuestas para la creación de impuestos que gravaran el uso de internet o las transacciones comerciales en línea. La formulación de este nuevo tributo consideró el acceso a internet a través de un módem, el consumo de teléfono y su tiempo de conexión o bien, sobre la intensidad de transmisión medida a través de los bits transferidos (Jabalera, 2020).

Avanzando en el tiempo, a principios de 2017 se popularizó la idea de gravar el uso de robots, o que estos sustituyeran la mano de obra humana. Los intentos por estructurar una solución comenzaron por discutir la concesión de la personalidad jurídica de los robots y la introducción de un gravamen que garantizara la igualdad de condiciones en cuanto a su fiscalidad y la de los trabajadores humanos.

Para facilitar su interacción con otras entidades, principalmente de un régimen de responsabilidad civil adecuado para la IA, se han realizado vastos estudios jurídicos (Lohsse et al.; Hubbard, 2014; Leenes y Lucivero, 2014; Asaro, 2011).

Se han presentado propuestas para que los sistemas de IA, tanto físicos como de software, sean sujetos de derecho. En esta línea de investigación se identifican a quienes estudian los algoritmos (Dahiyat, 2011); otros proyectan sus estudios en cuestiones relacionadas con jurisdicciones (Palmerini y Bertolini, 2016).

Sin embargo, hay una preferencia por los estudios de la responsabilidad objetiva para los algoritmos y los robots, dentro de la que se incluye responsabilidad por vehículos motorizados. Pensando particularmente en los medios de transporte autónomo, se plantean cuestiones relacionadas con la responsabilidad de las partes implicadas (Delvaux, 2016; De Bruin, 2016; Lohmann, 2016).

El grado de incertidumbre que rodea al riesgo de responsabilidad se reduciría en gran medida con regulaciones ex ante y medidas preventivas de seguridad, que en general fomentarían la investigación y el desarrollo.

¿Cómo se relaciona la intervención regulatoria sobre responsabilidad y tributación? Se argumenta que el vínculo entre la perspectiva jurídica y económica (particularmente la tributaria) representa la mejor opción para gobernar los sistemas de IA.

Se prevé la introducción de impuestos correctivos ex ante para la compensación de los daños previstos. Por un lado, se asume que habrá posibles daños (externalidades negativas) interiorizados en la norma y que estos impuestos promoverían niveles de daño esperado mucho menores que los de daño real, restaurando los niveles óptimos de actividad y llamando al compromiso de la IA (Kovac, 2022).

A partir de esta idea, una línea de investigación cuestiona que el gravamen previo conduciría a que los creadores de riesgo, con medios limitados, opten por pagar un impuesto debido a que no pueden pagar por un daño que aún no se ha producido. Por tanto, los incentivos para reducir el riesgo respecto al sistema de responsabilidad son realmente bajos (Shavell, 2007).

Otra de las propuestas considera el establecimiento de un estatus especial de persona electrónica para la IA, con el objetivo de proveer personalidad jurídica y responsabilidad por posibles daños. Los argumentos en contra sostienen que esta figura socavaría los esfuerzos de los incentivos de las personas jurídicas dedicadas a la IA para reducir los riesgos asociados. De esta manera, el establecimiento de la personalidad electrónica se considera un amplificador de la problemática inherente (Kovac, 2022).

Los argumentos a favor sostienen que es posible la creación de un estatuto jurídico específico para los robots que los considere como personas electrónicas, responsables de reparar los daños ocasionados, y también se refiere a la IA sosteniendo que la personalidad electrónica es congruente con la toma de decisiones autónoma o con la actuación con terceros de forma independiente. Así lo señala el inciso f) del art. 59 de la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica (European Parliament, 2015).

Además, sostiene que no hay razones para restringir la atribución de personalidad jurídica a los seres humanos (Koops et al., 2010; Teubner, 2006; Wright, 2001).

Esta línea de razonamiento se entrelaza con la idea de considerar a la IA materializada en un robot como un factor de trabajo en la producción que económicamente podría intuirse equivalente a un empleado humano. Aunque fuese reconocida la personalidad por los ordenamientos jurídicos, eso no implica que deban ser sujetos pasivos. De manera generalizada, se refuta la idea de que los impuestos (imposición directa sobre los beneficios, imposición indirecta sobre el volumen de negocio) justifiquen la concesión de personalidad jurídica o responsabilidad limitada (Oberson, 2018; Harris, 2013). La capacidad jurídica (poseer derechos, activos, incurrir en deuda) es la condición previa necesaria para el reconocimiento del sujeto pasivo.

Los ISR, por ejemplo, son impuestos directos con objetivos redistributivos, soportados por el contribuyente y recaudados en función de su capacidad de pago (Beraldo et al., 2022). Como consecuencia de la personalidad jurídica, la capacidad de pago es una razón necesaria, pero no suficiente, para la tributación. La obligación tributaria indica que el sujeto pasivo (que soporta la carga fiscal) renuncie al consumo personal a cambio de una contribución justa al erario.

Con base en lo argumentado hasta ahora, no se sostiene la idea de que un robot pueda ser un sujeto pasivo a efectos del ISR. En otras palabras, no podemos asumir que los robots generarán sus propios ingresos y, por tanto, no puede considerarse como un contribuyente a efectos del ISR o ISN. Sobre la base del principio de capacidad de pago, los robots no tienen necesidades personales definidas y, en consecuencia, no puede justificarse su obligación de pagar este impuesto. Esta situación podría conducir a que este impuesto recayera en los propietarios de los robots.

5. Conclusiones

Las propuestas globales sobre impuestos que graven a la IA y a los robots ofrecen nuevas e importantes perspectivas sobre las dificultades que plantea la cuarta revolución industrial. De entre los efectos esperados, la pérdida masiva de puestos de trabajo es la más alarmante; se prevé una reducción en la participación del trabajo sobre la renta nacional y un aumento de capital.

El escenario actual propicia el replanteamiento de redistribución de ingresos, principalmente con el surgimiento de ayudas sociales o programas de recapacitación para los empleados cuyas cualificaciones se han vuelto obsoletas con las alteraciones del mercado laboral. Una de las preocupaciones más apremiantes del gobierno es paliar el descenso de los ingresos por ISR y nóminas que se prevé ante la pérdida de un número significativo de puestos de trabajo. Las tensiones sobre la necesidad urgente de reformar se han visto exacerbadas por el actual entorno de rápida introducción de la IA.

Se han analizado los argumentos para tratar a la IA, a los robots, como sujetos pasivos a efectos del ISR. Encontramos que el principio de justicia fiscal en el que se basa la imposición progresiva advierte que, al no tener necesidades personales autodefinidas, los robots no podrán acreditar la capacidad de pago.

Por otro lado, los legisladores se enfrentan a un desafío sin precedentes al intentar regular la IA sin disuadir su uso y aplicación. Sin embargo, la base sobre la que se cimienta este fenómeno no se ha desarrollado suficientemente, a pesar de los esfuerzos de la última década por consolidar esta regulación.

Respecto a la responsabilidad y los posibles daños ocasionados, se prevé la introducción de impuestos correctivos ex ante para la compensación de los daños previstos. Sin embargo, se estudia que este gravamen no sea un incentivo suficiente para modificar el comportamiento de los creadores de riesgo.

Finalmente, a pesar de los diferentes regímenes para gravar los ingresos: según deriven del trabajo, las ganancias comerciales, los de inversión o ganancias de capital, los ingresos derivados del trabajo soportan la carga impositiva más alta. En la realidad actual, no es posible mantener una estructura fiscal que dependa en gran medida de los ingresos de los trabajadores. Para garantizar que todas las rentas soporten una carga fiscal similar, la estrategia tendrá que ser más estricta cuando se aplique a otras fuentes de ingresos, como los beneficios empresariales, las rentas de inversión y las ganancias de capital.

Referencias

Abbott, R. y Bogenschneider, B. (2018). «Should robots pay taxes: Tax policy in the age of automation». Harvard Law & Policy Review, 12, 145. [ Links ]

Álvarez Martínez, J. (2021). «Robótica y fiscalidad: unas breves consideraciones». Quincena fiscal, 3, 123-128. [ Links ]

Asaro, P. M. (2011). «A Body to Kick, but Still No Soul to Damn: Legal Perspectives on Robotics». En Lin, P. (ed.). Robot ethics: The ethical and social implications of robotics. MIT Press. [ Links ]

Beraldo, S., Piacenza, M. y Turati, G. (2022). «The importance of the future when deciding levels of personal responsibility and demand for redistribution». Economic Modelling, 116. https://doi.org/10.1016/j.econmod.2022.105982 [ Links ]

Borghetti, J. S. (2019). «Civil Liability for Artificial Intelligence: What Should its Basis Be?». La Revue des Juristes de Sciences Po, 17, 94-102. [ Links ]

Brynjolfsson, E. y McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. WW Norton & Company. [ Links ]

Buyers, J. C. (2018). Artificial intelligence: the practical legal issues. Law Brief Publishing. [ Links ]

Calvard, T. (2016). «Big data, organizational learning, and sensemaking: Theorizing interpretive challenges under conditions of dynamic complexity». Management learning, 47 (1), 65-82. [ Links ]

Canhoto, A. I. y Clear, F. (2020). «Artificial intelligence and machine learning as business tools: A framework for diagnosing value destruction potential». Business Horizons, 63(2), 183-193. [ Links ]

Dahiyat, E. A. R. (2011). «Towards new recognition of liability in the digital world: should we be more creative?». International Journal of Law and Information Technology, 19(3), 224-242. [ Links ]

De Bruin, R. (2016). «Autonomous intelligent cars on the European intersection of liability and privacy: Regulatory challenges and the road ahead». European Journal of Risk Regulation, 7(3), 485-501. [ Links ]

Delvaux, M. (2016). Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 [INL]). Committee on Legal Affairs. European Parliament. [ Links ]

Dobbs, R., Manyika, J. y Woetzel, J. (2015). «No Ordinary Disruption: The Four Forces Breaking All the Trends». Public Affairs, 149 y ss. [ Links ]

Durán-Cabré, J. M. (2021). «El impacto de la digitalización en los sistemas fiscales». IEB Report, 3, 21-23. [ Links ]

Eidenmüller, H. (2019). «Machine performance and human failure: how shall we regulate autonomous machines». Journal of Business & Technology Law, 15, 109-133. [ Links ]

European Commission (EC), Independent High-Level Group on Artificial Intelligence set up by the European Commission. (2019a). A Definition of Artificial Intelligence: Main Capabilities and Disciplines. European Commission. https://digital-strategy.ec.europa.eu/en/library/definition-artificial-intelligence-main-capabilities-and-scientific-disciplinesLinks ]

European Commission (EC), Directorate-General for Justice and Consumers. (2019b).Liability for artificial intelligence and other emerging digital technologies. EC Publications Office.https://data.europa.eu/doi/10.2838/573689Links ]

European Parliament (2015). Civil law rules on robotics. (2015/2103 [INL]). https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?lang=en&reference=2015/2103(INL)Links ]

Fernández Amor, J. A. (2018). «Derecho tributario y cuarta revolución industrial: análisis jurídico sobre aspectos fiscales de la robótica». Nueva fiscalidad, 1, 47-96. [ Links ]

Grau Ruiz, M. A. (2017). «La adaptación de la fiscalidad ante los retos jurídicos, económicos, éticos y sociales planteados por la robótica».Nueva fiscalidad, 4, 35-61. [ Links ]

Harris, P. (2013). Corporate tax law: Structure, policy and practice. Cambridge University Press. [ Links ]

Huang, Z. (2018). «Discussion on the development of artificial intelligence in taxation». American Journal of Industrial and Business Management, 8 (08), 1817. [ Links ]

Hubbard, F. P. (2014). «Sophisticated robots: balancing liability, regulation, and innovation». Florida Law Review 66, 1803. [ Links ]

Hyun Park, S., Seon Shin, W., Hyun Park, Y. y Lee, Y. (2017). «Building a new culture for quality management in the era of the Fourth Industrial Revolution». Total Quality Management & Business Excellence, 28(9-10), 934-945. [ Links ]

Jabalera Rodríguez, A. (2020). «Digitalización económica y nuevas formas de obtención de riqueza: la búsqueda de soluciones para su tributación efectiva».Nueva Fiscalidad, 2, 135-180. [ Links ]

Koops, B. J., Hildebrandt, M. y Jaquet-Chiffelle, D. O. (2010). «Bridging the accountability gap: Rights for new entities in the information society». Minnesota Journal of Law, Science & Technology, 11, 497. [ Links ]

Korinek, A. y Stiglitz, J. E. (2018). «Artificial intelligence and its implications for income distribution and unemployment». En Agrawal, A., Gans, J. & Goldfarb, A. The economics of artificial intelligence: An agenda (pp. 349-390). University of Chicago Press. [ Links ]

Kovac, M. (2022). «Autonomous Artificial Intelligence and Uncontemplated Hazards: Towards the Optimal Regulatory Framework».European Journal of Risk Regulation, 13 (1), 94-113. [ Links ]

Leenes, R. y Lucivero, F. (2014). «Laws on robots, laws by robots, laws in robots: Regulating robot behaviour by design». Law, Innovation and Technology, 6(2), 193-220. [ Links ]

Lohmann, M. F. (2016). «Liability issues concerning self-driving vehicles».European Journal of Risk Regulation, 7(2), 335-340. [ Links ]

Lohsse, S., Schulze, R. y Staudenmayer, D. (2019). «Liability for artificial intelligence and the internet of things». Münster Colloquia on EU Law and the Digital Economy IV. Nomos Verlag. [ Links ]

López Boada, M. J, López Boada, B., & Díaz López, V. (2005). «Algoritmo de aprendizaje por refuerzo continuo para el control de un sistema de suspensión semi-activa». Revista Iberoamericana de Ingeniería Mecánica, 9 (2), 77-91. [ Links ]

Manyika, J., Lund, S., Chui, M., Bughin, J., Woetzel, J., Batra, P., Ko, R. y Sanghvi, S. (2017). «Jobs lost, jobs gained: Workforce transitions in a time of automation». McKinsey Global Institute, 150. [ Links ]

Miailhe, N. y Hodes, C. (2017). Making the AI revolution work for everyone. The Future Society at the Harvard Kennedy School of Government. The AI Initiative. https://www.tuftsgloballeadership.org/sites/default/files/images/resources/Miailhe%20Reading.pdfLinks ]

Murphy, K. (2012). Machine learning: a probabilistic perspective. MIT Press. [ Links ]

Nishith Desai Associates. (2018). «The future is here: artificial intelligence and robotics». https://bit.ly/3CHu5OqLinks ]

Oberson, X. (2018). «Towards Taxation of Robots or Their Use». International Tax Review, 29, 28. [ Links ]

Organisation for Economic Co-operation and Development (OECD). (2018). Putting faces to the Jobs and risk of automation. Policy Brief on the Future of Work. OECD Publishing. [ Links ]

Organisation for Economic Co-operation and Development (OECD). (2019a). «Scoping the OECD AI principles: Deliberations of the Expert Group on Artificial Intelligence at the OECD (AIGO)». OECD Publishing. https://bit.ly/3GawSPmLinks ]

Organisation for Economic Co-operation and Development (OECD). (2019b). La inteligencia artificial en la sociedad. OECD Publishing. [ Links ]

Ooi, V. y Goh, G. (2022). «Taxation of automation and artificial intelligence as a tool of labour policy». eJournal of Tax Research, Research Collection Yong Pung How School of Law, 19 (2), 273-303. https://bit.ly/3BZh9SwLinks ]

Palmerini, E. y Bertolini, A. (2016). «Liability and risk management in robotics». En Schulze, R. y Staudenmayer, D. Digital revolution: challenges for contract law in practice. Nomos. [ Links ]

Rachum-Twaig, O. (2020). «Whose Robot is it Anyway? Liability for Artificial-Intelligence-Based Robots». University of Illinois Law Review, 2020, 1141-1176. [ Links ]

Sánchez-Archidona Hidalgo, G. (2021). «El Derecho Tributario en la búsqueda de soluciones para los retos que plantean la robótica y La inteligencia artificial en la sociedad». Revista de Derecho de la UNED (RDUNED), (27), 17-56. [ Links ]

Schank, R. C. (1987). «What is AI, anyway?». AI magazine, 8(4), 59-59. [ Links ]

Shavell, S. (1984). «Liability for harm versus regulation of safety». The Journal of Legal Studies, 13(2), 357-374. [ Links ]

Shavell, S. (2007). «Liability for accidents». En Polinsky, M. A. y Shavell, S. (eds.). Handbook of Law and Economics, 1. [ Links ]

Skiena, S. (2020). The algorithm design manual. Springer International Publishing. [ Links ]

Stevens, Y. A. (2016). «The future: Innovation and jobs». Jurimetrics, 367-385. [ Links ]

Teubner, G. (2006). «Rights of non-humans? Electronic agents and animals as new actors in politics and law». Journal of Law and Society, 33(4), 497-521. [ Links ]

Teubner, G. (2018). «Digital Personhood? The Status of Autonomous Software Agents in Private Law». Ancilla Iuris, 106, 105-149. [ Links ]

Turner, J. (2019). Robot Rules: Regulating Artificial Intelligence. Palgrave Macmillan. [ Links ]

U.K. Government Office for Science (2016). «Artificial Intelligence: opportunities and implications for the future of decision-making». https://bit.ly/2qDdpBgLinks ]

World Economic Forum (WEF). (2018). The Future of Jobs Report 2018. Insight Report. Centre for the New Economy and Society. https://bit.ly/3pe5slMLinks ]

Wright, R. G. (2001). «The pale cast of thought: on the legal status of sophisticated androids». Legal Studies Forum, 25, 297. [ Links ]

Xu, Z., King, I., Lyu, M. R. T. y Jin, R. (2010). «Discriminative semi-supervised feature selection via manifold regularization». IEEE Transactions on Neural networks, 21 (7), 1033-1047. [ Links ]

Recibido: 16 de Octubre de 2022; Aprobado: 02 de Mayo de 2023

Sonia Elizabeth Ramos-Medina es docente investigadora universitaria en el campo del Derecho Financiero y Tributario. Es doctora en Estudios Fiscales de la Universidad Autónoma de Sinaloa y estudiante de doctorado en Estado de Derecho y Gobernanza Global en la Universidad de Salamanca, España. Ha realizado estancias de investigación en Alemania, Turquía y España. Entre sus áreas de investigación se encuentran: fiscalidad internacional, inteligencia artificial y tributación. Es colaboradora del Cuerpo Académico CA-187 de «Derecho Constitucional» y miembro del SIN-nivel candidato. Actualmente es editora de JUS Revista Jurídica. elizabeth.ramos@usal.es

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons