SciELO

Sintaxis

Online version ISSN 2594-1682

Artículos

Capitalismo digital y universidades: una reflexión sobre los riesgos educativos del uso de tecnología orientada a la ganancia

Digital Capitalism, Artificial Intelligence And Universities: A Reflection On The Educational Risks Of The Use Of Profit-Oriented Technology

Díez-Gutiérrez, Enrique-Javier*1
http://orcid.org/0000-0003-3399-5318
Jarquín-Ramírez, Mauro**2
http://orcid.org/0000-0002-0496-091X

Resumen

La narrativa dominante de expansión, adopción y uso de inteligencia artificial (IA) en educación es un subproducto del despliegue del capitalismo digital en el ámbito educativo bajo el mantra de la innovación tecnológica y la modernización del sistema educativo. Pero este capitalismo digital funciona a partir de la concentración monopólica y el control de la tecnología en unas pocas BigTech, del extractivismo sistemático de datos masivos (el nuevo oro blanco del siglo XXI) que se usan para predecir comportamientos y moldear nuestros deseos y del desplazamiento de buena parte del trabajo educativo por la máquina y la reorganización de los procesos de enseñanza-aprendizaje-evaluación. A nivel global se ha planteado la posibilidad de que la IA generativa transforme la manera de entender y abordar la educación universitaria, pero esta transformación tiene sus riesgos que se analizan en este texto y se advierte que es necesario estar alertas y proseguir investigando de forma crítica sobre estas tecnologías que demasiado a menudo se nos venden de forma acrítica como la innovación educativa radical que reevolucionará la Educación Superior del Siglo XXI.

Palabras clave::
capitalismo digital, inteligencia artificial, universidad, educación digital

Introducción: capitalismo digital y universidades

La IA generativa ha llegado para quedarse en el ámbito universitario. Con cierta prontitud, se ha llegado a naturalizar paulatinamente como una herramienta inevitable cuyo horizonte parece constituir el supuesto del cambio educativo o innovación revolucionaria del siglo XXI. En ello han colaborado voces del sector privado, las BigTech, organismos multilaterales y académicos afines a perspectivas tecno-optimistas y tecno-deterministas, para quienes la incorporación de IA representa el parteaguas de una transformación radical de la educación universitaria. En distintos países como México o España, es posible ver cómo un número cada vez mayor de Instituciones de Educación Superior (IES) adoptan, publican o producen manuales para el correcto uso de la IA en educación, en los cuales se muestran las mejores prácticas que permiten incrementar la productividad del trabajo docente, así como la eficiencia de los resultados de los estudiantes. Dichos manuales, por lo general, no distan del discurso corporativo que ha constituido el hype de la IA en educación, en el cual subyace la idea de disrupción, el mantra de innovación educativa que, forjado en Silicon Valley, ha terminado por expandirse a nivel global.

Este hype, que parte del principio de la inevitabilidad de la tecnología corporativa (producida, gestionada y controlada por el gran capital privado) para el avance de la humanidad, es impulsado prioritariamente por las BigTech y sus socios, entre quienes destacan Google y Open AI, cuyo fin es, esencialmente, expandir un modelo de negocio en el lucrativo campo de la educación superior, consolidar posiciones monopólicas en el mercado de la tecnología a nivel global y ocupar cada vez más espacios estratégicos de gobernanza en los sistemas educativos.

En suma, la narrativa dominante de expansión, adopción y uso de IA en educación es un subproducto del despliegue del capitalismo digital en el ámbito educativo (Montaño, 2023). Por eso la finalidad de este trabajo es reflexionar de forma crítica sobre las consecuencias y los riesgos educativos de la incorporación de forma acrítica de la IA generativa en la Educación Superior en un contexto de capitalismo digital y del uso de tecnología orientada a la ganancia.

El capitalismo digital (Fuchs, 2024) ha difundido un relato de innovación educativa con la incorporación de la tecnología en las aulas. Su discurso se centraba inicialmente en el uso de computadoras como forma de cambio radical de la educación en clave positiva, asegurando que mejoraría los resultados educativos, la personalización del aprendizaje, la motivación por el estudio, incluso que lo haría mucho más divertido y emocionante. Dicho optimismo pasó pronto a ser parte de las charlas cotidianas no solo en la educación básica, sino que fue calando también en la educación superior. Dicha tendencia se agudizó considerablemente como efecto de la pandemia, una ventana de oportunidad que permitió a la BigTech introducir sus plataformas en todos los niveles educativos como forma de comunicación, interacción y relación en unos momentos en los que los estudiantes universitarios fueron confinados en sus domicilios y se suspendió la presencialidad en las universidades de casi todo el mundo. A partir de ahí la digitalización, entendida como un progresivo y cada vez mayor uso de tecnología digital y data en el desarrollo de actividades, aprendizajes, enseñanza, gestión académica y toma de decisiones en políticas educativas universitarias, se posicionó cada vez más. Esto tuvo un momento clave en noviembre de 2022, con la presentación de ChatGPT por OpenAI, y la creación de millones de cuentas en sus bases de datos. Las universidades tuvieron un papel fundamental al respecto.

Este proceso de digitalización en la educación superior conlleva una serie de implicaciones a considerar. Las mismas que, por lo general, son pasadas por alto cuando se habla de IA y educación superior, debido al consenso instrumental que ha logrado el mundo corporativo, incluso al interior de universidades con una gran trayectoria crítica.

Modelo de negocio

A medida que el uso de tecnología digital se expande en la sociedad, las herramientas digitales también se han consolidado en los distintos sectores de la economía, con el objetivo de incrementar la productividad, disminuir costos de operación y también, aunque en menor medida aún, en reducir el monto destinado al salario de la fuerza de trabajo.

En este punto, un papel protagónico es el que han desarrollado las plataformas digitales del capitalismo digital cuyo modelo de negocio se articula con distintas formas de generación de ganancias, en las cuales se conjuga la explotación, el rentismo, y la especulación, todo ello centrado primordialmente en la extracción de información de las actividades humanas y la consolidación de infraestructuras digitales para modular, rastrear, intervenir y obtener ganancias del comportamiento de los usuarios. Elementos esenciales que conforman el despliegue de la IA generativa.

La consolidación de la tecnología digital como el mediador predilecto de los procesos económicos globales fue posible a raíz del crecimiento de las plataformas. Las plataformas son infraestructuras digitales que se constituyen como espacios al interior de los cuales interactúan distintos tipos de usuarios, y a los cuales esta pone en contacto, por ejemplo, para llevar a cabo ejercicios de intercambio. El modelo de plataforma funciona a través de una lógica monopólica que busca incrementar permanentemente el número total de usuarios dados de alta en ella, ya que eso hace que dichas infraestructuras sean más atractivas, atraigan más usuarios y por ende pueden obtener más relevancia. El modelo de plataforma es el que ha permitido, por ejemplo, ampliar la venta de productos por internet (donde Amazon resulta indiscutible líder), la oferta de servicios (Uber, AirBnB) o incluso la creación de marketplace informales (Facebook). La consolidación de las Big Tech se ha llevado a cabo de la mano de las plataformas.

Esas mismas empresas resultan cruciales en la expansión y crecimiento de los servicios de IA, ya que son las grandes empresas tecnológicas quienes controlan la infraestructura digital sobre la cual se montan los procesos de data mining fundamentales para el desarrollo de contenido por parte de los proveedores de IA.

Sin capitalismo digital, la IA no existiría, y sin IA, el capitalismo digital perdería un importante enclave de extracción de conocimiento socialmente producido. Además de la economía extractiva de datos, en el capitalismo digital se han desarrollado otros esquemas de negocio que han impactado ya directamente a la educación y que representan nuevas formas de transferencia de recursos del sector público al sector privado.

Muestra de ello fue la estrategia de ChatGPT de impulsar una versión gratuita de su producto generador de texto. El modelo descansa en la venta de licencia de productos, así como en la integración de sus productos con otras plataformas. Un ejemplo de ello es Khanmigo, chatbot dedicado al aprendizaje personalizado creado por Khan Academy, al cual se le ha integrado ChatGPT-4 y que tiene un costo de $60 por cada estudiante que lo utilice (Rudolph et al., 2023). Las empresas construyen una relación a partir de la cual obtienen ingresos permanentes por el control de la infraestructura digital que es rentada por parte de instituciones educativas, generando así un esquema de renta. En este sentido, la IA en la educación podría afectar la capacidad de las escuelas para otros gastos en un momento en que muchas enfrentan condiciones de austeridad y falta de financiación (Williamson, 2023).

Propiedad y control de los medios de producción digital

La reciente caída de la nube de Microsoft en una actualización del antivirus CrowdStrike Falcon (Peco, 2024) y con ello las consecuencias diversas que esto provocó en distintos sectores de la vida social, nos muestra con claridad el nivel de concentración de la propiedad relativa a los recursos de infraestructura digital con los cuales la sociedad lleva a cabo sus actividades cotidianamente. Esto nos permite también comprender la relevancia del debate sobre la propiedad de las infraestructuras digitales.

La concentración monopólica de las empresas BigTech sobre la infraestructura digital constituye una barrera de entrada muy complicada de superar por parte de potenciales nuevos competidores, además de que han logrado que distintos sectores anexos dependan de sus decisiones ejecutivas. Las políticas de expansión, por otro lado, mediante compras de empresas menores o financiamiento a startups con el objetivo de mantenerlos en su esfera de influencia, nos permite ver que a la par de un control tecnológico, se consolida también un poder político, como se ha visto recientemente con el apoyo explícito y sostenido del dueño de la red social X a Trump en Estados Unidos.

Algunos autores han aportado elementos teóricos para problematizar el nivel de centralización y concentración de la propiedad en tiempos de capitalismo digital. Para Varoufakis (2024) y otros (Morozov, 2023) nos encontramos en un orden tecnofeudal en el cual unos grandes señores digitales controlan sin límite, además de la infraestructura digital, una renta permanente derivada de un flujo constante y continuado de datos sin control. Esta concentración afecta también el desarrollo de IA corporativa.

Un elemento clave de este control es la dependencia estructural de la IA respecto a estos monopolios digitales de la BigTech. Pero a ello se añade otro más, vinculado a los supuestos que subyacen al diseño y control de la IA, que se están llevando a cabo a partir de criterios que parten de los intereses y necesidades de quienes controlan esas BigTech, generalmente hombres blancos de familias adineradas y entornos privilegiados, donde proyectarán su forma de entender el mundo, no la de sus participantes (Gault, 2021). Incluso la concepción misma de Inteligencia Artificial, moldeada por las perspectivas generales de Silicon Valley, apunta a pensar que “el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría” (Morozov, 2023). Es más, el ADN de la IA generativa está marcado por la retórica neoliberal libertariana que se desprende de la denominada Silicon Doctrine (Jiménez, 2020; Weatherby, 2023).

El fundamento extractivista

El capitalismo digital funciona a partir de unas bases extractivistas (Jung, 2023) que, mediante infraestructuras bien definidas y financiadas, operan sobre nuestras vidas, rastreando nuestras decisiones, comportamientos, miedos, esperanzas, deseos, etcétera, y los monetizan, convirtiéndolos en factores que les permiten obtener beneficios económicos (publicidad, propaganda dirigida, perspectivas de salud, expectativas económicas, etc.) y un control cada vez mayor sobre los espacios en los cuales desarrollamos gran parte de nuestra vida colectiva (y también personal).

Nuestra vida en el mundo interior de las máquinas se convierte así en una referencia de registro, gracias a una estructura en la cual las más diversas manifestaciones de esa vida quedan almacenadas. Y, a su vez, los fragmentos de vida que son extraídos, para ser diseccionados y analizados posteriormente, mediante el software privado sirven para entrenar, para hacer aprender a máquinas que posteriormente nos enseñarán a nosotros. Moldearán nuestros gustos o al menos nos sugerirán nuevos deseos, tal como pomposamente ya lo hace, por ejemplo, el asistente IA de Spotify. La máquina se alimenta de nuestros intercambios voluntarios de nuestros deseos de reconocimiento social, de nuestra curiosidad intelectual y nuestros miedos.

Nuestra vida cotidiana la alimenta, nuestra actividad creativa permite que la máquina mejore sus capacidades, sin recibir un salario por nuestro trabajo no-pagado. Ya sea a lo largo de nuestras aventuras digitales o cuando nos dedicamos al ocio, generamos información que resulta en un insumo importante para las ganancias de las megaempresas digitales para quienes, en esencia, somos enclaves de producción de datos que les permitirán mantener su modelo de negocio.

Esto también sucede con la IA, sencillamente porque el material con el cual se nutre y se entrena a la máquina es producido por el trabajo humano cristalizado en notas, imágenes, videos o textos. Ya sea desde blogs realizados en el ámbito informal, hasta trabajos académicos publicados bajo un sello editorial.

No obstante, los materiales generados a partir de IA resultan aún más agresivos que, por ejemplo, los resultados de búsqueda en Google. Puede ser que Google tenga el control respecto a la prioridad o reiteración de las entradas que presenta en su buscador, pero al referirnos a ellas, dichas entradas originales tienen su propia propiedad intelectual, se da cuenta y se informa de su autoría. Con la IA es diferente, porque esa máquina extractivista anula el control y cualquier referencia al origen de la información, en lo que parecería apuntar a un ejercicio permanente, acelerado y sin precedentes, de un proceso de acumulación originaria del conocimiento socialmente producido (Lumbreras, 2024).

El futuro del trabajo y la automatización de los procesos

Históricamente, la incorporación tecnológica ha implicado al menos dos movimientos relativos al mundo del trabajo: el desplazamiento de trabajo vivo por la máquina y la reorganización de los procesos de trabajo. Algunos autores proponen que la llegada de la IA recuerda momentos previos donde el costo de la fuerza de trabajo se ha mostrado como un motivo para que el sector empresarial invierta en tecnologías que sustituyan a trabajadores (Ortiz, 2024). Aunque dicha tendencia no únicamente puede afectar a la clase obrera, sino también al cuerpo de managers, de los administradores, de los técnicos.

La automatización del trabajo no ha buscado ni facilitado históricamente ampliar los márgenes de la realización humana permitiendo, por ejemplo, más tiempo a la dedicación de actividades artísticas, de ocio, cultual o simplemente auto satisfactorias, sino para incrementar la productividad y acumular las ganancias en unas pocas manos, al mismo tiempo de consolidar el orden político del capital en los centros de trabajo y un patrón de gestión algorítmica del trabajo respecto tanto a la organización de las jornadas laborales como respecto a los productos obtenidos del proceso de trabajo (Dell’Acqua et al., 2023, Hui et al., 2023).

Amazon prometía tiendas con IA con ‘Just Walk Out’: la realidad era que se vigilaban con 1000 empleados desde India. Las tiendas sin cajeros pese a que afirmaban ser autómatas, necesitaban cientos de trabajadores en condiciones precarias trabajando remotamente (Aguilar, 2024). Proyectos de IA como ChatGPT de OpenAI obtienen parte de sus conocimientos de algunos de los trabajadores peor pagados de la industria tecnológica: contratistas a menudo de países pobres a los que se pagan pequeñas sumas por corregir los chatbots y etiquetar las imágenes. Los trabajadores alegan que las prácticas de compañías como Meta, Open AI y el proveedor de datos Scale AI equivalen a la esclavitud moderna. La paga suele ser inferior a $2 por hora y los trabajadores suelen acabar con trastorno de estrés postraumático, un problema ampliamente documentado entre los moderadores de contenidos de todo el mundo (Perrigo, 2022). Trabajos que deberían estar automatizados, pero no lo están por que económicamente hablando sale más a cuenta que lo realicen humanos en régimen de semi esclavitud que máquinas (Haskins, 2024). Gracias a su insaciable apetito por los datos, la IA actual no es rentable sin una fuerza laboral global subcontratada para etiquetar los datos y eliminar las partes tóxicas, todo por unos pocos dólares al día. Al igual que la industria de la moda rápida, la IA se sustenta en el trabajo clandestino (Haskins, 2024; Perrigo, 2022).

Esto también ha llegado al ámbito de la educación superior, donde algunos docentes ya no solo temen que la IA pueda reemplazarles o alterar su rol, convirtiéndolos en meros supervisores o ejecutores de las instrucciones de la IA, sino que efectivamente lo está haciendo en universidades privadas, cuyo objetivo es la cuenta de beneficios de sus accionistas. La Universidad Europea privada, con sede en España, despidió a 275 docentes después de haber creado los materiales digitales durante el curso anterior necesarios para la docencia y que ahora se utilizan para sustituirles (Martínez, 2021). Esta lógica está afectando al profesorado no solo por lo que puede influir en una pérdida de autonomía, creatividad e interacción con el alumnado, sino que puede afectar también profundamente a su motivación, implicación y compromiso por la profesión (Ayoola et al., 2023).

Son muchos los ejemplos que incluyen el uso de la IA para automatizar tareas académicas administrativas de rutina, evaluar las capacidades y conocimientos de los estudiantes y ofrecer contenido de aprendizaje y procesos adaptados al progreso individual, automatizar también tareas de investigación académica, etcétera. Lo cual parece implicar la modificación del papel de los docentes universitarios o, incluso, su sustitución por IA, aunque hay quienes aseguran que creará más puestos de trabajo de los que eliminará (Baskara y Mukarto, 2023; Javaid et al., 2023; Oppenlaender et al., 2023).

No obstante, es necesario considerar desde una visión positiva que la IA puede ayudar en la planificación, personalización, visualización y facilitación del proceso de aprendizaje (Flores-Vivar, 2023), pues cuentan con la capacidad de evaluar y retroalimentar de forma casi instantánea el progreso de cada estudiante y ofrecer material adicional (lecturas, vídeos explicativos, etcétera), así como explicaciones específicas adaptadas al estilo de aprendizaje y las preferencias individuales para abordar las áreas en las que enfrentan dificultades, monitorizando constantemente el progreso del estudiante y ajustando el nivel de dificultad de las tareas y ejercicios de acuerdo con su desempeño. Aunque esto también tiene su reverso, pues estas estrategias planificadas por la IA pueden implicar impedir la autonomía de los estudiantes, pues existe el riesgo de encasillarlos en rutas de aprendizaje predeterminadas, lo que limita su exposición a una gama más amplia o crítica de ideas, conocimientos y formas de aprendizaje y exploración de la realidad.

La IA y el ChatGPT en educación superior

Para algunos autores (Chance, 2022; Faraboschi et al., 2023), 2023 fue el año del big bang de la IA generativa, el cual ha tenido en la educación un espacio de difusión sin precedentes con respecto a la relación entre tiempo y cantidad de usuarios alcanzados por una tecnología recientemente incorporada con un crecimiento exponencial. Productos digitales como ChatGPT (Generative Pre-trained Transformer), Google Bard, Humata.ai o Sudowrite han empezado a ser utilizados de forma constante, apareciendo cada semana nuevas aplicaciones y actualizaciones de aplicaciones que originalmente se presentan como sin costo alguno, pero que ofrecen también una versión premium mucho más avanzada y atractiva que la de libre acceso.

Multinacionales de la BigTech como OpenAI, Alphabet, Meta y Amazon anuncian cada día nuevas funcionalidades en estas aplicaciones (Du et al., 2023; Lv, 2023). Dentro de este boom de la IA generativa, ChatGPT ocupa un lugar central, tanto por ser el principal producto que logró generar un hype mundial en torno a dicha tecnología, como por la gran cantidad de usuarios activos que ha llegado a tener en poco tiempo. ChatGPT es una IA conversacional creada por OpenAI, compañía creada en 2015, que ha recibido financiamiento de compañías BigTech como Microsoft, Amazon y Alphabet (Demere et al., 2023) y que actualmente se encuentra en el centro global de la promoción de IA.

El lanzamiento del programa resultó sumamente exitoso en distintos niveles del sector educativo. En cuestión de meses logró alcanzar un número de 100 millones de usuarios (UNESCO, 2023). El avance fue tal, que la propia UNESCO publicó una guía de uso en el mes de abril de 2023 buscando difundir un conjunto de pautas mínimas de uso de la tecnología, para promover una utilización responsable y ética de dichas herramientas en el ámbito educativo (UNESCO, 2023).

Este tipo de modelos son entrenados con grandes cantidades de datos para aprender a predecir la secuencia de palabras de forma coherente. La forma en cómo arroja sus resultados llega a generar un parecido impactante respecto a la producción escrita de los seres humanos, y en algunos casos parece llegar a ser incluso más competente. Distintas investigaciones han concluido, por ejemplo, que la inteligencia artificial ya ha superado a los seres humanos en algunas tareas, como clasificar imágenes, comprensión del inglés y el razonamiento visual (Perrault y Clark, 2024), aunque dicha tecnología no logra un nivel tan avanzado de desempeño en otras áreas como las matemáticas avanzadas.

Algunos expertos, consultores o CEO’s han llegado a afirmar que, en un futuro, “cada pixel que veamos en la pantalla será obra de una IA generativa” tal como advierte el CEO de la todopoderosa NVIDIA (Ferrer-Bonsoms, 2024).

Dichas perspectivas tecno optimistas, también se muestran cada vez más en el ámbito educativo, dando seguimiento a una tendencia que se ha mantenido constante desde hace algunos años, incluso antes del lanzamiento de la IA generativa. En una entrada del Blog del Foro Económico Mundial en 2017, se afirmaba que la IA “transformaría las universidades”, y aún más, los autores apuntaban: “Creemos que la IA es una nueva infraestructura científica para la investigación y el aprendizaje que las universidades tendrán que incorporar y dirigir; de lo contrario, se volverán cada vez más irrelevantes y eventualmente redundantes” (Dodson y Gann, 2017, p. 11).

A nivel global se ha planteado la posibilidad de que la IA transforme la manera de entender y abordar la educación universitaria (Gallent-Torres et al., 2023). El relato tecno-optimista en torno a la IA y la educación superior se centra en que la IA permitirá crear entornos de aprendizaje más accesibles y personalizados, más motivantes y sugerentes, más prácticos y vinculados con el mundo real. A la vez que facilitará que la carga de trabajo vinculada a la preparación de las clases (ejercicios variados, con diferentes niveles de dificultad y más prácticos con escenarios de simulación), a la evaluación (retroalimentación instantánea), a la supervisión y tutorización de los estudiantes (orientación online con contenidos multimedia,) se vea reducida sustancialmente, para que el profesorado pueda dedicar su tiempo a otros trabajos con mayor valor didáctico o investigador (Aydin, 2023; Gutiérrez-Cirlos et al., 2023; Vidal et al., 2024).

Riesgos educativos del uso de IA generativa

Pero frente a la narrativa optimista de corporaciones, entidades multilaterales, start-ups, es posible encontrar un conjunto de apreciaciones críticas respecto a la adopción de la IA generativa en educación superior, particularmente considerando que dicha tecnología es diseñada, producida y controlada por instancias privadas, lo cual implica un bajo o nulo nivel de participación de la sociedad civil y de la comunidad educativa, que podría implicar la conformación de un proceso de enajenación educativa, derivado del alejamiento del docente y los estudiantes respecto al control de los factores materiales de su trabajo, que al mismo tiempo constituyen mediaciones que facilitan los procesos de enseñanza y aprendizaje, así como la generación de nuevo conocimiento. A continuación, mencionamos algunos de esos riesgos educativos en la introducción acrítica de la IA generativa en la Educación Superior:

Reproducción bancaria

La adopción acrítica de la IA en el medio universitario puede abrir la puerta a una lógica reproductivista en los planteles de educación superior. De la misma forma en que sucede con el “corte y pega” en textos, el uso de este tipo de herramientas y aplicaciones pone al estudiante universitario y al profesorado, nuevamente, en un papel de consumidor de contenidos como lo señala Paulo Freire en la Pedagogía del oprimido, y su concepto de educación bancaria.

El acto de pensar críticamente y proponer soluciones creativas se convierte en una utopía y la IA puede convertirse en el factor que frene el desarrollo cognitivo y los principios éticos de la comunidad académica (Castillejos, 2022) pese a la retórica de que el uso de la tecnología puede potenciar las capacidades productivas en las universidades. La tecnología educativa está excesivamente dominada por concepciones psicológicas del aprendizaje individual (Heat et al., 2023) y, por lo tanto, no aborda los determinantes sociales, culturales, contextuales de los resultados educativos o las experiencias de los estudiantes.

En esencia, la reproducción de una educación bancaria en el ámbito universitario puede ser fomentada por un uso generalizado de IA que no implique una discusión previa en torno a los supuestos que conlleva su funcionamiento, la forma en cómo se construyen las respuestas que arroja la IA generativa y la cada vez mayor dependencia de los y las estudiantes respecto a la máquina productora de saberes que, en términos reales, representa una apuesta por la expropiación a gran escala del conocimiento socialmente producido.

Los sesgos en la IA

Gran parte de los prejuicios humanos existentes pueden transferirse a las máquinas porque las tecnologías no son neutrales, sino, particularmente en el caso de la IA generativa, integran los prejuicios y preferencias de los humanos que las programan y participan en sus procesos de entrenamiento. Existen numerosas investigaciones que denuncian la discriminación que las herramientas de IA pueden causar a grupos ya socialmente marginados a través de sesgos inconscientes en los algoritmos y falta de representación en los conjuntos de datos, lo cual puede amplificar o consolidar las desigualdades y estereotipos existentes (Khan, 2022).

Es muy fácil que el sesgo existente en nuestra sociedad se traslade a los algoritmos. Y en la educación superior se han analizado múltiples sesgos: discriminación por la etnia, por el sexo, por clase social, vigilancia sin consentimiento, representatividad, equidad, etc. (Nguyen et al., 2023; Sullivan et al., 2023). Las decisiones de la IA pueden estar sesgadas porque los datos humanos en los que se basa están sesgados o porque los algoritmos aplicados y desarrollados por humanos están sesgados. Hay un consenso generalizado en todas las investigaciones sobre los sesgos inherentes en los datos utilizados para entrenar la IA así como en los contenidos incompletos o falsos que podrían confundir a investigadores, docentes y alumnado en el desarrollo de sus tareas académicas (Cotton et al., 2023; Gallent-Torres et al., 2023).

Sin olvidar que las grandes BigTech están empeñadas en crear una IA super inteligente que supere la capacidad del ser humano. Y estas BigTech son empresas privadas que se rigen por la cuenta de beneficios de sus accionistas no por consideraciones éticas o altruistas como se menciona a continuación (Park et al., 2024, p. 11):

Las empresas de IA están en una carrera sin control para crear una IA súper inteligente que supere a los humanos en la mayoría de las capacidades económicas y estratégicamente relevantes. Una IA de este tipo, al igual que los ricos, sería experta en llevar a cabo planes a largo plazo al servicio de buscar poder de manera engañosa sobre varias partes de la sociedad, como influir a políticos con información incompleta o falsa, financiar desinformación en los medios o investigadores, y evadir la responsabilidad usando las leyes.

El curriculum oculto de la IA en educación superior

Aunado a las dimensiones planteadas previamente, persisten otras instancias problemáticas respecto a la adopción de IA generativa en las universidades, las cuales van más allá del criterio eficientista con el cual se busca asistir al trabajo docente con herramientas que le permitan incrementar su productividad, aún a costa de distintos procesos problemáticos. Este conjunto de ámbitos potencialmente problemáticos se refiere a prácticas educativas que pueden constituir una cultura común que impacta en el desempeño educativo y profesional de los estudiantes y docentes. Un currículum oculto que no se discute cuanto tomamos como referencia de nuestra práctica educativa los discursos corporativos de innovación y disrupción educativa.

La antropomorfización de la tecnología

Nuestra tendencia a antropomorfizar toda la realidad que nos rodea, así como el imaginario colectivo impulsado por la literatura y el cine de ciencia ficción han generado debates sobre si estas máquinas serán capaces de sentir como el ser humano, o incluso revelarse contra la humanidad (Lumbreras, 2024). Así, humanizamos las aplicaciones, les atribuimos independencia, inteligencia o creatividad, pero nos mecanizamos en el proceso, adaptando las formas de preguntar, escribir, hacer e imaginar. La tecnología en educación, así como el proceso mediante el cual se ha producido, pasa a hacerse invisible. A convertirse en un supuesto de partida de la educación misma, con lo cual se pasa por alto una instancia fundamental de cualquier proceso educativo: el pensamiento crítico en torno, no sólo a los contenidos a discutir y sobre los cuales aprender, sino también respecto a las condiciones mismas de creación de conocimiento. La tecnología entonces vendrá a solucionar los problemas educativos tal como a solucionar salvíficamente una diversidad de problemas sociales. No obstante, la naturalización de dicha tecnología como una solucionadora de problemas por defecto, puede terminar por generar un desprendimiento de distintas facultades propias y la renuncia del potencial humano para enfrentar las dificultades de la vida y el complejo camino del conocimiento.

Colonialismo

Hao (2022, p. 112) advierte que la inteligencia artificial está repitiendo la misma “apropiación violenta y extracción de recursos y explotación de la gente que ocurrió con el colonialismo europeo”. Se refiere con ello a que la IA está contribuyendo a que un pequeño grupo de personas, que ya son muy ricas y poderosas, sean quienes proyecten su ideología al resto del mundo. Lo que Gramsci (1981) explicaba: si la clase dominante consigue que su ideología y sus valores sean asumidos y normalizados por la clase dominada, no se necesitarán tanques de ocupación.

La IA necesita una enorme cantidad de datos, energía para desarrollar los gigantescos procesos de computación, agua para refrigerar los servidores, etc. Pero todo este extractivismo colonial se funda en una condición previa: nos han logrado convencer de que los datos son de su propiedad desde el inicio y de que, por eso, no tiene que pagar por ellos. Estamos asistiendo al mayor robo corporativo de la historia, dice Hao (2022). Sin los datos, estas compañías no pueden desarrollar la tecnología. Con ella, ganan grandes cantidades de dinero y prometen que, de alguna manera, van a redistribuir la riqueza. En realidad, no han pagado por la base que les ha permitido crear la tecnología (Hao, 2022; Mejias y Couldry, 2024).

No es más que otro intento de desviar la atención del masivo robo de datos, de los sesgos que incorporan los modelos lingüísticos y de la cantidad de mano de obra esclava que en todo el mundo etiqueta los datos necesarios para que dispongamos de esta tecnología además de la pérdida de trabajos y bajadas de salarios que está provocando. Pero es que, además, si la IA está entrenada con todo Internet, y más (no sabemos a ciencia cierta con qué está entrenado de hecho), el problema del Internet angloparlante es que es predominantemente estadounidense, con una ideología y una política determinada. Y quien piense que lo estadounidense es lo neutral, lo normal, etcétera, es porque tiene la mente totalmente colonizada. Cada vez que usamos ChatGPT para ayudarnos a confeccionar cualquier texto o elemento visual estamos dejando que una forma de ver el mundo muy concreta nos penetre aún más.

Huella e impacto ambiental (fetichización ambiental)

La IA no es una nube inmaterial como se nos ha tratado de trasladar de forma eufemística, un espacio limpio y sin contaminación. Toda tecnología digital requiere el uso de metales raros, muy escasos en la corteza terrestre. Un ejemplo gráfico que nos presenta Lumbreras: se emplean 32 kilos de material para un chip de 2 gramos, una proporción de 16.000 a 1; en Taiwán se necesita el uso diario de unas 60 piscinas olímpicas de agua para fabricar un chip, un país que experimenta una de las peores sequías de su historia (Lumbreras, 2024). Otro ejemplo: entrenar un solo modelo de IA puede emitir tanto carbono como cinco automóviles a lo largo de su vida (Hao, 2019). La IA necesita grandes almacenes de servidores y computadoras que queman energía y generan calor funcionando día y noche y requieren ingentes cantidades de agua (potable, para prevenir la corrosión y la contaminación) para su refrigeración y aumentando el problema de la desertificación del planeta (Lehuede, 2022).

Incluso antes de la aparición de ChatGPT, ya consumían alrededor del 2% de la energía mundial, en un momento en que el mundo está intentando electrificar todo lo posible y descarbonizar la forma en que se genera la energía para hacer frente al cambio climático.

Hay una intencionalidad clara de la BigTech en tratar de hacernos creer en esta inmaterialidad: invisibilizar el impacto ecológico ocultando celosamente sus efectos nocivos para el ambiente y evitar que seamos conscientes de la insostenibilidad de lo digital y de la incompatibilidad con una ‘transición ecológica justa’ (Pitron, 2021).

Además del impacto social y humano que conlleva: las personas que lo extraen esos minerales raros viven en la pobreza extrema y con una inmensa e interminable explotación. En un entorno que para las empresas mineras extranjeras es un vertedero tóxico, talando millones de árboles, arrasando decenas de pueblos, contaminando ríos y el propio aire, y destruyendo las tierras de cultivo. La catástrofe humana y medioambiental del Congo es la que mantiene nuestro estilo de vida en funcionamiento (Kara, 2023).

Conclusiones

La IA generativa dominante representa un reto para las instituciones de educación superior. Representa también una extensión del capitalismo digital en el ámbito de la educación. El nuevo escenario que tenemos frente a nosotros requiere un abordaje integral que vaya más allá del lugar común de pensar la tecnología digital como una herramienta disponible para su utilización a placer, una herramienta sin historia, sin un contexto de producción específico, sin política previa.

La tecnología actual está impulsada por un contexto social en el cual el capitalismo digital se ha expandido en cada vez más esferas de la sociedad, contribuyendo ahora a un modelo de negocio en el cual coexiste el ofrecimiento de productos gratuitos con el ofrecimiento de suscripciones de productos premium, ambos potenciados por una actividad extractiva de datos que consiste en la sangre del sistema. Esta actividad extractiva termina por apuntalar un esquema de expropiación del conocimiento socialmente producido, legitimado a través de la puesta en escena de herramientas y procedimientos de captura y minería de datos, útiles para entrenar a las tecnologías y mejorar su capacidad y alcance en la producción de respuestas y contenido que están diseñando el futuro. No es que estén vigilando nuestro futuro, sino que están condicionando nuestro presente para que, llegado el momento, nos comportemos tal como imagina quien diseña ese futuro.

Las implicaciones extractivas de la tecnología acompañan también un paulatino proceso de desplazamiento de trabajo, que, en la apuesta corporativa por la transformación educativa, se muestra tanto en la desprofesionalización de docentes y catedráticos, como en la sustitución del trabajo humano por dispositivos y programas digitales orientados a desarrollar una mejor gestión de las instituciones educativas y de las actividades que se llevan a cabo al interior de ellas, prescindiendo progresivamente del factor humano.

Todo lo anterior termina por condicionar el uso que se hace de la tecnología en las aulas, el cual, insistimos, no es neutral, sino que se asocia con un momento social y político específico. Desde el impulso a lógicas reproduccionistas en el ámbito de la educación universitaria, centradas en la generación de un volumen cada vez mayor de trabajos académicos, los cuales no necesariamente implican originalidad. Cuando se observa con calma, a menudo las respuestas obtenidas de la IA conllevan también visiones de mundo específicas, y determinados sesgos que condicionan el propio resultado académico relacionados con la brecha de acceso a los recursos digitales, la privacidad de los de los datos y la confidencialidad de la información de los estudiantes o la representatividad de los grupos minoritarios; así como la transparencia de las fuentes utilizadas, la fiabilidad de la información y la calidad de los datos que usan los algoritmos y a partir de los cuales toman decisiones, la justicia y la equidad de esas decisiones o la trazabilidad de las conclusiones autónomas de los algoritmos, la presencia de sesgos discriminatorios y estigmatizantes (Samaniego, 2022).

Estos elementos se enlazan con una serie de problemáticas como la naturalización de la tecnología en el ámbito universitario o incluso la normalización de lógicas neo-coloniales en los sistemas educativos del Sur Global, ahora ataviados por una nueva ola de incorporación tecnológica que, como lado oscuro implica una mayor dependencia a la infraestructura digital corporativa de empresas del Norte Global, así como la importación de ideas, presupuestos, visiones, enfoques, ideologías o concepciones políticas respecto a una diversidad de problemas. Al final del día, la IA generativa en las universidades conlleva también la generación de un currículum oculto, en el cual se integran elementos centrales del capitalismo histórico, ahora potenciados por el avance del mundo digital con sus mediaciones, sus modelos de negocio y sus prácticas expropiatorias sobre el conocimiento socialmente producido, así como por la apertura de cada vez más mercados en el ámbito educativo, cuyo fin último, detrás de la narrativa de la mejora de la educación, es la generación de ganancias y la construcción de polos de poder político.

Es necesario estar alertas y proseguir investigando de forma crítica sobre estas tecnologías que se nos venden como la solución salvífica del futuro de la humanidad y como la innovación educativa radical que re-evolucionará la Educación Superior del Siglo XXI. Seamos prudentes y sometamos a crítica constante las recetas mágicas cuyo trasfondo a veces queda demasiado oculto o en penumbra pues no parece tan mágico como se nos presenta por sus promotores.

Referencias

  • Acemoglu, D. (2024). The Simple Macroeconomics of AI. National Bureau of Economic Research. Links
  • Aguilar, R. (2024). “Amazon quería tiendas 100% automatizadas. Acabó con 1.000 trabajadores en la India vigilando cada compra”. Xataca. https://bit.ly/3Rmb8HX Links
  • Airoldi, M. (2021). Machine habitus: Toward a sociology of algorithms. John Wiley y Sons. Links
  • Airoldi, M. (2024). “The nested relationality of perceived legitimacy: Mapping taste hierarchies with granular digital traces”. Poetics, 102, 101864. https://doi.org/10.1016/j.poetic.2024.101864 Links
  • Aydin, Ö. (2023). “Revisión de literatura generada por Google Bard: metaverso”. Journal of AI, 7(1), 1-14. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4454615 Links
  • Ayoola, OO, Alenoghena, R. y Adeniji, S. (2023). “Impactos de ChatGPT en la eficiencia del acceso, el empleo, la educación y la ética: la socioeconomía de un modelo de lenguaje de IA”. BizEcons Quarterly, 16, 1-17. Links
  • Bachiller, R. (2022). “El tortuoso viaje de un clic”. El Mundo. https://bit.ly/3XvPkOf Links
  • Baskara, FR y Mukarto, FX (2023). “Exploración de las implicaciones de ChatGPT para el aprendizaje de idiomas en la educación superior”. Revista indonesia de enseñanza del idioma inglés y lingüística aplicada, 7(2), 343-358. https://ijeltal.org/index.php/ijeltal/article/view/1387/pdf Links
  • Bengio, Y., Hinton, G., Yao, A., Song, D., Abbeel, P., Darrell, T., ... y Mindermann, S. (2024). “Managing extreme AI risks amid rapid progress”. Science, 384(6698), 842-845. https://www.science.org/doi/10.1126/science.adn0117 Links
  • Castillejos, B. (2022). Inteligencia artificial y entornos personales de aprendizaje: atentos al uso adecuado de los recursos tecnológicos de los estudiantes universitarios. Educación, 31(60), 9-24. http://dx.doi.org/10.18800/educacion.202201.001 Links
  • Cotton, D.E., Cotton, P.A. y Reuben-Shipway, J. (2023). Chat y trampas: cómo garantizar la integridad académica en la era de ChaGPT. Innovations in Education and Teaching International. Routledge. Taylor y Francis Group, 1-12. https://doi.org/10.1080/14703297.2023.2190148 Links
  • Chance, C. (2022). ¿Ha habido un segundo Big Bang de la IA? Forbes. Links
  • Dell’Acqua, F., McFowland, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., ... y Lakhani, K. R. (2023). “Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality”. Harvard Business School Technology y Operations Mgt. Unit Working Paper, 24-013. https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf Links
  • Dempere, J.; Modugu, K.; Hesham, A., y Kumar, L. (2023). The impact of ChatGPT on higher education”, Frointiers in Education. https://doi.org/10.3389/feduc.2023.1206936 Links
  • Dodson, Mark y Gann, David. (2017). “Así es como la inteligencia artificial transforma las universidades”, Blog del Foro Económico Mundial. https://bit.ly/4cow74E Links
  • Du, H., Liu, G., Niyato, D., Zhang, J., Kang, J., Xiong, Z., ... y Kim, D.I. (2023). “Comunicaciones semánticas seguras sin entrenamiento conjunto asistidas por IA generativa a través de indicaciones multimodales”. https://arxiv.org/html/2401.13699v2 Links
  • Faraboschi, P., Frachtenberg, E., Laplante, P., Milojicic, D. y Saracco, R. (2023). „Inteligencia artificial general: ¿la decadencia de la humanidad o la prosperidad ilimitada?” Computer, 56(10), 93-101. https://doi.org/10.1109/MC.2023.3297739 Links
  • Ferrer-Bonsoms, C. (2024). “El CEO de Nvidia asegura que la inteligencia artificial general está a 5 años de distancia”. Business Insider. https://bit.ly/3yQx7R8 Links
  • Flores-Vivar, J. M. (2023). “Paradigmas de la inteligencia artificial en los nuevos escenarios de enseñanza y aprendizaje: Desafíos tecnológicos, pedagógicos y éticos”. Brazilian Journal of Development, 9(05), 14718-14732. https://doi.org/10.34117/bjdv9n5-015 Links
  • Flores-Vivar, J. M., y García-Peñalvo, F. J. (2023). “Reflexiones sobre la ética, potencialidades y retos de la Inteligencia Artificial en el marco de la Educación de Calidad (ODS4)”. Comunicar, 74, 37-47. https://doi.org/10.3916/C74-2023-03 Links
  • Gallent-Torres, C., Zapata-González, A., y Ortego-Hernando, J. L. (2023). “El impacto de la inteligencia artificial generativa en educación superior: una mirada desde la ética y la integridad académica”. RELIEVE, 29(2). https://doi.org/10.30827/relieve.v29i2.29134 Links
  • Gault, M. (2021). “Billionaires See VR as a Way to Avoid Radical Social Change”. Wired. https://bit.ly/3RjJETo Links
  • Gawdat, M. (2024). La inteligencia que asusta: El futuro de la inteligencia artificial y cómo podemos salvar nuestro mundo. Ediciones Paidós. Links
  • Guerra-Jáuregui, M. (2024, febrero 12). “Principios éticos de la educación con Inteligencia Artificial (IA)”. Edu News. https://bit.ly/3Kvj1ap Links
  • Gutiérrez-Cirlos, C., Bermúdez-González, J.L., Carrillo-Pérez, D.L., Hidrogo-Montemayor, I., Martínez-González, A., Carrillo-Esper, R., y Sánchez-Mendiola, M. (2023). “La medicina y el metaverso: aplicaciones actuales y futuro”. Gaceta Médica, 159, 286-292. https://doi.org/10.24875/GMM.23000166 Links
  • Haidt, J. (2024). La generación ansiosa: Por qué las redes sociales están causando una epidemia de enfermedades mentales entre nuestros jóvenes. Deusto. Links
  • Hao, K. (2019). “Entrenar un solo modelo de IA puede emitir tanto carbono como cinco automóviles a lo largo de su vida”. Revisión de tecnología del MIT, 75, 103-122. Links
  • Hao, K. (2022). “Artificial intelligence is creating a new colonial world order”. MIT Technology Review. https://bit.ly/3XeSS74 Links
  • Haskins, C. (2024, mayo 22). “Los humanos mal pagados detrás de la IA piden a Biden que los libere de la “esclavitud moderna”. Wired. https://bit.ly/4cvjwgH Links
  • Heath, M. K., Gleason, B., Mehta, R., y Hall, T. (2023). “More than knowing: Toward collective, critical, and ecological approaches in educational technology research”. Educational technology research and development, 1-23. https://doi.org/10.1007/s11423-023-10242-z Links
  • Hui, X., Reshef, O., y Zhou, L. (2023). “The short-term effects of generative artificial intelligence on employment: Evidence from an online labor market”. http://dx.doi.org/10.2139/ssrn.4527336 Links
  • Javaid, M., Haleem, A. y Singh, R.P. (2023). Un estudio sobre ChatGPT para la industria 4.0: antecedentes, potencial, desafíos y eventualidades. Journal of Economy and Technology. https://doi.org/10.1016/j.ject.2023.08.001 Links
  • Jiménez, A. (2020). “The Silicon Doctrine”, TripleC, 18(1): 322336. https://doi.org/10.31269/triplec.v18i1.1147 Links
  • Jung, M. (2023). “El capitalismo digital es una mina, no una nube”, Transnational Institute, https://bit.ly/3M9hc3B Links
  • Kara, S. (2023). Cobalt red: How the blood of the Congo powers our lives. St. Martin’s Press. Links
  • Khan, S. (2022). “How can AI support diversity, equity and inclusion?” World Economic Forum. https://bit.ly/3WPjatnd Links
  • Lehude, S. (2022). “Big Tech’s New Headache: Data Centre Activism Flourishes Across the World”. Artificial Intelligence. https://bit.ly/45fMTat6 Links
  • Lassalle, J. M. (2024). Civilización artificial. Arpa. Links
  • Latorre, J. I. (2024). Ética para máquinas. Ariel. Links
  • Li, F. (2024). The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI. Links
  • Lumbreras, A. (2024). De Alan Turing a ChatGPT. Realitat. https://bit.ly/3KvLxIL Links
  • Lv, Z. (2023). “Inteligencia artificial generativa en la era del metaverso”. Cognitive Robotics, 3, 208-217. https://doi.org/10.1016/j.cogr.2023.06.001 Links
  • Martínez, G. (2021, enero 19). “La Universidad Europea tramita un ERE inesperado para 275 trabajadores de sus tres sedes”. El Salto. https://bit.ly/4csXkmO Links
  • McQuillan, D. (2022). Resisting AI: An Anti-fascist Approach to Artificial Intelligence. Bristol University Press. Links
  • Mejias, U. A., y Couldry, N. (2024). “Data grab: The new colonialism of big tech and how to fight back”. In Data Grab. University of Chicago Press. Links
  • Monroy, J. M. (2023). “El uso de la IA en la educación superior plantea desafíos éticos y pedagógicos”. Gerencia. https://bit.ly/3RdR1vK Links
  • Montaño, A. (2023). “El dispositivo digital en la era del capitalismo algorítmico: el caso de ChatGPT”, Sintaxis (11), 33-48. https://doi.org/10.36105/stx.2023n11.04 Links
  • Moorosi, N., Sefala, R., y Luccioni, S. (2023). “AI for Whom? Shedding Critical Light on AI for Social Good”. In NeurIPS 2023 Computational Sustainability: Promises and Pitfalls from Theory to Deployment. Links
  • Morozov, E. (2023). “The problem with artificial intelligence? It’s neither artificial nor intelligent”, The Guardian, https://bit.ly/3YOYHt0 Links
  • Nguyen, A., Ngo, H. N., Hong, Y., Dang, B., y Nguyen, B. P. T. (2023). “Ethical principles for artificial intelligence in education”. Education and Information Technologies, 28(4), 4221- 4241. https://doi.org/10.1007/s10639-022-11316-w Links
  • Oppenlaender, J., Visuri, A., Paananen, V., Linder, R. y Silvennoinen, J. (2023). “Generación de texto a imagen: percepciones y realidades”. arXiv:2303.13530. https://doi.org/10.48550/arXiv.2303.13530 Links
  • Ortiz, A. (2024). “Dime dónde los costes laborales son altos y te diré dónde van a intentar sustituirlos con inteligencia artificial”. Error500. https://bit.ly/3RfIOXW Links
  • Park, P. S., Goldstein, S., O’Gara, A., Chen, M., y Hendrycks, D. (2024). AI deception: A survey of examples, risks, and potential solutions”. Patterns, 5(5), 1-16. https://doi.org/10.1016/j.patter.2024.100988 Links
  • Pastor, J. (2024). “Jensen Huang lo tiene claro: a estas alturas nadie debería aprender a programar, ya lo hará la IA por nosotros”. Xataca. https://bit.ly/4bSUiZF Links
  • Pastor, J. (2024). “La fintech Klarna despidió a 700 empleados en 2022. Ahora afirma que han cubierto esas bajas con una IA”. Xataca. https://bit.ly/4bRDF0m Links
  • Peco, R. (2024). “Un caos global que deja al descubierto la fragilidad de la nube”. La Vanguardia. https://bit.ly/46O1AMq Links
  • Perrault, R., y Clark, J. (2024). Artificial Intelligence Index Report 2024. Standford University. Links
  • Perrigo, B. (2023). “OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make Chat-GPT Less Toxic”. Time. https://bit.ly/4bTH8vg Links
  • Pitron, G. (2021). L’enfer numérique: voyage au bout d’un like. Éditions Les Liens qui libèrent. Links
  • Rouhiainen, L.P. (2018). Inteligencia Artificial. 101 cosas que debes saber hoy sobre nuestro futuro. Editorial Planeta. Links
  • Rudolph, J., Tan, S., y Tan, S. (2023). “ChatGPT: Bullshit spewer or the end of traditional assessments in higher education?” Journal of applied learning and teaching, 6(1), 342-363. https://doi.org/10.37074/jalt.2023.6.1.9 Links
  • Samaniego, J. F. (2022). “Los cuatro grandes retos éticos de aplicar la inteligencia artificial a la educación online”. Tecnología++. https://bit.ly/3VhLDsJ Links
  • Sullivan, M., Kelly, A. y McLaughlan, P. (2023). “ChatGPT en la educación superior: consideraciones para la integridad académica y el aprendizaje de los estudiantes”. Journal of Applied Learning y Teaching, 6 (1), 31-40. https://doi.org/10.37074/jalt.2023.6.1.17 Links
  • Svanberg, M., Li, W., Fleming, M., Goehring, B., y Thompson, N. (2024). “Beyond AI Exposure: Which Tasks are Cost-Effective to Automate with Computer Vision”. http://dx.doi.org/10.2139/ssrn.4700751 Links
  • UNESCO. (2023). ChatGPT and Artificial Intelligence, UNESCO Links
  • Varoufakis, Y. (2024). Tecnofeudalismo: El sigiloso sucesor del capitalismo. Deusto. Links
  • Vidal, J., Llorens-Largo, F., y García-Peñalvo, F.J. (2024). “La nueva realidad de la educación ante los avances de la inteligencia artificial generativa”. RIED, 27 (1). https://doi.org/10.5944/ried.27.1.37716 Links
  • Villoro, J. (2024). No soy un robot. Anagrama. Links
  • Weatherby, L. (2023). “El ChatGPT es una máquina de ideología”. Jacobin. https://cutt.ly/5wqsAEatR Links
  • Williamson, B. (2023). “Degenerative AI in education”. Code Acts in education. https://bit.ly/45lsWZx Links