SciELO - Scientific Electronic Library Online

 
 número13Cuando las máquinas sueñan por nosotros. La democracia en el mundo del capitalismo algorítmico: el caso de Cambridge AnalyticaEl auge de los refrendos: un reto en términos de comunicación democrática índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Sintaxis

versión On-line ISSN 2594-1682

Sintaxis  no.13 Huixquilucan jul./dic. 2024  Epub 12-Mayo-2025

https://doi.org/10.36105/stx.2024n13.05 

Artículos

Actualización sobre el concepto de brecha digital en tiempos de la inteligencia artificial: hacia una propuesta cualitativa

Update on the concept of the digital divide in the Age of Artificial Intelligence: towards a qualitative proposal

Luis Josué Lugo1  *
http://orcid.org/0000-0003-1377-6265

Miguel Ángel Barrera Rojas2  **
http://orcid.org/0000-0002-9240-7646

1 Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, UNAM. Cto. Bicipuma 3000, C.U., Coyoacán, C.P. 04360 Ciudad de México, México. Correo electrónico: josue.lugo@politicas.unam.mx.

2 Universidad Autónoma del Estado de Quintana Roo, División de Ciencias Políticas y Económicas Campus Chetumal Bahía. Boulevard Bahía s/n esq. Ignacio Comonfort Col. Del Bosque,C.P. 77019, Chetumal, Quintana Roo, México. Correo electrónico: miguel.barrera@uqroo.edu.mx.


Resumen

Este documento busca avanzar en el entendimiento de la brecha de participación mediante un enfoque cualitativo, apoyado en una rigurosa revisión documental, la elaboración de un estado del arte y la reflexión teórica sobre varios conceptos, incluyendo el CC (Correa, 2012, Zuckerfeld, 2011; Rullani, Boutang, Lazzarato, 2004), SIC (Castelles, 1997; Crovi, 2014; Alva, 2015; Delors, 1993; Mattelart, 2001) y brecha de participación (Norris, 2001). Esta investigación actualiza el primer debate planteado en un congreso de la Asociación Mexicana de Investigadores en Comunicación respecto a brechas digitales (Lugo, 2019) y forma parte del Seminario Internacional Permanente de Inteligencia Artificial en las Ciencias Sociales (SIPIACSO). Consideramos que nos dará pistas para dimensionar cómo en tanto no logremos saltar dicha brecha nos será muy complicado experienciar la Inteligencia Artificial Generativa (IAG). Y de ahí, pensarla desde su nivel público, como una herramienta efectiva de participación.

Al tiempo que se propondrán diversos puntos de análisis para otros estudios posteriores, derivados del estado del arte; tales como brecha de responsabilidad (Santoni y Mecacci, 2021). Además, mediante el uso de talleres lúdico-reflexivos (TLR) (Lugo, 2020), se delineará la segunda parte de esta investigación. Esta fase empleará métodos cualitativos (Orozco y González, 2015) y se valdrá de técnicas como la observación (Lugo, 2019), entrevistas semi estructuradas (Vela, 2001) y análisis de redes sociales para el estudio de casos específicos. Cabe mencionar que esto se fundamenta en un primer ejercicio que realizamos en 2023 (Lugo, 2023).

Palabras clave: accountability gap; information and knowledge society; cognitive capitalism; digital ethnography; artificial intelligence

Abstract

This document aims to advance the understanding of the participation gap through a qualitative approach, supported by a rigorous documentary review, the development of a state-of-the-art, and theoretical reflection on several concepts, including cognitive capitalism (Correa, 2012; Zuckerfeld, 2011; Rullani, Boutang, Lazzarato, 2004), the Information Society (Castells, 1997; Crovi, 2014; Alva, 2015; Delors, 1993; Mattelart, 2001), and the participation gap (Norris, 2001). This research updates the initial debate presented at a congress of the Mexican Association of Communication Researchers (Lugo, 2019) and is part of the Permanent International Seminar on Artificial Intelligence in the Social Sciences (SIPIACSO). We believe it will provide insights into the challenges of bridging this gap, which is crucial for experiencing Generative Artificial Intelligence. From there, we consider it from its public level, as an effective tool for participation.

While proposing various points of analysis for subsequent studies derived from the state of the art, such as the responsibility gap (Santoni and Mecacci, 2021), the second part of this research will be outlined through the use of playful reflective workshops (Lugo, 2020). This phase will employ qualitative methods (Orozco and González, 2015) and will utilize techniques such as observation (Lugo, 2019), semi-structured interviews (Vela, 2001), and social network analysis for the study of specific cases. It is worth mentioning that this is based on an initial exercise we conducted in 2023 (Lugo, 2023).

Keywords: participation gap; cognitive capitalism; society of the information; ethnography; digital participation

Introducción

El presente trabajo propone un estado del arte para que sea una premisa científica para el desarrollo de TLR que posibiliten una agencia y alfabetización de IA en sectores académicos (como primera etapa). En tanto, se adscribe al Seminario Internacional Permanente de Inteligencia artificial en las Ciencias Sociales, en el cual participamos la UNAM y la UQROO (universidades a las que estamos adscritos quienes suscriben la presente comunicación). De tal manera que, dichos talleres se estarán presentando en el segundo semestre de 2024; de los cuales, también se derivarán análisis, artículos y problematizaciones sociales ligados al campo de la IA.

El objetivo del texto es identificar cómo la brecha de participación digital se manifiesta en el marco del Capitalismo cognitivo (CC) y la Sociedad de la Información (SIC), particularmente en relación con la adopción y el uso de la IA; para proponer un taller lúdico reflexivo, a desarrollarse en una segunda etapa. Para ello la discusión teórica parte del contexto del CC, para luego hablar sobre SIC y posteriormente pasar al tema de brechas; con el fin de situarlo fundamentalmente en la brecha de participación o de tercer orden (Norris, 2015). Se menciona que este trabajo está antecedido por otras pesquisas en las cuales exploramos, por un lado, el tema de brechas (Alva, 2017 y Lugo, 2019) y por otro, propusimos talleres académicos de IA generativa (Lugo, 2023). Sin embargo, en la presente comunicación actualizamos los debates (sin dejar de dialogar autores y enfoques clásicos, así como parte de nuestra propuesta conceptual), además de re semantizar la propuesta de talleres. Al tiempo que aportamos insights novedosos, como el estado del arte, construcciones teóricas y reflexionemos situadas a nuestro tiempo.

La pregunta guía del texto va en el sentido de entender cómo se manifiesta la brecha de participación digital en el marco del CC y la SIC, en particular con respecto a la adopción y uso de la Inteligencia artificial, y cuáles son las características clave que debería tener un taller lúdico reflexivo para abordar efectivamente esta brecha. Respecto a la hipótesis: La brecha de participación digital en el contexto del CC y la SIC se caracteriza por una desigualdad significativa en el acceso y uso de la Inteligencia artificial, sobre todo entre centros y periferias; lo que contribuye a desigualdades socioeconómicas y culturales, además de propiciar sesgos de responsabilidad entre objeto/sujeto. Aunado a ello, identificamos una brecha de responsabilidad entre las IA´s y los actores que las usan, lo que puede ser peligroso al no asumir consecuencias de acciones. Es así como, un taller lúdico reflexivo, diseñado con un enfoque en la apropiación en IA desde las Ciencias Sociales, puede ser una estrategia efectiva para mitigar estas desigualdades y promover una mayor participación ciudadana.

Metodológicamente se propone una estrategia de indagación fundamentada en TLR (Lugo, 2020), mediante método cualitativo (Orozco y González, 2015), que en cuanto a técnicas combine entrevistas semi estructuradas (Vela, 2001), observación no participante (Lugo, 2019) y análisis de redes. Se enfatiza que el presente trabajo pretende aportar insumos a la discusión respecto a la brecha en nuestro país, ahora situado en la Inteligencia artificial.1 Se parte del supuesto de que, traspasar dicha brecha es sustantivo para incentivar climas de participación digital. No sin antes comprender las razones por las que una persona se moviliza o no en redes, pero también con el fin de pasar a la acción, ya sea en sector gubernamental (mediante políticas públicas) e inclusive a nivel cultural, social y/o académico, con el desarrollo de talleres o seminarios sobre el tópico que aquí se expone. Nos proponemos explorar la brecha de IA en este escenario tan acelerado y al mismo tiempo contingente de sociedades informacionales. Toda vez que: “Los países con poblaciones con altos niveles de formación y altamente cualificada tienen más posibilidades de adoptar estas tecnologías”, sentencia Stefan Pahl (2022). Punto que provoca una profunda desigualdad, que merece la pena abordarse epistémicamente, desde el campo de las Ciencias Sociales.

La literatura revisada sugiere que la investigación en IA debe incluir consideraciones éticas y sociales, más allá de las tecnológicas, y propone agendas de investigación (Guo, Kamar, et al., 2019); que para nosotros deben abarcar temas como sesgos, políticas de estado, metodologías en ciencias sociales, beneficios colectivos, y género e IA. Además, se enfatiza la necesidad de una IA que promueva la autonomía, gobernanza y ética, subrayando la co-participación y responsabilidad compartida en su desarrollo y evaluación (Schiff, Rakova et al., 2022).

Estado del arte

Después de la pandemia, en la cual la virtualización de la educación y el teletrabajo se volvieron constantes en la sociedad, surgió un significativo interés por analizar y abordar las brechas digitales desde la perspectiva de las ciencias sociales. Sin embargo, es importante señalar que la mayoría de estos trabajos se concentran en temas como la alfabetización digital, el acceso a Internet y la calidad de la infraestructura y conectividad. Esta situación ha creado un vacío significativo en los trabajos que exploran la brecha digital en relación con el uso y la apropiación de la Inteligencia artificial (IA). En este sentido, se llevó a cabo de manera ética (Lugo, 2023), a través de los principales motores de búsqueda de IA como Consensus (GPT4), Sci Space y Perplexity. Con estas tres bases de datos, logramos obtener una saturación inicial de resultados para la primera etapa. Sin embargo, para una fase posterior, planeamos ampliar nuestra búsqueda a bases como BidiUNAM, Redalyc y Scielo. Es importante destacar que nosotros, como investigadores, fuimos responsables de seleccionar y analizar la información presentada aquí. La matriz fue creada con la ayuda de las IA, siguiendo nuestras instrucciones y metodologías, mientras que la reflexión fue realizada por nosotros mismos. También es relevante mencionar que las palabras clave fueron seleccionadas en función de nuestro objetivo de investigación, las cuales fueron “brecha” e “inteligencia artificial”. A medida que seleccionamos los resultados, contamos con la ayuda del co-pilot, especialmente en Sci Space. Posteriormente, analizamos los resultados de la búsqueda tanto de manera independiente como con nuestra inteligencia humana, lo que nos permitió establecer puntos de análisis que se abordarán más adelante.

Ahora bien, procedamos a realizar un breve análisis de esta primera etapa del estado del arte. En un principio, decidimos ampliar nuestras investigaciones a estudios en diferentes idiomas. Esta decisión abre una ventana de diálogo con diversas academias, aunque también introduce un sesgo cognitivo, ya que se observa una escasez de investigaciones latinoamericanas. Por lo tanto, mediante el uso de redes neuronales, que es la forma en que opera la IA, notamos que varias universidades de países periféricos quedan excluidas. Esto nos impulsa a emprender, posteriormente a la publicación de este artículo, una segunda fase en esta investigación, ahora con un enfoque más profundo y ampliado en el corpus de análisis.

Informe de resultados respecto al estado del arte

Se identificó que sí hay estudios en el contexto de las ciencias sociales y la inteligencia artificial, mismos que se describen a continuación. En principio, se halló una pesquisa en el trabajo de Amballoor y Naik (2020) en donde se pone énfasis en la justicia social y cómo esta se ve reflejada -o no- en los algoritmos, resaltando la posibilidad de sesgos inherentes. Se menciona que las IAs afectan todos los aspectos de la vida cotidiana. Hecho que converge con nuestra propuesta; empero, vamos de la visualización de datos cuantitativa que maneja el artículo a los TLR, mediante los cuales proponemos explorar el sesgo representacional, facilitando que los propios sujetos sean quienes hagan sus propias creaciones visuales y realicen crítica de ello. El propio texto hace un llamado a la política para ser una mediadora entre las ciencias sociales y la inteligencia artificial.

En el texto Teoría del actor-red (Amballor, R. y Naik, S., 2020) se pone de manifiesto que se deben hacer efectivos los objetivos del desarrollo sostenible en términos del acceso pleno a TICS para mejorar las condiciones de educación. Asimismo, el texto invita a reflexionar desde las Ciencias Sociales a la Inteligencia artificial como “la investigación sobre el lado humano de la alienación de la IA debe recibir la máxima prioridad para abordar las incertidumbres que surgen debido a la racionalidad, la emoción y los prejuicios humanos” (Amballor y Naik, 2020, p. 2). En este texto también se destacan temas sobre la IA que deben ocupar a las ciencias sociales en la actualidad y que tienen que ver con el sesgo algorítmico: privacidad, la discriminación, el racismo, la seguridad, el género, la ética y otros prejuicios.

También se encontró un análisis de caso que se centra en un grupo vulnerable (personas con discapacidades del habla o cognitivas), proponiendo soluciones pertinentes mediante el uso de IA. En este texto de Anthong Guo y Ece Kamar (2019), se propone construir algoritmos más inclusivos, es decir, se incorporan categorías analíticas de alcance intermedio como Visión por computadora (Computer Vision), Reconocimiento facial (Face Recognition), Reconocimiento corporal (Body Recognition), Reconocimiento de objetos, escenas y texto (Object, Scene and Text Recognition), Sistemas de habla y reconocimiento de voz (Speech Systems). El texto propone una agenda de investigación para identificar y remediar deficiencias en la IA con las personas con discapacidad. Este aspecto sugiere una preocupación por la equidad en el uso de la inteligencia artificial (línea de investigación a la que también nos sumamos).

Por su parte, el texto de Plasek et al. (2016) aborda el impacto socioeconómico de la inteligencia artificial desde una perspectiva de ciencias económicas. Se destacan temas como la automatización del trabajo y la brecha de desigualdad, temas recurrentes que merecen ser considerados en nuestro propio estudio. En cuanto a la ética y filosofía, se discute la responsabilidad y autonomía de los sistemas artificiales, los cuales, desde hace 64 años se han aplicado y hoy en día se han vuelto el centro de atención. De lo anterior, se cuestiona si el uso de IA y la automatización de procesos productivos ayudará a superar o amplificar los sesgos en la toma de decisiones humanas. Desde esta postura, asumimos un rol activo en la investigación para coadyuvar con un método riguroso al diagnóstico/solución del conflicto. Asimismo, abordan los sesgos en los datos y su creencia real de representación. También trata la Falacia del pedazo de trabajo. Esto lo relacionan con el precariado2 (precario y proletariado). Dado lo anterior, nos atrae el reto sobre la Responsabilidad Ética, que se discute desde la ética profesional, la ética de la investigación o incluso las evaluaciones de seguridad pública (Plasek et al., 2016, p. 18). Por consiguiente, coincidimos con las preocupaciones que se esbozan: sesgos, beneficios colectivos y brechas. Siguiendo con Plasek et al. (2016) nos llama la atención el cómo se insinúa la necesidad de la intervención de la política para evitar el precariado. En tanto, las personas deben ser capaces de saber responder o apelar decisiones de las IA´s. Es decir, hay una relación de poder: los débiles no pueden ignorar a quienes diseñan y configuran lo ético. Dicho por Plasek et al. “Las personas que tengan los datos y recursos informativos tienen la ventaja estratégica” (2016, p. 20). Además, ambos textos abogan por ampliar el uso de la IA en poblaciones que no tienen acceso a ella. De ahí, el fundamento de nuestra propuesta. La pesquisa en cuestión recomienda investigar modos alternativos de distribución de ingresos, recursos, educación y reciclaje. Se propone ampliar la participación con representantes y miembros de las comunidades afectadas por la aplicación y co diseñar la IA responsablemente. Por tanto, el concepto de brecha de responsabilidad emerge como un desafío clave, planteando cuestiones sobre la autonomía y posibles conflictos generados por la inteligencia artificial.

También se revisó el trabajo de Daniel Schiff et al. (2022) quienes se enfocan en la autonomía de la inteligencia artificial, tocando temas de gobernanza y ética. Su texto cuestiona y analiza los beneficios sociales y responsabilidades en su uso y apropiación. Desde una perspectiva empresarial, se mencionan oportunidades para que la IA contribuya proactivamente al bien social y la equidad, como la IA de Microsoft. Por eso explora la brecha entre principios y prácticas, particularmente en el contexto de las corporaciones. De igual manera, los autores se preocupan por los lineamientos que se plantean para el diseño, desarrollo y aplicación responsable de la IA (ética). También trabajan el concepto de brecha de responsabilidad, como un problema de “muchas manos”, cuya definición refiere a la distribución confusa de las responsabilidades durante el desarrollo y aplicación de la IA. Luego, se le considera un proceso iterativo de tres dimensiones: 1) Análisis interno: Evaluar posibles daños, riesgos, usuarios y usos de interesados y no interesados (sin limitarse a la privacidad, prejuicios o transparencia). 2) Participación de usuarios y partes interesadas: Relación entre desarrolladores y usuarios para preguntar sobre impactos (psicológicos, económicos, relaciones sociales, trabajo, salud y vida personal). 3) Recopilación de datos: Encuestas, enfoques, grupos, fuentes disponibles públicas o generadas de los resultados del sistema (Schiff, et al., 2022). La apuesta, por tanto, de Schiff et al. (2022) es una IA responsable desde el punto de vista ético-empresarial que se ciñe a seis puntos: principios y prácticas; contexto actual de la IA responsable; incentivos; impactos de la IA; división disciplinaria y distribución organizacional de responsabilidades; gobernanza del conocimiento; y desafíos para identificar mejores prácticas. Estos puntos se sitúan en el debate sobre el desplazamiento laboral a través de los casos de la automatización de procesos en el ámbito militar, educativo y de la salud. La complejidad de la IA, según los autores, apunta a ir más allá de una “burbuja” donde se observen solo el sesgo, la transparencia, la privacidad o seguridad; ya que se corre el riesgo de fomentar polarización, desinformación, y propaganda.

En otro estudio, Santoni y Mecacci (2021) retoman el tema de la brecha de responsabilidad, proponiendo un control humano significativo sobre la inteligencia artificial. Abordan los conceptos de responsabilidad en la filosofía moral y jurídica (Santoni y Mecacci, 2021, p. 1058). Y de nuevo vuelve al tema de brecha de responsabilidad. A partir de la filosofía propone cuatro formas de responsabilidad: culpabilidad, basada en la intención, conocimiento o control. Responsabilidad moral, deber de las personas de explicar a los demás sus motivos y acciones (en determinadas circunstancias). Responsabilidad pública, deber de los agentes públicos de explicar sus acciones a un foro público. Responsabilidad activa, deber de promover y alcanzar objetivos y valores compartidos por la sociedad. Éstas formas de responsabilidad nos parecen ideas sustantivas para ser tallereadas en campo, con personas que conozcan dichos conceptos, enfatizando las brechas de responsabilidad. De acuerdo con los autores, éste es un término que introdujo Andres Matthias en 2004. Respecto a la IA, se refiere a la pérdida de control y predicción humana en el comportamiento y autonomía de los sistemas de inteligencia artificial. Matthias abordó el riesgo de no poder impugnar resultados no deseados de las acciones medidas por la IA. Se pone en predicamento de lo humano sus capacidades racionales y su sentido de agencia y responsabilidad (2021, p. 1057). Respecto a la IA se preocupa que “pueda hacer que las personas sean menos capaces de comprender, explicar y reflexionar sobre su propio comportamiento y de otros agentes” (Santoni de Sio y Mecacci, 2021, p. 1065). Por ejemplo, en las brechas de responsabilidad moral, se cuestiona que las personas no sean capaces de comprender, explicar y reflexionar las decisiones que toma la IA; cuestionando su comportamiento y conocimiento (al igual que de otros). El texto señala las cajas negras, pues es difícil saber a quién se acude, dentro de la cadena de diseño, desarrollo y producción, en caso de errores en los datos y decisiones. Y entre los intereses que se mantienen en debate están la transparencia algorítmica,y la explicabilidad para la atribución justa de culpabilidad moral y legal.

Por su parte, en el sexto estudio de Emma Dahlin (2021) se analiza cómo algunos de los desafíos de la investigación en inteligencia artificial están relacionados con la brecha entre los análisis tecnológicos y sociales, y propone pasos a seguir para lograr colaboraciones prósperas en la investigación futura sobre inteligencia artificial. Al respecto: “Los proyectos que encuentren nuevas formas de conectar los análisis tecnológicos y sociales estarán mejor equipados para comprender e influir en cómo la IA cambia la sociedad”. (Dahlin, 2020, p. 3)”. A la par, propone fases: en la fase de planificación, el primer ejemplo destaca el riesgo de simplificar en exceso la tarea para un sistema de inteligencia artificial al no incorporar un análisis social al principio del desarrollo. El segundo ejemplo ilustra el problema de la aceptación del sistema, donde el artículo elabora por qué la aceptación es multifacética y no debe abordarse únicamente como un problema técnico. Con el tercer ejemplo, el artículo señala que los sistemas de inteligencia artificial pueden cambiar una práctica. Se plantea una brecha de conocimiento (Dahlin, 2021), entendida como un alejamiento o separación entre el ámbito tecnológico y social y se apela por una investigación multidisciplinaria. En tanto, las preocupaciones sociales y tecnológicas tendrían que ir de la mano, para garantizar sistemas de IA factibles y sostenibles que beneficien a la sociedad. Y metodológicamente también explora los estudios de caso. Y nos gusta la idea de pensar en una IA sostenible, “explorar las conexiones entre el diseño técnico de una IA y sus implementaciones sociales será clave para garantizar sistemas de IA viables y sostenibles que beneficien a la sociedad y que la gente quiera utilizar” (Dahlin, 2020, p. 3). Encomienda, en la que, según el autor, las universidades deberían colaborar.

Recapitulando, este estado del arte revela la importancia de abordar la inteligencia artificial desde múltiples perspectivas, considerando tanto los aspectos técnicos como los sociales y éticos. Nuestra reflexión podría profundizar en cómo estas diferentes perspectivas se entrelazan y se influyen mutuamente, y cómo su investigación puede contribuir a este diálogo interdisciplinario. Sin lugar a duda, tales puntos son sustantivos para entender los factores socio culturales asociados a las brechas en tiempos de la inteligencia artificial.

Marco teórico

Para explorar la brecha de participación, hemos seleccionado el marco del CC como punto de partida. Esta decisión se fundamenta en la identificación, a través del estado del arte, de la necesidad de enmarcar nuestro estudio dentro de un amplio contexto que refleje las dinámicas sociopolíticas de Latinoamérica, especialmente en México. Es relevante mencionar que, al abordar este concepto, se suele recurrir a una interpretación principalmente estructural que resalta temas como la dominación y la vigilancia, aspectos destacados en este modelo social. No obstante, al analizar el rol de los actores sociales, descubrimos que ellos también tienen la capacidad de organizarse y emprender acciones colectivas, es decir, de convertirse en agentes. En este sentido, Sierra (2016) indica que, en este marco, el CC influye en la conformación tanto del espacio público como de la esfera pública, actuando como un intermediario social.

Tal como lo plantea Boutang (2004), implica una transformación cualitativa que cambia del capitalismo esclavista absolutista al industrial asalariado y “democrático”, donde las ganancias son producto de la producción del conocimiento en tanto hay una acumulación primitiva de derechos de propiedad. Por ello, plantea el término cognitariado (proletariado del trabajo cognitivo). No obstante, dentro de la virtualización (Web) existe la oportunidad de la confrontación ante la oferta y demanda, la creación del propio mercado y la interacción mundializada. Propiedades privatizadas, por lo menos en los principales programas de IA, pero que producen” mentes en común” con una aparente gratuidad, para reforzar las ganancias de los oligopolios mediáticos. Por lo que se reproducen los cognitarios, a una escala cada vez más global (reforzando brechas).

Por lo tanto, es importante recordar, como señala Correa (2012), que los teóricos del CC, al igual que Hardt y Negri, argumentan que, en la fase actual del capitalismo, el trabajo inmaterial y las mercancías cognitivas predominan. Para Rullani (2004), el conocimiento determinista al servicio de la producción (control de la naturaleza por técnica y al ser humano por jerarquía) se valoriza mediante su escasez artificial, pues es mediante algún poder que se limita temporalmente la socialización y se reglamenta el acceso (una pérdida de la fuerza liberadora). Rullani (2004) explica que el valor de cambio del conocimiento depende completamente de la capacidad práctica de restringir su libre difusión, es decir, de limitar mediante instrumentos legales -como patentes, derechos de autor, licencias y contratos- o medidas monopolísticas para limitar la capacidad de copiar, imitar, ‘reinventar’ o adquirir conocimientos de otros

Aspecto que observamos en los servicios freemium y premium de la IA, en la cual se reglamenta acceso y también se cobra para seguir accediendo a determinadas funciones. Esto es, se limita la libre difusión. Y desde el propio código se privatiza el conocimiento. Por ende, nos posicionamos desde la definición de Francisco Sierra (s.a), para la definición de CC, en la cual señala nuevas dinámicas de producción como un marco conceptual, destacando el papel de la tecnología y las formas ampliadas de cooperación en el tardocapitalismo como respuestas a la crisis económica. El zeitgeist de nuestra era se define por la captura del código, el control sobre la información y el conocimiento, y el trabajo inmaterial. En este contexto, se enfatiza la importancia de la dimensión subjetiva y simbólica, así como la creatividad del trabajo humano, superando la preeminencia de la infraestructura o el capital físico que caracterizaba al modelo fordista y a la revolución científica del trabajo. Sierra sugiere que muchas de las transformaciones vinculadas con la teoría del “general intellect” y que se reflejan en la estructura social, están directa o indirectamente relacionadas con el aumento y la socialización de las capacidades para crear, transformar y desarrollar nuevos procesos productivos de manera colectiva.

Si lo pensamos en clave Inteligencia artificial, el CC se asocia a la inmaterialidad del algoritmo generativo y sus ulteriores mercancías cognitivas (como Chat GPT). A la inmaterialidad de la producción del sujeto, quien al final ofrece sus creaciones a empresas como Open AI; quien también se queda con sus productos generados. Pero: ¿quiénes puedan usar dichas herramientas? Que, por cierto, son tendientes a cobrar3 para brindarle más funciones al usuario. Lo que, provoca mayores brechas, toda vez que incluso entre quienes saben usar la herramienta, se marcan disparidades en las funciones que pueden tener con los servicios gratuitos (que además piden acceso a todos los datos del usuario) y los premium. En el marco de los talleres que hemos impartido colocamos un ejemplo: para leer PDF´s con programas como PDF AI, si no tienes versiones de paga, hay un límite de archivo que puedes subir (eso sin contar los problemas con la privacidad y seguridad de datos). Por tanto, la cantidad de trabajo que se puede hacer es menor.

Al profundizar en el CC, además de la perspectiva ya discutida, consideramos esenciales a autores como Horacio Correa (2012) y Mariano Zuckerfeld (2011). Ellos amplían nuestra comprensión del CC al incluir no solo elementos económicos y tecnológicos, sino también marcos decisionales, relacionales, afectivos y biopolítico.4 De acuerdo con Lazzarato (2004), el valor estético emerge como un componente crucial que cataliza deseos; para producir y consumir, lo que permea la propia definición de cultura. La clientela se visualiza como consumidora, la cual demanda una producción libre, propiedad colectiva y circulación sin coste. Lo que quizás podemos observar en las fascinaciones sociales por la imagen y video, disponibles en Tik Tok (que permite el uso de IA) o programas como Dalle. Que per se, pueden ser herramientas intermediadoras de conocimiento, siempre y cuando el goce no anule el pensamiento crítico y social de quienes las utilizan. Sin duda, habríamos de profundizar en el tema, pero cuántas personas hoy presentan adicción a la tecnología, que por cierto potencia imaginarios de uso con las funciones que agrega la IA (pensemos en los filtros de Instagram o Tik Tok).

Desde la psicología, el conductismo y el psicoanálisis han explorado dicha adicción de distintas formas. Para el primero, es un comportamiento reforzante para sentir alivio (Echeburúa y Corral, 2010 como se cita en García, 2013) que parte de la adicción al Internet (vehículo para desarrollar otras adicciones) y que produce una alta vulnerabilidad psicológica. En las redes sociales implica “una mejora” de las relaciones sociales, baja responsabilidad, experiencias, sentimientos de soledad, aburrimiento o narcisismo. Se ha propuesto el Modelo de Adicción Biopsicosocial de Griffiths (2005) para seguir los criterios clínicos de diagnóstico para una adicción conductual (saliencia o poner por encima de todo tal actividad, cambios de humor, tolerancia, síndrome de abstinencia, conflictos o pérdida de control y recaídas). Por otro lado, el psicoanálisis visualiza la adicción como una manía tóxica que se extiende mediante la compulsión (repetición) negadora (excluir y controlar el dolor, pérdida o separación); es decir, “un apego excesivo a la repetición sistemática y monótona de un procedimiento a realizarse en un sistema cibernético, y por el cual se van alcanzando ciertos objetivos dentro del mismo sistema” (Fleisher, Allegro, Zerba, Rivas, Surmani, Hidalgo, Berdullas, Mena, Warjach y Carrasco, 2014, p. 197). En dicha adicción no se puede esperar responsabilizar al objeto porque es vertiente del sujeto; el cual, vive una ficción desvaneciente (obsolescencia programada) y que provoca un consumo inagotable donde desde los impulsos se busca satisfacer el deseo.5 Por tanto, para ambas corrientes (que pocas veces se ponen de acuerdo) hay un problema con el exceso de tecnología e IA. Se pierde al sujeto entre tantas imágenes, proveídas desde un sistema social y política.

Al mismo tiempo, TikTok ha sido fuentes de señalizaciones porque la eficacia de su algoritmo, donde la Inteligencia artificial (IA) es responsable de la alta personalización de ítems (como “Para ti”) que hacen a los usuarios entrar en estado de flow (Csikszentmihalyi, 2002 como se cita en Martinez, 2024); es decir, tener plena concentración y participación en la actividad con una distorsión del tiempo. Esto se alimenta del diseño de “Me gusta” que provoca recompensa, liberación de dopamina y retroalimentación positiva al usuario. Para ello, se ha recurrido al DSM-5 (Diagnostic and Statistical Manual of Mental Disorders), Manual diagnóstico y estadístico de los trastornos mentales (APA, 2014) para establecer criterios de diagnóstico y un posible estudio sobre la relación de la adicción a las redes sociales con la teoría del apego y derivados desde la infancia (Burhan, R. y Moradzadeh, J., 2020 como se cita en Martinez, 2024). De manera similar, de acuerdo con Solís (2024) el síndrome de FOMO (Fear of Missing Out), implica una presión social para estar involucrado en eventos o actividades que no son esenciales ni necesarias para la persona, lo cual puede influir en la toma de decisiones y afectar el bienestar emocional, porque los observan a través de plataformas digitales. Este síndrome puede conducir a comportamientos adictivos, comparaciones frecuentes en plataformas de redes sociales, y un fuerte deseo por parte de los usuarios de estar continuamente conectados a las Tecnologías de la Información y la Comunicación (TIC) y las Redes Sociales (RRSS).

Aunque, más allá de esto, tal hecho tiene como consecuencia una representación de ciertos grupos en la ecosfera. Y la exclusión de otros, que no tienen voz dentro de dicho espacio digital. Al tiempo que, una de las principales fuerzas impulsoras del CC es la innovación. Dentro de esta división entre ciudadanos que pueden innovar y aquellos que no, a menudo se encuentra que los jóvenes de clase media adoptan una ideología de superación personal, influenciada por los valores de una “clase creativa”. (Zukerfeld, 2011). Esto provoca una disgregación que tiene por un lado a gente ofreciendo sus servicios informacionales, y a otra sobreviviendo dentro de sus barrios, sin contar con la posibilidad de ir más allá de un like o retuit.6 O aún más: de usar Chat GPT, Perplexity, Sci Space, y otros programas de Inteligencia artificial Generativa, lo que impacta directamente en sus habilidades y competencias frente a los trabajos que desarrollan. Fuera de la lógica de mercado, ¿podríamos considerar como cierre social (Parkin, 1984, como se citó en Zukerfeld, 2011) los elevados costos de las nuevas versiones de programas como Chat GPT? ¿Pedir que en las habilidades profesionales se maneje IA es otra forma de cierre social? ¿Dejar de lado a grupos vulnerables de políticas informacionales que les alfabeticen en materia de IA es otro cierre social? Preguntas que tendremos que seguir respondiendo.

Tras abordar el CC, que incluye una producción biopolítica, debates sobre derechos de autor, el concepto de procomún como resistencia y el contagio de afectos, vinculamos este concepto con la SIC y el conocimiento. Porque, el capitalismo, como modelo económico, continúa sus procesos productivos enfocados en la acumulación de capital y ganancias; sin embargo, bajo el paradigma de las sociedades informacionales, se han utilizado las mediaciones tecnológicas para aumentar la productividad y eficiencia, e influir en los valores y creencias de los individuos. Entramos al terreno de las subjetividades. En este aspecto, la SIC y el conocimiento, una de las principales ideas del CC, ha sido extensamente explorada por autores como Crovi (2014), Alva (2015) y Mattelart (2001) Esta categoría es polisémica y su significado está en constante cambio (acorde a los contextos). En el contexto actual de las inteligencias artificiales, es relevante reconsiderar este concepto.

Ante esto, nos preguntamos si hoy convendría hablar de sociedades de la información generativas, dado el impacto que ha tenido el desarrollo de las inteligencias artificiales, en sus acelerados ritmos en los cuales ha situado prácticas políticas, económicas, culturales e ideológicas. Por lo que al mismo tiempo convendría preguntarnos a quiénes benefician esas sociedades informacionales generativas, toda vez que la producción, muchas veces sigue quedando en manos de diversas industrias culturales.7 Como señala el sociólogo español Manuel Castells (1997), en el contexto del capitalismo actual, los dos pilares fundamentales de la sociedad informacional son la globalización y los flujos financieros. Así, la SIC y el conocimiento considera a la información como su materia prima esencial, permeando todos los aspectos de la vida humana. Esta sociedad opera a través de interconexiones, mostrándose flexible, fluida y convergente. Por otro lado, Delia Crovi (2009) establece una distinción importante entre información y conocimiento; mientras que la información representa los datos en su forma más elemental, el conocimiento implica una apropiación y aplicación de esos datos por parte de los individuos para alcanzar objetivos propios.

Un tema que a la vez se vivencia como reto es el de construir sociedades generativas del conocimiento. Y por supuesto, será el propio sujeto que mediante su agencia tendrá que dar lugar a estas sociedades del conocimiento. Pensamos que desde lo micro podemos partir, idea a la que abona los talleres lúdicos reflexivos que proponemos. Ergo, se necesitan metodologías participativas, para despojar de la alienación al sujeto frente al algoritmo de Chat GPT o cualquiera otra alternativa similar.

Finalmente, en próximos trabajos convendría ahondar con más fuerza en las brechas, pero no hay que olvidarlas. Es fundamental reconocer que, para superar la brecha de apropiación, resulta crucial la participación en entornos digitales. Esta participación es evidente en sectores que disponen de suficiente capital informacional y un hábitus que facilita dicho acceso. Sin embargo, esta participación está notablemente ausente en ciertos sectores que no solo carecen de motivación, sino que también, en algunos casos, no poseen la infraestructura ni las habilidades necesarias para utilizar las tecnologías (Alva, 2017). En este contexto, Norris (2001) describe el concepto de brecha digital a través de tres aspectos distintos:

  1. La división global, que se refiere a la brecha entre países industrializados y aquellos con un nivel bajo de infraestructura.

  2. La división social, que destaca las diferencias entre ricos y pobres dentro de cada país.

  3. La división democrática, que considera la separación entre las personas que utilizan los recursos para involucrarse y participar en la vida pública (p. 4).

Por lo tanto, en la actualidad el concepto de brecha se entiende no solo en términos de conectados y desconectados, sino que también incorpora indicadores como el ingreso económico, la ubicación geográfica y la demografía. Además, incluye otros factores críticos como las habilidades y capacidades de apropiación, ampliando significativamente nuestra comprensión de esta problemática. Inclusive, en algunas de las experiencias que ya hemos tenido con TLR (Lugo, 2023), no sólo se trata de brechas de apropiación, también hay otras experienciales; por ejemplo, si los profesores no hallan un para qué apropiarse de la IA, la usan con desgano y sienten su significación como una carga. O en todo caso, intuyen que la IA los va a sustituir y la miran como sus enemigas.

Metodología

Para la metodología, sugerimos la utilización de TLR (Lugo, 2020) como una estrategia de indagación (Creswell, 2015). Esta aproximación permite que el investigador no solo observe su objeto de estudio, sino que también lo explique y, eventualmente, intervenga en él. Sin embargo, es importante señalar que esta segunda parte del trabajo se llevará a cabo en una etapa posterior. A continuación, marcamos la ruta de esta segunda etapa:

A propósito de lo anterior, los TLR funcionan como estrategias participativas, cuyas técnicas de iniciación-cohesión, producción grupal y evaluación-reflexión permiten la creación de documentos empíricos por parte de un colectivo (Peña-Cuanda y Esteban-Guitart, 2011, citados en Lugo, 2020). Para entender mejor los TLR, es importante señalar que están estructurados en cuatro partes: 1) iniciación, 2) cohesión, 3) producción grupal y 4) evaluación-reflexión, las cuales se despliegan en tres etapas. La primera etapa, que abarca la iniciación y cohesión, se enfoca en generar “confianza, conocimiento entre los participantes y desinhibición” (Basagoiti y Bru, 2002), además de integración para “preparar al grupo” (citado por Peña-Cuanda et al., 2013, p. 190). La segunda etapa es crucial para la generación de material de análisis, ya que se centra en “el hacer, vivenciar, generar expresión a través de acciones y actividades relacionadas directamente con las preguntas centrales y los propósitos de la investigación” (Peña-Cuanda et al., 2013, p. 191). En este sentido, la creatividad, así como la imaginación es muy importante para proyectar situaciones de la vida cotidiana, observar los lugares de poder que atribuyen en sus relaciones, entre otros aspectos mediante dramatizaciones, dibujos o conversatorios. Que, para nuestro caso, se intersecciona con el uso ético8 de la Inteligencia artificial. En tanto, en la tercera etapa se busca reflexionar sobre el proceso propio y grupal, con el fin de explicitar “lo aprendido, lo sentido, lo pensado” (Peña- Cuanda et al., 2013, p. 193) y el hacer, por parte de todos los participantes. De ahí que se generan datos sobre la agencia colectiva porque los participantes verbalizan los juegos, dibujos o dramatizaciones, según sea lo producido en la segunda parte mencionada (Lugo, 2020).

En cuanto al método, seguiremos y mejoraremos propuestas como la que expusimos hace un año (Lugo, 2023). Es decir, optamos por el enfoque cualitativo, basándonos en nuestra pregunta de investigación, objetivos, hipótesis y marco teórico para profundizar en “la complejidad de los factores que rodean a un fenómeno y la diversidad de perspectivas y significados que este tiene para los involucrados” (Creswell, 2015, p. 129). Es importante destacar que hemos seleccionado un muestreo por conveniencia, el cual depende de la participación voluntaria, con los participantes presentándose por sí mismos. (Crespo y Salamanca, 2007). Este trabajo de campo está programado para llevarse a cabo este año (2024) en Quintana Roo y la Ciudad de México, específicamente con estudiantes de posgrado en la UQROO y en la UNAM. La información se procesará mediante matrices categoriales (Bonilla y López, 2016). Consideramos esencial iniciar con el estudio de las inteligencias artificiales en muestras significativas, que eventualmente se extiendan a otros grupos sociales, para fomentar escenarios de agencia frente a la tecnología de manera que esta siga siendo vista como un potenciador de la acción social y sus transformaciones. Los asistentes al taller desarrollarán habilidades digitales relacionadas con el uso y la apropiación de la IA. Vemos una oportunidad para identificar correlaciones entre sus narrativas, discursos e imágenes utilizadas; con el objetivo de comprender mejor el fenómeno de la brecha de participación y dimensionar las brechas de responsabilidad. Detallamos cómo se operacionalizarían estos TLR: las sesiones grupales de reflexión y diálogo son dirigidas por un facilitador y una colaboradora. Cada sesión consistirá en tres momentos:

  1. Reflexiones iniciales relacionadas con la apropiación social y las brechas de la IA.

  2. Desarrollo que incluye teoría aplicada, acompañada de ejercicios para sus proyectos.

  3. Atención a dudas y reflexiones finales.

  4. Cierre y conclusiones.

En cuanto a nuestros instrumentos, proponemos lo siguiente:

  1. Planeaciones psicopedagógicas de cada sesión, incluyendo posibles escenarios de crisis.

  2. Programas de IA para compartir: ChatGPT, Perplexity, SciSpace, Research Rabbit.

  3. Recursos de apoyo para los participantes: videos, música, textos académicos y periodísticos.

Como unidad de estudio se considerará, por tanto, a la UAQROO y UNAM (Posgrados de Ciencias Sociales), mientras que como unidad de análisis a profesores y estudiantes que asistan a los Posgrados. Con el primero se podrá asistir en las tareas cotidianas de dicha comunidad, generando una apropiación con una de las herramientas más populares. Mediante el segundo trabajaremos con la generación de imágenes. Y con el tercero, acceso a fuentes de diversas universidades, para construir redes de conocimiento locales. Siempre considerando aspectos éticos y críticos, en donde intervendrán parte de las categorías construidas en el presente trabajo. Dicha entrevista semi-estructurada se fundamentará en un muestreo cualitativo de carácter intencional (Gubern, 2004), enfocado en los principales perfiles participantes de los talleres. Esto nos permitirá contextualizar las interpretaciones que el investigador realiza (Hine, 2015). Nuestro objetivo es recolectar experiencias, comportamientos, expectativas, emociones, pulsiones y comprensiones. Aunque estos no constituyen muestras representativas, reflejan la sincronía cultural de una población. Adoptaremos la misma técnica de muestreo, añadiendo el método “bola de nieve”, para identificar a personas interesadas en el taller. Nos interesa explorar puntos de contraste para desarrollar indicadores específicos sobre esta brecha de participación, mediada por la IA, en ambas instituciones. Anticipamos encontrar individuos que participaron activamente y experimentaron un impacto significativo, en contraste con aquellos que fueron excluidos del proceso debido a la falta de habilidades políticas y socioculturales; considerando también la posibilidad de futuras replicaciones del estudio. Finalmente, los resultados se integrarán con el marco teórico para que, a través del método de análisis categorial (Bonilla y Rodríguez, 2015), se realice una interpretación detallada de la información. Esto facilitará la generación de categorías que se entrelacen tanto teórica como empíricamente, proporcionando un análisis más profundo y significativo de los datos recopilados.

Resultados

Considerando los procesos anteriores, en la Tabla 2, establecemos un guion de taller lúdico reflexivo, para poderse aplicar en el caso seleccionado (destacamos que es una simbiosis entre teoría y metodología). Para ello, utilizamos la técnica de matriz de categorial de Bonilla y Rodríguez (2015).

Tabla 2 Programa del TLR, “Apropiación crítica, ética de la Inteligencia artificial en la Academia” 

Nombre Objetivo Actividad
Introducción Establecer algunas aptitudes que requieren los asistentes para apropiarse de la Inteligencia artificial.
Familiarizar a los participantes con los conceptos básicos y la concepción sociopolítica de la IA. Comenzar a explorar brechas, desde las de apropiación, hasta las de responsabilidad.
Abrir una discusión sobre lo que se puede lograr desde la educación mediante el uso de la Inteligencia artificial ¿Alguno de ustedes tiene ideas o ejemplos de cómo la IA puede transformar la educación o mejorar la forma en que aprendemos y enseñamos? ¿Cuáles son los retos que plantea la introducción de la Inteligencia artificial a la vida académica?
¿Para qué ocupas la IA? ¿Qué programas ocupas o conoces?
5 claves de la IA. Subrayar la necesidad de equilibrar los beneficios de la IA con consideraciones éticas y de privacidad en el campo de las Ciencias Sociales.
Exposición de brechas y como resarcirlas.
Mostrar resultados relevantes en la investigación (usando el estado del arte).
¿Qué nos dice la IA sobre la IA?
Ejercicio: Preguntarle a Perplexity.
Ubicar redes de conocimiento en Sci Space.
Apropiación y ética de la IA Identificar las repercusiones sociales de la IA, con el fin de que los participantes lo utilicen de manera ética y performativamente. Investiga en Perplexity o preguntale a Chat GPT ¿Qué es la apropiación tecnológica? ¿Y la ética?
La importancia de problematizar el prompt Presentar estrategias y técnicas para desarrollar la capacidad de problematizar el prompt.
Proporcionar ejercicios prácticos para que los participantes realicen esta habilidad en sus vidas personales y profesionales.
Los asistentes comenzarán a diseñar prompts estratégicos enfocados a sus necesidades, por lo cual se proponen las siguientes actividades:
• Perplexity: busca una categoría y cítala en APA.
• Chat GPT: Pide una primera matriz de congruencia.
• Bard: Mejora prompt de imagen.
• Realizar una biblioteca de prompts realizados por los colegas.
Reflexiones situadas de la IA Reflexionar sobre las implicaciones sociales y culturales de la IA. 1. Micro proyecto (usar Chat GPT para dar instrucciones):
2. Campaña anti-plagio para comunidad escolar.
3. Planeación escolar sobre clase de uso ético en la IA.
4. Micro protocolo de investigación de tesis.
5. Hagamos una biblioteca de prompts
6. Generar un decálogo.
Hacia una cultura de la participación disruptiva con IA Promover una cultura de participación, empoderando a los participantes para actuar con agencia y responsabilidad. Realizar un decálogo orientado a la participación que englobe acciones ciudadanas, académicas y de participación del Estado.

Fuente: elaboración propia.

Análisis y discusión

La discusión contemporánea en torno a la inteligencia artificial (IA) revela una diversidad de perspectivas que cuestionan no sólo su definición sino también su impacto y aplicación en la sociedad. Lo que nos reta a unir a las ciencias sociales con las ingenierías para propiciar metodologías participativas, que sumen al entorno del Big Data. Siguiendo los estudios de tecnología hechos por Crovi (2009), para nosotros la IA no solo se entiende como una herramienta tecnológica avanzada sino también como un medio que, sin la adecuada consideración de las brechas de acceso, uso y apropiación, podría exacerbar condiciones de alienación. Esta preocupación se hace eco en el análisis de Amballor y Naik (2020), quienes destacan el sesgo representacional y la urgencia de implementar políticas mediadoras para mitigar los riesgos de discriminación, racismo y violaciones a la privacidad. De ahí la necesidad de pensar a la brecha de participación como una condicionante en el desarrollo social, apegado a una IA ética, en donde tiene que estar presente el Estado.

El trabajo de Guo, Kamar, et al. (2019) sugiere que la investigación en IA debe ir más allá del ámbito tecnológico para incluir consideraciones éticas y sociales, proponiendo una agenda de investigación. Nos sumamos a esa encomienda y comenzamos por proponer abordar a) sesgos, b) políticas de estado, c) metodologías en ciencias sociales, beneficios colectivos, e) género e IA. Asimismo, Schiff y Rakova et al. (2022) complementan esta visión al enfatizar la necesidad de una IA que promueva la autonomía, gobernanza y ética, señalando la importancia de una co-participación y responsabilidad compartida en el desarrollo y evaluación de proyectos de IA. Aspecto que debe considerarse desde la academia, hasta los gobiernos locales y federales. Por otro lado, la intersección de la IA con cuestiones de desigualdad (Plasek, 2016) y el precariado ilustran la complejidad de los desafíos que enfrentamos al integrar la IA en el tejido social. Que, por cierto, en países como México, son una condicionante para el uso de IA, que además cada día tiende a incrementar sus costos, y por consecuencia sus brechas.

Ergo, Dahlin (2021) resalta la existencia de una brecha de conocimiento y una brecha analítica entre los estudios sociales y tecnológicos, argumentando que la tecnología siempre es social y que, por lo tanto, cualquier análisis debe contener transparencia y explicabilidad. Aún más, la gente debe tener acceso a que hacen con sus datos y cómo funcionan los programas. Pues, la integración de la IA en la vida cotidiana plantea cuestiones fundamentales sobre el lado humano de la tecnología y su potencial para amplificar o mitigar los sesgos existentes en la toma de decisiones humanas. La investigación debe continuar explorando la relación sujeto/objeto en función de los sesgos y brechas de responsabilidad planteadas en la literatura (Santoni y Meccaci, 2021), incluyendo el estudio de racionalidades (y pulsiones) de sujetos que utilizan la IA y la exploración in situ de las cajas negras tecnológicas. Agregaremos que, ponderando la importancia de la racionalidad, pero sin idealizar, considerando también un enfoque fenomenológico y humano del sujeto frente al objeto; quienes además debe estar por encima de las cajas negras.

Para abordar efectivamente estas cuestiones, se requiere una investigación multidisciplinaria que considere todos los procesos de IA dentro de un contexto social marcado por el CC. Es fundamental debatir y diseñar una IA sostenible que promueva modos alternativos de distribución de recursos, educación, y difusión de conocimientos, así como el desarrollo de códigos de ética y metodologías de uso ético (Dahlin, 2021; Plasek, 2016). Sin duda que, desde los talleres podemos asumir dichos aspectos. Asimismo, la propuesta de Schiff y Rakova et al. (2021) de una IA basada en la co-participación, gobernanza, y responsabilidades compartidas, junto con la necesidad de explorar formas de responsabilidad (culpabilidad, responsabilidad moral, pública y activa) sugiere un camino hacia una integración más ética y equitativa de la IA en la sociedad. Finalmente, mientras la IA se imbrica cada vez más en nuestra vida diaria, la brecha de participación y las consideraciones éticas asociadas se vuelven cada vez más críticas. La superación de estas brechas requiere un esfuerzo colectivo y una reflexión profunda sobre la interacción entre tecnología, sociedad y la responsabilidad compartida en la conformación de nuestros haceres sociales, cotidianos y académicos.

Conclusiones

Es imperativo reconocer que la brecha digital se adscribe al CC, el cual se erige como un paradigma político, cultural, económico e ideológico predominante. Este modelo asigna un valor primordial a la información, destacando sus múltiples connotaciones simbólicas. En este escenario, el discurso de la SIC y el conocimiento se ha desarrollado desde la década de 1970, aunque se ha manifestado con mayor claridad en sociedades periféricas como la nuestra desde los años noventa (Crovi, 2009). En consecuencia, la información asume un papel crucial en los procesos productivos, perpetuando las desigualdades geopolíticas que persisten incluso en la esperanza de un mundo interconectado. Esto implica que se hace del símbolo otro elemento de poder. En el contexto de la SIC, se identifican múltiples brechas (Alva, 2017). Este estudio categoriza tres niveles de brecha: la de acceso, asociada a la infraestructura (primer nivel); la de uso, que se refiere a cómo las personas emplean las TIC (segundo nivel); y la de apropiación (tercer nivel), donde los individuos utilizan las TIC como herramientas para su empoderamiento individual y social (Crovi, 2009). Es necesario enunciarlas y explorarlas metodológicamente, con las particularidades que actualmente supone la IA: sesgos, inteligibilidades, campos de entrenamiento, servicios freemium, goces, etc.

En la actualidad, la inteligencia artificial implica una serie de desafíos y características como sesgos, opacidades, áreas de entrenamiento específicas, servicios de modelo freemium y diversas formas de interacciones simbólicas. Para concebir una inteligencia artificial más colaborativa y fomentar subjetividades con capacidad de agencia, es fundamental que las personas no solo tengan acceso y uso de las tecnologías, sino también capacidades de apropiación significativas. Esto implica la habilidad de los ciudadanos para generar contenido en IA que no solo los involucre en asuntos públicos, sino que también les brinde empoderamiento tanto a nivel individual como colectivo. Esto está estrechamente vinculado a la necesidad de que los ciudadanos accedan a un conocimiento digital básico, que según Dahlgren (2011), incluye acceso a información confiable, participación en discusiones y debates, y análisis de temas coyunturales y de relevancia actual. De esta forma, se contribuye a que la esfera pública se mantenga como un bien viable y accesible para todos. A saber, al apropiarse de las tecnologías y en específico de la IA; se debe poseer un conocimiento digital básico, el cual se puede distinguir mediante las siguientes creaciones9: a) creación de prompts, b) memes hechos con IA, c) videos hechos con IA (desde formato corto, hasta reels), d) investigaciones contextuales, e) campañas, f) investigaciones académicas, g) discursos digitales h) imágenes artificiales.

Indiscutiblemente, la interacción de las personas con la tecnología, y específicamente con la inteligencia artificial, está profundamente influenciada por sus historias de vida personales. En el estudio realizado por Alva (2017) sobre la brecha digital, se determinó que el estilo de vida de cada participante juega un papel crucial en su disposición a involucrarse en temas que le resulten motivadores. Así, se puede deducir que aquellos que han tenido experiencias previas como activistas, o que han participado en asociaciones civiles, colectivos o partidos políticos, muestran una mayor inclinación a involucrarse, lo cual probablemente ha sido fomentado por sus propias matrices culturales primarias como la familia, la educación y las amistades. Esta comprensión puede ofrecernos pistas valiosas acerca de quiénes están mejor posicionados para apropiarse efectivamente (y afectivamente) de la IA y quiénes podrían enfrentarse a mayores desafíos en este ámbito. Cabe aducir que en las investigaciones previas que hemos hecho, hemos comprobado esta hipótesis, pues cuando el proyecto envuelve a la subjetividad del sujeto, éste se activa con mediación de la IA, para conseguir alguna meta que se proponga. Y que precisamente necesitará ser desarrollada en los TLR.

Finalmente, como se ha mencionado anteriormente, estamos tratando con un idealtipo, por lo que es comprensible que dichos componentes no estén presentes en todas las investigaciones. Hay que seguir estudiando caso por caso. Más ahora con la aceleración social que supone la IA. Por ello, nuestra propuesta para superar la brecha de apropiación sugiere que el individuo puede trascender las brechas de uso en la IA para integrarse activamente en la vida pública, basándose en su historia de vida, conocimiento, subjetivación, agencia, hábitus y factores de cercanía. Si incluimos la motivación para participar entre estos procesos, es probable que se generen discursos, imágenes, narrativas y contenidos que resuenen socialmente. No nos basamos únicamente en hipótesis, ya que hemos observado estos fenómenos en otros casos (Lugo, 2023). Por tanto, nos gustaría promover una propuesta que fomente la participación utilizando los TLR que hemos esbozado anteriormente. Consideramos que el campo de exploración es amplio, especialmente porque la conectividad tecnológica está en aumento, pero no así la participación de amplios sectores sociales, lo cual podría ser contraproducente para los marcos democráticos que requieren pluralidad y participación de diversos grupos ciudadanos. Nos preguntamos: ¿Qué están haciendo los grupos subalternos con relación a la IA? Lo mencionamos porque, requerimos estudios diversos; desde la episteme, el método y la praxis. Toda vez que es crucial reflexionar sobre cómo, aunque existen estructuras que condicionan al sujeto dentro del CC, también existen espacios de agencia que no emergen automáticamente con la tecnología, sino a través de la mediación de metodologías que consideren a la IA de manera crítica y constructiva (y no al revés).

Agradecimientos

Agradecemos a las instituciones que han estado interesadas en estos TLR para fomentar agencia y pensamiento crítico en sujetos, así como a Arlette Morales, por su apoyo como asistente de investigación para este proyecto.

Referencias

Alonso, L. y Piñero, C. (2015). PRESENTACIÓN: EL PROCOMÚN Y LOS BIENES COMUNES. Dossieres EsF, 16. Economistas sin Fronteras. https://www.ecosfron.org/wp-content/uploads/DOSSIERES-EsF-16-El-procom%C3%BAn-y-los-bienes-comunes.pdfLinks ]

Alva de la S. (2015). Los nuevos rostros de la desigualdad en el siglo XXI: la brecha digital. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0185-19182015000100010&lng=en&tlng=enLinks ]

Alva, A. (2017). Monitorear la Sociedad de la Información y el Conocimiento en México: hacia una propuesta de indicadores cualitativos. El capital informacional. México: FCPyS, UNAM (en proceso de publicación). [ Links ]

Alvarado, F. (2023). El Papel de la Inteligencia artificial en la brecha educativa y digital en México. Universidad Autónoma de Guadalajara. https://www.uag.mx/es/mediaHub/el-papel-de-la-inteligencia-artificial-en-la-brecha-educativa-y-digital-en-mexico/2023-08Links ]

Amballoor, R. y Naik, S. (2020). Widening Social Science - Artificial Intelligence Research Gap: Who Should Bell the Cat? Social Science Research Network, 155. https://doi.org/10.2139/ssrn.3562972 [ Links ]

Arellano, M. (2021). Las brechas digitales en México: un balance pertinente. SciELO, 87(346), s.p. (versión Online). https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2448-718X2020000200367Links ]

Banco Mundial (2021). Personas que usan Internet (% de la población) - México. DataBank Microdatos Índice de datos. https://datos.bancomundial.org/indicador/IT.NET.USER.ZS?end=2021&locations=MX&start=1990&view=chartLinks ]

Blondeau, O., Dyer-Whiteford, N., Vercellone, C., Kyrou, A., Corsani, A., Rullani, E., Mouilier Boutang, Y. y Lazzarato, M. (2004). Capitalismo cognitivo. Propiedad intelectual y creación colectiva. traficantes de sueños, mapas. https://traficantes.net/sites/default/files/pdfs/TDS_map8_cap_cog_web.pdfLinks ]

Bonilla, E. y Rodríguez, P. (2005). Más allá del dilema de los métodos, la investigación en Ciencias Sociales. Chile: Norma. mas-alla-del-dilema-de-los-metodos.pdf (wordpress.com) [ Links ]

Bonilla, M. y López, A. (2016). Ejemplificación del proceso metodológico de la teoría fundamentada. Cinta moebio, 57, 305-315. https://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0717-554X2016000300006Links ]

Bromm, D. (2023). Estos son los lugares del mundo donde el acceso a Internet sigue siendo un problema. WORLD ECONOMIC FORUM. https://es.weforum.org/agenda/2023/09/estos-son-los-lugares-del-mundo-donde-el-acceso-a-internet-sigue-siendo-un-problema-y-por-que/#:~:text=Seg%C3%BAn%20datos%20de%20la%20Uni%C3%B3n,baja%20y%20media%20en%202020Links ]

Candon Mena, J. (2013). Toma la Calle, Toma las Redes: El movimiento 15 M en Internet. España: Atrapasueños. https://www.redalyc.org/articulo.oa?id=68730969006Links ]

Castells, M. (1997). La era de la información. Economía, sociedad y cultura. Alianza Editorial. https://cpalazzo.wordpress.com/wp-content/uploads/2011/02/manuel_castells-_la_era_de_la_informacion.pdfLinks ]

Correa, L. (2012). La concepción del valor en las tesis del capitalismo cognitivo. Bases teóricas y aspectos neoclásicos. Buenos Aires. https://www.academia.edu/3562426/Capitalismo_cognitivo_problemas_y_desaf%C3%ADos_para_la_econom%C3%ADa_pol%C3%ADtica?auto=downloadLinks ]

Crovi, D. (2009). Jóvenes, migraciones digitales y brecha tecnológica. Revista Mexicana de Ciencias Políticas y Sociales, UNAM. 52(209), 119-133. https://doi.org/10.22201/fcpys.2448492xe.2010.209.25967 [ Links ]

Crovi, D. (2014). Jóvenes y apropiación tecnológica. La vida como hipertexto. México: FCPyS, UNAM. [ Links ]

Creswell, J. (2015). Educational Research Planning, Conducting, and Evaluating Quantitative and Qualitative Research. New York: Pearson. EBK-0012 [ Links ]

Dahlgren, Peter (2011). Jóvenes y participación política. Los medios en la Red y la cultura cívica. TELOS (Cuadernos de Comunicación e Innovación). TELOS. http://telos.fundaciontelefonica.com/Links ]

Dahlin, Emma (2021). Mind the gap! On the futures of AI research. Humanities y Social Sciences Communications, 8(1), 1-4. https://doi.org/10.1057/S41599-021-00750-9 [ Links ]

Delors, Jacques (1993). Libro Blanco de Crecimiento, Competitividad y Empleo. Lisboa. http://www.ptolomeo.unam.mx:8080/xmlui/bitstream/handle/132.248.52.100/778/A4.pdf?sequence=4Links ]

Domínguez Espinoza, Edgar Uriel (2010). Software libre: tecnología para la evolución a la sociedad de la información [Tesis para obtener el grado en la Facultad de Ingeniería, Universidad Nacional Autónoma de México]. TESIUNAM. https://hdl.handle.net/20.500.14330/TES01000665666Links ]

Echeburúa, E., y de Corral, P. (2010). Adicción a las nuevas tecnologías y a las redes sociales en jóvenes: un nuevo reto. Adicciones, 22(2), 91-95. https://www.adicciones.es/index.php/adicciones/article/view/196Links ]

Fleischer, D., Allegro, F., Zerba, D., Rivas, D., Surmani, F., Hidalgo, S., Berdullas, M., Mena, M., Warjach, D. y Carrasco Bax, G. (2014). Entre la compulsión y la adicción: la tecnología. VI Congreso Internacional de Investigación y Práctica Profesional en Psicología XXI Jornadas de Investigación Décimo Encuentro de Investigadores en Psicología del MERCOSUR. Facultad de Psicología Universidad de Buenos Aires, Buenos Aires. https://www.aacademica.org/000-035/622Links ]

Fuster, M. (2013). Horizontes del procomún digital. Monografías, 16 (36), 89-102. https://www.onlinecreation.info/wp-content/uploads/2013/03/Mayo-Fuster_Documentacion_Social.pdfLinks ]

García del Castillo, J. (2013). ADICCIONES TECNOLÓGICAS: EL AUGE DE LAS REDES SOCIALES. Salud y drogas, 13(1), 5-13. 83928046001.pdf (redalyc.org) [ Links ]

García Galera, María Carmen; Del hoyo Hurtado, Mercedes; Fernández Muñoz, Cristóbal. (2014). Jóvenes comprometidos en la Red: El papel de las redes sociales en la participación social activa. Comunicar (43), 5-43. https://www.redalyc.org/pdf/158/15831058005.pdfLinks ]

Gaxiola, B. (2023). La evolución del México tecnológico estriba en cerrar la brecha digital con cultura tecnológica y de ciberseguridad: Ikusi. mundo TI. Editorial Fass. https://mundoti.net/la-evolucion-del-mexico-tecnologico-estriba-en-cerrar-la-brecha-digital-con-cultura-tecnologica-y-de-ciberseguridad-ikusi/Links ]

Gómez Cruz, Edgar. (2012). De la cultura Kodak a la imagen en red (229-249). Barcelona: Editorial UOC. https://www.academia.edu/1769161/De_la_Cultura_Kodak_a_la_Imagen_en_red_Una_etnograf%C3%ADa_sobre_fotograf%C3%ADa_digitalLinks ]

Grané, J. (2021). ¿Jaque mate digital a la humanidad? educar humanos y resiliar en la era de la inteligencia artificial. Dedica. Revista de educação e humanidades, (18), 1-24. http://doi.org/10.30827/dreh.vi18.21000 [ Links ]

Guber, Rosana (2004). “¿Adónde y con quiénes? Preliminares y reformulaciones de la delimitación del campo” en Guber Rosana. El salvaje metropolitano. Reconstrucción del conocimiento social en el trabajo de campo. Buenos Aires, Argentina: Paidos. [ Links ]

Guo, A. y Kamar, E., Wortman, V., Wallach, H. y Ringel, M. (2019). Toward Fairness in AI for People with Disabilities: Research Roadmap. ACM ASSETS 2019 Workshop on AI Fairness for People with Disabilities, s.v., 1-9. https://doi.org/10.48550/arXiv.1907.02227 [ Links ]

Standing, G. (2011). The Precariat. The New Dangerous Class. Bloomsbury Academic. https://www.hse.ru/data/2013/01/28/1304836059/Standing.%20The_Precariat__The_New_Dangerous_Class__-Bloomsbury_USA(2011).pdfLinks ]

Han, B. (2014). La Biopolítica. En Psicopolítica. Herder. [ Links ]

Hine, Christine. (2015). Ethnography for the Internet: Embedded, Embodied and Every day. Londres: Bloomsbury Publishing. [ Links ]

Instituto Nacional de Estadística y Geografía (INEGI) (2023). Estadísticas a propósito del día mundial del Internet (17 de mayo) datos nacionales [pdf]. EAP_ Internet23.pdf (inegi.org.mx) [ Links ]

Jaccard, J y Jacoby (2010). Teory Construction and Model Building Skills. A practical Guide for Social Scientists. New York: Guilford Press. [ Links ]

Lafuente, A. (2007). Los cuatro entornos del procomún. Archipiélago. Cuadernos de Crítica de la Cultura (77-78), 15-22. http://hdl.handle.net/10261/2746Links ]

Lugo, D. (2020). La apropiación cultural de Internet en la familia por parte de niñas y niños. Un estudio a través de los Talleres Lúdicos-Reflexivos (TLR) [Tesis de maestría en Ciencias Sociales con Orientación en Comunicación y Cultura, Universidad de Guadalajara]. RIUdeG. https://hdl.handle.net/20.500.12104/82683Links ]

Lugo, L. (2023) Guía para Uso Ético de Inteligencia artificial. Tesicafé: México. (9) Guía para Uso Ético de la Inteligencia artificial: Una Propuesta para la Investigación y Educación | Luis Josué Lugo Sánchez - Academia.edu [ Links ]

Mancilla, M. (2023). Pánico artificial. El avance de la Inteligencia artificial y el miedo al reemplazo humano. Universidad Jesuita de Guadalajara. Departamento de Estudios Socioculturales. https://rei.iteso.mx/items/5482f6b5-d938-4ce1-9204-685c6dd33b8dLinks ]

Martínez, G. (2017). EL HABITUS. Revista Internacional de Sociología 75(3), 1-14. https://doi.org/10.3989/ris.2017.75.3.15.115 [ Links ]

Martínez, G. (2024). Para ti: adicción a TikTok. Psyciencia. https://www.psyciencia.com/para-ti-adiccion-a-tiktok/Links ]

Márquez, I. (2016). El debate sobre la esfera pública digital: Apocalípticos e integrados. deSignis, 24, 19-33. https://dialnet.unirioja.es/servlet/articulo?codigo=6181098Links ]

Mattelart, A. (2001). Historia de la sociedad de la información. Paidos serie comunicación. https://octavioislas.com/wp-content/uploads/2017/04/mattelart-armand-historia-de-la-sociedad-de-la-informacion.pdfLinks ]

Monterde, M. (2015). Emergencia, evolución y efectos del movimiento red 15M. Una aproximación tecnopolítica [Tesis doctoral, Universitat Oberta de Catalunya]. UOC. http://openaccess.uoc.edu/webapps/o2/handle/10609/44901?mode=fullLinks ]

Norris, P. (2001). Digital divide: Civicengagement, informationpoverty, and the Internet worldwide. Cambridge University Press. [ Links ]

Open IA (2024). Pricing. ChatGPT. https://openai.com/chatgpt/pricingLinks ]

Orozco, G. y González, R. (2015). Una coartada metodológica: abordajes cualitativos en la investigación en comunicación, medios y audiencias. Editorial Tintable. https://catalogo.biblioteca.iberotijuana.edu.mx/cgi-bin/koha/opac-detail.pl?biblionumber=29254Links ]

Pahl, S. (2023) Una brecha emergente: ¿Quién se beneficia de la IA? Industrial analytics platform (IAP.) unido.org. https://iap.unido.org/es/articles/una-brecha-emergente-quien-se-beneficia-de-la-iaLinks ]

Peña-Cuanda, M. y Esteban-Guilart, M. (2013). El estudio de las identidades desde un enfoque cualitativo. La multi-metodología autobiográfica extendida y los talleres lúdico-reflexivos. EMPIRIA, 26, 175-199. https://www.redalyc.org/pdf/2971/297128938007.pdfLinks ]

Plasek, A., Clare, M., Boracas, S. y Ferryman, K. (2016). The Social and Economic Implications of Artificial Intelligence Technologies in the Near-Term. The AI Now Report. https://www.semanticscholar.org/paper/The-Social-and-Economic-Implications-of-Artificial-Plasek/c2f30733a3825fdac70d697ddaf3711dd9c8c7d7#cited-papersLinks ]

Redacción (2020). Cómo usar Netflix la inteligencia artificial para establecer su estrategia de contenidos. PuroMarkething. https://www.puromarketing.com/126/34638/como-usa-netflix-inteligencia-artificial-establecer-estrategia-contenidosLinks ]

Riquelme, R. (2018). Uno de cada 5 trabajadores mexicanos, propenso a dejar su empleo por rezago tecnológico. El Economista. https://www.eleconomista.com.mx/amp/capitalhumano/Uno-de-cada-5-trabajadores-mexicanos-propenso-a-dejar-su-empleo-por-rezago-tecnologico-20180726-0060.htmlLinks ]

Riquelme, R. (2022). La desigualdad es una constante en el desarrollo digital estatal de México. El Economista. https://www.eleconomista.com.mx/amp/tecnologia/La-desigualdad-es-una-constante-en-el-desarrollo-digital-estatal-de-Mexico-20221018-0068.htmlLinks ]

Robles, M. y De Marco, S. (2011). La participación digital y el comportamiento político de los usuarios de Internet. Un acercamiento descriptivo a la ideología de los internautas. CEIC, 65, 1-32. https://dialnet.unirioja.es/descarga/articulo/3635327.pdfLinks ]

Salamanca, A. y Crespo, C. (2007). El muestreo en la investigación cualitativa. Nure Investigación, (27). http://www.sc.ehu.es/plwlumuj/ebalECTS/praktikak/muestreo.pdfLinks ]

Santoni, F. y Mecacci, G. (2021). Four Responsibility Gaps with Artificial Intelligence: Why they Matte and How to Address them. Philosophy y Tecnhnology, 34, 1057-1084. https://doi.org/10.1007/s13347-021-00450-x [ Links ]

Schiff, D., Raváko, B., Ayesh, A., Fanti, A. y Lennon, M. (2021). Explaining the Principles to Practices Gap in AI. IEEE Technology and Society Magazine, 40, 81-94. https://doi.org/10.1109/MTS.2021.3056286 [ Links ]

Sierra, F. (s.f.). Capitalismo cognitivo y nueva cultura colaborativa: el reto de la transversalidad. Humanidades digitales, diálogo de saberes y prácticas colaborativas en red. Cátedra UNESCO de comunicación. https://www.javeriana.edu.co/unesco/humanidadesDigitales/ponencias/I_conferencia_principal.htmlLinks ]

Sierravigas, L. (2023). Adicción a las Redes Sociales. Revista de Divulgación Científica y Tecnológica, 1 (2), 24-26. https://redicyt.com/OJS/index.php/envio/article/view/76Links ]

Solís, P. (2024). Qué es el síndrome FOMO y su relación con la adicción al móvil. La universidad en Internet. https://www.unir.net/educacion/revista/que-es-el-sindrome-fomo-peligros-de-la-adiccion-a-Internet/#:~:text=El%20s%C3%ADndrome%20FOMO%2C%20acr%C3%B3nimo%20en,decisiones%20y%20al%20bienestar%20emocional [ Links ]

Tejeda, J. (2011). Biopolítica, control y dominación. Espiral, Estudios sobre el Estado y Sociedad, 18 (52), 77-107. https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1665-05652011000300003Links ]

Unión Internacional de Telecomunicaciones (2022). Informe sobre la conectividad mundial de 2022. Resumen. https://www.itu.int/dms_pub/itu-d/opb/ind/D-IND-GLOBAL.01-2022-SUM-PDF-S.pdfLinks ]

Vela, F. (2001). “Un acto metodológico básico de la investigación social: la entrevista cualitativa”. En Tarrés, María Luisa (Ed.), Observar, Escuchar y Comprender (pp. 63-95). El Colegio de México. [ Links ]

Zuckerfeld, M. (2011). Acceso, Conocimiento y estratificación social en el Capitalismo cognitivo. Congreso Alas. https://www.redalyc.org/pdf/5886/588665429007.pdfLinks ]

1 En el caso de México, las brechas en cuanto al uso de internet están marcadas por el contexto geográfico, por ejemplo, para 2021, según el Instituto Nacional de Estadística y Geografía (INEGI), el 75.6% de la población usó internet. No obstante, las zonas urbanas contaban con el 81.6% de usuarios, contrastado con el 56.5% en zonas rurales. Mientras, el acceso a internet en los hogares es del 66.4% y a una computadora del 44.8% (por debajo de la telefonía y televisión).

2Según Guy Standing (2011), el precariado es una clase social en formación (la más significativa del capitalismo) que tiene el menor status, pues hay regímenes laborales desregulados y trabajos flexibles; es decir, carece de contratos, conexiones, control o seguridad sobre su empleo, trabajo o habilidad que desarrolla. Debe aceptar aquello que considera está por debajo de sus habilidades, generando malestar por no poder construir una carrera profesional (estatus truncado). En consecuencia, no tiene una identidad laboral y, por ende, carece de memoria colectiva común o solidaridad entre sí (es frágil y de emociones subjetivas). Categoría que sin duda hay que seguir explorando, debido a que bien podría representar a un amplio sector de profesores, pero también de estudiantes en formación.

3De acuerdo con la página oficial de ChatGPT (2024), existen tres planes más a parte del Plan Gratis (Free): Más (Plus), Equipo (Team) y de Empresa (Enterprise). El plan Plus ($20 dólares al mes por usuario) ofrece acceso a ChatGPT-4 (en el plan free es la 3.5), GPT y herramientas adicionales como DALL°E. Mientras el plan Team ($25 dólares al mes por usuario) brinda límites de mensajes más altos, datos del equipo y la creación y gestión de espacios de trabajo. Por último, el plan de empresa requiere de un contrato de ventas. Lo que introduce una nueva forma de brecha; primero porque quien no accede, no tiene posibilidad de usar algunas IAs freemium. Pero aún entre quienes ya la utilizan, se corta su proceso de apropiación en determinado momento, porque para que te permitan hacer más, necesitas pagar más. Lo que limita las habilidades de las personas que tienen disposición o motivación para usar la inteligencia artificial. Sin embargo, para este momento hay desarrollos como Research Rabbit, que no cobran extra en su uso, aun cuando se utilice por tiempo indeterminado. Aunque sin duda el tema sugiere pensar si se necesitan políticas públicas que desarrollen softwares propios para garantizar el derecho a la información de la ciudadanía.

4Michael Focault introdujo el concepto de biopolítica. Se define como “la capacidad del poder para incidir sobre la vida, administrar, organizar, regular e inhibirla” (Tejeda, 2011). En otras palabras: “es la forma de gobierno de la sociedad disciplinaria” (Han, 2014). Para la producción y reproducción, en torno al cuerpo, para una sociedad capitalista que se preocupa por las normas impuestas para el desarrollo del cuerpo y la vida.

5Adicionalmente, otros autores han explorado el tema. El filósofo Jordi Grané Ortega (2021) expone la relación de la adicción a las redes sociales con el modelo capitalista de la economía de la atención (captar atención mediante información, servicios o entretenimiento para revenderla a los anunciantes) y el fenómeno de la memoria de pez. Este último, explica, se basa en el homo distractus del comercio (producir tentación continua) mediante diseños adictivos y abundancia de recursos gratuitos para generar dopamina en el usuario; en consecuencia, hay abundancia/riqueza de información y escasez/pobreza de atención. En tanto, son las élites digitales las que siguen promoviendo innovación de herramientas (notificaciones, navegación, “me gusta” y demás) para producir compulsión y adicción a la dopamina en intervalos variables (Llaneza, 2019; Peirano, 2019 como se cita en Grané, 2021, p. 15) o con la fabricación de fake news y conspiraciones. Sierravigas (2023) plantea que los usuarios “pasan más de tres días completos al mes usando redes sociales, lo que representa el 15% de su tiempo despiertos” (p. 25) y son Facebook, YouTube, WhatsApp, Instagram y TikTok las que acaparan la atención (Data Reportar, 2023 como se cita en Sierravigas, 2023).

6El “Informe sobre la conectividad mundial de 2022” revela la existencia de brechas de conectividad en porcentajes de la población: Cobertura (5%), utilización (32%), ingresos en países de renta baja (22%) y renta alta (91%), en zonas urbanas hay el doble de conectividad que en las rurales, de género (62% de los hombres frente al 57% de mujeres), generacional (menores entre 15 y 24 años utilizan un 14% de internet que el resto de población) y educacional (rezagos en las instituciones e investigación).

7En el artículo “Inteligencia artificial: ¿aliada o adversaria de la creación gráfica?” (Aguilar, 2024) se expone cómo la IA ha sido utilizada en ámbitos visuales (fotografía y diseño gráfico), música, audiovisuales (conciertos) y de edición (escritura y comics). Ejemplos de ello son la utilización de la IA para crear una serie llamada Invasión Secreta (2023) por Marvel y Disney+, o trailers de una película llamada Genesis (Midjourney + Runway) del desarrollador Nicholas Neubert, con ayuda de las inteligencias Midjourney y Runway (Willis, 2023). Además, el uso de la IA no se limita a generar contenido, sino que ha ayudado a promoverlo; por ejemplo: Netflix incorpora la IA mediante el modelo de transfer learning (se genera un mapa de datos) para poder recopilar datos y brindar una experiencia personalizada a los usuarios, por medio de recomendaciones y generación de chatbots y publicidad. Fue tal la eficacia que se recomendó su compra en Wall Street. (PuroMarketing, 2020).

8Por cuestiones de extensión y tiempo no profundizaremos en el uso ético de la inteligencia artificial, pero es uno de los tópicos que más nos llaman la atención, toda vez que suponen una postura subjetiva por parte de quien usa la IA; al tiempo que proponemos que, desde la misma, se tenga clara una agencia ante la tecnología, teniendo claro que quien entrena o educa a la misma. es el sujeto y no al revés. Para fines de uso ético de la IA, hemos desarrollado una metodología que implica: a) educar al prompt, 2) instruir al prompt, 3) contextualizar, 4) verificar y validar la información, 5) Reflexividad constante y crítica. Tomando en consideración que siempre se debe declarar cómo se está usando la IA, qué programas. Y siempre: citar toda idea que no sea propia. Toda vez que: “La ética puede definirse como los principios morales que rigen los comportamientos o acciones de un individuo o un grupo de individuos” (Nallini cómo se citó en Siau y Wang, 2020, p. 74). Por tanto, la relación entre ética e IA envuelve problemas como la transparencia, toma de decisiones, privacidad, seguridad y principios de responsabilidad. Por ello, continúan los autores Siau y Wang (2020), la necesidad de formular principios, reglas y directrices claras para orientar el comportamiento ético de la IA.

9Se distingue que pueden existir inclusive acciones que trasciendan los marcos ordinarios de operación incorporando estrategias innovadoras. ¿De qué dependerá esto? Indudablemente de los factores que se están describiendo, pero también de factores motivacionales, educativos y de socialización.

* Investigador Asociado C del CEIICH de la Universidad Nacional Autónoma de México (UNAM). Académico del Posgrado en Ciencias Políticas y Sociales, UNAM. Candidato al Sistema Nacional de Investigadores.

**Profesor investigador de Carrera. Universidad Autónoma del Estado de Quintana Roo (UQROO). División de Ciencias Políticas y Económicas. Miembro nivel 1 del SNII.

Editor: Rogelio del Prado Flores

Editor Invitado: Alberto Ruiz-Méndez

Recibido: 15 de Febrero de 2024; Aprobado: 14 de Mayo de 2024

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons