Introducción
El presente trabajo propone un estado del arte para que sea una premisa científica para el desarrollo de TLR que posibiliten una agencia y alfabetización de IA en sectores académicos (como primera etapa). En tanto, se adscribe al Seminario Internacional Permanente de Inteligencia artificial en las Ciencias Sociales, en el cual participamos la UNAM y la UQROO (universidades a las que estamos adscritos quienes suscriben la presente comunicación). De tal manera que, dichos talleres se estarán presentando en el segundo semestre de 2024; de los cuales, también se derivarán análisis, artículos y problematizaciones sociales ligados al campo de la IA.
El objetivo del texto es identificar cómo la brecha de participación digital se manifiesta en el marco del Capitalismo cognitivo (CC) y la Sociedad de la Información (SIC), particularmente en relación con la adopción y el uso de la IA; para proponer un taller lúdico reflexivo, a desarrollarse en una segunda etapa. Para ello la discusión teórica parte del contexto del CC, para luego hablar sobre SIC y posteriormente pasar al tema de brechas; con el fin de situarlo fundamentalmente en la brecha de participación o de tercer orden (Norris, 2015). Se menciona que este trabajo está antecedido por otras pesquisas en las cuales exploramos, por un lado, el tema de brechas (Alva, 2017 y Lugo, 2019) y por otro, propusimos talleres académicos de IA generativa (Lugo, 2023). Sin embargo, en la presente comunicación actualizamos los debates (sin dejar de dialogar autores y enfoques clásicos, así como parte de nuestra propuesta conceptual), además de re semantizar la propuesta de talleres. Al tiempo que aportamos insights novedosos, como el estado del arte, construcciones teóricas y reflexionemos situadas a nuestro tiempo.
La pregunta guía del texto va en el sentido de entender cómo se manifiesta la brecha de participación digital en el marco del CC y la SIC, en particular con respecto a la adopción y uso de la Inteligencia artificial, y cuáles son las características clave que debería tener un taller lúdico reflexivo para abordar efectivamente esta brecha. Respecto a la hipótesis: La brecha de participación digital en el contexto del CC y la SIC se caracteriza por una desigualdad significativa en el acceso y uso de la Inteligencia artificial, sobre todo entre centros y periferias; lo que contribuye a desigualdades socioeconómicas y culturales, además de propiciar sesgos de responsabilidad entre objeto/sujeto. Aunado a ello, identificamos una brecha de responsabilidad entre las IA´s y los actores que las usan, lo que puede ser peligroso al no asumir consecuencias de acciones. Es así como, un taller lúdico reflexivo, diseñado con un enfoque en la apropiación en IA desde las Ciencias Sociales, puede ser una estrategia efectiva para mitigar estas desigualdades y promover una mayor participación ciudadana.
Metodológicamente se propone una estrategia de indagación fundamentada en TLR (Lugo, 2020), mediante método cualitativo (Orozco y González, 2015), que en cuanto a técnicas combine entrevistas semi estructuradas (Vela, 2001), observación no participante (Lugo, 2019) y análisis de redes. Se enfatiza que el presente trabajo pretende aportar insumos a la discusión respecto a la brecha en nuestro país, ahora situado en la Inteligencia artificial.1 Se parte del supuesto de que, traspasar dicha brecha es sustantivo para incentivar climas de participación digital. No sin antes comprender las razones por las que una persona se moviliza o no en redes, pero también con el fin de pasar a la acción, ya sea en sector gubernamental (mediante políticas públicas) e inclusive a nivel cultural, social y/o académico, con el desarrollo de talleres o seminarios sobre el tópico que aquí se expone. Nos proponemos explorar la brecha de IA en este escenario tan acelerado y al mismo tiempo contingente de sociedades informacionales. Toda vez que: “Los países con poblaciones con altos niveles de formación y altamente cualificada tienen más posibilidades de adoptar estas tecnologías”, sentencia Stefan Pahl (2022). Punto que provoca una profunda desigualdad, que merece la pena abordarse epistémicamente, desde el campo de las Ciencias Sociales.
La literatura revisada sugiere que la investigación en IA debe incluir consideraciones éticas y sociales, más allá de las tecnológicas, y propone agendas de investigación (Guo, Kamar, et al., 2019); que para nosotros deben abarcar temas como sesgos, políticas de estado, metodologías en ciencias sociales, beneficios colectivos, y género e IA. Además, se enfatiza la necesidad de una IA que promueva la autonomía, gobernanza y ética, subrayando la co-participación y responsabilidad compartida en su desarrollo y evaluación (Schiff, Rakova et al., 2022).
Estado del arte
Después de la pandemia, en la cual la virtualización de la educación y el teletrabajo se volvieron constantes en la sociedad, surgió un significativo interés por analizar y abordar las brechas digitales desde la perspectiva de las ciencias sociales. Sin embargo, es importante señalar que la mayoría de estos trabajos se concentran en temas como la alfabetización digital, el acceso a Internet y la calidad de la infraestructura y conectividad. Esta situación ha creado un vacío significativo en los trabajos que exploran la brecha digital en relación con el uso y la apropiación de la Inteligencia artificial (IA). En este sentido, se llevó a cabo de manera ética (Lugo, 2023), a través de los principales motores de búsqueda de IA como Consensus (GPT4), Sci Space y Perplexity. Con estas tres bases de datos, logramos obtener una saturación inicial de resultados para la primera etapa. Sin embargo, para una fase posterior, planeamos ampliar nuestra búsqueda a bases como BidiUNAM, Redalyc y Scielo. Es importante destacar que nosotros, como investigadores, fuimos responsables de seleccionar y analizar la información presentada aquí. La matriz fue creada con la ayuda de las IA, siguiendo nuestras instrucciones y metodologías, mientras que la reflexión fue realizada por nosotros mismos. También es relevante mencionar que las palabras clave fueron seleccionadas en función de nuestro objetivo de investigación, las cuales fueron “brecha” e “inteligencia artificial”. A medida que seleccionamos los resultados, contamos con la ayuda del co-pilot, especialmente en Sci Space. Posteriormente, analizamos los resultados de la búsqueda tanto de manera independiente como con nuestra inteligencia humana, lo que nos permitió establecer puntos de análisis que se abordarán más adelante.
Ahora bien, procedamos a realizar un breve análisis de esta primera etapa del estado del arte. En un principio, decidimos ampliar nuestras investigaciones a estudios en diferentes idiomas. Esta decisión abre una ventana de diálogo con diversas academias, aunque también introduce un sesgo cognitivo, ya que se observa una escasez de investigaciones latinoamericanas. Por lo tanto, mediante el uso de redes neuronales, que es la forma en que opera la IA, notamos que varias universidades de países periféricos quedan excluidas. Esto nos impulsa a emprender, posteriormente a la publicación de este artículo, una segunda fase en esta investigación, ahora con un enfoque más profundo y ampliado en el corpus de análisis.
Informe de resultados respecto al estado del arte
Se identificó que sí hay estudios en el contexto de las ciencias sociales y la inteligencia artificial, mismos que se describen a continuación. En principio, se halló una pesquisa en el trabajo de Amballoor y Naik (2020) en donde se pone énfasis en la justicia social y cómo esta se ve reflejada -o no- en los algoritmos, resaltando la posibilidad de sesgos inherentes. Se menciona que las IAs afectan todos los aspectos de la vida cotidiana. Hecho que converge con nuestra propuesta; empero, vamos de la visualización de datos cuantitativa que maneja el artículo a los TLR, mediante los cuales proponemos explorar el sesgo representacional, facilitando que los propios sujetos sean quienes hagan sus propias creaciones visuales y realicen crítica de ello. El propio texto hace un llamado a la política para ser una mediadora entre las ciencias sociales y la inteligencia artificial.
En el texto Teoría del actor-red (Amballor, R. y Naik, S., 2020) se pone de manifiesto que se deben hacer efectivos los objetivos del desarrollo sostenible en términos del acceso pleno a TICS para mejorar las condiciones de educación. Asimismo, el texto invita a reflexionar desde las Ciencias Sociales a la Inteligencia artificial como “la investigación sobre el lado humano de la alienación de la IA debe recibir la máxima prioridad para abordar las incertidumbres que surgen debido a la racionalidad, la emoción y los prejuicios humanos” (Amballor y Naik, 2020, p. 2). En este texto también se destacan temas sobre la IA que deben ocupar a las ciencias sociales en la actualidad y que tienen que ver con el sesgo algorítmico: privacidad, la discriminación, el racismo, la seguridad, el género, la ética y otros prejuicios.
También se encontró un análisis de caso que se centra en un grupo vulnerable (personas con discapacidades del habla o cognitivas), proponiendo soluciones pertinentes mediante el uso de IA. En este texto de Anthong Guo y Ece Kamar (2019), se propone construir algoritmos más inclusivos, es decir, se incorporan categorías analíticas de alcance intermedio como Visión por computadora (Computer Vision), Reconocimiento facial (Face Recognition), Reconocimiento corporal (Body Recognition), Reconocimiento de objetos, escenas y texto (Object, Scene and Text Recognition), Sistemas de habla y reconocimiento de voz (Speech Systems). El texto propone una agenda de investigación para identificar y remediar deficiencias en la IA con las personas con discapacidad. Este aspecto sugiere una preocupación por la equidad en el uso de la inteligencia artificial (línea de investigación a la que también nos sumamos).
Por su parte, el texto de Plasek et al. (2016) aborda el impacto socioeconómico de la inteligencia artificial desde una perspectiva de ciencias económicas. Se destacan temas como la automatización del trabajo y la brecha de desigualdad, temas recurrentes que merecen ser considerados en nuestro propio estudio. En cuanto a la ética y filosofía, se discute la responsabilidad y autonomía de los sistemas artificiales, los cuales, desde hace 64 años se han aplicado y hoy en día se han vuelto el centro de atención. De lo anterior, se cuestiona si el uso de IA y la automatización de procesos productivos ayudará a superar o amplificar los sesgos en la toma de decisiones humanas. Desde esta postura, asumimos un rol activo en la investigación para coadyuvar con un método riguroso al diagnóstico/solución del conflicto. Asimismo, abordan los sesgos en los datos y su creencia real de representación. También trata la Falacia del pedazo de trabajo. Esto lo relacionan con el precariado2 (precario y proletariado). Dado lo anterior, nos atrae el reto sobre la Responsabilidad Ética, que se discute desde la ética profesional, la ética de la investigación o incluso las evaluaciones de seguridad pública (Plasek et al., 2016, p. 18). Por consiguiente, coincidimos con las preocupaciones que se esbozan: sesgos, beneficios colectivos y brechas. Siguiendo con Plasek et al. (2016) nos llama la atención el cómo se insinúa la necesidad de la intervención de la política para evitar el precariado. En tanto, las personas deben ser capaces de saber responder o apelar decisiones de las IA´s. Es decir, hay una relación de poder: los débiles no pueden ignorar a quienes diseñan y configuran lo ético. Dicho por Plasek et al. “Las personas que tengan los datos y recursos informativos tienen la ventaja estratégica” (2016, p. 20). Además, ambos textos abogan por ampliar el uso de la IA en poblaciones que no tienen acceso a ella. De ahí, el fundamento de nuestra propuesta. La pesquisa en cuestión recomienda investigar modos alternativos de distribución de ingresos, recursos, educación y reciclaje. Se propone ampliar la participación con representantes y miembros de las comunidades afectadas por la aplicación y co diseñar la IA responsablemente. Por tanto, el concepto de brecha de responsabilidad emerge como un desafío clave, planteando cuestiones sobre la autonomía y posibles conflictos generados por la inteligencia artificial.
También se revisó el trabajo de Daniel Schiff et al. (2022) quienes se enfocan en la autonomía de la inteligencia artificial, tocando temas de gobernanza y ética. Su texto cuestiona y analiza los beneficios sociales y responsabilidades en su uso y apropiación. Desde una perspectiva empresarial, se mencionan oportunidades para que la IA contribuya proactivamente al bien social y la equidad, como la IA de Microsoft. Por eso explora la brecha entre principios y prácticas, particularmente en el contexto de las corporaciones. De igual manera, los autores se preocupan por los lineamientos que se plantean para el diseño, desarrollo y aplicación responsable de la IA (ética). También trabajan el concepto de brecha de responsabilidad, como un problema de “muchas manos”, cuya definición refiere a la distribución confusa de las responsabilidades durante el desarrollo y aplicación de la IA. Luego, se le considera un proceso iterativo de tres dimensiones: 1) Análisis interno: Evaluar posibles daños, riesgos, usuarios y usos de interesados y no interesados (sin limitarse a la privacidad, prejuicios o transparencia). 2) Participación de usuarios y partes interesadas: Relación entre desarrolladores y usuarios para preguntar sobre impactos (psicológicos, económicos, relaciones sociales, trabajo, salud y vida personal). 3) Recopilación de datos: Encuestas, enfoques, grupos, fuentes disponibles públicas o generadas de los resultados del sistema (Schiff, et al., 2022). La apuesta, por tanto, de Schiff et al. (2022) es una IA responsable desde el punto de vista ético-empresarial que se ciñe a seis puntos: principios y prácticas; contexto actual de la IA responsable; incentivos; impactos de la IA; división disciplinaria y distribución organizacional de responsabilidades; gobernanza del conocimiento; y desafíos para identificar mejores prácticas. Estos puntos se sitúan en el debate sobre el desplazamiento laboral a través de los casos de la automatización de procesos en el ámbito militar, educativo y de la salud. La complejidad de la IA, según los autores, apunta a ir más allá de una “burbuja” donde se observen solo el sesgo, la transparencia, la privacidad o seguridad; ya que se corre el riesgo de fomentar polarización, desinformación, y propaganda.
En otro estudio, Santoni y Mecacci (2021) retoman el tema de la brecha de responsabilidad, proponiendo un control humano significativo sobre la inteligencia artificial. Abordan los conceptos de responsabilidad en la filosofía moral y jurídica (Santoni y Mecacci, 2021, p. 1058). Y de nuevo vuelve al tema de brecha de responsabilidad. A partir de la filosofía propone cuatro formas de responsabilidad: culpabilidad, basada en la intención, conocimiento o control. Responsabilidad moral, deber de las personas de explicar a los demás sus motivos y acciones (en determinadas circunstancias). Responsabilidad pública, deber de los agentes públicos de explicar sus acciones a un foro público. Responsabilidad activa, deber de promover y alcanzar objetivos y valores compartidos por la sociedad. Éstas formas de responsabilidad nos parecen ideas sustantivas para ser tallereadas en campo, con personas que conozcan dichos conceptos, enfatizando las brechas de responsabilidad. De acuerdo con los autores, éste es un término que introdujo Andres Matthias en 2004. Respecto a la IA, se refiere a la pérdida de control y predicción humana en el comportamiento y autonomía de los sistemas de inteligencia artificial. Matthias abordó el riesgo de no poder impugnar resultados no deseados de las acciones medidas por la IA. Se pone en predicamento de lo humano sus capacidades racionales y su sentido de agencia y responsabilidad (2021, p. 1057). Respecto a la IA se preocupa que “pueda hacer que las personas sean menos capaces de comprender, explicar y reflexionar sobre su propio comportamiento y de otros agentes” (Santoni de Sio y Mecacci, 2021, p. 1065). Por ejemplo, en las brechas de responsabilidad moral, se cuestiona que las personas no sean capaces de comprender, explicar y reflexionar las decisiones que toma la IA; cuestionando su comportamiento y conocimiento (al igual que de otros). El texto señala las cajas negras, pues es difícil saber a quién se acude, dentro de la cadena de diseño, desarrollo y producción, en caso de errores en los datos y decisiones. Y entre los intereses que se mantienen en debate están la transparencia algorítmica,y la explicabilidad para la atribución justa de culpabilidad moral y legal.
Por su parte, en el sexto estudio de Emma Dahlin (2021) se analiza cómo algunos de los desafíos de la investigación en inteligencia artificial están relacionados con la brecha entre los análisis tecnológicos y sociales, y propone pasos a seguir para lograr colaboraciones prósperas en la investigación futura sobre inteligencia artificial. Al respecto: “Los proyectos que encuentren nuevas formas de conectar los análisis tecnológicos y sociales estarán mejor equipados para comprender e influir en cómo la IA cambia la sociedad”. (Dahlin, 2020, p. 3)”. A la par, propone fases: en la fase de planificación, el primer ejemplo destaca el riesgo de simplificar en exceso la tarea para un sistema de inteligencia artificial al no incorporar un análisis social al principio del desarrollo. El segundo ejemplo ilustra el problema de la aceptación del sistema, donde el artículo elabora por qué la aceptación es multifacética y no debe abordarse únicamente como un problema técnico. Con el tercer ejemplo, el artículo señala que los sistemas de inteligencia artificial pueden cambiar una práctica. Se plantea una brecha de conocimiento (Dahlin, 2021), entendida como un alejamiento o separación entre el ámbito tecnológico y social y se apela por una investigación multidisciplinaria. En tanto, las preocupaciones sociales y tecnológicas tendrían que ir de la mano, para garantizar sistemas de IA factibles y sostenibles que beneficien a la sociedad. Y metodológicamente también explora los estudios de caso. Y nos gusta la idea de pensar en una IA sostenible, “explorar las conexiones entre el diseño técnico de una IA y sus implementaciones sociales será clave para garantizar sistemas de IA viables y sostenibles que beneficien a la sociedad y que la gente quiera utilizar” (Dahlin, 2020, p. 3). Encomienda, en la que, según el autor, las universidades deberían colaborar.
Recapitulando, este estado del arte revela la importancia de abordar la inteligencia artificial desde múltiples perspectivas, considerando tanto los aspectos técnicos como los sociales y éticos. Nuestra reflexión podría profundizar en cómo estas diferentes perspectivas se entrelazan y se influyen mutuamente, y cómo su investigación puede contribuir a este diálogo interdisciplinario. Sin lugar a duda, tales puntos son sustantivos para entender los factores socio culturales asociados a las brechas en tiempos de la inteligencia artificial.
Marco teórico
Para explorar la brecha de participación, hemos seleccionado el marco del CC como punto de partida. Esta decisión se fundamenta en la identificación, a través del estado del arte, de la necesidad de enmarcar nuestro estudio dentro de un amplio contexto que refleje las dinámicas sociopolíticas de Latinoamérica, especialmente en México. Es relevante mencionar que, al abordar este concepto, se suele recurrir a una interpretación principalmente estructural que resalta temas como la dominación y la vigilancia, aspectos destacados en este modelo social. No obstante, al analizar el rol de los actores sociales, descubrimos que ellos también tienen la capacidad de organizarse y emprender acciones colectivas, es decir, de convertirse en agentes. En este sentido, Sierra (2016) indica que, en este marco, el CC influye en la conformación tanto del espacio público como de la esfera pública, actuando como un intermediario social.
Tal como lo plantea Boutang (2004), implica una transformación cualitativa que cambia del capitalismo esclavista absolutista al industrial asalariado y “democrático”, donde las ganancias son producto de la producción del conocimiento en tanto hay una acumulación primitiva de derechos de propiedad. Por ello, plantea el término cognitariado (proletariado del trabajo cognitivo). No obstante, dentro de la virtualización (Web) existe la oportunidad de la confrontación ante la oferta y demanda, la creación del propio mercado y la interacción mundializada. Propiedades privatizadas, por lo menos en los principales programas de IA, pero que producen” mentes en común” con una aparente gratuidad, para reforzar las ganancias de los oligopolios mediáticos. Por lo que se reproducen los cognitarios, a una escala cada vez más global (reforzando brechas).
Por lo tanto, es importante recordar, como señala Correa (2012), que los teóricos del CC, al igual que Hardt y Negri, argumentan que, en la fase actual del capitalismo, el trabajo inmaterial y las mercancías cognitivas predominan. Para Rullani (2004), el conocimiento determinista al servicio de la producción (control de la naturaleza por técnica y al ser humano por jerarquía) se valoriza mediante su escasez artificial, pues es mediante algún poder que se limita temporalmente la socialización y se reglamenta el acceso (una pérdida de la fuerza liberadora). Rullani (2004) explica que el valor de cambio del conocimiento depende completamente de la capacidad práctica de restringir su libre difusión, es decir, de limitar mediante instrumentos legales -como patentes, derechos de autor, licencias y contratos- o medidas monopolísticas para limitar la capacidad de copiar, imitar, ‘reinventar’ o adquirir conocimientos de otros
Aspecto que observamos en los servicios freemium y premium de la IA, en la cual se reglamenta acceso y también se cobra para seguir accediendo a determinadas funciones. Esto es, se limita la libre difusión. Y desde el propio código se privatiza el conocimiento. Por ende, nos posicionamos desde la definición de Francisco Sierra (s.a), para la definición de CC, en la cual señala nuevas dinámicas de producción como un marco conceptual, destacando el papel de la tecnología y las formas ampliadas de cooperación en el tardocapitalismo como respuestas a la crisis económica. El zeitgeist de nuestra era se define por la captura del código, el control sobre la información y el conocimiento, y el trabajo inmaterial. En este contexto, se enfatiza la importancia de la dimensión subjetiva y simbólica, así como la creatividad del trabajo humano, superando la preeminencia de la infraestructura o el capital físico que caracterizaba al modelo fordista y a la revolución científica del trabajo. Sierra sugiere que muchas de las transformaciones vinculadas con la teoría del “general intellect” y que se reflejan en la estructura social, están directa o indirectamente relacionadas con el aumento y la socialización de las capacidades para crear, transformar y desarrollar nuevos procesos productivos de manera colectiva.
Si lo pensamos en clave Inteligencia artificial, el CC se asocia a la inmaterialidad del algoritmo generativo y sus ulteriores mercancías cognitivas (como Chat GPT). A la inmaterialidad de la producción del sujeto, quien al final ofrece sus creaciones a empresas como Open AI; quien también se queda con sus productos generados. Pero: ¿quiénes puedan usar dichas herramientas? Que, por cierto, son tendientes a cobrar3 para brindarle más funciones al usuario. Lo que, provoca mayores brechas, toda vez que incluso entre quienes saben usar la herramienta, se marcan disparidades en las funciones que pueden tener con los servicios gratuitos (que además piden acceso a todos los datos del usuario) y los premium. En el marco de los talleres que hemos impartido colocamos un ejemplo: para leer PDF´s con programas como PDF AI, si no tienes versiones de paga, hay un límite de archivo que puedes subir (eso sin contar los problemas con la privacidad y seguridad de datos). Por tanto, la cantidad de trabajo que se puede hacer es menor.
Al profundizar en el CC, además de la perspectiva ya discutida, consideramos esenciales a autores como Horacio Correa (2012) y Mariano Zuckerfeld (2011). Ellos amplían nuestra comprensión del CC al incluir no solo elementos económicos y tecnológicos, sino también marcos decisionales, relacionales, afectivos y biopolítico.4 De acuerdo con Lazzarato (2004), el valor estético emerge como un componente crucial que cataliza deseos; para producir y consumir, lo que permea la propia definición de cultura. La clientela se visualiza como consumidora, la cual demanda una producción libre, propiedad colectiva y circulación sin coste. Lo que quizás podemos observar en las fascinaciones sociales por la imagen y video, disponibles en Tik Tok (que permite el uso de IA) o programas como Dalle. Que per se, pueden ser herramientas intermediadoras de conocimiento, siempre y cuando el goce no anule el pensamiento crítico y social de quienes las utilizan. Sin duda, habríamos de profundizar en el tema, pero cuántas personas hoy presentan adicción a la tecnología, que por cierto potencia imaginarios de uso con las funciones que agrega la IA (pensemos en los filtros de Instagram o Tik Tok).
Desde la psicología, el conductismo y el psicoanálisis han explorado dicha adicción de distintas formas. Para el primero, es un comportamiento reforzante para sentir alivio (Echeburúa y Corral, 2010 como se cita en García, 2013) que parte de la adicción al Internet (vehículo para desarrollar otras adicciones) y que produce una alta vulnerabilidad psicológica. En las redes sociales implica “una mejora” de las relaciones sociales, baja responsabilidad, experiencias, sentimientos de soledad, aburrimiento o narcisismo. Se ha propuesto el Modelo de Adicción Biopsicosocial de Griffiths (2005) para seguir los criterios clínicos de diagnóstico para una adicción conductual (saliencia o poner por encima de todo tal actividad, cambios de humor, tolerancia, síndrome de abstinencia, conflictos o pérdida de control y recaídas). Por otro lado, el psicoanálisis visualiza la adicción como una manía tóxica que se extiende mediante la compulsión (repetición) negadora (excluir y controlar el dolor, pérdida o separación); es decir, “un apego excesivo a la repetición sistemática y monótona de un procedimiento a realizarse en un sistema cibernético, y por el cual se van alcanzando ciertos objetivos dentro del mismo sistema” (Fleisher, Allegro, Zerba, Rivas, Surmani, Hidalgo, Berdullas, Mena, Warjach y Carrasco, 2014, p. 197). En dicha adicción no se puede esperar responsabilizar al objeto porque es vertiente del sujeto; el cual, vive una ficción desvaneciente (obsolescencia programada) y que provoca un consumo inagotable donde desde los impulsos se busca satisfacer el deseo.5 Por tanto, para ambas corrientes (que pocas veces se ponen de acuerdo) hay un problema con el exceso de tecnología e IA. Se pierde al sujeto entre tantas imágenes, proveídas desde un sistema social y política.
Al mismo tiempo, TikTok ha sido fuentes de señalizaciones porque la eficacia de su algoritmo, donde la Inteligencia artificial (IA) es responsable de la alta personalización de ítems (como “Para ti”) que hacen a los usuarios entrar en estado de flow (Csikszentmihalyi, 2002 como se cita en Martinez, 2024); es decir, tener plena concentración y participación en la actividad con una distorsión del tiempo. Esto se alimenta del diseño de “Me gusta” que provoca recompensa, liberación de dopamina y retroalimentación positiva al usuario. Para ello, se ha recurrido al DSM-5 (Diagnostic and Statistical Manual of Mental Disorders), Manual diagnóstico y estadístico de los trastornos mentales (APA, 2014) para establecer criterios de diagnóstico y un posible estudio sobre la relación de la adicción a las redes sociales con la teoría del apego y derivados desde la infancia (Burhan, R. y Moradzadeh, J., 2020 como se cita en Martinez, 2024). De manera similar, de acuerdo con Solís (2024) el síndrome de FOMO (Fear of Missing Out), implica una presión social para estar involucrado en eventos o actividades que no son esenciales ni necesarias para la persona, lo cual puede influir en la toma de decisiones y afectar el bienestar emocional, porque los observan a través de plataformas digitales. Este síndrome puede conducir a comportamientos adictivos, comparaciones frecuentes en plataformas de redes sociales, y un fuerte deseo por parte de los usuarios de estar continuamente conectados a las Tecnologías de la Información y la Comunicación (TIC) y las Redes Sociales (RRSS).
Aunque, más allá de esto, tal hecho tiene como consecuencia una representación de ciertos grupos en la ecosfera. Y la exclusión de otros, que no tienen voz dentro de dicho espacio digital. Al tiempo que, una de las principales fuerzas impulsoras del CC es la innovación. Dentro de esta división entre ciudadanos que pueden innovar y aquellos que no, a menudo se encuentra que los jóvenes de clase media adoptan una ideología de superación personal, influenciada por los valores de una “clase creativa”. (Zukerfeld, 2011). Esto provoca una disgregación que tiene por un lado a gente ofreciendo sus servicios informacionales, y a otra sobreviviendo dentro de sus barrios, sin contar con la posibilidad de ir más allá de un like o retuit.6 O aún más: de usar Chat GPT, Perplexity, Sci Space, y otros programas de Inteligencia artificial Generativa, lo que impacta directamente en sus habilidades y competencias frente a los trabajos que desarrollan. Fuera de la lógica de mercado, ¿podríamos considerar como cierre social (Parkin, 1984, como se citó en Zukerfeld, 2011) los elevados costos de las nuevas versiones de programas como Chat GPT? ¿Pedir que en las habilidades profesionales se maneje IA es otra forma de cierre social? ¿Dejar de lado a grupos vulnerables de políticas informacionales que les alfabeticen en materia de IA es otro cierre social? Preguntas que tendremos que seguir respondiendo.
Tras abordar el CC, que incluye una producción biopolítica, debates sobre derechos de autor, el concepto de procomún como resistencia y el contagio de afectos, vinculamos este concepto con la SIC y el conocimiento. Porque, el capitalismo, como modelo económico, continúa sus procesos productivos enfocados en la acumulación de capital y ganancias; sin embargo, bajo el paradigma de las sociedades informacionales, se han utilizado las mediaciones tecnológicas para aumentar la productividad y eficiencia, e influir en los valores y creencias de los individuos. Entramos al terreno de las subjetividades. En este aspecto, la SIC y el conocimiento, una de las principales ideas del CC, ha sido extensamente explorada por autores como Crovi (2014), Alva (2015) y Mattelart (2001) Esta categoría es polisémica y su significado está en constante cambio (acorde a los contextos). En el contexto actual de las inteligencias artificiales, es relevante reconsiderar este concepto.
Ante esto, nos preguntamos si hoy convendría hablar de sociedades de la información generativas, dado el impacto que ha tenido el desarrollo de las inteligencias artificiales, en sus acelerados ritmos en los cuales ha situado prácticas políticas, económicas, culturales e ideológicas. Por lo que al mismo tiempo convendría preguntarnos a quiénes benefician esas sociedades informacionales generativas, toda vez que la producción, muchas veces sigue quedando en manos de diversas industrias culturales.7 Como señala el sociólogo español Manuel Castells (1997), en el contexto del capitalismo actual, los dos pilares fundamentales de la sociedad informacional son la globalización y los flujos financieros. Así, la SIC y el conocimiento considera a la información como su materia prima esencial, permeando todos los aspectos de la vida humana. Esta sociedad opera a través de interconexiones, mostrándose flexible, fluida y convergente. Por otro lado, Delia Crovi (2009) establece una distinción importante entre información y conocimiento; mientras que la información representa los datos en su forma más elemental, el conocimiento implica una apropiación y aplicación de esos datos por parte de los individuos para alcanzar objetivos propios.
Un tema que a la vez se vivencia como reto es el de construir sociedades generativas del conocimiento. Y por supuesto, será el propio sujeto que mediante su agencia tendrá que dar lugar a estas sociedades del conocimiento. Pensamos que desde lo micro podemos partir, idea a la que abona los talleres lúdicos reflexivos que proponemos. Ergo, se necesitan metodologías participativas, para despojar de la alienación al sujeto frente al algoritmo de Chat GPT o cualquiera otra alternativa similar.
Finalmente, en próximos trabajos convendría ahondar con más fuerza en las brechas, pero no hay que olvidarlas. Es fundamental reconocer que, para superar la brecha de apropiación, resulta crucial la participación en entornos digitales. Esta participación es evidente en sectores que disponen de suficiente capital informacional y un hábitus que facilita dicho acceso. Sin embargo, esta participación está notablemente ausente en ciertos sectores que no solo carecen de motivación, sino que también, en algunos casos, no poseen la infraestructura ni las habilidades necesarias para utilizar las tecnologías (Alva, 2017). En este contexto, Norris (2001) describe el concepto de brecha digital a través de tres aspectos distintos:
La división global, que se refiere a la brecha entre países industrializados y aquellos con un nivel bajo de infraestructura.
La división social, que destaca las diferencias entre ricos y pobres dentro de cada país.
La división democrática, que considera la separación entre las personas que utilizan los recursos para involucrarse y participar en la vida pública (p. 4).
Por lo tanto, en la actualidad el concepto de brecha se entiende no solo en términos de conectados y desconectados, sino que también incorpora indicadores como el ingreso económico, la ubicación geográfica y la demografía. Además, incluye otros factores críticos como las habilidades y capacidades de apropiación, ampliando significativamente nuestra comprensión de esta problemática. Inclusive, en algunas de las experiencias que ya hemos tenido con TLR (Lugo, 2023), no sólo se trata de brechas de apropiación, también hay otras experienciales; por ejemplo, si los profesores no hallan un para qué apropiarse de la IA, la usan con desgano y sienten su significación como una carga. O en todo caso, intuyen que la IA los va a sustituir y la miran como sus enemigas.
Metodología
Para la metodología, sugerimos la utilización de TLR (Lugo, 2020) como una estrategia de indagación (Creswell, 2015). Esta aproximación permite que el investigador no solo observe su objeto de estudio, sino que también lo explique y, eventualmente, intervenga en él. Sin embargo, es importante señalar que esta segunda parte del trabajo se llevará a cabo en una etapa posterior. A continuación, marcamos la ruta de esta segunda etapa:
A propósito de lo anterior, los TLR funcionan como estrategias participativas, cuyas técnicas de iniciación-cohesión, producción grupal y evaluación-reflexión permiten la creación de documentos empíricos por parte de un colectivo (Peña-Cuanda y Esteban-Guitart, 2011, citados en Lugo, 2020). Para entender mejor los TLR, es importante señalar que están estructurados en cuatro partes: 1) iniciación, 2) cohesión, 3) producción grupal y 4) evaluación-reflexión, las cuales se despliegan en tres etapas. La primera etapa, que abarca la iniciación y cohesión, se enfoca en generar “confianza, conocimiento entre los participantes y desinhibición” (Basagoiti y Bru, 2002), además de integración para “preparar al grupo” (citado por Peña-Cuanda et al., 2013, p. 190). La segunda etapa es crucial para la generación de material de análisis, ya que se centra en “el hacer, vivenciar, generar expresión a través de acciones y actividades relacionadas directamente con las preguntas centrales y los propósitos de la investigación” (Peña-Cuanda et al., 2013, p. 191). En este sentido, la creatividad, así como la imaginación es muy importante para proyectar situaciones de la vida cotidiana, observar los lugares de poder que atribuyen en sus relaciones, entre otros aspectos mediante dramatizaciones, dibujos o conversatorios. Que, para nuestro caso, se intersecciona con el uso ético8 de la Inteligencia artificial. En tanto, en la tercera etapa se busca reflexionar sobre el proceso propio y grupal, con el fin de explicitar “lo aprendido, lo sentido, lo pensado” (Peña- Cuanda et al., 2013, p. 193) y el hacer, por parte de todos los participantes. De ahí que se generan datos sobre la agencia colectiva porque los participantes verbalizan los juegos, dibujos o dramatizaciones, según sea lo producido en la segunda parte mencionada (Lugo, 2020).
En cuanto al método, seguiremos y mejoraremos propuestas como la que expusimos hace un año (Lugo, 2023). Es decir, optamos por el enfoque cualitativo, basándonos en nuestra pregunta de investigación, objetivos, hipótesis y marco teórico para profundizar en “la complejidad de los factores que rodean a un fenómeno y la diversidad de perspectivas y significados que este tiene para los involucrados” (Creswell, 2015, p. 129). Es importante destacar que hemos seleccionado un muestreo por conveniencia, el cual depende de la participación voluntaria, con los participantes presentándose por sí mismos. (Crespo y Salamanca, 2007). Este trabajo de campo está programado para llevarse a cabo este año (2024) en Quintana Roo y la Ciudad de México, específicamente con estudiantes de posgrado en la UQROO y en la UNAM. La información se procesará mediante matrices categoriales (Bonilla y López, 2016). Consideramos esencial iniciar con el estudio de las inteligencias artificiales en muestras significativas, que eventualmente se extiendan a otros grupos sociales, para fomentar escenarios de agencia frente a la tecnología de manera que esta siga siendo vista como un potenciador de la acción social y sus transformaciones. Los asistentes al taller desarrollarán habilidades digitales relacionadas con el uso y la apropiación de la IA. Vemos una oportunidad para identificar correlaciones entre sus narrativas, discursos e imágenes utilizadas; con el objetivo de comprender mejor el fenómeno de la brecha de participación y dimensionar las brechas de responsabilidad. Detallamos cómo se operacionalizarían estos TLR: las sesiones grupales de reflexión y diálogo son dirigidas por un facilitador y una colaboradora. Cada sesión consistirá en tres momentos:
Reflexiones iniciales relacionadas con la apropiación social y las brechas de la IA.
Desarrollo que incluye teoría aplicada, acompañada de ejercicios para sus proyectos.
Atención a dudas y reflexiones finales.
Cierre y conclusiones.
En cuanto a nuestros instrumentos, proponemos lo siguiente:
Planeaciones psicopedagógicas de cada sesión, incluyendo posibles escenarios de crisis.
Programas de IA para compartir: ChatGPT, Perplexity, SciSpace, Research Rabbit.
Recursos de apoyo para los participantes: videos, música, textos académicos y periodísticos.
Como unidad de estudio se considerará, por tanto, a la UAQROO y UNAM (Posgrados de Ciencias Sociales), mientras que como unidad de análisis a profesores y estudiantes que asistan a los Posgrados. Con el primero se podrá asistir en las tareas cotidianas de dicha comunidad, generando una apropiación con una de las herramientas más populares. Mediante el segundo trabajaremos con la generación de imágenes. Y con el tercero, acceso a fuentes de diversas universidades, para construir redes de conocimiento locales. Siempre considerando aspectos éticos y críticos, en donde intervendrán parte de las categorías construidas en el presente trabajo. Dicha entrevista semi-estructurada se fundamentará en un muestreo cualitativo de carácter intencional (Gubern, 2004), enfocado en los principales perfiles participantes de los talleres. Esto nos permitirá contextualizar las interpretaciones que el investigador realiza (Hine, 2015). Nuestro objetivo es recolectar experiencias, comportamientos, expectativas, emociones, pulsiones y comprensiones. Aunque estos no constituyen muestras representativas, reflejan la sincronía cultural de una población. Adoptaremos la misma técnica de muestreo, añadiendo el método “bola de nieve”, para identificar a personas interesadas en el taller. Nos interesa explorar puntos de contraste para desarrollar indicadores específicos sobre esta brecha de participación, mediada por la IA, en ambas instituciones. Anticipamos encontrar individuos que participaron activamente y experimentaron un impacto significativo, en contraste con aquellos que fueron excluidos del proceso debido a la falta de habilidades políticas y socioculturales; considerando también la posibilidad de futuras replicaciones del estudio. Finalmente, los resultados se integrarán con el marco teórico para que, a través del método de análisis categorial (Bonilla y Rodríguez, 2015), se realice una interpretación detallada de la información. Esto facilitará la generación de categorías que se entrelacen tanto teórica como empíricamente, proporcionando un análisis más profundo y significativo de los datos recopilados.
Resultados
Considerando los procesos anteriores, en la Tabla 2, establecemos un guion de taller lúdico reflexivo, para poderse aplicar en el caso seleccionado (destacamos que es una simbiosis entre teoría y metodología). Para ello, utilizamos la técnica de matriz de categorial de Bonilla y Rodríguez (2015).
Tabla 2 Programa del TLR, “Apropiación crítica, ética de la Inteligencia artificial en la Academia”
| Nombre | Objetivo | Actividad |
|---|---|---|
| Introducción | Establecer algunas aptitudes que requieren los
asistentes para apropiarse de la Inteligencia
artificial. Familiarizar a los participantes con los conceptos básicos y la concepción sociopolítica de la IA. Comenzar a explorar brechas, desde las de apropiación, hasta las de responsabilidad. |
Abrir una discusión sobre lo que se puede lograr
desde la educación mediante el uso de la Inteligencia artificial
¿Alguno de ustedes tiene ideas o ejemplos de cómo la IA puede
transformar la educación o mejorar la forma en que aprendemos y
enseñamos? ¿Cuáles son los retos que plantea la introducción de
la Inteligencia artificial a la vida académica? ¿Para qué ocupas la IA? ¿Qué programas ocupas o conoces? |
| 5 claves de la IA. | Subrayar la necesidad de equilibrar los
beneficios de la IA con consideraciones éticas y de privacidad
en el campo de las Ciencias Sociales. Exposición de brechas y como resarcirlas. Mostrar resultados relevantes en la investigación (usando el estado del arte). |
¿Qué nos dice la IA sobre la IA? Ejercicio: Preguntarle a Perplexity. Ubicar redes de conocimiento en Sci Space. |
| Apropiación y ética de la IA | Identificar las repercusiones sociales de la IA, con el fin de que los participantes lo utilicen de manera ética y performativamente. | Investiga en Perplexity o preguntale a Chat GPT ¿Qué es la apropiación tecnológica? ¿Y la ética? |
| La importancia de problematizar el prompt | Presentar estrategias y técnicas para
desarrollar la capacidad de problematizar el prompt. Proporcionar ejercicios prácticos para que los participantes realicen esta habilidad en sus vidas personales y profesionales. |
Los asistentes comenzarán a diseñar prompts
estratégicos enfocados a sus necesidades, por lo cual se
proponen las siguientes actividades: • Perplexity: busca una categoría y cítala en APA. • Chat GPT: Pide una primera matriz de congruencia. • Bard: Mejora prompt de imagen. • Realizar una biblioteca de prompts realizados por los colegas. |
| Reflexiones situadas de la IA | Reflexionar sobre las implicaciones sociales y culturales de la IA. | 1. Micro proyecto (usar Chat GPT para dar
instrucciones): 2. Campaña anti-plagio para comunidad escolar. 3. Planeación escolar sobre clase de uso ético en la IA. 4. Micro protocolo de investigación de tesis. 5. Hagamos una biblioteca de prompts 6. Generar un decálogo. |
| Hacia una cultura de la participación disruptiva con IA | Promover una cultura de participación, empoderando a los participantes para actuar con agencia y responsabilidad. | Realizar un decálogo orientado a la participación que englobe acciones ciudadanas, académicas y de participación del Estado. |
Fuente: elaboración propia.
Análisis y discusión
La discusión contemporánea en torno a la inteligencia artificial (IA) revela una diversidad de perspectivas que cuestionan no sólo su definición sino también su impacto y aplicación en la sociedad. Lo que nos reta a unir a las ciencias sociales con las ingenierías para propiciar metodologías participativas, que sumen al entorno del Big Data. Siguiendo los estudios de tecnología hechos por Crovi (2009), para nosotros la IA no solo se entiende como una herramienta tecnológica avanzada sino también como un medio que, sin la adecuada consideración de las brechas de acceso, uso y apropiación, podría exacerbar condiciones de alienación. Esta preocupación se hace eco en el análisis de Amballor y Naik (2020), quienes destacan el sesgo representacional y la urgencia de implementar políticas mediadoras para mitigar los riesgos de discriminación, racismo y violaciones a la privacidad. De ahí la necesidad de pensar a la brecha de participación como una condicionante en el desarrollo social, apegado a una IA ética, en donde tiene que estar presente el Estado.
El trabajo de Guo, Kamar, et al. (2019) sugiere que la investigación en IA debe ir más allá del ámbito tecnológico para incluir consideraciones éticas y sociales, proponiendo una agenda de investigación. Nos sumamos a esa encomienda y comenzamos por proponer abordar a) sesgos, b) políticas de estado, c) metodologías en ciencias sociales, beneficios colectivos, e) género e IA. Asimismo, Schiff y Rakova et al. (2022) complementan esta visión al enfatizar la necesidad de una IA que promueva la autonomía, gobernanza y ética, señalando la importancia de una co-participación y responsabilidad compartida en el desarrollo y evaluación de proyectos de IA. Aspecto que debe considerarse desde la academia, hasta los gobiernos locales y federales. Por otro lado, la intersección de la IA con cuestiones de desigualdad (Plasek, 2016) y el precariado ilustran la complejidad de los desafíos que enfrentamos al integrar la IA en el tejido social. Que, por cierto, en países como México, son una condicionante para el uso de IA, que además cada día tiende a incrementar sus costos, y por consecuencia sus brechas.
Ergo, Dahlin (2021) resalta la existencia de una brecha de conocimiento y una brecha analítica entre los estudios sociales y tecnológicos, argumentando que la tecnología siempre es social y que, por lo tanto, cualquier análisis debe contener transparencia y explicabilidad. Aún más, la gente debe tener acceso a que hacen con sus datos y cómo funcionan los programas. Pues, la integración de la IA en la vida cotidiana plantea cuestiones fundamentales sobre el lado humano de la tecnología y su potencial para amplificar o mitigar los sesgos existentes en la toma de decisiones humanas. La investigación debe continuar explorando la relación sujeto/objeto en función de los sesgos y brechas de responsabilidad planteadas en la literatura (Santoni y Meccaci, 2021), incluyendo el estudio de racionalidades (y pulsiones) de sujetos que utilizan la IA y la exploración in situ de las cajas negras tecnológicas. Agregaremos que, ponderando la importancia de la racionalidad, pero sin idealizar, considerando también un enfoque fenomenológico y humano del sujeto frente al objeto; quienes además debe estar por encima de las cajas negras.
Para abordar efectivamente estas cuestiones, se requiere una investigación multidisciplinaria que considere todos los procesos de IA dentro de un contexto social marcado por el CC. Es fundamental debatir y diseñar una IA sostenible que promueva modos alternativos de distribución de recursos, educación, y difusión de conocimientos, así como el desarrollo de códigos de ética y metodologías de uso ético (Dahlin, 2021; Plasek, 2016). Sin duda que, desde los talleres podemos asumir dichos aspectos. Asimismo, la propuesta de Schiff y Rakova et al. (2021) de una IA basada en la co-participación, gobernanza, y responsabilidades compartidas, junto con la necesidad de explorar formas de responsabilidad (culpabilidad, responsabilidad moral, pública y activa) sugiere un camino hacia una integración más ética y equitativa de la IA en la sociedad. Finalmente, mientras la IA se imbrica cada vez más en nuestra vida diaria, la brecha de participación y las consideraciones éticas asociadas se vuelven cada vez más críticas. La superación de estas brechas requiere un esfuerzo colectivo y una reflexión profunda sobre la interacción entre tecnología, sociedad y la responsabilidad compartida en la conformación de nuestros haceres sociales, cotidianos y académicos.
Conclusiones
Es imperativo reconocer que la brecha digital se adscribe al CC, el cual se erige como un paradigma político, cultural, económico e ideológico predominante. Este modelo asigna un valor primordial a la información, destacando sus múltiples connotaciones simbólicas. En este escenario, el discurso de la SIC y el conocimiento se ha desarrollado desde la década de 1970, aunque se ha manifestado con mayor claridad en sociedades periféricas como la nuestra desde los años noventa (Crovi, 2009). En consecuencia, la información asume un papel crucial en los procesos productivos, perpetuando las desigualdades geopolíticas que persisten incluso en la esperanza de un mundo interconectado. Esto implica que se hace del símbolo otro elemento de poder. En el contexto de la SIC, se identifican múltiples brechas (Alva, 2017). Este estudio categoriza tres niveles de brecha: la de acceso, asociada a la infraestructura (primer nivel); la de uso, que se refiere a cómo las personas emplean las TIC (segundo nivel); y la de apropiación (tercer nivel), donde los individuos utilizan las TIC como herramientas para su empoderamiento individual y social (Crovi, 2009). Es necesario enunciarlas y explorarlas metodológicamente, con las particularidades que actualmente supone la IA: sesgos, inteligibilidades, campos de entrenamiento, servicios freemium, goces, etc.
En la actualidad, la inteligencia artificial implica una serie de desafíos y características como sesgos, opacidades, áreas de entrenamiento específicas, servicios de modelo freemium y diversas formas de interacciones simbólicas. Para concebir una inteligencia artificial más colaborativa y fomentar subjetividades con capacidad de agencia, es fundamental que las personas no solo tengan acceso y uso de las tecnologías, sino también capacidades de apropiación significativas. Esto implica la habilidad de los ciudadanos para generar contenido en IA que no solo los involucre en asuntos públicos, sino que también les brinde empoderamiento tanto a nivel individual como colectivo. Esto está estrechamente vinculado a la necesidad de que los ciudadanos accedan a un conocimiento digital básico, que según Dahlgren (2011), incluye acceso a información confiable, participación en discusiones y debates, y análisis de temas coyunturales y de relevancia actual. De esta forma, se contribuye a que la esfera pública se mantenga como un bien viable y accesible para todos. A saber, al apropiarse de las tecnologías y en específico de la IA; se debe poseer un conocimiento digital básico, el cual se puede distinguir mediante las siguientes creaciones9: a) creación de prompts, b) memes hechos con IA, c) videos hechos con IA (desde formato corto, hasta reels), d) investigaciones contextuales, e) campañas, f) investigaciones académicas, g) discursos digitales h) imágenes artificiales.
Indiscutiblemente, la interacción de las personas con la tecnología, y específicamente con la inteligencia artificial, está profundamente influenciada por sus historias de vida personales. En el estudio realizado por Alva (2017) sobre la brecha digital, se determinó que el estilo de vida de cada participante juega un papel crucial en su disposición a involucrarse en temas que le resulten motivadores. Así, se puede deducir que aquellos que han tenido experiencias previas como activistas, o que han participado en asociaciones civiles, colectivos o partidos políticos, muestran una mayor inclinación a involucrarse, lo cual probablemente ha sido fomentado por sus propias matrices culturales primarias como la familia, la educación y las amistades. Esta comprensión puede ofrecernos pistas valiosas acerca de quiénes están mejor posicionados para apropiarse efectivamente (y afectivamente) de la IA y quiénes podrían enfrentarse a mayores desafíos en este ámbito. Cabe aducir que en las investigaciones previas que hemos hecho, hemos comprobado esta hipótesis, pues cuando el proyecto envuelve a la subjetividad del sujeto, éste se activa con mediación de la IA, para conseguir alguna meta que se proponga. Y que precisamente necesitará ser desarrollada en los TLR.
Finalmente, como se ha mencionado anteriormente, estamos tratando con un idealtipo, por lo que es comprensible que dichos componentes no estén presentes en todas las investigaciones. Hay que seguir estudiando caso por caso. Más ahora con la aceleración social que supone la IA. Por ello, nuestra propuesta para superar la brecha de apropiación sugiere que el individuo puede trascender las brechas de uso en la IA para integrarse activamente en la vida pública, basándose en su historia de vida, conocimiento, subjetivación, agencia, hábitus y factores de cercanía. Si incluimos la motivación para participar entre estos procesos, es probable que se generen discursos, imágenes, narrativas y contenidos que resuenen socialmente. No nos basamos únicamente en hipótesis, ya que hemos observado estos fenómenos en otros casos (Lugo, 2023). Por tanto, nos gustaría promover una propuesta que fomente la participación utilizando los TLR que hemos esbozado anteriormente. Consideramos que el campo de exploración es amplio, especialmente porque la conectividad tecnológica está en aumento, pero no así la participación de amplios sectores sociales, lo cual podría ser contraproducente para los marcos democráticos que requieren pluralidad y participación de diversos grupos ciudadanos. Nos preguntamos: ¿Qué están haciendo los grupos subalternos con relación a la IA? Lo mencionamos porque, requerimos estudios diversos; desde la episteme, el método y la praxis. Toda vez que es crucial reflexionar sobre cómo, aunque existen estructuras que condicionan al sujeto dentro del CC, también existen espacios de agencia que no emergen automáticamente con la tecnología, sino a través de la mediación de metodologías que consideren a la IA de manera crítica y constructiva (y no al revés).










nueva página del texto (beta)



