SciELO - Scientific Electronic Library Online

 
vol.67 número246Financiamiento de campañas y cabildeo: avances y retos en el estudio de grupos de interésForma y razón histórica del Estado en el pensamiento de Norbert Lechner índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Revista mexicana de ciencias políticas y sociales

versión impresa ISSN 0185-1918

Rev. mex. cienc. polít. soc vol.67 no.246 Ciudad de México sep./dic. 2022  Epub 08-Mayo-2023

https://doi.org/10.22201/fcpys.2448492xe.2022.246.78422 

Artículos

Culturas algorítmicas: conceptos y métodos para su estudio social

Algorithmic Cultures: Concepts and Methods for their Social Study

Gabriela Elisa Sued* 

* Instituto de Investigaciones Sociales (IIS), UNAM, México. Correo electrónico: <gabriela.sued@gmail.com>.


Resumen

Junto con los datos masivos, las plataformas y sus usuarios, los algoritmos constituyen los elementos principales de la comunicación y la cultura digital actual. Este artículo presenta una sistematización de literatura orientada al estudio de las relaciones entre algoritmos, sociedad y cultura, sitúa el tema en el contexto de los estudios de la cultura y la comunicación digital y se enfoca especialmente en los sistemas de recomendación automatizados utilizados en plataformas sociales. De igual manera, este texto parte de la consideración de los algoritmos como ensamblajes sociotécnicos que incluyen un conjunto amplio de actores humanos y no humanos, presenta las bases conceptuales de los estudios críticos de algoritmos y las problemáticas de estudio más frecuentes en el área: poder y agencia, visibilidad algorítmica y sesgos, así como las corrientes metodológicas orientadas a su estudio empírico. Su principal aportación es la presentación de un recorrido que posibilita la profundización del conocimiento del tema a pesar de su opacidad y de las tensiones que se plantean entre el poder algorítmico ejercido por las plataformas y la agencia de los usuarios y sus posibilidades de acción e interacción con dispositivos que automatizan decisiones y jerarquizan información.

Palabras clave: algoritmos; plataformas sociales; cultura digital; datos masivos; metodologías

Abstract

Along with big data, platforms, and users, algorithms are the primary communication elements of digital culture. This article presents a literature systematization that analyses the relationship between algorithms, society, and culture. It places the subject in the context of cultural studies and digital communication, primarily focusing on automated recommendation systems used on social platforms. This analysis draws from the consideration of algorithms as sociotechnical assemblies that include a broad set of human and non-human actors. Then, it introduces the conceptual bases of the critical studies of algorithms and the most frequent study issues in the area: power and agency, algorithmic visibility and biases, and the methodological trends aimed at their empirical study. It presents a path to deepen the knowledge about the subject despite its opacity, and the tensions between the platforms' algorithmic power and the users' agency, as well as their action and interaction possibilities with devices that automate processes and prioritize information.

Keywords: algorithms; social platforms; digital culture; big data; methodologies

Introducción1

Algoritmos, comunicación y cultura digital

Desde la generalización del uso de computadoras, teléfonos y redes de comunicación y sociabilidad, las prácticas culturales y comunicativas de la vida pública y privada se encuentran mediatizadas por plataformas digitales: las aplicaciones de tránsito recomiendan el camino a tomar, las de video on demand ofrecen contenidos para visualizar, las redes sociodigitales sugieren a quiénes ofrecer nuestra amistad. Estas recomendaciones -a las que, como usuarios de plataformas, nos encontramos cada vez más habituados- son asumidas por algoritmos, piezas de software creadas para dar solución a un problema lo más eficientemente posible dentro de una computadora (Cormen, 2013).

Los algoritmos son objetos técnicos presentes en todas las esferas de la vida. Se encuentran en los sistemas financieros y bancarios (Pasquale, 2016), en los sistemas de salud y seguridad social (Eubanks, 2019), en los judiciales, de seguridad y de gestión gubernamental (Kearns y Roth, 2019), en los sistemas universitarios de aplicación y admisión (Pangburn, 2019) y en las plataformas digitales (Gillespie, 2020). Actúan con relativa autonomía respecto de los seres humanos y orientan decisiones que van desde quién puede recibir un crédito, asistir a una universidad, o acceder a la seguridad social, hasta la selección y priorización de formas de sociabilidad, consumos culturales y opiniones políticas. Estos ejemplos evidencian que los algoritmos tienen una importante incidencia tanto en la sociedad, entendida como "un sistema de interrelaciones que vincula a los individuos" (Giddens, 1991: 44), como en la cultura, considerada como "la descripción de un modo particular de vida que expresa significados y valores expresados no sólo en el arte y la educación, sino también en las instituciones y en la vida cotidiana" (du Gay, Hall, Janes, Mackay y Negus, 1995: 12). Por eso resulta necesario considerarlos como objetos de estudio de las ciencias sociales, más allá de su creación en los ámbitos de la matemática, las ciencias de la computación y la ingeniería del software. En tanto dan forma a una experiencia en línea que cada vez en mayor medida incluye prácticas comunicacionales, tales como la producción y el consumo de narrativas visuales, el ejercicio de la sociabilidad en redes sociales y la producción y circulación de opinión pública, las resoluciones de los algoritmos no son meramente técnicas, sino que también son sociales y culturales. Los algoritmos "buscan, clasifican, agrupan, emparejan, analizan, perfilan, modelan, simulan, visualizan y regulan personas, procesos y lugares. Dan forma a cómo entendemos el mundo y a la vez crean el mundo a través de su ejecución como software, con profundas consecuencias" (Kitchin, 2017: 18).

Si bien algunos conceptos que aquí se vuelcan son útiles al estudio desde las ciencias sociales de todo tipo de algoritmos, en este trabajo nos centraremos en los algoritmos de plataforma. De esa manera denominamos a los algoritmos que han sido diseñados para que plataformas como Facebook, YouTube, Netflix o Spotify resuelvan problemas computacionales eficientemente. Usualmente, estos son sistemas automatizados de recomendación que predicen, sugieren y proveen la información que podría ser relevante para sus usuarios (Bucher, 2018).

Los algoritmos tienen una doble materialidad: digital en su constitución y cultural en su funcionalidad. Su aspecto digital incluye rutinas, estructuras embebidas de comandos, fórmulas matemáticas y relaciones estrechas entre varios algoritmos. Su aspecto cultural se encuentra constituido por las maneras en las que los algoritmos se arraigan tanto en sus productores como en sus usuarios y son puestos en acción en la interacción con ellos. Si para los ingenieros en software resulta determinante cómo los algoritmos interactúan con las bases de datos, para los científicos sociales resulta fundamental entender cómo los algoritmos interactúan con sus usuarios, cómo estos los perciben y qué estrategias utilizan para interactuar con ellos, o bien para sortearlos.

Es importante para este artículo situar el estudio de los algoritmos como parte de un área de la comunicación digital y los estudios de medios que incluye los procesos de datificación, los usos sociales de las redes sociodigitales y los procesos de selección, jerarquización y filtrado de información, noticias y entretenimiento en el entorno digital. El actual interés por los procesos algorítmicos se relaciona directamente con el "diluvio digital", modo en que se denomina a la proliferación de datos digitales producidos, por un lado, por el registro de las actividades que los usuarios realizan en teléfonos móviles inteligentes, aplicaciones digitales y medios sociales (Kitchin, 2014; Marres, 2017) y, por otro, por los avances informáticos que permiten procesarlos y organizarlos de modo simple y a bajo costo. Ambos fenómenos producen una "revolución de los datos" (Kitchin, 2014). Además de poseer valor económico, social y cultural, los datos masivos son fuente de innovación en el marketing, la economía, la gestión de gobierno y la ciencia (Mayer-Schönberger y Cukier, 2014). En este proceso de datificación, los algoritmos son necesarios para gestionar un inmenso flujo de datos.

Los estudios sobre comunicación digital se llevan a cabo sistemáticamente en América Latina desde mediados de la década de 1990 desde perspectivas múltiples, entre los cuales la construcción de subjetividades, de sociabilidad y el acceso a la información mediante redes sociodigitales ocupan un lugar importante (Trejo, 2018). Los procesos algorítmicos juegan un rol fundamental en las prácticas antes mencionadas, dado que jerarquizan la información y programan los modos de sociabilidad que en ellas se ejercen (van Dijck, 2016). Sin embargo, si bien la temática ha sido bien estudiada en Estados Unidos y Europa durante los últimos cinco años, su abordaje todavía representa un desafío para los estudios de cultura digital en Latinoamérica. Una búsqueda por palabra clave en la base de datos SciELO indica que los textos en español que abordan los algoritmos con relación a alguna perspectiva social o cultural no constituyen más de una docena, la mayoría de reciente publicación. Esta consulta indica la emergencia de un interés sobre el tema, sin embargo, también expone la necesidad de desarrollar conocimiento situado en la región.

Este artículo se propone presentar líneas teóricas, problemáticas y metodológicas para avanzar en el conocimiento de las recomendaciones algorítmicas efectuadas por sistemas automatizados como parte de la profundización en los elementos que componen la cultura digital actual. Con este fin, sistematiza un conjunto de textos académicos pertenecientes al campo de los estudios críticos de algoritmos (Roberge y Seyfert, 2018).

Existen algunas sistematizaciones de literatura previas. Por ejemplo, Fernández-Vicente (2020) desde la filosofía y la crítica tecnológica, construye un andamiaje a fin de "fundamentar la crítica sociológica a la razón algorítmica" (Fernández-Vicente, 2020: 8). Por su parte Mallamaci et al. (2020) revisan la configuración de la digitalidad como estructura sociotécnica, trazando un eje histórico desde los inicios de la automatización hasta la conformación del capitalismo de plataformas, considerado como una relación social en la que participan humanos y no humanos. El recorte que se presenta sigue dos criterios: 1) ubica a los algoritmos como uno de los cuatro elementos que conforman la cultura digital contemporánea, junto con las plataformas, los datos y los usuarios; 2) selecciona textos que avanzan en metodologías para el estudio en su contexto social y cultural, con especial énfasis en los sistemas automatizados de recomendación usados por las plataformas sociales, ya que sitios como Facebook, YouTube, Netflix o Spotify, constituyen el espacio por excelencia para observar las interacciones entre algoritmos y usuarios. Si bien la mayoría de los textos pertenecen a la literatura anglosajona y europea, también se mencionan, cuando resulta pertinente, trabajos desarrollados en América Latina. Es necesario relevar las investigaciones emergentes en esta región para comprender las posiciones situadas sobre el tema, pero esta tarea excede los alcances de esta revisión.

El trabajo se organiza a partir de los principales elementos necesarios para construir investigaciones sociales con algoritmos como objeto de estudio. Para ello, parte del supuesto de la mutua relación entre tecnologías y sociedad formulada por los estudios sociales de la tecnología (Pinch y Bijker, 1989). Posteriormente, reconoce el problema de la opacidad (Pasquale, 2016) como punto de partida para el estudio cultural de los algoritmos. Después, se presentan las bases de los estudios críticos de algoritmos, así como diversas definiciones de culturas algorítmicas, para luego avanzar en el tratamiento de las problemáticas más frecuentemente estudiadas y sus diversos puntos de vista. Finalmente, se brindan cinco estrategias metodológicas disponibles para el estudio empírico de dichas problemáticas y se establecen conclusiones y futuras líneas de trabajo.

Supuestos teóricos: los algoritmos como sistemas sociotécnicos

Los supuestos teóricos que sustentan este artículo residen en la consideración de los algoritmos como objetos sociotécnicos. La aproximación denominada construcción social de la tecnología [social construction of technology, SCOT ] considera que la tecnología no se encuentra separada de la sociedad, sino que la misma es eminentemente social. La SCOT enfatiza que "la tecnología y la sociedad se construyen mutuamente, y que tecnología, sociedad y materialidad se encuentran en interacción continua" (Pinch, 2009: 45). A su vez, de este supuesto derivan otros dos importantes para el estudio social de los algoritmos: el primero, es que los sistemas sociotécnicos son construidos por múltiples actores que asignan a los artefactos un significado. Entre estos se encuentran sus diseñadores y productores, pero también sus usuarios y consumidores. Cada uno de estos grupos presenta problemas específicos respecto de los artefactos. El segundo supuesto explica que los estudios sociales deben abrir la "caja negra" de la tecnología (Pinch y Bijker, 1989). El término caja negra refiere a la concepción de la tecnología como un artefacto del que se conocen sus condiciones de entrada [input] y de salida [output], pero no su funcionamiento interno (Winner, 1993). En términos del programa SCOT, abrir la caja negra de la tecnología implica "lograr una "descripción densa de información detallada acerca de los aspectos técnicos, sociales, económicos y políticos del caso de estudio" (Pinch y Bijker, 1989: 5).

Estos supuestos son retomados por varios textos conceptuales y empíricos que tratan la relación entre algoritmos, sociedad y cultura. Desde este punto de vista, los algoritmos son algo más que una secuencia abstracta de instrucciones. Más bien constituyen un ensamblaje sociotécnico que incluye instrucciones, modelos, objetivos, datos, datos de entrenamiento, aplicaciones, hardware y personas que debaten los modelos, limpian los datos y ajustan los parámetros (Gillespie, 2014a). De la presencia de estos elementos deriva la importancia para las ciencias sociales del estudio de la interacción, por un lado, entre los algoritmos y sus diseñadores y programadores, y, por otro, de la puesta en uso de los algoritmos y sus usuarios. Los primeros ponen en evidencia que los problemas técnicos, como ciertas respuestas recurrentes denominadas sesgos, son a la vez sociales, ya que tienen incidencia en problemáticas como la discriminación o la invisibilización de grupos sociales minoritarios. Los segundos dan cuenta de las relaciones cotidianas entre usuarios y sistemas automatizados develan en qué medida y con qué grado de aceptación social las decisiones humanas son sustituidas por decisiones algorítmicas. Como cualquier otra tecnología, los algoritmos son cajas negras que deben ser abiertas y desmontadas. Los dispositivos de protección de propiedad intelectual bajo los cuales se amparan las empresas como Google o Facebook para no develarlos no impiden que podamos obtener un conocimiento acerca de sus relaciones con la sociedad, y de los sentidos que diferentes actores pueden atribuirles. En palabras de Bucher (2018), la "opacidad de los algoritmos" no nos imposibilita la apertura de una caja ni tan negra, ni tan cerrada.

La opacidad algorítmica

A pesar de ser fundamentales en la sociabilidad y la economía digitales, se sabe poco acerca de los procesos con los que las plataformas construyen e implementan sus algoritmos. Los procesos algorítmicos que manejan tanto plataformas sociales como servicios financieros pertenecen a la clase de objetos que "permanecen inmunes al escrutinio, excepto en raras ocasiones en que algún denunciante entabla un litigio o filtra información" (Pasquale, 2016: 4). Su opacidad se protege con regulaciones tales como el secreto industrial, los métodos propietarios, las normas de confidencialidad, o el hastío que produce, por ejemplo, la lectura detallada de los términos de uso de todas las plataformas sociales (Pasquale, 2016). Las acciones gubernamentales a nivel mundial hasta el momento han sido escasas. Recientemente, se han anunciado inicios de investigación sobre los algoritmos de las llamadas GAFA -Google, Amazon, Facebook, Apple- por parte de la autoridad sobre comercio y monopolio del Reino Unido, sobre el supuesto de la manipulación de la vida de las personas a través de sus recomendaciones de compras, citas y alimentos, así como de la reducción de la competencia comercial (Robinson, 2021). Por lo tanto, la investigación del funcionamiento de los algoritmos y su influencia en las prácticas de los usuarios contribuye a tornar más transparentes procesos sociotécnicos fundamentales.

La opacidad algorítmica dificulta el conocimiento profundo acerca de las recomendaciones automatizadas. Por un lado, los voceros e investigadores de las plataformas reclaman la infalibilidad, objetividad y neutralidad de sus algoritmos basados en big data. Sin embargo, debido a la opacidad de sus procedimientos, estos supuestos resultan imposibles de ser verificados. Por ejemplo, en 2009, durante la pandemia de influenza A-H1N1, investigadores de Google publicaron una investigación en la revista Nature afirmando que mediante la recopilación de datos masivos acerca de las búsquedas en Google sobre los síntomas de la enfermedad, podrían adelantarse dos semanas a predecir el pico de la epidemia en cada país (Ginsberg et al., 2009). Esta investigación tomó un vuelo alto y fue mencionada por literatura relevante sobre big data (Christakis y Fowler, 2011; Rogers, 2013; Mayer-Schönberger y Cukier, 2014). En 2013, otra investigación publicada en la misma revista comprobó que Google había sobrestimado el pico de influenza de ese año en 140 %. Los autores notaron que los métodos y algoritmos de Google eran notablemente opacos, lo que dificultaba la verificación de las predicciones (Lazer, Kennedy, King y Vespignani, 2014).

Los procesos algorítmicos que tanto parecen influir en decisiones importantes de la vida cotidiana, como el consumo de información, la toma de postura política, y a partir de la pandemia de Covid-19, las decisiones acerca de si vacunarse (Wilson y Wiysonge, 2020) o a quiénes vacunar (Dremann, 2020), no parecen todavía ser suficientemente conocidos por las ciencias, ni percibidos por los usuarios. Una revisión de la base de datos de libros en línea Google Books muestra que existe un mayor interés en la literatura existente en las prácticas de sociabilidad, expresadas en los vínculos de amistad en Facebook, que en los aspectos algorítmicos o de empresa de la plataforma (Google Books Ngram Viewer, 2021). Por otro lado, las búsquedas que los usuarios realizan sobre Facebook en Google reflejan un patrón similar. Estas regularidades nos permiten deducir que tanto la literatura como los usuarios siguen observando a Facebook principalmente como un espacio de sociabilidad. Sin embargo, puede notarse un aumento de interés en los procesos automáticos de recomendación en ciertos casos: cuando la plataforma Facebook cambia su algoritmo, las búsquedas sobre el tema aumentan de modo puntual (Google Trends, 2021).

Estudios críticos de algoritmos

El desconocimiento general de los métodos empleados por las empresas para producir sus algoritmos y, paralelamente, su gran influencia en el modelado de prácticas financieras, sociales y culturales, son las que llevaron a la investigación social a construir un andamiaje teórico, conceptual y empírico que permitiera la investigación sobre los vínculos entre algoritmos y cultura. Roberge y Seyfert (2018) caracterizan como estudios críticos de algoritmos aquellos que los estudian desde sus implicaciones éticas, políticas y sociales. Varios autores dentro de esta línea de trabajo intentan definiciones, caracterizaciones y clasificaciones de los algoritmos operativas para su estudio desde las ciencias sociales.

Entre ellos, Dourish (2016) hace notar que, en las ciencias de la computación, los algoritmos son una abstracción que plantea cierta solución para un problema, pero dicha solución se materializa sólo con la vinculación entre una codificación de software y una estructura de datos. El autor entiende que el término se usa metonímicamente para nombrar un régimen de automatización digital más amplio: "un sistema de control y gestión digital logrado a través de la detección, el almacenamiento de datos a gran escala y el procesamiento algo rítmico dentro de un marco legal, comercial o industrial que le otorga autoridad" (Dourish, 2016: 3). Kitchin (2017) agrega que, en el campo de la investigación computacional, los algoritmos son caracterizados como matemáticos, racionales, objetivos y prácticos. Toda otra discusión acerca de su circulación y usos sociales son dejadas de lado. En cambio, los científicos sociales sostienen que los algoritmos no poseen ninguna de esas cualidades, salvo como ficciones cuidadosamente acuñadas (Gillespie, 2014b).

Entre los estudios críticos de algoritmos se encuentran varias miradas generales (Gillespie, 2014b; Kitchin, 2017; Bucher, 2018). Resulta interesante diferenciar entre los abordajes según su disposición a abrir la caja negra de los algoritmos o a observar sus efectos sociales. Un conjunto de investigadores se inclina a observar los algoritmos como artefactos complejos, socialmente construidos, orientados por un conjunto de prácticas y procedimientos tanto técnicos como sociales que modelan vínculos entre los humanos y el mundo, mientras que otro grupo opta por observar directamente la concreción de los algoritmos en prácticas sociales y en interpretaciones del mundo. Los dos abordajes enfrentan ventajas y desventajas: a primera mirada ofrece la oportunidad de saber cómo, mediante qué procesos y funcionamientos técnicos, los algoritmos inciden en aspectos sociales y culturales; sin embargo, este abordaje corre el riesgo de tomar un largo camino, ya que desde las abstracciones de los diferentes algoritmos de ordenamiento de información al modo en que las plataformas sociales organizan las recomendaciones que muestran a cada usuario es necesario realizar un extenso recorrido por sistemas de pensamiento y clasificación propios de las ciencias de la computación. En el otro extremo, los estudios que abordan las implicaciones y efectos sociales y culturales se enfocan más en un "saber qué", poniendo en un segundo plano el "saber cómo". Además de las dos perspectivas mencionadas, algunas posiciones intermedias señalan que, a pesar de ser abstracciones, para el estudio de los algoritmos en las interacciones sociales es necesario tener en cuenta ciertos elementos técnicos como la elección y calidad de los datos con los que se les entrena, requisitos de normas y protocolos, anchos de banda, variaciones idiomáticas, entre otras. Es necesario agregar que los algoritmos se crean para propósitos que están lejos de ser neutrales, por ejemplo, la creación de capital y valor económico, la estructuración de preferencias, el ordenamiento, la conexión y la clasificación de personas y sus imágenes, entre otras actividades exentas de neutralidad (Kitchin, 2017).

Dentro de la primera línea, Rieder (2020) realiza el esfuerzo más detallado y profundo para abrir la caja negra de las técnicas algorítmicas. El camino que elige es precisamente el más largo, sin embargo, para este autor, "evita disolver lo técnico en una sociología del uso y la apropiación y pone el ojo en la realidad de su operación y en las reglas de selección, almacenamiento y transmisión que caracteriza un sistema dado de mediación" (Rieder, 2020: 87). Rieder distingue entre aspectos internos de los algoritmos, como su codificación, corrección, mantenimiento y confiabilidad, características que constituyen la tecnicidad de los algoritmos y los aspectos externos, que conectan los programas con el mundo social. Estos aspectos comprenden los elementos de input y output de los algoritmos, así como la definición y resolución de un problema según una perspectiva relacionada con el contexto de solución. Este autor focaliza, entonces, en una tipología con base en sus características técnicas. Los clasifica en algoritmos de búsqueda, de ordenamiento, jerarquización y de filtrado de información, de indexación, de red y de machine learning.2 Sus resultados arrojan listas, que pueden entenderse como dispositivos de orden, de interpretación de información e incluso de imposición de orden en el mundo.

El machine learning, uno de los procesos algorítmicos más usados en la automatización de recomendaciones de las plataformas sociales, es un modelo derivado de la exposición de una pieza de software a un gran conjunto de datos. Para implementarlo, el programador diseña una parte de su código, también llamado "metaalgoritmo", pero el modelo final se deriva de los datos con los que se alimenta al algoritmo. De la exposición a los datos surgen combinaciones indeterminadas. Algunas veces se le considera como una forma de autoprogramación, ya que es principalmente el dato el que alimenta al modelo en forma detallada (Kearns y Roth, 2020). Gran parte de los productos culturales actuales se basan en técnicas de machine learning (Manovich, 2017); ciertas técnicas automatizan los aspectos estéticos de los productos, por ejemplo, adaptan las fotografías tomadas con teléfonos celulares a planos y tomas convencionales y después crean videos automáticos y prolijamente editados con esas mismas fotografías. O bien efectuan recomendaciones en las plataformas de video y música on demand, crean personajes de videojuegos, reconocen el contenido de conjuntos masivos de imágenes, entre otras. Los algoritmos de red son especialmente importantes en búsquedas como las de Google Search Console, ejecutadas por su algoritmo Pagerank, donde el foco de las búsquedas no está puesto en el contenido de los textos, sino en los enlaces entre documentos y las métricas evaluativas, técnicas que anidan un conjunto de elementos culturales como importancia, relevancia, calidad y autoridad en cálculos que atribuyen un valor numérico a cada ítem.

Culturas algorítmicas

Diversas denominaciones se han usado para definir las relaciones entre algoritmos y cultura. Cada una de ellas apela a una diferente concepción de las relaciones entre tecnologías y sociedad. Dentro de los estudios sociales, Alexander Galloway fue el primero que señaló que la cultura actual es algorítmica, al situar a los videojuegos como objetos culturales que articulan procesos informáticos estructurados con narrativas e interpretaciones culturales (Galloway, 2006). En la misma línea, Lazer (2015) denominó "algoritmos sociales" a los que automatizan nuestro entorno sociocultural: "Programas que nos dimensionan, evalúan lo que queremos, y nos devuelven una experiencia personalizada, al parecer, elaborada solamente a nuestra medida" (Lazer, 2015: 1090). Por su parte, Manovich (2013) propone el concepto cultura del software. El software es usado diariamente por millones de personas para crear "átomos de cultura, medios e información", además de interacción humana en torno a ellos, y permea todas las capas de la producción humana. En una década ha pasado de la nula visibilidad a mediar en las principales prácticas socioeconómicas. El mismo Manovich propone desarrollar una historia cultural del software que incluya tanto a los programas editores de imágenes, sistemas operativos, procesadores de textos, como a las tecnologías digitales fundacionales de las relaciones entre humanos y computadoras, y las prácticas culturales visuales emergentes del uso del software, como el remix.Las tres denominaciones, "cultura algorítmica", "algoritmos sociales" y "cultura del software", articulan una serie tecnológica con otra cultural. El aspecto social está dado por las características de la información sobre la cual operan los algoritmos: noticias, sociabilidad y gustos estéticos (Pinch y Bijker, 1989), y no por la materialidad inherentemente social de la tecnología señalada por la SCOT.

Otra vertiente recupera la historicidad de la arqueología de los medios y sitúa a los algoritmos en un contínuum de tecnologías que organizan la cultura en torno de un tipo específico de medio: así como la imprenta organizó la cultura letrada, la TV y la radio la de masas, e Internet, la digital, los algoritmos también operan en la organización de una cultura. En este sentido, el ordenamiento algorítmico de información "aparece como un conjunto de formas particulares de hacer distinciones que tienen el poder de definir percepciones culturales, en un sentido amplio" (Rieder, 2020: 86). Una de las principales distinciones entre las tecnologías culturales precedentes y la algorítmica es que esta separa al sujeto de la máquina, desplazándolo de su lugar de ejecutor. Transferimos a los algoritmos un significativo monto de agencia para la toma de decisiones sin intervención humana. Una segunda distinción es que la puesta en práctica de la técnica y la comprensión de su funcionamiento también permanecen separados. La denominación cultura algorítmica marca asimismo un pasaje en la historicidad de la World Wide Web. Si desde hace diez años la mirada analítica se posó sobre los grandes conjuntos de datos y sus implicancias económicas, sociales y culturales (Rogers, 2009; Mayer-Schönberger y Cukier, 2014; Meneses, 2018), en los últimos cinco la literatura en estudios digitales ha puesto el acento sobre los procesos automatizados que los gestionan.

En la línea de los estudios culturales, para Striphas (2015) el concepto de cultura algorítmica refiere a la transformación cultural que emerge de la delegación del trabajo cultural a los sistemas automatizados. Esta acción imprime características distintivas a la cultura, que se ve envuelta en procesos privatizados centrados en big data y grandes compañías. Esta línea, sin embargo, también separa los procesos tecnológicos de los sociales, y si bien reconoce un doble modelado entre unos y otros, no enfatiza la presencia de lo social en lo tecnológico. Así como no existe una sola cultura sino diversidades culturales de relativa autonomía, los algoritmos actúan en contextos diversos, producen múltiples narrativas y modelan diferentes experiencias. Por ello Roberge y Seyfert (2018) proponen la denominación en plural, culturas algorítmicas.

Una tercera corriente es la que considera un entramado entre algoritmos y cultura, de manera que ambos se construyen mutuamente (Introna y Hayes, 2011), acercándose a las premisas de SCOT. Difuminando aún más el límite entre algoritmos y cultura, Seaver (2017) propone que los algoritmos son artefactos culturales, construidos socialmente, y puestos en acción mediante prácticas que no prestan atención a la distinción entre técnica y cultura, lo que hace que los algoritmos puedan ser estudiados como cualquier otro artefacto cultural. Este autor prefiere la denominación "algoritmos como cultura" para enfatizar el carácter cultural de los algoritmos. Este punto de vista tendrá especial importancia en el próximo apartado, cuando se traten métodos de estudio, por cuanto los seleccionados buscan poner de manifiesto cómo los algoritmos son puestos en acción.

Problemas de estudio

Se presentan en esta sección, agrupadas por temas, tres problemáticas de investigación y crítica más frecuentes en el estudio de las relaciones entre algoritmos, sociedad y cultura: las tensiones entre el poder y la agencia, los problemas de la visibilidad algorítmica y los sesgos algorítmicos.

Poder y agencia

No necesariamente el conocimiento de los procesos algorítmicos y de las formas en que ejercen su poder implica ir en detrimento de los procesos algorítmicos. En sociedades informacionales, basadas cada vez más en la gestión de datos masivos, es imponderable un poder algorítmico, así como cierto nivel de secreto que pueda proteger a los datos de robos, hackeos e invasiones a la privacidad. Sin embargo, es necesario caracterizar esas formas de poder y la desigualdad de su distribución.

La arquitectura de los algoritmos no es únicamente una cuestión de software e instrucciones formales. Varios autores (Bucher, 2018; Noble, 2018) les atribuyen política y poder: las decisiones que solían ser tomadas por seres humanos, ahora por algoritmos (Pasquale, 2016). Sin embargo, el poder algorítmico no puede identificarse en la observación de la codificación de los programas, sino que se visibiliza al observar su puesta en práctica en un entramado de datos, usuarios y plataformas. Es en su ejecución que los algoritmos producen maneras de actuar, de saber y de organizar, específicas para un contexto.

En la cuestión del poder algorítmico, las perspectivas son heterogéneas ya que, por un lado, se encuentran miradas macrosociales que observan a los algoritmos como un constituyente estructural del capitalismo de plataformas que deja escaso margen a la acción de los sujetos y por otro, emergen narrativas microsociales que buscan comprender las formas de agencia y de negociación entre humanos y algoritmos (Velkova y Kaun, 2021). El primer grupo construye sus argumentos con relación al rol de las grandes plataformas sociales en el capitalismo actual y el segundo lo hace construyendo ensamblajes entre algoritmos, plataformas y usuarios.

Entre el primer grupo se encuentran Han (2014) Sadin (2018) y García Canclini (2020). Aunque ubicados geográficamente en diferentes puntos fuera de los Estados Unidos -país que puede considerarse el espacio de emergencia de las tecnologías algorítmicas tanto históricas como actuales-, los tres autores presentan puntos en común: 1) las tecnologías algorítmicas son parte de un entramado tecnoliberal en las que se alinean lo técnico, lo político y lo económico para el beneficio de un grupo restringido de personas (Sadin, 2018); 2) las tecnologías algorítmicas no producen resistencia, sino seducción del sujeto a partir de la generación de sensaciones positivas y su explotación (Han, 2014); 3) se excluyen las posibilidades de apropiación tecnológica para dar lugar a procesos de apropiación de la vida a partir de la reutilización comercial de los datos que los ciudadanos entregan a los algoritmos a cambio de su uso. Las tres propuestas -basadas en el desequilibrio entre el poder monopólico de las empresas y la ausencia de restricciones y límites a dicho poder- son útiles para el planteamiento microsocial de problemas y preguntas acerca de las relaciones entre algoritmos y sociedad en áreas que, aunque exceden el relevamiento aquí propuesto, se plantean como fundamentales. Algunas de ellas son como la gig economy, definida por el impacto que tienen las tecnologías algorítmicas y las plataformas en las relaciones laborales (Kaine y Josserand, 2019) y la redefinición de las nuevas ciudadanías en un contexto de agencias y reapropiaciones tecnológicas muy restringido (García, 2018).

La segunda corriente se centra en las relaciones entre algoritmos y usuarios. Siguiendo la ya mencionada línea de algoritmos como artefactos culturales (Seaver, 2017), conectan a los usuarios con sus experiencias algorítmicas, por ejemplo, Siles, Segura-Castillo, Solís, y Sancho (2020) estudian cómo ciertos usuarios avanzados de Spotify en Costa Rica perciben el funcionamiento de su algoritmo de recomendación y elaboran estrategias para sortearlo. El estudio se realiza en una triangulación entre entrevistas en profundidad, grupos de enfoque e imágenes enriquecidas, técnica de visualización utilizada para la expresión simple en esquemas gráficos de procesos complejos compuestos por elementos heterogéneos, enfatizando la importancia de las teorías nativas, representaciones que los usuarios construyen acerca del funcionamiento de los algoritmos de plataforma. Cada teoría asigna diferentes lugares y posibilidades al poder de las plataformas y la agencia de los usuarios. Los autores destacan su importancia para la investigación social en tanto contribuyen a comprender cómo los usuarios manejan la datificación en la vida cotidiana. Otro ejemplo es Taina Bucher (2017), quien explora cómo usuarios de Facebook perciben la influencia de su algoritmo en la vida cotidiana a través de una etnografía digital. Realiza un seguimiento longitudinal de mensajes en Twitter sobre el algoritmo de Facebook, para luego realizar un seguimiento de usuarios vía mensajes privados y correos electrónicos donde recaba más información sobre los mensajes tuiteados. De este modo, la autora logra identificar imaginarios algorítmicos que intervienen en el comportamiento, las decisiones y los afectos de los usuarios sobre los algoritmos y cómo esas percepciones intervienen en sus prácticas sociotécnicas.

Visibilidad algorítmica en plataformas sociales

Aunque no son los únicos espacios donde se hallan algoritmos culturales, las plataformas sociales son los entornos donde principalmente operan. Estas plataformas han logrado posicionarse como empresas mediáticas poderosas, a partir de tres operaciones fundamentales: la reapropiación, la recontextualización y la reutilización del contenido generado por los usuarios en las redes sociales.

Entendidas como una infraestructura que presta servicios a clientes usuarios y donde terceras partes pueden ofrecer servicios (Gillespie, 2010), el término plataforma conlleva la extensión de la descripción de las primitivas redes sociodigitales. Mientras que en un principio éstas fueron definidas como servicios basados en la web que permiten a los individuos construir un perfil público o semipúblico, articular una lista de otros usuarios con los que comparten una conexión y ver a su vez las listas de otros usuarios (boyd y Ellison, 2007), el concepto de plataforma permite incorporar otros actores e intereses, como las empresas y sus ingenieros desarrolladores, los dispositivos, los programas, las arquitecturas de software, los desarrolladores subsidiarios que desarrollan aplicaciones dentro o para usar en relación con las plataformas principales, entre otros (Helmond, 2015). Dentro de ellas, los usuarios interactúan entre sí o con los contenidos que cada plataforma ofrece. Cada una de esas interacciones deja una traza digital almacenada en sus bases de datos que luego puede recuperarse (Latour, 2007), y que estudiadas masivamente pueden identificar comportamientos y anticipar tendencias. Cada una de esas trazas digitales constituye un dato, y el estudio masivo de esos datos puede conceptualizarse como big data.

Las métricas de las plataformas sociales, expresadas en "Me gusta", comentarios y compartidos, tienen una doble función: desde el punto de vista de los usuarios, expresan sociabilidad e interés acerca de un tópico (Rogers, 2018), pero desde la visión de las plataformas constituyen una puntuación que vuelve a los usuarios transformada tanto en la oferta de contenidos que reciben en sus biografías y perfiles, como en publicidad personalizada con base en sus preferencias de contenidos en redes sociales. Rieder, Matamoros-Fernández y Coromina (2018) denominan cultura del ranking a dicho proceso. En la cultura del ranking, la lógica algorítmica y cuantitativa orientada por métricas, recomendaciones, reacciones y rankings adquiere cada vez más importancia, ya que condiciona la producción cultural actual en los entornos digitales de producción de información, como en el periodismo digital, en la producción y distribución de productos audiovisuales y en la sociabilidad en línea (Nieborg y Poell, 2018). Producto de estos procedimientos son los sesgos de confirmación (Peters, 2020), las cámaras de eco (Cinelli, Morales, Galeazzi, Quattrociocchi y Starnini, 2020) y la polarización de la conversación pública, ya que las plataformas incluyen las métricas de reacciones y los contenidos consumidos por los usuarios para ofrecerles otros nuevos, pero muy similares a los ya consumidos.

Uno de los primeros sesgos de confirmación estudiados fue el problema de las cámaras de eco y la polarización de la conversación pública en Twitter. La primera refiere metafóricamente a entornos informacionales cerrados cuyos participantes únicamente comparten información, opiniones y sentimientos con los que están de acuerdo, y excluyen las posiciones con las que difieren (Möller, 2021), mientras que la segunda alude al fenómeno comunicativo político percibido como la máxima distancia entre dos campos opuestos en permanente conflicto, reforzado por el comportamiento de los algoritmos de las plataformas sociales (Waisbord, 2020). Ambas se forman a partir de la tendencia a vincular, seguir y compartir contenidos entre las personas que poseen inclinaciones y posicionamientos políticos similares. Frente a la hipótesis de que las redes sociales promueven expresiones homogéneas y amplifican a gran escala un conjunto reducido de expresiones se han realizado estudios empíricos. Estas investigaciones encontraron que, en Twitter, conviven dos modalidades: mientras que un núcleo pequeño de usuarios produce gran parte de los mensajes ampliamente distribuido, una gran base produce contenido original y diverso que no se replica (Shore, Baek y Dellarocas, 2018).

Los sesgos de confirmación y cámaras de eco son percibidos como perniciosos para la opinión pública en tanto reducen las posibilidades de conocer puntos de vista diferentes, de acceder a contenidos diversos y a respetar otras posiciones: "Los algoritmos -mayordomos digitales- sistematizan nuestras huellas, identifican los trending topics y nos entregan mensajes que son política e ideológicamente consistentes con nuestras ideas y preferencias. Así, educan a la cámara de eco, consolidan la segregación homofílica y apuntalan la polarización" (Aruguete, 2019). Si bien algunos especialistas destacan que los sesgos de confirmación no se encuentran solo en las plataformas sociales sino son propios de los estilos cognitivos de los seres humanos (Peters, 2020), su presencia en las plataformas sociales, primero señalada por Pariser (2014), ha sido verificada en estudios empíricos (Cinelli, Morales, Galeazzi, Quattrociocchi y Starnini, 2020; Bucher, 2018; Sadagopan, 2019). Otras derivaciones de los sesgos de confirmación han sido observadas en plataformas como You-Tube. Tufekci (2018), por ejemplo, nota que si el usuario ve una versión moderada de cierto contenido, a continuación se presenta una versión más intensa del mismo tema. La autora explica que después de ver cierto monto de videos sobre el presidente republicano Donald Trump -cuyas ideas conservadoras son de público conocimiento- las recomendaciones de la plataforma incluían videos acerca del supremacismo blanco, el negacionismo del Holocausto y otras posiciones conspirativas.

Tanto O'Neil (2020) como Magnani (2017) y Treré (2020) señalan la segmentación de públicos mediante el uso de algoritmos aplicados a los datos masivos disponibles en las plataformas sociales como medio para la distribución de propaganda política. Muchos de estos mensajes son distribuidos por bots, es decir, algoritmos que distribuyen información automática en plataformas sociales. Algunos informes indican que estas agencias automatizadas son usadas por gobiernos y partidos políticos para manipular a la opinión pública (Bradshaw y Howard, 2017; Signa_Lab ITESO, 2019). Sin embargo, no todos los vínculos de los algoritmos con la esfera política privan de agencia a los actores u oscurecen la información. Treré (2020) señala que recientemente los movimientos sociales buscan involucrarse en el análisis de datos y en la reorientación de los datos masivos de modo que los colectivos sociales puedan aprovecharlos de una manera proactiva.

Los algoritmos no sólo pueden ser usados para distribuir propaganda política y construir polarizaciones. En el extremo opuesto, pueden construir espirales de silencio. Por ejemplo, en el caso del asesinato del joven de Ferguson, Missouri, que trascendió en las redes sociales con la etiqueta #BlackLivesMatter, las publicaciones relativas al tema no obtuvieron demasiados "me gusta" debido a su carácter lamentable, lo que hizo que fueran vistas por una baja y decreciente cantidad de gente (Tufekci, 2016).

Sesgos algorítmicos

El secretismo que las plataformas digitales mantienen sobre los algoritmos los ha convertido en cajas negras poco transparentes (Bucher, 2018); no sabemos quiénes son las personas que los diseñan, desconocemos sus cálculos matemáticos o con qué bases de datos fueron entrenados. Sin embargo, tal como indican los estudios sociales de la tecnología, todos los dispositivos tecnológicos se construyen en el entramado y la negociación entre actores humanos, conocimiento y dispositivos. Las marcas de estas negociaciones quedan embebidas en los mismos dispositivos.

Estas marcas sociales anidadas en los dispositivos son las que explican el concepto de "sesgo algorítmico". Según el diccionario de la RAE, una de las acepciones de sesgo es: "error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras" (RAE, s.f.). En el caso de los algoritmos que aprenden automáticamente mediante conjuntos de datos, los sesgos provienen justamente de los datos que constituyen sus sistemas de input. Si los datos contienen sesgos raciales, de clase o de género, las recomendaciones resultantes los conservarán. Los directivos de las plataformas sociales consideran precisamente que los sesgos que se encuentran presentes en las plataformas no se deben a su diseño, sino al tipo de mensajes que se intercambian las personas en las plataformas, sobre los que no intervienen basándose en la protección de la libertad de expresión (Smith, 2020). Diversos estudios han demostrado los sesgos algorítmicos de género y raza. Por ejemplo, Caliskan, Bryson y Narayanan (2017) encuentran que un sistema de aprendizaje algorítmico entrenado con un conjunto de dos millones de términos extraídos de la web reproduce los sesgos de género habituales en la sociedad, por cuanto las palabras asociadas a "mujer" son más asociadas con el arte que con las matemáticas y las ciencias, y con las familias antes que con las carreras profesionales. Los sesgos algorítmicos se refuerzan si los ingenieros que producen los algoritmos son además "personas occidentales de sexo masculino cuya visión del mundo se traslada automáticamente al diseño del sistema a veces de forma inconsciente, pero también como fruto de la experiencia personal" (Benítez Eyzaguirre, 2019: 1309). Las estadísticas confirman el predominio de hombres blancos y asiáticos sobre las mujeres, 23 % en promedio, y los hombres afroamericanos, 8 % en promedio, en las compañías tecnológicas norteamericanas (Clement, 2020).

Noble (2018) investiga en detalle la supresión de identidad, experiencias y formas de vinculación afroamericanas en el buscador Google desde el punto de vista del feminismo negro interseccional. Debido a su gran poder de influencia y construcción de sentido, la autora considera que la compañía ejerce un poder opresivo sobre las minorías afroamericanas, y en especial sobre las mujeres, quienes son constantemente estereotipadas e hipersexualizadas en sus resultados de búsqueda. La metodología de la autora, desarrollada entre 2011 y 2016, es sencilla: realiza búsquedas por palabra clave en la interfaz de Google, y luego las registra con una captura de pantalla. La búsqueda asociada con "black girls", por ejemplo, evidencia resultados sexualizados en extremo no sólo de mujeres afroamericanas, sino también de latinas y asiáticas. La búsqueda de imágenes de "gorillas", muestra fotografías de personas afroamericanas en sus resultados. Muchos de estos casos se han vuelto públicos y la compañía los calificó como meros "errores", procediendo a su modificación. El constante uso de estos buscadores cristaliza y naturaliza los criterios de recomendaciones y las recomendaciones mismas. La autora argumenta además sobre la necesidad de conocer el funcionamiento de los sistemas para poder reclamar e intervenir en su transformación.

Desde una perspectiva experiencial, beneficiada por su preparación como diseñadora de algoritmos para diferentes empresas tecnológicas y financieras, O'Neil (2020) describe varios tipos de distorsiones algorítmicas que contienen los modelos matemáticos mal diseñados. Los denomina armas de destrucción matemática porque entiende que un modelo matemático mal formulado, pero contenido en un algoritmo muy utilizado puede dañar la vida de millones de personas. Las armas de destrucción matemática son opacas, no reciben cuestionamientos, no dan explicaciones y operan a gran escala. Muchas veces, las armas de destrucción matemática producen daño por problemas de diseño, por ejemplo por simplificar demasiado un modelo y adoptar solo valores cuantificables, como sucede en la construcción de rankings de universidades. En otros casos ocurre por ignorancia de los desarrolladores: "los científicos de datos se olvidan con demasiada frecuencia de la gente que está del otro lado de la transacción" (O'Neil, 2020: 15). La autora ubica en un tercer grupo a las armas de destrucción matemática que se desarrollan y aplican intencionalmente, con el fin de engañar a las personas, como los algoritmos que contribuyeron a la crisis de pago de hipotecas inmobiliarias en Estados Unidos en 2008, o los que sirven, segmentación de datos masivos mediante, para vender a precios extremadamente caros bienes y servicios a personas que los necesitan desesperadamente. A diferencia de los sesgos algorítmicos, que pueden no ser intencionales sino resultado de procesos mal ejecutados, la perspectiva de O'Neil pone en foco la intencionalidad humana en el diseño de algoritmos que operan a gran escala.

El avance de los sistemas automatizados probablemente aumenta los riesgos de segregación, exclusión y marginalización, bajo una aparente neutralidad y objetividad que esconde ciertas decisiones y sesgos en los códigos de programación y bases de datos (Silveira y Silva, 2020). Para lograr culturas algorítmicas más democráticas y justas, la alternativa es sustituir la opacidad algorítmica por la transparencia. Por eso existen un conjunto de estudios y acciones orientadas a la auditoría, la ética y la responsabilidad algorítmicas. En esa dirección, la World Wide Web Foundation elaboró un informe donde reclama y se sientan las bases para una "responsabilidad algorítmica" embebida en el diseño y la gestión de algoritmos, con el fin de evitar daños. Los algoritmos contienen los mismos prejuicios y sesgos que existen en el mundo. Embebidas en un algoritmo, las causas de la discriminación social pueden emerger de una heurística mal resuelta: datos de input de mala calidad, datos de buena calidad, pero mal evaluados por reglas algorítmicas, poco cuidado en el contexto de diseño y circulación de los algoritmos, que puede variar, o repetición de la misma regla en diferentes contextos (WWWF, 2017). Por su parte, el Reglamento General Europeo de Protección de Datos provee el derecho a la revisión y conocimiento de los funcionamientos algorítmicos involucrados en el perfilamiento de públicos y decisiones automatizadas (Reglamento General de Protección de Datos, 2016; Silveira y Silva, 2020).

A pesar de las diferentes posiciones acerca de la responsabilidad que les cabe a los programadores sobre la inequidad producida por las recomendaciones automatizadas, lo cierto es que los resultados concretos que surgen de los modelos abstractos son muchas veces impredecibles, y los desarrolladores no están entrenados en normas sociales ni en derechos humanos. Los enfoques éticos de responsabilidad algorítmica proponen la mejora de los algoritmos no desde sistemas externos de regulación sino desde la incorporación de las normas sociales en los elementos sociotécnicos que los componen (Kearns y Roth, 2019). La regulación de estos elementos puede ser posible desde el punto de vista legal. Para auditar los posibles sesgos de un algoritmo no hace falta conocer su código, seguramente protegido por el secreto legal. Es posible sin embargo saber cuáles son sus elementos de input, por ejemplo, cómo está compuesto el conjunto de datos con el que fue entrenado. Esto sería posible, sin embargo, si existiera una regulación que dispusiera que los elementos con los que se producen y entrenan los algoritmos estuvieran disponibles públicamente (Kleinberg, Ludwig, Mullainathan y Sunstein, 2018).

Métodos para el estudio de las culturas algorítmicas

El desafío para las ciencias sociales consiste en desarrollar métodos para poder observar los algoritmos en el terreno social. Sabemos que la cultura digital actual se construye en el entramado de plataformas, datos, usuarios y algoritmos. El estudio crítico de los algoritmos en la cultura se vale de la combinación de esos cuatro elementos para idear metodologías que permitan comprender su funcionamiento técnico y su rol en la toma de decisiones y en el acceso a la información.

Debido a su indeterminación, los algoritmos son objetos opacos y difíciles de conocer. La tarea del investigador en culturas algorítmicas es la de desmontar cajas negras, así lo expresa Bruno Latour, para quien la tarea del sociólogo de la ciencia y la tecnología era abrir la caja negra de los laboratorios (Latour, 1992). Pero, en ambos casos, ¿qué significa "abrir la caja negra"? En este caso se trata de comprender los procesos sociales y técnicos embebidos en su diseño. Esto no equivale a la comprensión técnica del algoritmo como secuencia de instrucciones, lo que sería viable desde las ciencias computacionales, pero muy improbable desde las ciencias sociales (Kitchin, 2017). Nuestro propósito es entender cómo el algoritmo en tanto dispositivo técnico interviene en las prácticas sociales y los significados culturales. Aun así, debemos saber que los algoritmos no son objetos completamente cognoscibles, que no todos pueden ser analizados de la misma manera, y que podemos aprehender algunas de sus propiedades, pero no otras (Bucher, 2018).

Como campo emergente y poco conocido, el estudio social de los algoritmos se inscribe en un ejercicio de imaginación sociológica (Mills, 2003) donde deben ser puestos en marcha diseños metodológicos novedosos, flexibles y combinados. En ese sentido, Seaver (2017) ha abierto el camino para que la cultura algorítmica sea investigada desde los métodos etnográficos, abordándolos como procesos donde las secuencias rígidas de instrucciones interactúan con usuarios de formas múltiples, variables y abiertas. La etnografía digital (Hine, 2015) remarca la importancia de estudiar las interacciones digitales como un entramado de humanos y objetos tecnológicos. Siendo que los algoritmos intervienen en la vida cotidiana cuando son utilizados, es decir, cuando son puestos en acción en un proceso que no distingue de modo rígido entre lo social y lo técnico, la etnografía de algoritmos focaliza en los usuarios y sus prácticas para saber cómo son usados dentro y fuera de los entornos en línea. Dado que los algoritmos son objetos sociotécnicos serán observados como un ensamblaje de dispositivos, conocimientos, actores relevantes, representaciones sociales y narrativas. Vistos desde esta perspectiva, que sobrepasa el concepto de un conjunto de instrucciones ejecutadas por un programa, pueden ser analizados con los métodos y materiales de las ciencias sociales.

Se presentan en este apartado cinco métodos disponibles para el estudio social de los algoritmos. Presentan diferentes aproximaciones y técnicas, pero todos se basan en la observación de la puesta en acción de los algoritmos en términos relacionales, es decir, en la vinculación con otros elementos del ensamblaje sociotécnico denominado algoritmo, por ejemplo, usuarios, diseñadores y desarrolladores, políticas de privacidad y regulaciones entre otros; han sido aplicados al estudio de algoritmos de plataformas, pero también podrían utilizarse en los ámbitos de la salud, la educación, u otros ámbitos sociales. En la Tabla 1 se conectan problemáticas de estudio con metodologías de indagación.

Tabla 1 Relación entre métodos y problemas de estudio social de algoritmos 

Método Problema
Exploración documental Funcionamientos algorítmicos de filtrado, jerar-
quización y conexión de información
Etnografías y métodos cualitativos centrados en
la experiencia de los usuarios
Poder y agenciamiento
Algoritmos en la vida cotidiana
Scraping y análisis de datos Políticas de visibilidad en plataformas sociales
Polarización y cámaras de eco
Identificación de propaganda política automa-
tizada
Auditorías Algorítmicas Sesgos y distorsiones algorítmicas
Ingeniería reversa Inferencia de variables algorítmicas

Fuente: elaboración propia.

El primer método es exploratorio. Se centra literalmente en "escarbar" entre diferentes materiales como método de investigación (Seaver, 2017). Hurgar en este caso sería reunir fuentes heterogéneas, buscar aquello que está escondido, realizar múltiples intentos, integrar perspectivas. En este caso, los algoritmos se vinculan con documentos: políticas de privacidad, artículos científicos, anuncios de prensa, informes técnicos, páginas web de tal o cual compañía, exploraciones en perfiles de usuarios. El propósito es reconstruir algún tipo de funcionamiento algorítmico vinculado directamente con un proceso social. Bucher (2018) hurga entre informes, artículos presentados en conferencias, patentes y conferencias de sus ingenieros, pistas acerca de los procesos automatizados del muro de noticias de Facebook, llegando a reconstruir a través de una investigación documental los principales rasgos de la sociabilidad programada por los algoritmos de Facebook y sus principales procesos de jerarquización de información en el muro de noticias de los usuarios. Este se basa en las trazas que dejan las interacciones entre usuarios y que son valoradas según la estrechez de la comunicación: por ejemplo, el chat privado o incluso los intercambios por correo electrónico se valoran más que un me gusta o un comentario dejado en el muro de un usuario.

Una segunda aproximación es la etnográfica. Siendo eminentemente culturales, los algoritmos pueden estudiarse con los métodos con los que se estudia la cultura. Es posible aproximarse a ellos con métodos antropológicos como la etnografía y el trabajo de campo (Seaver, 2017). Desde esta perspectiva los algoritmos se estudian en relación con las reapropiaciones de sus usuarios en la vida cotidiana a partir de su propia experiencia, resaltando las instancias de negociación en términos de recomendaciones y tomas de decisión entre usuarios y algoritmos. Por ejemplo, Siles, Segura-Castillo, Solís y Sancho (2020) estudian la percepción de ciertos usuarios avanzados de Spotify en Costa Rica sobre el funcionamiento de su algoritmo de recomendación, y elaboran estrategias para sortearlo. El estudio se realiza en una triangulación entre entrevistas en profundidad, grupos de enfoque e imágenes enriquecidas, técnica de visualización utilizada para la expresión simple en esquemas gráficos de procesos complejos compuestos por elementos heterogéneos. El estudio pone el acento en la importancia de las teorías nativas, representaciones que los usuarios construyen acerca del funcionamiento de los algoritmos de plataforma. Cada teoría asigna diferentes lugares y posibilidades al poder de las plataformas y la agencia de los usuarios. Los autores destacan su importancia para la investigación social en tanto contribuyen a comprender cómo los usuarios manejan la datificación en la vida cotidiana. Por su parte, Bucher (2017) explora la percepción de usuarios de Facebook sobre la influencia de su algoritmo en la vida cotidiana a través de una etnografía digital. Realiza un seguimiento longitudinal de mensajes en Twitter sobre el algoritmo de Facebook, para luego realizar un seguimiento de usuarios vía mensajes privados y correos electrónicos donde buscaba más información sobre los mensajes tuiteados. De este modo la autora logra identificar imaginarios algorítmicos que intervienen en el comportamiento, las decisiones y los afectos de los usuarios sobre los algoritmos y cómo esas percepciones intervienen en sus prácticas sociotécnicas.

Un tercer acercamiento posible parte de las técnicas basadas en recolección de datos digitales o scraping (Marres y Weltevrede, 2013). Este acercamiento conecta las acciones de los algoritmos con las lógicas de visibilidad de contenidos que aplican las plataformas, intentando desmontar y caracterizar, al menos parcialmente cómo las plataformas definen lo que es visible y lo que no lo es. Rieder, Matamoros-Fernández y Coromina (2018), por ejemplo, analizan rankings de videos obtenidas de la API de YouTube con alta puntuación de reacciones -como "Me gusta" y comentarios- y encuentran características comunes a todas ellas. Por ejemplo, que los algoritmos posicionan más arriba en las búsquedas a los contenidos nativos de la plataforma, para que los llamados influenciadores ganen mayor visibilidad. En esa misma línea, Sued (2020) estudia las recomendaciones de contenidos antivacunas en YouTube. Esta autora realiza un registro de navegación por la plataforma y anota las conexiones entre videos para observar cómo el algoritmo enlaza información con desinformación. También usa técnicas de recolección de datos digitales y análisis visual de redes para verificar esas relaciones y reconocer las cámaras de eco que se construyen en YouTube a través de sus recomendaciones.

Una cuarta clase de abordaje es la denominada auditoría externa de algoritmos (Sandvig, Hamilton, Karahalios y Langbort, 2014). Es necesario aclarar que el término auditoría en ciencias sociales tiene un significado diferente al adoptado en el área de las finanzas. En ciencias sociales, se consideran "auditorías" a experimentos sociales donde el investigador y otros actores asociados participan en procesos orientados a visibilizar algún tipo de discriminación o corrupción, o aislar una causa. Este método se usa principalmente para identificar algún tipo de distorsión algorítmica recurrente que pueda causar diferencias sociales de clase, raza o género. La ejecución de auditorías algorítmicas implica generar algún tipo de situación ficticia en un ambiente controlado para generar datos de output, por ejemplo, una lista de elementos buscados, y compararlos con un elemento de input, por ejemplo, una clave de búsqueda. Existen diferentes posibilidades de auditorías algorítmicas. Algunas implican la creación de un usuario ficticio para el seguimiento de un tema, otras que las cuentas sean ficticias, pero sean manejadas por usuarios reales, o que cuentas, usuarios e interacciones sean reales, pero se registren como impresiones de pantalla, por ejemplo y se envíen al investigador, quienes las organiza y les da un sentido. También puede incluir el diseño de claves de búsqueda, tal como el estudio de caso de sesgos de género y raza analizado por Noble (2018), mencionado más arriba En esa misma línea, Sued (2022) estudió las recomendaciones automatizadas de Netflix con una combinación de técnicas que incluyeron pantallas de la interfaz enviada por usuarios, encuestas en línea, bases de datos no oficiales del catálogo de la compañía y exploración de redes sociales institucionales y de artículos periodísticos. Otro ejemplo de experimento de auditoría es el desarrollado por Alonso, Álamo y González (2016). Basados en el experimento realizado por Honan (2014) proponen a treinta usuarios el experimento de aplicar un "me gusta" a todos los estados de Facebook que surjan en sus perfiles durante una semana para luego verificar la transformación de sus vínculos personales en línea y fuera de ella, a fin de determinar la importancia de la métrica de reacciones en la construcción contemporánea de los afectos. En este caso, la alteración de la interacción con la plataforma es mínima al ser reales tanto los usuarios como los contenidos. El problema con los métodos de auditoría es que pueden generar algunos efectos indeseables, como por ejemplo, al operar introduciendo contenidos o usuarios ficticios, pueden violarse los términos y condiciones de las plataformas sociales, o bien, al solicitar a usuarios reales información sobre sus interacciones en plataformas, estos podrían sentirse invadidos en su privacidad. En este sentido, debe buscarse cierto equilibrio en el diseño de la estrategia que tienda a evitar estos inconvenientes. Desde el punto de vista ético, estas acciones pueden justificarse por necesidades más importantes, por ejemplo la necesidad de conocer acerca de la discriminación étnica, de género o de clase que suceden a través de los procesos auditados, a fin de que sean expuestos y corregidos.

Una quinta aproximación es la propuesta de ingeniería reversa de Diakopoulos (2014). Supone que al ser algoritmo una caja negra, si se varían los elementos de input y output, entonces se pueden inferir las variables que maneja el algoritmo. Mediante esa estrategia, el autor estudia los sistemas de autocompletado de Google a partir de 110 claves de búsqueda relacionadas con contenidos sexuales, para identificar los términos bloqueados por el algoritmo. Estos los deduce de los casos en los que la plataforma no ofrece términos en su sistema de autocompletado.

Aunque diferentes, todas las propuestas aquí presentadas reúnen ciertas características comunes. En primer lugar, estudiar algoritmos desde el punto de vista cultural implica captarlos no desde su condición técnica específica, sino en interacción con sus usuarios y en sus contextos de uso. Por este motivo, tener en cuenta a los usuarios de plataformas, sus prácticas y sus perspectivas resulta de gran importancia. En segundo lugar, es necesario renunciar a un conocimiento completo de los procesos algorítmicos. Por la indeterminación que caracteriza sus diseños basados en modelos abstractos y bases de datos de entrenamiento, debemos saber que sólo pueden ser conocidos parcialmente. Por su dinamismo y cambios frecuentes debido a decisiones de las plataformas, puede que la investigación sea posible sólo para una temporalidad determinada. Por último, es necesario apelar a la creatividad y a la interacción de elementos heterogéneos para poder estudiar su interrelación con la sociedad, la cultura y los individuos.

Conclusiones

Este artículo estableció una sistematización bibliográfica orientada a identificar principales problemáticas de investigación y metodologías en el ámbito de los estudios sociales de algoritmos, particularmente en el ámbito de la cultura digital y el uso de sistemas automatizados de recomendación en plataformas sociales, en un contexto de datificación y algoritmización que modela las prácticas digitales de acceso a la información, a los productos culturales diversos y a la sociabilidad en línea. Su aporte principal a la literatura preexistente consiste en trazar una relación entre áreas, problemas de trabajo y metodologías, en una línea de trabajo que considera a los algoritmos como sistemas en los que tecnología y sociedad se modelan mutuamente.

El estudio de los algoritmos "en y como cultura" plantea dos tensiones fundamentales: la primera se desarrolla entra la opacidad y la apertura. Todas las líneas desarrolladas en este texto reconocen que los algoritmos son objetos opacos y cognoscibles sólo parcialmente, ya que gran parte de sus funcionamientos y productos son dinámicos, cambiantes e impredecibles. A pesar de ello, se hace necesario abrir su caja negra para observar cómo son usados en contextos específicos, qué grado de agencia permiten a sus usuarios, y de qué manera distribuyen el poder y el sentido en la sociedad. Justamente la relación entre poder y agencia constituye la segunda tensión entre posiciones macrosociales, centradas en el poder algorítmico de las plataformas que gestionan grandes cantidades de datos y cuyos algoritmos tienden a sustituir las decisiones tomadas por los humanos, y perspectivas microsociales centradas en los usuarios que buscan identificar las negociaciones, resistencias y agenciamientos.

El estudio de los algoritmos "en y como cultura" puede profundizarse en aspectos poco indagados en nuestro entorno, por ejemplo, los problemas de sesgos y discriminaciones algorítmicas, los procesos automatizados de visibilidad de contenidos que aplican las plataformas sociales, así como el modo en que los usuarios negocian su agencia con los algoritmos, identificando en qué aspectos y con qué recursos puede negociarse dicho agenciamiento, así como aquellos aspectos en los que los usuarios se subordinan a su gobernanza. El aporte de estos estudios contribuirá a disminuir la opacidad de los algoritmos, a informar y concientizar a la ciudadanía de procesos complejos con los que interactúan de forma cotidiana, así como a diseñar programas formales e informales de literacidad digital y algorítmica que den lugar a ciudadanos digitales informados que puedan limitar el poder algorítmico que ejercen las grandes corporaciones.

Como se expresó al inicio de este trabajo, el tema emerge en los estudios sociales de Latinoamérica. Futuros trabajos pueden sistematizar la literatura producida en la región, a fin de identificar problemáticas y posicionamientos en común.

Referencias bibliográficas

Alonso, Julio; Álamo, Sofía y María Eugenia González Ocampo (2016) "¿Hacia una algoritmización de los sentimientos?" [en línea] en Actas del I Congreso Internacional de la Asociación Argentina de Humanidades Digitales. Buenos Aires, noviembre. Disponible en: <https://www.aacademica.org/aahd.congreso/38.pdf> [Consultado en febrero de 2021]. [ Links ]

Aruguete, Natalia (2019) "¿Twitter acreciente la polarización política?" Beers and Politics, 2(1): 22-25. [ Links ]

Benítez Eyzaguirre, Lucía (2019) "Ética y transparencia para la detección de sesgos algorítmicos de género" Estudios sobre el Mensaje Periodístico, 325. doi: https://doi.org/10.5209/esmp.66989. [ Links ]

boyd, danah y Nicole Ellison (2007) "Social Network Sites: Definition, History, and Scholarship" Journal of Computer-Mediated Communication, 113: 210-230. doi: https://doi.org/10.1111/j.1083-6101.2007.00393.x. [ Links ]

Bradshaw, Samantha y Philip Howard (2017) "Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation" Oxford Internet Institute. [ Links ]

Bucher, Taina (2017) "The algorithmic imaginary: exploring the ordinary affects of Facebook algorithms" Information, Communication & Society, 120: 30-44. doi: https://doi.org/10.1080/1369118X.2016.1154086. [ Links ]

Bucher, Taina (2018) If… Then: Algorithmic Power and Politics. Nueva York: Oxford University Press. [ Links ]

Caliskan, Aylin; Bryson, Joanna y Arvind Narayanan (2017) "Semantics derived automatically from language corpora contain human-like biases" Science, 356(6334): 183-186. doi: https://doi.org/10.1126/science.aal4230. [ Links ]

Christakis, Nicholas A. y James H. Fowler (2011) Connected: The Surprising Power of Our Social Networks and How They Shape Our Lives. Nueva York: Back Bay Books. [ Links ]

Cinelli, Matteo; Morales, Gianmarco De Francisci; Galeazzi, Alessandro; Quattrociocchi, Walter y Michele Starnini (2020) "Echo Chambers on Social Media: A comparative analysis" ArXiv [en línea]. Disponible en: <https://www.semanticscholar.org/paper/Echo-Chambers-on-Social-Media%3A-A-comparative-Cinelli-Morales/6ae13ff2b6ea-986dae80a0db3e3d6a284eb8b050 > [Consultado el 9 de febrero de 2019]. [ Links ]

Clement, Jessica (2020) "Topic: Workforce diversity at online companies" Statista [en línea]. 6 de julio. Disponible en: <https://www.statista.com/topics/2540/workforce-diversity-at-online-companies/ > [Consultado el 9 de febrero 2021]. [ Links ]

Cormen, Thomas (2013) Algorithms unlocked. Cambridge: MIT Press. [ Links ]

Diakopoulos, Nicholas (2014) "Algorithmic Accountability Reporting: On the Investigation of Black Boxes" Tow Center for Digital Journalism. doi: https://doi.org/10.7916/D8ZK5TW2. [ Links ]

Dourish, Paul (2016) "Algorithms and their others: Algorithmic culture in context" Big Data & Society, 3(2). doi: https://doi.org/10.1177/2053951716665128. [ Links ]

Dremann, Sue (2020) "Stanford's resident doctors protest exclusion from first round of covid-19 vaccinations" Palo Alto Online. Disponible en: <https://www.paloaltoonline.com/news/2020/12/18/stanfords-resident-doctors-largely-cut-out-of-first-covid-19-vaccinations > [Consultado el 9 de febrero de 2021]. [ Links ]

du Gay, Paul; Hall, Stuart; Janes, Linda; Mackay, Hugh y Keith Negus (1991) Doing Cultural Studies: The Story of the Sony Walkman. Londres: Sage. [ Links ]

Eubanks, Virginia (2019) Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. Nueva York: Picador. [ Links ]

Fernández-Vicente, Antonio (2020) "Hacia una teoría crítica de la razón algorítmica" Palabra Clave, 23(2). doi: https://doi.org/10.5294/pacla.2020.23.2.2. [ Links ]

Galloway, Alexander (2006) Gaming: essays on algorithmic culture. Minneapolis: University of Minnesota Press. [ Links ]

García Canclini, Néstor (2018) "Cómo investigar la era comunicacional del capitalismo" Desacatos (56): 90-105. [ Links ]

García Canclini, Néstor (2020) Ciudadanos reemplazados por algoritmos. Bielefeld: Bielefeld University Press/Editorial UDG/Editorial UCR/UnSaM Edita/Flacso Ecuador. [ Links ]

Giddens, Anthony (1991) Sociología. Madrid: Alianza Universidad. [ Links ]

Gillespie, Tarleton (2010) "The politics of 'platforms'" New Media & Society, 12(3): 347-364. doi: https://doi.org/10.1177/1461444809342738. [ Links ]

Gillespie, Tarleton (2014a) "Algorithm [draft] [#digitalkeywords]" Culture Digitally [en línea]. 25 de junio. Disponible en: <https://culturedigitally.org/2014/06/algorithm-draft-digitalkeyword/ > [Consultado el 15 de septiembre de 2021]. [ Links ]

Gillespie, Tarleton (2014b) "The relevance of algorithms" en Gillespie, Tarleton; Boczkowski, Pablo J. y Kirsten A. Foot (eds.) Media technologies: Essays on communication, materiality, and society. Cambridge: MIT Press , pp. 167-193. [ Links ]

Gillespie, Tarleton (2020) "Content moderation, AI, and the question of scale" Big Data & Society , 7(2). doi: https://doi.org/10.1177/2053951720943234. [ Links ]

Ginsberg, Jeremy; Mohebbi, Matthew; Patel, Rajan; Brammer, Lynnette; Smolinski, Mark y Larry Brilliant (2009) "Detecting influenza epidemics using search engine query data" Nature, 457: 1012-1014. doi: https://doi.org/10.1038/nature07634. [ Links ]

Google Books Ngram Viewer (2021) "Interés de búsquedas en Google Book sobre conceptos asociados a Facebook" Google Books Ngram Viewer [en línea]. Disponible en: <https://tinyurl.com/y3j3p5rz > [Consultado el 11 de febrero de 2021]. [ Links ]

Google Trends (2021) "Interés de búsqueda en Google sobre Algoritmo de Facebook y Amigos en Facebook" Google Trends [en línea]. Disponible en: <https://tinyurl.com/y434rce4 > [Consultado el 10 de febrero de 2021]. [ Links ]

Han, Byul-Chun (2014) Psicopolítica: Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder. [ Links ]

Helmond, Anne (2015) "The Platformization of the Web: Making Web Data Platform Ready" Social Media + Society, 2(1). doi: https://doi.org/10.1177/2056305115603080. [ Links ]

Hine, Christine (2015) Ethnography for the Internet: Embedded, Embodied and Everyday. Londres: Bloomsbury Academic. [ Links ]

Honan, Mat (2014) "I liked everything I saw on Facebook for two days. Here's what it did to me" Wired [en línea]. 11 de agosto. Disponible en: <https://www.wired.com/2014/08/i-liked-everything-i-saw-on-facebook-for-two-days-heres-what-it-did-to-me/ > [Consultado el 9 de febrero de 2021]. [ Links ]

Introna, Lucas y Niall Hayes (2011) "On sociomaterial imbrications: What plagiarism detection systems reveal and why it matters" Information and Organization, 21: 107-122. doi: https://doi.org/10.1016/j.infoandorg.2011.03.001. [ Links ]

Kaine, Sara y Emmanuel Josserand (2019) "The organisation and experience of work in the gig economy" Journal of Industrial Relations, 61(4): 479-501. doi: https://doi.org/10.1177/0022185619865480. [ Links ]

Kearns, Michael y Aaron Roth (2019) The Ethical Algorithm: The Science of Socially Aware Algorithm Design. Nueva York: Oxford University Press . [ Links ]

Kitchin, Rob (2014) The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. Londres: Sage . [ Links ]

Kitchin, Rob (2017) "Thinking critically about and researching algorithms"Information, Communication & Society , 120: 14-29. doi: https://doi.org/10.1080/1369118X.2016.1154087. [ Links ]

Kleinberg, Jon; Ludwig, Jens; Mullainathan, Sendhil y Cass R. Sunstein (2018) "Discrimination in the Age of Algorithms" Journal of Legal Analysis, 10: 113-174. doi: https://doi.org/10.1093/jla/laz001. [ Links ]

Latour, Bruno (1992) Ciencia en acción: cómo seguir a los científicos e ingenieros a través de la sociedad. Barcelona: Labor. [ Links ]

Latour, Bruno (2007) "Can we get our materialism back, please?" Isis, 198: 138-142. [ Links ]

Lazer, David (2015) "The rise of the social algorithm" Science, 348(6239): 1090-1091. doi: https://doi.org/10.1126/science.aab1422. [ Links ]

Lazer, David; Kennedy, Ryan; King, Gary y Allesandro Vespignani (2014) "The Parable of Google Flu: Traps in Big Data Analysis" Science, 343(6176): 1203-1205. doi: https://doi.org/10.1126/science.1248506. [ Links ]

Magnani, Esteban (2017) "Big data y política. El poder de los algoritmos" Nueva Sociedad, 269 <https://nuso.org/articulo/big-data-y-politica/ > [Consultado el 15 de septiembre de 2021]. [ Links ]

Mallamaci, Marco; Gordon, Pablo; Krepki, Daniela; Mónaco, Julián; González Guardia, Estefanía y Mariano D'Alessio (2020) "¿Qué puede un bit? Datos y algoritmos como relación social fundamental de la Economía Digital" Sociológica, 101(35) [en línea]. Disponible en: <http://www.sociologicamexico.azc.uam.mx/index.php/Sociologica/article/view/1650 > [Consultado el 20 de septiembre de 2021]. [ Links ]

Manovich, Lev (2013) Software takes command: extending the language of new media. Londres: Bloomsbury Publishing. [ Links ]

Manovich, Lev (2017) "Automating Aesthetics" Flash Art [en línea]. 15 de diciembre. Disponible en: <https://flash---art.com/article/automating-aesthetics-lev-manovich/ > [Consultado el 9 de febrero de 2021]. [ Links ]

Marres, Noortje (2017) Digital Sociology: The Reinvention of Social Research. Londres: John Wiley & Sons. [ Links ]

Marres, Noortje y Esther Weltevrede (2013) "Scraping the Social? Issues in live social research" Journal of Cultural Economy, 6(3): 313-335. doi: https://doi.org/10.1080/17530350.2013.772070. [ Links ]

Mayer-Schönberger, Viktor y Kenneth Cukier (2014) Big data: la revolución de los datos masivos. Madrid: Turner. [ Links ]

Meneses Rocha, María Elena (2018) "Grandes datos, grandes desafíos para las ciencias sociales" Revista Mexicana de Sociología, 80(2). doi: https://doi.org/10.22201/iis.01882503p.2018.2.57723. [ Links ]

Mills, Wright (2003) La imaginación sociológica. Ciudad de México: Fondo de Cultura Económica. [ Links ]

Möller, Judith (2021) "Filter bubbles and digital echo chambers" en Tumber, Howard y Silvio Waisbord (eds.) The Routledge Companion to Media Disinformation and Populism. Londres: Routledge, pp. 92-100. [ Links ]

Nieborg, David y Thomas Poell (2018) "The platformization of cultural production: Theorizing the contingent cultural commodity" New Media & Society , 1120: 4275-4292. doi: https://doi.org/10.1177/1461444818769694. [ Links ]

Noble, Safiya Umoja (2018) Algorithms of Oppression: How Search Engines Reinforce Racism. Cambridge: MIT Press . [ Links ]

O'Neil, Cathy (2020) Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Madrid: Capitán Swing. [ Links ]

Pangburn, DJ (2019) "Schools are using AI to help pick students. What could go wrong?" FastCompany [en línea]. 17 de mayo. Disponible en: <https://www.fastcompany.com/90342596/schools-are-quietly-turning-to-ai-to-help-pick-who-gets-in-what-could-go-wrong > [Consultado el 9 de febrero de 2021]. [ Links ]

Pariser, Eli (2014) The filter bubble: how the new personalized web is changing what we read and how we think. Nueva York: Penguin Books. [ Links ]

Pasquale, Frank (2016) The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press. [ Links ]

Peters, Uwe (2020) "What Is the Function of Confirmation Bias?" Erkenntnis, 87. doi: https://doi.org/10.1007/s10670-020-00252-1. [ Links ]

Pinch, Trevor (2009) "The social construction of Technology (SCOT): The Old, the New and the NonHuman" en Vannini, Philip (ed.) Material Culture and Technology in Everyday Life: Ethnographic Approaches. Berna: Peter Lang, pp. 45-58. [ Links ]

Pinch, Trevor y Wiebe Bijker (1989) "The Social Construction of Facts and Artifacts: Or How the Sociology of Science and Sociology of Technology might Benefit Each Other" en Bijker, Wiebe; Hughes, Thomas y Trevor Pinch (eds.) The Social Construction of Technological Systems. Cambridge: MIT Press , pp. 17-30. [ Links ]

RAE (s.f.) Sesgo [en línea]. Edición del Tricentenario. Disponible en: <https://dle.rae.es/sesgo > [Consultado el 11 de febrero de 2021]. [ Links ]

Reglamento General de Protección de Datos (2016) "Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE" [pdf]. Diario Oficial de las Comunidades Europeas, 4 de mayo. Disponible en: <https://www.boe.es/doue/2016/119/L00001-00088.pdf > [Consultado el 15 de septiembre de 2021]. [ Links ]

Rieder, Bernhard (2020) Engines of Order. Ámsterdam: Ámsterdam University Press. [ Links ]

Rieder, Bernhard; Matamoros-Fernández, Ariadna y Óscar Coromina (2018) "From ranking algorithms to 'ranking cultures': Investigating the modulation of visibility in YouTube search results" Convergence, 124: 50-68. doi: https://doi.org/10.1177/1354856517736982. [ Links ]

Roberge, Jonathan, y Robert Seyfert (2018) "What Are Algorithmic Cultures?" en Seyfert, Robert y Jonathan Roberge (coords.) Algorithmic Cultures. Londres: Routledge , pp. 13-37. doi: https://doi.org/10.4324/9781315658698-7. [ Links ]

Robinson, Martin (2021) "UKs CMA investigates algorithms used by Google, Amazon and Facebook" Daily Mail [en línea]. 20 de enero. Disponible en: <https://www.dailymail.co.uk/news/article-9167661/CMA-launches-investigation-algorithms-used-Google-Amazon-Facebook.html > [Consultado el 9 de febrero de 2021]. [ Links ]

Rogers, Richard (2009) The End of Virtual. Digital Methods. Ámsterdam: Amsterdam University Press. Disponible en: <http://www.govcom.org/rogers_oratie.pdf > [Consultado el 9 de febrero de 2021]. [ Links ]

Rogers, Richard (2013) Digital methods. Cambridge: MIT Press . [ Links ]

Rogers, Richard (2018) "Otherwise Engaged: Social Media from Vanity Metrics to Critical Analytics" International Journal of Communication, 12: 450-472. [ Links ]

Sadagopan, Swathi Meenakshi (2019) "Feedback loops and echo chambers: How algorithms amplify viewpoints" The Conversation [en línea]. 4 de febrero. Disponible en: <http://theconversation.com/feedback-loops-and-echo-chambers-how-algorithms-amplify-viewpoints-107935 > [Consultado el 9 de febrero de 2021]. [ Links ]

Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie y Cedric Langbort (2014) "Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms" en Data and Discrimination: Converting Critical Concerns into Productive Inquiry a pre-conference at the 64th Annual Meeting of the International Communication Association. Seattle, mayo. Disponible en: <http://social.cs.uiuc.edu/papers/pdfs/ICA2014-Sandvig.pdf > [Consultado el 9 de febrero de 2021]. [ Links ]

Sadin, Éric (2018) La silicolonización del mundo. Buenos Aires: Caja Negra. [ Links ]

Seaver, Nick (2017) "Algorithms as culture: Some tactics for the ethnography of algorithmic systems" Big Data & Society , 2(4). doi: https://doi.org/10.1177/2053951717738104. [ Links ]

Shore, Jesse; Baek, Jiye y Chrysanthos Dellarocas (2018) "Network structure and patterns of information diversity on Twitter" MIS Quarterly, 42(3): 849-872. doi: https://doi.org/10.25300/MISQ/2018/14558. [ Links ]

Signa_Lab ITESO (2019) "Democracia, libertad de expresión y esfera digital. Análisis de tendencias y topologías en Twitter. El caso de la #RedAMLOVE" Signa Lab ITESO. <https://signalab.iteso.mx/informes/informe_redamlove.html > [Consultado el 15 de septiembre de 2021]. [ Links ]

Siles, Ignacio; Segura-Castillo, Andrés; Solís, Ricardo y Mónica Sancho (2020) "Folk theories of algorithmic recommendations on Spotify: Enacting data assemblages in the global South" Big Data & Society , 7(1). doi: https://doi.org/10.1177/2053951720923377. [ Links ]

Silveira, Sergio y Tarcízio da Silva (2020) "Controvérsias sobre danos algorítmicos: Discursos corporativos sobre discriminação codificada" Revista Observatório, 6(4): 1-17. doi: https://doi.org/10.20873/uft.2447-4266.2020v6n4a1pt. [ Links ]

Smith, Dale (2020) "Mark Zuckerberg: Facebook algorithm isn't trying to fuel online rage" CNET [en línea]. 9 de septiembre. Disponible en: <https://www.cnet.com/news/mark-zuckerburg-facebook-algorithm-isnt-trying-to-fuel-online-rage/ > [Consultado en febrero de 2021]. [ Links ]

Striphas, Ted (2015) "Algorithmic culture" European Journal of Cultural Studies, 18(4-5 ): 395-412. doi: https://doi.org/10.1177/1367549415577392. [ Links ]

Sued, Gabriela (2020) "El algoritmo de YouTube y la desinformación sobre vacunas durante la pandemia de covid-19" Chasqui. Revista Latinoamericana de Comunicación, 145(1): 163-180. doi: https://doi.org/10.16921/chasqui.v1i145.4335. [ Links ]

Sued, Gabriela (2022) "Una geografía de México en Netflix: culturas algorítmicas, diversidad audiovisual y estrategias de transnacionalización" Anuario Electrónico de Estudios en Comunicación Social "Disertaciones", 15(2): 1-18 doi: https://doi.org/10.12804/revistas.urosario.edu.co/disertaciones/a.10616. [ Links ]

Trejo Delarbre, Raúl (2018) "Seis décadas de investigación latinoamericana sobre comunicación. Una propuesta de periodización" en Crovi Druetta, Delia y Raúl Trejo Delarbre (coords.) Tejiendo nuestra historia. Investigación de la comunicación en América Latina. Ciudad de México: Coordinación de Humanidades, UNAM, pp. 317-352. [ Links ]

Treré, Emiliano (2020) Activismo mediático híbrido. Ecologías, Imaginarios, Algoritmos [pdf]. Bogotá: Fundación Friedrich Ebert. Disponible en: <http://library.fes.de/pdf-files/bueros/la-comunicacion/17279.pdf > [Consultado el 11 de febrero de 2021]. [ Links ]

Tufekci, Zeynep (2016) "The Algorithmic Spiral of Silence" Open Transcripts [en línea]. 29 de octubre. Disponible en: <http://opentranscripts.org/transcript/algorithmic-spiral-silence/ > [Consultado el 9 de febrero de 2021]. [ Links ]

Tufekci, Zeynep (2018) "YouTube, the Great Radicalizer" The New York Times [en línea]. 10 de marzo. Disponible en: <https://www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html > [Consultado el 9 de febrero de 2021]. [ Links ]

van Dijck, José (2016) La cultura de la conectividad: una historia crítica de las redes sociales. Buenos Aires: Siglo XXI. [ Links ]

Velkova, Julia y Anne Kaun (2021) "Algorithmic resistance: Media practices and the politics of repair" Information, Communication & Society , 24(4): 523-540. doi: https://doi.org/10.1080/1369118X.2019.1657162. [ Links ]

Waisbord, Silvio (2020) "¿Es válido atribuir la polarización política a la comunicación digital? Sobre burbujas, plataformas y polarización afectiva" Revista SAAP, 14(2): 248-279. doi: https://doi.org/10.46468/rsaap.14.2.a1. [ Links ]

Wilson, Steven Lloyd y Charles Wiysonge (2020) "Social Media and Vaccine Hesitancy" MBJ Global Health, 5(10). doi: https://doi.org/10.1136/bmjgh-2020-004206. [ Links ]

Winner, Langdon (1993) "Upon Opening the Black Box and Finding It Empty: Social Constructivism and the Philosophy of Technology" Science, Technology, & Human Values, 18(3): 362-378. [ Links ]

WWWF (2017) Algorithmic Accountability [pdf]. World Wide Web Foundation. Disponible en: <http://webfoundation.org/docs/2017/07/Algorithms_Report_WF.pdf > [Consultado el 9 de febrero de 2021]. [ Links ]

1 La autora agradece el apoyo del Programa Conacyt Estancias Postdoctorales por México y la asesoría del Dr. Raúl Trejo Delarbre para la realización de este artículo.

2 El machine learning —o "aprendizaje automático"— es una rama de la inteligencia artificial que permite que las má quinas aprendan sin ser expresamente programadas para ello. Una habilidad indispensable para hacer sistemas capaces de identificar patrones entre los datos para hacer predicciones.

Recibido: 12 de Febrero de 2021; Aprobado: 28 de Septiembre de 2021

Sobre la autora

Gabriela Elisa Sued es doctora en Humanidades por el Instituto Tecnológico de Monterrey, México; realiza una estancia como Becaria postdoctoral bajo la asesoría de la Dra. Judith Zubieta García en el Instituto de Investigaciones Sociales, UNAM, actualmente financiada por la Coordinación de Humanidades de la UNAM, y anteriormente por Conacyt. Es investigadora SNI 1 y profesora en el Programa de Posgrado en Ciencias Políticas y Sociales, UNAM. Sus líneas de investigación son: la cultura digital, la minería de datos para la investigación en ciencias sociales y las relaciones entre género, feminismos y tecnologías digitales. Entre sus publicaciones más recientes se encuentran: "Training the Algorithm: Governance, Agency, and Literacy in the Use of YouTube" (2022) Revista Contratexto, 37; "Coursera y la plataformización de la educación: operación de mercados, datificación y gobernanza" (2022) Revista Transdigital, 3(5); (con María Concepción González Castillo, Claudia Pedraza Bucio y Dorismilda Flores Márquez) "Vernacular Visibility and Algorithmic Resistance in the Public Expression of Latin American Feminism" (2021) Media International Australia, 183(1).

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons