SciELO - Scientific Electronic Library Online

 
vol.37 número111Excluir para proteger: la “guerra” contra la trata y el tráfico de migrantes y las nuevas lógicas de control migratorio en EcuadorLa reconstrucción del sentido en madres de niños con una enfermedad degenerativa índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Estudios sociológicos

versión On-line ISSN 2448-6442versión impresa ISSN 0185-4186

Estud. sociol vol.37 no.111 México sep./dic. 2019  Epub 20-Feb-2020

http://dx.doi.org/10.24201/es.2019v37n111.1708 

Artículos

Una geopolítica del acceso abierto: información, software y lectura

A geopolitics of Open Access: Information, Software and Reading

Leandro Rodríguez Medina1 

1Departamento de Relaciones Internacionales y Ciencia Política Universidad de las Américas Puebla México leandro.rodriguez@udlap.mx

Resumen:

El llamado a una apertura en relación con el acceso a la literatura científica en la actualidad se ha generalizado. Desde consejos de ciencia y tecnología hasta instituciones universitarias, pasando por las recomendaciones de organizaciones intergubernamentales, los principales actores en la producción de conocimiento parecen convencidos de que el futuro de la circulación y el uso de conocimiento depende del acceso abierto. En este artículo se explora en primer lugar el contexto en el cual debe situarse este llamado: las asimetrías del conocimiento. Luego se analiza la consecuencia que dicha apertura puede tener en la producción y consumo de información, datos y conocimiento. Como respuesta, se mencionan y describen nuevas prácticas epistémicas: la softwarización del procesamiento de datos y la lectura estratégica.

Palabras clave: acceso abierto; circulación del conocimiento; software

Abstract:

The call for open access to scientific literature has been generalized recently. From national councils for science and technology to universities to inter-government organization, the main actors in global knowledge production seem to agree that the future of knowledge circulation and use depends on open access to it. In this article, first I explore the context in which we should frame this call: the knowledge asymmetries. Then, the consequences of open access for knowledge, data, and information production and consumption are analyzed. As an answer to those consequences, new epistemic practices are described: softwarization of data processing and strategic reading.

Keywords: open access; circulation of knowledge; software

Pensemos, por un momento, en lo siguiente: una mañana, los que nos dedicamos a la producción y consumo de cultura (en mi caso, conocimiento de las ciencias sociales), nos levantamos y nos enteramos de que todo el conocimiento está, ahora, disponible. Está abierto. Ya nada ni nadie nos puede separar de nuestras fuentes de valiosos datos que, muy frecuentemente, han sido inaccesibles. De repente, y gracias a la ubicuidad de internet y a la incursión de los dispositivos electrónicos (desde la computadora de escritorio al último modelo de teléfono celular), todo está al alcance de la mano. Supongamos, para extender este escenario, que limitaciones culturales básicas (como la multiplicidad de lenguas o la educación formal que se suele requerir para hacer búsquedas sofisticadas) también han desaparecido. Claro, con ellas se fueron algunos patrones de organización del conocimiento, pero eso parece un precio bajo frente al caudal de información ganado. Sin barreras, los productores culturales, los científicos, los filósofos y los artistas habitan, desde esa mañana, un mundo de total acceso, de disponibilidad infinita, de oportunidades inmediatas. Y, entonces, quizá por su inmanente tendencia a la crítica, se preguntan: ¿y ahora cómo hacemos para lidiar con tanto material? ¿Cómo organizo mi tiempo para leer todos esos artículos? ¿Cómo estructuro mi quehacer para revisar esos millones de videos que me permiten recorrer virtualmente museos, archivos, bases de datos? En ese momento comprendemos tres aspectos del nuevo paisaje que caracteriza el comienzo del siglo XXI y sobre el que me explayaré en las próximas secciones.

  1. El problema de acceso a la información es parte de un conjunto más amplio de asuntos que llamaremos asimetrías del conocimiento.

  2. La apertura a grandes volúmenes de datos, a códigos de software y a infinitas bibliotecas y hemerotecas interconectadas sólo desplaza el problema de la asimetría sin solucionarlo, incluso en más de un sentido lo potencia.

  3. Surgen algunas prácticas nuevas (por ejemplo, lo que llamaré lectura estratégica y la softwarización del procesamiento de datos), y tienden a desaparecer otras (como la visita permanente a bibliotecas y la consulta de archivos).

En este análisis, mi argumento estará dividido en seis partes. Comienzo por una breve reflexión histórico-sociológica sobre la abundancia de información y la posibilidad, recurrente, de que se vuelva un exceso. Empero, aunque la noción de exceso parece implicar necesariamente un juicio de valor, busco observar más bien de qué manera esta noción ha llevado a la aparición de estrategias para lidiar con ese caudal de información. Luego introduzco la cuestión de las asimetrías y comienzo por señalar aspectos teóricos de ese fenómeno con el fin de introducir, al final de esa sección, la importancia de los estudios de infraestructura académica como dimensión constitutiva de las asimetrías. Posteriormente busco llamar la atención sobre la necesidad de mirar las prácticas de los productores de conocimiento en lugar de sus productos, dado que ellas permiten abrir la caja negra que han sido, a lo largo de la historia, el arte, la filosofía y la ciencia.1

Las prácticas son relevantes, en este sentido, porque permiten observar las maneras en que la infraestructura académica ha sido más que un mero contexto para la producción cultural. A continuación exploro, con cierta superficialidad por razones de espacio, dos de las consecuencias centrales del incremento exponencial de información disponible: la necesidad de leer de manera diferente y más acorde a las necesidades sociotécnicas de la producción cognitiva y, consecuentemente, la confianza creciente en dispositivos y software como forma de mejorar la calidad o aumentar la cantidad de dicha producción. Así, en la última sección, presento algunas implicaciones directas e indirectas de este nuevo escenario, con el foco en la producción cultural de las periferias.

1. El problema: de la abundancia al exceso de información

La idea de que nos rodea mucha más información de la que podemos manejar no es original. Los historiadores, especialmente aquellos que han analizado la historia de documentos y del libro, ya nos han enseñado que ha existido una constante preocupación por el volumen de información disponible. Blair (2010, p. 3), por ejemplo, sostiene que

la percepción sobre, y las quejas alrededor de, la sobrecarga (overload) no son exclusivas de la actualidad. Autores de la Antigüedad, la Edad Media y la temprana Modernidad y otros que trabajaron en contextos no occidentales articularon similares preocupaciones, en particular sobre la sobreabundancia de libros y la fragilidad de los recursos humanos para manejarlos (como la memoria y el tiempo).

En la Antigüedad, Séneca fue un ejemplo de esta preocupación sobre la calidad y la cantidad de los libros disponibles para ser leídos. Su distringit librorum multitudo (“la abundancia de libros es una distracción”) sintetiza su visión sobre la necesidad de leer selectivamente. Su consejo fue concentrarse en pocos (buenos) libros y leerlos repetidamente, en busca de sus múltiples (y a veces escondidos) significados. De este modo, el criterio con el que recortar el universo de publicaciones contribuyó, simultáneamente, a crear un canon. “Limitar la cantidad y la naturaleza de la información a un canon establecido de obras -sostiene Blair- se percibió como aceptable, usualmente por preceptos morales” (2010, p. 15).

A finales de la Edad Media, con la creación de la imprenta de tipos móviles en Alemania, la situación empeoró, no sólo porque se multiplicaron los libros disponibles (se crearon circuitos regionales de libros y se acentuó el poder y la influencia de los editores), sino porque se facilitó de tal manera el proceso que la calidad de lo publicado se vio en peligro. Las copias de imprenta solían tener baja calidad (lo que afectó la lectura), errores tipográficos o, peor aún, podían basarse en manuscritos incompletos o falsos. Y, un tema no menor, se empezó a ver como perjudicial que la búsqueda de beneficio económico de los impresores afectara la edición de libros (Blair, 2010, pp. 46-49).

En los siglos siguientes a la invención de la imprenta en Europa, numerosos académicos e intelectuales reflexionaron sobre el problema. Gleick (2011) sostiene que figuras de la talla de Leibniz y Pope señalaron las posibles nefastas consecuencias de la proliferación de libros, e incluso fueron, en algún sentido, responsables de la metáfora la “inundación de información” (deluge of information). Para Leibniz, “la horrible masa de libros que sigue creciendo puede contribuir en mucho (al barbarismo). Porque, al final, el desorden se volverá insoportable” (citado en Gleick, 2011, p. 402). Asimismo, el poeta inglés satirizaba “aquellos días cuando […] el papel se volvió tan barato, y los impresores tan numerosos, que un diluvio de autores pobló la tierra” (citado en Gleick, 2011, p. 402).

Para muchos pensadores de la Modernidad, la única manera de contrarrestar el fenómeno de la multiplicación de libros era poner el foco en aquellos que eran considerados valiosos por los expertos, por la tradición. De ese modo, mientras algunas instituciones (sobre todo, la universidad) se acoplaban y reproducían un canon en las artes, la filosofía e, incipientemente, en la ciencia (Shapin y Schaffer, 1985), se iba creando un mercado cada vez más amplio de lectores que paulatinamente desafiaban esa forma de leer (Finkelstein y McCleery, 2014). La disminución de las tasas de analfabetismo, la universalización de la educación (en ciertas partes del mundo) y la exitosa comercialización de los libros puso a sectores antes excluidos de estas prácticas culturales en contacto con nuevos productos y, consecuentemente, nuevas ideas (Manguel, 1996).

Sin embargo, para mediados del siglo XX el problema de la sobrecarga de información era una y otra vez traído a colación por expertos. En su discurso presidencial al frente de la Asociación Histórica Americana, en 1963, Elisabeth Eisenstein sostuvo que, en ese entonces, parecía “haber pocas razones para preocuparse por la pérdida de la memoria de la humanidad (y muchas) para estar preocupado por la sobrecarga de sus circuitos” (citado en Gleick, 2011, p. 401). Unos años después, el futurólogo Alvin Toffler (1970) utilizaba por primera vez la noción de sobrecarga de información para el público en general (Weinberger, 2011, p. 5). Mientras los historiadores se topaban con la posibilidad de inmensas bases de datos y fuentes (algo que ha sido abundantemente estudiado por los historiadores de las humanidades digitales), una nueva ola de información llegaba: los correos electrónicos y la comunicación en internet. Para 1984, Palme (1984, p. 176) señalaba, proféticamente, que

La gente recibe muchos mensajes, los cuales no tiene tiempo de leer. Esto también significa que los mensajes realmente importantes son difíciles de hallar en el amplio flujo de mensajes menos importante. En el futuro, cuando tengamos sistemas de mensajes más y más grandes, y estos sistemas estén más y más interconectados, esto será un problema para casi todos los usuarios de esos sistemas.

Las últimas décadas presentaron varios desafíos a esta sobrecarga. Primero, los formatos. No sólo estamos sobrecargados de libros, sino también de archivos de video (Youtube),2 audio (Spotify),3 y fotografías (Instagram),4 lo que se acentúa con el software destinado a circular este material entre usuarios (P2P). Segundo, el volumen total. Se estima que actualmente internet contiene 500 mil millones de gigabytes, lo que transformado en información en papel significa tantos libros como 10 veces la distancia de la Tierra a Plutón.5 Para 2009 había unos 133 millones de blogs, y en 2011, alrededor de un billón de páginas web (Weinberger, 2011, p. 7). El volumen de información generada, compartida y usada a cada minuto en internet es tal, que ha dado lugar a lo que hoy se denomina “big data”, es decir, enormes cantidades de información que permiten -dado que la mayoría está en formatos digitales- un manejo de datos como nunca antes en la historia de la humanidad. Tercero, y siguiendo a Hayles (2012), con la llegada de la información y los dispositivos necesarios para su manejo y administración, aparecen nuevas prácticas que reconfiguran disciplinas, campos de estudio y áreas completas del conocimiento. Así, los productores intelectuales

están afrontando las diferencias que los medios digitales hacen en cada aspecto de la indagación humanística, incluyendo la conceptualización de proyectos, la implementación de programas de investigación, el diseño de currículos y la educación de los estudiantes. La era de la imprenta está pasando, y los presupuestos y prácticas asociadas a ella están ahora siendo visibles como específicas para un medio, más que un status quo mayoritariamente invisible. (2012, pp. 1-2.)

La reflexión sobre la sobrecarga o inundación de información, así como la referente a “big data” y los cambios cognitivos asociados parecen referirse a un contexto global, más o menos homogéneo, que se moldea a partir de estas transformaciones. Dicho de otro modo, parece que el exceso de información es un fenómeno universal y, consecuentemente, que todos lidiamos con él de maneras más o menos semejantes. Es hora de agregar un poco de geopolítica del conocimiento a este diagnóstico.

2. El contexto: centros y periferias del conocimiento

Desde finales de la década de 1970, los estudios de la ciencia y la tecnología dieron un giro que destacaba la conexión entre la ciencia, como producto humano, y su entorno de producción (como conjunto de elementos que favorecen u obstaculizan la generación de saberes). Numerosos y detallados estudios empíricos aportaron la materia prima con la cual era posible observar esa situacionalidad del conocimiento (Golinski, 2005). Entonces, las implicaciones comenzaron a emerger.

La primera destacable, congruente con quienes habían puesto el tema sobre la mesa, fue el sesgo de género del conocimiento científico. La ciencia era, antes que nada, el producto de hombres, blancos y heterosexuales (Haraway, 2004; Harding, 1998).

La segunda implicación era que la ciencia estaba imbricada en su instrumentación en el conjunto de materialidades que permitía los procesos de producción de conocimiento (Latour y Woolgar, 1986; Ihde, 1998; Latour, 2005).

La tercera implicación fue que el universalismo de la ciencia (o, mejor dicho, el curioso fenómeno que algo que era verdad en un contexto fuera también verdad en otro) se convirtió en objeto de estudio. Para la visión positivista tradicional, la ciencia es universal porque sus leyes funcionan en todo tiempo y lugar o, lo que es similar, no se ven afectadas por quienes las formulan, las critican o las usan. Pero si las dos implicaciones previas se habían convertido en supuestos más o menos compartidos de los estudios sobre ciencia y tecnología (ECT), entonces se hacía evidente que la ciencia debía “viajar” de su contexto de enunciación (y validación original) a otros de modificación o uso (y validación indirecta) (Shapin y Schaffer, 1985). Latour (1987, p. 251) llamó a este proceso de traslado “metrología”, y la definió como la “gigantesca empresa para hacer del exterior (del laboratorio) un mundo dentro del cual los hechos y las máquinas pueden sobrevivir”.

Una cuarta implicación, de tinte geopolítico, emerge si aceptamos las tres restantes: el conocimiento no circula homogéneamente alrededor del mundo (o de las redes). No sorprende, entonces, que se establezcan circuitos de flujo de conocimiento que, en general, unen a personas, instituciones y países del denominado mundo desarrollado más frecuentemente que a éstos con colegas del mundo en desarrollo (Wagner, 2008). Escasean, en cambio, contactos permanentes e institucionalizados entre quienes se ubican en el sur global (Sousa Santos, 2009). Sea que el foco de la circulación esté en las personas (por ejemplo, migraciones de científicos), en las instituciones (universidades y redes institucionales), en textos (libros en particular y formas de leer), en objetos (especímenes e instrumentos de medición), o en valores (ideas de relevancia o prestigio), lo cierto es que la literatura sobre las asimetrías que el desplazamiento de conocimiento implica y, habitualmente, reproduce es abundante (Alatas, 2001, 2003; Baber, 2003; Burke, 2012; Connell, 2007; Keim, 2008; Livingstone, 2005; Rodríguez Medina 2014a; Kuhn y Weidemann, 2010; Vessuri, 2006, entre otros). Desconocer las diferencias entre los lugares de enunciación del conocimiento “está crecientemente considerado como más revelador de quiénes lo ignoran y las desafortunadas limitaciones de sus mundos intelectuales que de las ciencias que practican y valoran” (Harding, 2005, p. xi).

La situacionalidad de la ciencia y la tecnología, entonces, nos pone frente a un conocimiento que está geográfica, política, social, económica y culturalmente situado y que, por serlo, presenta desafíos a su circulación. En este contexto, el impacto de las nuevas tecnologías de la información y la comunicación, y en particular de internet, se está analizando con cuidado para no caer en optimismos desmedidos ni en pesimismos paralizantes. Si bien el acceso a estas tecnologías es, para empezar, el primer factor que se debe tener en cuenta, la penetración creciente hace pensar que esta primera brecha puede llegar a reducirse notoriamente en los próximos años, incluso en áreas socioeconómicamente rezagadas.

3. La novedad: centros y periferias en la era de internet

En cuanto a la infraestructura básica de conexión y acceso, las asimetrías siguen en pie y con fuertes efectos en términos de producción de contenido (que sólo en ocasiones puede considerarse conocimiento). Si prestamos atención al porcentaje de hogares con computadoras, en el mundo desarrollado pasó de 55.5% en 2005 a 80.8% en 2015, mientras que en el resto de mundo se incrementó de 26.2 a 45.4% en el mismo periodo. En los hogares, el acceso a internet se ha incrementado en esta última década de 44.7 a 81.3% (mundo desarrollado) y de 18.4 a 46.4% (resto del mundo), siendo similares figuras para el uso individual de internet.6 Por estas razones, la penetración de internet por área geográfica todavía tiene asimetrías importantes, y los 20 países que utilizan más internet dan cuenta de 56.9% del uso global de la red.7 En América del Norte (95%), Europa (84.6%) y Oceanía (68.3%) hay amplia penetración; en América Latina y el Caribe (65.1%) y Medio Oriente (57.8%), una penetración intermedia, y en Asia (47.4%) y África (32%), una penetración baja, aunque es Asia la que da cuenta de 49.2% de todos los usuarios de internet del mundo.8

Lógicamente, hay filtros importantes aun cuando se cuenta con acceso a internet. La lengua es uno de los más relevantes. Alrededor de 30% de los contenidos en internet están en inglés, 14% en chino, 8% en español, 8% en japonés, 5% en alemán, 5% en francés, 3% en portugués, coreano, italiano y árabe y 18% en los restantes idiomas del mundo (Anheier y Raj Isar, 2008, p. 503). Otro filtro es el acceso a banda ancha, porque eso es, en estos momentos, una condición casi indispensable tanto para la carga como para la descarga de contenidos. Así, en 2005, por cada 100 habitantes había 12.3 con conexión a internet en banda ancha en el mundo desarrollado, cifra que aumentó a 29 en 2015. En el mundo en desarrollo, había 1.3 en 2005, y 7.1 en 2015. Aunque el incremento es mayor proporcionalmente en el mundo en desarrollo, la relación actualmente es 4 a 1 entre ambas regiones del mundo.9

Si nos movemos a contenidos generales, la situación también se puede describir como unos pocos nodos centrales y muchos periféricos. En el sentido más amplio, y asumiendo una relación cualitativamente relevante entre cantidad de sitios web y cantidad de contenidos producidos, se observa que Estados Unidos (55.8%), que encabeza la lista, tiene más de la mitad de todas las páginas web del mundo. Japón (7.1%), Brasil (2.9%), Italia (2.8%), China (2.2%) y Alemania (2.2%), que son los cinco que más páginas web tienen después de Estados Unidos, suman 17.2%. Así, estos seis países dan cuenta de más de 70% de todos los contenidos producidos en el mundo y disponibles en internet.10 En un estudio del Oxford Internet Institute, cuyo título poco atractivo es Age of Internet Empires, se encontró que

La supremacía de Google y Facebook sobre cualquier otro sitio en la web es claramente evidente. Vemos también una interesante continuidad regional de estos dos “imperios”. Google es el sitio más visitado en la mayor parte de Europa, América del Norte y Oceanía. Facebook, en contraste, es el más visitado en la mayor parte del Medio Oriente y África del Norte, así como también en la América Latina hispanoparlante. La situación es más compleja en Asia, donde competidores locales han sido capaces de resistir a los dos grandes imperios americanos. Baidu es reconocido como el buscador más usado en China…, y Yahoo! en Japón y Taiwán.11

¿Se mantiene esta asimetría cuando nos enfocamos en el contenido específico? Aunque es difícil de determinarlo cabalmente, un indicador de la concentración de información espacialmente delimitada es la distribución de entidades geolocalizadas en la red. A partir de una muestra de 250 000 sitios indexados por Google en 2009, 90% de ellos se había producido en Estados Unidos, Europa Occidental o Japón, lo que señala una marcada concentración de contenidos de la web.12 Si se aprecia, por ejemplo, esta información contenida en Freebase, se encuentra que 45% de las entidades geolocalizadas en la web corresponden a Estados Unidos y 33% a Europa.13 Esto indica una sobrerrepresentación de estos lugares si tenemos en cuenta su población y su territorio, y una clara subrepresentación de regiones como América Latina y África subsahariana. Al considerar Wikipedia, por ejemplo, también se observa una concentración geográfica. Alrededor de la mitad de los más de 3.3 millones de artículos en 44 idiomas publicados en esa enciclopedia online en 2012 son sobre personas, lugares y eventos ocurridos en Europa Occidental. Asimismo, inglés, polaco, alemán, holandés y francés son los idiomas con más artículos geolocalizados. No sorpresivamente, los artículos mencionados son, además, los más antiguos de Wikipedia, lo que habla de un acceso a la red y sus recursos más temprano por parte de los habitantes de estas regiones.14

La concentración del conocimiento a medida que elevamos el grado de especialización (llegando a las disciplinas académicas como ciencias naturales, ciencias sociales, humanidades y tecnología), también es llamativa. Geográficamente, Estados Unidos y el Reino Unido juntos publican más de la mitad de todas las revistas especializadas del mundo, lo que contribuye a la hegemonía lingüística del inglés.15 Editorialmente, algunos estudios muestran que Springer, Wiley-Blackwell, Elsevier y Taylor & Francis controlan la mayor parte del mercado académico y poseen relativamente altos niveles de citación.16 Llama la atención, incluso, que internet no haya venido a revertir esta tendencia. Según Larivière,Haustein y Mongeon (2015, p. 1.),

en las ciencias naturales y sociales y humanidades, Reed-Elsevier, Wiley-Blackwell, Springer y Taylor & Francis han incrementado su porción de lo publicado, especialmente desde el advenimiento de la era digital (mediados de la década de 1990). Combinadas, las cinco más prolíficas editoriales dan cuenta de más de 50% de todos los artículos publicados en 2013. Las disciplinas en las ciencias sociales tienen el mayor nivel de concentración (70% de los artículos en las cinco editoriales) mientras que las humanidades han permanecido relativamente independientes (20% en las cinco editoriales).

Considerando que las editoriales basan su modelo de negocios en las aportaciones que hacen bibliotecas, asociaciones profesionales e individuos a través de suscripciones, el panorama no luce alentador para el movimiento de acceso abierto o ciencia abierta, aunque éste sigue ganando adeptos en instituciones (especialmente públicas) y en académicos individuales que, más allá de las trabas económicas, se sienten obligados a conseguir literatura o datos primarios. Larivière et al. (2015) señalan que los costos operativos de publicar artículos académicos no justifican los montos que se establecen para que ciertos trabajos queden en modo acceso abierto, lo que habitualmente significa que el o los autores pagan tarifas de hasta 5 000 dólares estadounidenses que, con frecuencia, se deben abonar a partir de fondos de investigación. Sin embargo, también señalan que las bases de datos que indizan artículos suelen favorecer los publicados por estas editoriales, lo que suele ir en detrimento del acceso abierto, en especial para los jóvenes investigadores cuyas carreras aún no están consolidadas. En otras palabras, el sistema de publicaciones académicas, la cúspide de la pirámide de materialización del conocimiento, está sumamente oligopolizado y, como consecuencia, ni las nuevas tecnologías de la información ni los intentos institucionales e individuales parecen ser, por ahora, suficientes para forzar a una revisión a fondo.

La concentración geográfica también incluye el lugar donde está ubicada la institución de filiación del investigador-autor. Para el periodo 1999-2008, por ejemplo, Estados Unidos (31.8%), Japón (8.5%), Alemania (8.2%), Inglaterra (7.3%) y China (6.2%) daban cuenta de 62% de la producción de artículos en ciencias naturales y sociales. A su vez, las instituciones más prestigiosas del mundo, según los rankings más usados, también se concentran en estos países, lo que produce asimetrías de tal magnitud que, por ejemplo, entre las 400 mejores universidades del mundo, la zona metropolitana de Londres tiene más instituciones que África subsahariana, Medio Oriente y América Latina combinadas.17

Llegados aquí, la cuestión de las asimetrías debe tomarse como constitutiva del escenario científico tecnológico actual. También el hecho de que estas asimetrías condicionan fuertemente el acceso a la literatura, datos y demás recursos para la investigación. Más aún, esas divergencias afectan la manera en que el conocimiento circula (Rodríguez Medina, 2014a; 2014b). No obstante, el artículo comenzaba con la hipotética situación de una apertura total, de un libre acceso irrestricto al conocimiento. Para que tengamos una idea de lo que ello significa, cuantitativamente se podrían leer los 24 827 197 artículos que entre 1996 y 2014 fueron publicados exclusivamente por los países más productivos: Estados Unidos, China, Reino Unido, Alemania, Japón, Francia, Canadá, Italia, India y España.18 Y esto sólo representa los últimos ocho años de la producción de 10 países.

Dicho con otras palabras, el acceso abierto genera, sin lugar a dudas, una cantidad y variedad de información y conocimiento que no es fácil manejar: leer, clasificar, ordenar, estructurar, combinar, usar y criticar se vuelven desafíos fundamentales para los investigadores. Estos volúmenes, entonces, reconfigurarán -una vez más- las asimetrías y generarán una que, como sostiene Blair (2010), parece nueva, pero es antigua: la brecha de capacidades para administrar el conocimiento. Entonces, así como terremotos de igual intensidad no provocan los mismos daños en dos zonas diferentes, ese flujo descomunal no tendrá las mismas consecuencias para los centros que para las periferias. Entre ellas, quiero destacar y analizar dos con un poco de detalle: la transformación de la lectura erudita y el uso de software académico.

4. El impacto: lectura estratégica y software académico

Frente a un poco más de 24 millones de artículos, sin contar libros y literatura gris, ni la producción de otros países, ni los contenidos en otros formatos (como audio y video), el investigador, de la disciplina que sea, queda atónito. Si sus antecesores habían estado luchando por el acceso abierto, el académico deberá luchar por organizar semejante cantidad de conocimiento. Más aún, deberá partir del supuesto que muchos de esos contenidos quizá no sean relevantes y de que más de uno que sí lo es se escapará de su alcance. La tarea principal cambia: ya no es encontrar, ahora es clasificar. Ya no insumirá demasiado tiempo en buscar, ahora lo deberá invertir en ordenar. Entonces, ¿qué hará?

Dejemos de lado las prácticas deshonestas -que las hay y las seguirá habiendo- para concentrarnos en la cotidianeidad de quien está emprendiendo alguna investigación. Como ya se ha estudiado, comenzará con Google, quizá para pasar prontamente -dado el caudal de páginas web identificadas- a Google Scholar. Allí, con suerte, revisará las primeras cuatro, diez, cincuenta páginas. Una nimiedad contra los cientos de miles que fueron encontradas. Esperará que Google haya puesto al principio los trabajos más importantes, los más citados, los más hipervinculados. Quizá busque otras bases de datos: JStor, Ebsco, Web of Science, Scielo, Scopus, entre muchas más. Incluso puede ocurrir que revise las revistas especializadas a través de metabuscadores en Cambridge University Press, Wiley-Blackwell o Elsevier. En cada caso hará lo mismo: mirará algunos artículos, esperando cruzarse con los correctos (es decir, los que brindan información, los que aportan ideas teóricas, los que muestran metodologías adecuadas… y los que deben citarse para lograr publicar el propio trabajo). Fácilmente puede terminar con una carpeta en el “escritorio” de su laptop con alrededor de 100 artículos.

En este punto, nuestro investigador no tiene más remedio que leer. Buscará la ocasión - en el contexto de instituciones de investigación cada vez más burocratizadas y administrativas (Ginsberg, 2011)- y, con suerte, revisará abstracts o resúmenes de cada uno. Ese estratégico fragmento que en menos de 200 palabras nos dice de qué trata el artículo. Después de esa lectura, se enfocará en los que reúnan ciertas condiciones. Incluso, quizá, subió esos artículos (si están en formato pdf) a algún software (digamos, Atlas.TI) y los leyó allí. Puede haber dado un paso más: mediante autocodificación, el software detecta pasajes que cumplen ciertos criterios, definidos por el investigador, y genera una codificación automática. Cuando hablamos de cientos o miles de páginas, esto puede llegar a ser imprescindible. Volverá a leer sólo aquello que ha codificado con el fin de ajustar todavía más su tiempo y el volumen de material por abordar. Luego, deseando que el software también pudiera escribir su propio artículo, comenzará a delinear los primeros trazos (ahora son, más bien, los primeros caracteres en Word) y, así, se sumergirá en la fase productiva, original, creativa, que será un ida-y-vuelta entre Word, Atlas.TI, los libros junto a él en su escritorio, y otros dispositivos más (como el teléfono celular) y algunas personas adicionales (como algún becario o asistente).

Simple y cotidiana como parece, esta historia esconde dos estrategias que los académicos hemos venido desarrollando recientemente con poca reflexión sobre las posibles repercusiones no sólo en nuestra producción (o productividad, como prefieren decir directivos universitarios y gestores políticos), sino también sobre los contenidos de la misma y las prácticas que se han (re)articulado para hacerla posible. Por un lado, tenemos lo que llamaré “lectura estratégica”. Ésta consiste en una serie de prácticas, cada vez más dependientes de tecnologías específicas, que buscan, por un lado, identificar material profesional y disciplinariamente relevante y, por el otro, hacer más eficiente el tiempo disponible para su lectura mediante la fragmentación de pasajes destacados. La lectura estratégica tiene, por otro lado, un efecto de descontextualización (los pasajes se desprenden del entorno) y de estandarización (los pasajes se vuelven porciones de las revisiones de literatura que se han convertido en parte obligatoria de todo artículo). Más aún: en la medida en que se intenta escribir un producto académico altamente estandarizado, la lectura estratégica contribuye a dicho proceso de estandarización, pues reduce cualquier texto a aquello que puede/debe ser citado. La reducción, claro, permite incrementar la velocidad de lectura y, en última instancia, de escritura.19

En un reporte para la International Association of Scientific, Technical and Medical Publishers, Ware y Mabe (2009, p. 27) encontraron que

Los patrones de lectura están cambiando… con investigadores leyendo más (alrededor de 270 artículos por año), pero destinando menos tiempo por artículo, con tiempos de lectura que descendieron desde 45-50 minutos a mediados de la década de 1990 a un poco más de 30 minutos. El acceso y la navegación a artículos están cada vez más guiados por la búsqueda (search) que por la curiosidad (browsing).

Cuantitativamente se lee más; cualitativamente, menos. En realidad, no se lee, sino que se busca a través de la vista. Se lee para extraer; el texto es sólo materia prima. La lectura estratégica es, precisamente, esta búsqueda orientada que lo último que desea es asombrarse con lo encontrado, dado que ello llevaría a replanteos que alterarían agendas y plazos. La búsqueda está orientada a encontrar lo necesario, a reforzar lo que se piensa, a buscarle sustento a los prejuicios en el sentido gadameriano del término. Esta lectura no puede realizarse sin tecnología; es, en algún sentido, una cyborgización de la lectura. Si quien tiene problemas visuales requiere anteojos, quien lee para investigar requiere otras tecnologías, pero para cumplir la misma función: observar lo que de otra manera no es observable.

No sorprende, entonces, que el reporte arriba mencionado señale dos aspectos centrales de la actualidad y el futuro de la industria editorial. Por un lado, la rearticulación de publicaciones y datos (en una relación más compleja que la descrita en la literatura sobre comunicación científica) y, por el otro, la automatización de la producción del conocimiento. En ese sentido, se señala que

la explosión de investigación guiada por datos desafiará la publicación para crear nuevas soluciones que vinculen publicaciones a datos, para facilitar minería de datos y manejar conjuntos de datos como potenciales unidades de publicación… la muy discutida web semántica, aunque potencialmente difícil de lograr de un modo formal y comprehensivo, está comenzando a emerger en aproximaciones pragmáticas y limitadas, como la química y la biología molecular. Las tecnologías de web semántica ofrecen significativas oportunidades para incrementar la productividad de investigación mediante la potenciación (enhancing) de revistas, mejoramiento de la búsqueda y el descubrimiento, enriquecimiento de la experiencia del usuario, facilitando la minería de texto y datos y, en el largo plazo, permitiendo la extracción automática de conocimiento a partir de la literatura de investigación (Ware y Mabe, 2009, p. 6; énfasis añadido).

No es reciente la preocupación por la maquinización o la tecnologización ni respecto a qué actividades irá remplazando. Quizá la tendencia a producir conocimiento mediante la lectura estratégica asistida por software ha llamado la atención de algunos, especialmente en las humanidades, que ven acercarse al enemigo a su ciudadela. McGann (2014, p. 2) sostiene, en un texto sobre la academia en la era digital, que “el conocimiento textual y editorial, a menudo marginalizado en los estudios humanos como un dominio estrechamente técnico, debe ser nuevamente movido al centro de la atención humanista”. Y Manovich (2013, p. 8), quizá mucho más provocadoramente, ha señalado que el último reducto de la tecnología, su motor, el software, ha pasado casi inadvertido por quienes, no obstante, han venido dando cuenta de los cambios que la tecnología ha producido en la sociedad contemporánea. Así, sostiene que

El software es el pegamento invisible que mantiene todo junto… si la electricidad y el motor de combustión hicieron la sociedad industrial posible, el software de manera similar permite la sociedad global de la información. Los “trabajadores del conocimiento”, los “analistas de símbolos”, las “industrias creativas” y las “industrias de servicio” -ninguno de estos actores económicos claves de la sociedad de la información pudiera existir sin software… Paradójicamente, mientras científicos sociales, filósofos, críticos culturales y teóricos de los medios y los nuevos medios parecen por ahora cubrir todos los aspectos de la revolución de las tecnologías de la información, creando nuevas disciplinas como los estudios de ciberculturas, estudios de internet, estudios de juegos, teoría de nuevos medios, cultura digital y humanidades digitales, el motor subyacente que mueve a estos sujetos -el software- ha recibido comparativamente poca atención.

¿Por qué esta escasa atención al software justo cuando algunas de las prácticas más fundamentales de la vida académica, como la lectura y la escritura, se han transformado profundamente a partir de éste? La respuesta puede tener varias aristas. Tal vez porque algunos siguen pensando la labor intelectual como desconectada de la materialidad, como flotando sobre los lugares y las máquinas que, en definitiva, la hacen posible (cfr.Farías y Wilkie, 2015). O porque siguen percibiendo la tecnología como neutral, sin ser capaces de entender de qué manera cada una nos altera en nuestra relación con el mundo y con otros seres humanos (cfr. Ihde, 1999). Quizá porque al ignorar el papel del software como motor, para parafrasear a Manovich, se pierde de vista hasta qué punto ciertas prácticas están estandarizadas según el supuesto optimista de que dicha estandarización permite potenciar habilidades humanas que, de otra manera, serían impensables (cfr. Busch, 2013; Rodríguez Medina, 2014c). En cualquier caso, estamos ante pensamientos que, lejos de contribuir a comprender los desafíos que hay por delante, nos distancian del problema.

La dependencia del software para el quehacer académico y científico ha sido sólo recientemente analizada en términos cuantitativos. Una encuesta nacional realizada en el Reino Unido indica que 92% de los académicos usan algún tipo de software para investigación; que para 70% no sería viable la investigación sin software y que 56% de los académicos desarrollan su propio software, a veces sin conocimiento específico de programación. Los paquetes más populares son Matlab (20%, originario de Estados Unidos), R (16%, Nueva Zelanda), SPSS (15% Estados Unidos), Excel (12%, Estados Unidos), Python (11%, Estados Unidos), Nvivo (6% Australia) y Stata (6%, Estados Unidos), todos producidos y comercializados desde el mundo desarrollado.20 Así, la industria del software académico reproduce lo que sucede en la industria del software en general, donde de las 50 empresas desarrolladoras más importantes del mundo, 37 están en Estados Unidos, 4 en Japón, 3 en Alemania, 2 en Canadá, 2 en Reino Unido, 1 en Francia y 1 en los Países Bajos (Columbus, 2016). Aunque algunos softwares, como r, son libres y cada vez más usados en la industria y la academia (Borgman, 2015; Vance, 2009), la mayoría de los más usados tiene elevados costos de licencias, especialmente para organizaciones (aunque suele haber descuentos para instituciones educativas). Según el inegi, sólo en 2013, en México se invirtieron 726 000 millones de pesos en software en el sector educativo.21 En parte por los altos costos, en México hay una tasa de instalación de software sin licencia de 52% (en 2015).22

¿Por qué la concentración de desarrolladores de software y su uso privado -con licencias- tiende a reproducir la estructura de centros y periferias? En primer lugar, porque cuando se incluyen en la enseñanza universitaria, a través de cursos específicos (por ejemplo, de metodología cuantitativa usando SPSS o Stata), los estudiantes adquieren habilidades que luego podrán aplicar con todo su potencial en el mercado laboral usando el mismo software. En segundo lugar, en la medida en que el repositorio de material primario (bases de datos, entrevistas codificadas, etc.) queda formateado en cierto software (por ejemplo, spss o Atlas.TI), se vuelve imprescindible el acceso a actualizaciones (con costo económico). Finalmente, porque el software impone ciertos límites a lo realizable en el proceso de análisis, según principios metodológicos o teóricos del desarrollador. Al no poder disponer del código (excepto, claro, en los casos de open software), el investigador está atado a lo que pueda o no hacer a partir del menú de opciones del programa. Por estas razones, más que superar el problema de apoyarnos en tecnologías para lidiar con la abundancia de información, la cyborgización desplaza la asimetría desde el acceso a datos, información y conocimiento hacia su usabilidad para producir nuevos saberes.

6. Conclusiones

Quisiera terminar señalando, en primer lugar, algunas tendencias futuras. La automatización de la lectura estratégica se incrementará, debido a la dependencia de datos por parte de las organizaciones privadas, públicas y del tercer sector. La automatización alcanzará, probablemente pronto, niveles tales que la escritura de un artículo académico será, en buena medida, producto de software especializados. Software como Scrivener, LaTex o TypeSet son algunos que se ofrecen como ayuda a quien investiga, pero no es posible anticipar que dichos softwares, influidos por inteligencia artificial, puedan ir solicitando cada vez menos de los investigadores y aportando por su cuenta cada vez más. Por lo mismo, el uso de grandes volúmenes de datos (big data) será una tendencia creciente, aunque sólo aquellos comportamientos (como compras en línea) serán reducidos a datos con suficientes niveles de certeza. Asimismo, la automatización tenderá a imponerse sobre otras formas de evaluación de la calidad de la producción. El uso de factores de impacto es el primer paso en la tendencia a la primacía total de las bases de datos como formas de buscar estándares mínimos de calidad (Times Higher Education, 2015). Finalmente, las estructuras de consagración científica, académica y cultural dependerán, de manera creciente, de procesos presentados como imparciales, estandarizados y automatizados. Así, los índices con los que se evalúa la trayectoria de investigación de alguien (por ejemplo, el índice H), se irán expandiendo, ya que la interpenetración entre dispositivos, prácticas, personas e instituciones se irá solidificando. Si, como sostiene Manovich (2013), el software es el pegamento de la sociedad de la información, todo lo que se pueda convertir en objeto de programación, aquello que, aún a costa de simplificarse o distorsionarse, se pueda convertir en software, lo hará. Hay intereses, recursos y conocimiento puestos al servicio de este incipiente proceso. No parece haber, al momento, demasiados circuitos alternativos exitosos.

¿Puede haberlos? Pueden pensarse muchas otras maneras de leer, de escribir, de producir conocimiento, más allá de las prácticas canonizadas en las universidades y las políticas científicas y tecnológicas (Azor Hernández, Grijalva y Gómez, 2016). Pueden pensarse muchas otras maneras de evaluar dicha producción, tanto en lo individual, lo institucional y las políticas públicas, sin pensar que la evaluación de pares en revistas es la única, ni la mejor (Gingras, 2014). Puede haber otros públicos, además de los colegas, que se interesen y necesiten el conocimiento científico, tecnológico, social y humanístico, y cuyo acceso esté hoy todavía muy limitado. Pueden existir otras maneras de difundir lo producido de forma más amplia, más democrática, menos comercial y más sencilla (López Cuenca y Ramírez Pedrajo, 2008). Puede darse una ciencia más abierta, en todos y cada uno de los pasos que mediante libros, clases y prácticas de investigación se nos han inculcado y solemos reproducir sin mucha crítica.

Podría, como en las ciencias sociales japonesas y alemanas, priorizarse el conocimiento difundido en la propia lengua y en medios locales (Welch, 2007). Podría pensarse en limitar el número de publicaciones al año, estableciendo un techo, en lugar de un piso. Se podrían espaciar las instancias de evaluación de los sistemas científicos y tecnológicos, dejando periodos más amplios que invitarían a los científicos a proyectos más ambiciosos y de largo plazo (Sugimoto y Larivière, 2018). Podría incentivarse que los académicos participaran, como iguales, en proyectos sociales, económicos y culturales, como algunas organizaciones de la sociedad civil han mostrado que es viable y necesario (Stein y Daniels, 2017). Podrían establecerse repositorios nacionales o regionales de datos, de tesis, de publicaciones en proceso (literatura gris), pagados, pero también consultados, por los gobiernos u organizaciones internacionales (Bastow, Dunleavy y Tinkler, 2014). Podría haber publicaciones donde la revisión de pares fuera siempre un proceso abierto, donde el autor continuara el diálogo con la revista más allá de la revisión y lo estableciera luego con los lectores interesados, a manera de un documento permanentemente inconcluso (Ross-Hellauer, 2017). Podrían valorarse más las formas no textuales de producción de conocimiento, donde el material audiovisual, por ejemplo, que tiene más probabilidades de alcanzar públicos más amplios, fuera también respetado y tomado en cuenta por pares evaluadores (Correa-Díaz, 2016). Podrían desburocratizarse los procesos universitarios favoreciendo la creatividad y la innovación, y no el control y la auditoría (Ginsburg, 2011). Podrían reconocerse las diferencias disciplinarias, tanto en la forma como en el contenido, sin por ello ignorar o dejar de lado proyectos realmente interdisciplinarios donde los puentes no son artificiales, sino producto de diálogos de larga duración (Hernández de Gante, Mallorquin y Lora, 2008). Podrían reconocerse las asimetrías, discutir cuáles importan, decidir qué estrategias usar frente a ellas y establecer políticas institucionales y públicas de corto, mediano y largo plazos (Rodríguez Medina, 2014a). Todo esto que se podría hacer, casualmente, no suele estar en la agenda, porque no hemos sabido solidificarlo, “cajanegrizarlo” (Latour, 1993).

Porque mientras las bases de datos siguen construyendo dispositivos a partir de la información que manejan, mientras las burocracias multiplican formatos que llenar y que les da datos permanentemente, mientras los evaluadores recurren a factores de impacto que les resumen complejos procesos de producción y referencia académicos, mientras los consejos de ciencia y tecnología despliegan una creciente cantidad de formatos (la mayoría online) para estandarizar lo que muchas veces no es ni siquiera comparable, mientras todo esto tiene lugar a diario, alimentando ensamblajes sociotécnicos eficientes, los que los criticamos vamos relegándonos a un papel de espectadores asombrados, azorados por la eficacia burocrática aplicada al control de la actividad académica. Tal vez es hora de pensar, diseñar y poner en uso nuestro propio software para relacionar sociedad civil y academia; es momento de hacer nuestros formatos para ser llenados, en tiempo, forma y obligatoriamente por funcionarios que nos brinden datos actualizados; es ocasión para que nuestros medios de comunicación especializados (sin oligopolización de corporaciones editoriales) produzcan el diálogo entre, por ejemplo, sindicalistas, empresarios y académicos. O artistas, investigadores y activistas.

En suma, quizás es hora de enfocar nuestros esfuerzos -y dar batalla- no sólo en el ámbito de las ideas, es decir, de pensarnos a nosotros mismos desde nuestras prácticas y con nuestros marcos conceptuales, sino también de discutir qué nueva infraestructura necesitamos. ¿Necesitamos nuestras bases de datos nacionales o regionales? ¿Es necesario que las instituciones inviertan en equipos de traductores profesionales? ¿Requerimos equipos tecnológicos, como aplicaciones, para reforzar la seguridad de los investigadores mientras hacen trabajo de campo? ¿Debemos incrementar el apoyo a las revistas y líneas editoriales nacionales? ¿Es posible y útil desarrollar bases de datos de investigadores latinoamericanos para facilitar la búsqueda de pares revisores para proyectos de investigación o artículos científicos? ¿Tendría impacto el fomento de casas editoriales que publiquen textos donde activistas y académicos escriban y debatan? ¿Debería el sistema nacional de investigadores contemplar la participación de los académicos en actividades de difusión del conocimiento más allá de la academia? Responder a estas preguntas, en forma colectiva, dará lugar a un replanteo sistemático de nuestra infraestructura de conocimiento.

Edwards (2010, p. 17) entiende las infraestructuras del conocimiento como “redes robustas de gente, artefactos, e instituciones que generan, comparten y mantienen conocimiento específico sobre el mundo humano o natural. Pero Borgman (2015, p. 33) alerta que “las infraestructuras no son diseñadas o son procesos totalmente coherentes. En cambio, son mejor entendidas como ecologías o complejos sistemas adaptativos. Consisten en muchas partes que interactúan a través de procesos técnicos y sociales, con diferentes grados de éxito”. Si esto es cierto y esas ecologías pueden contener en determinado momento divergentes infraestructuras (en general para divergentes propósitos), entonces los pasos que siguen en la disputa por la producción, circulación y uso de conocimiento pueden tener más que ver con las dimensiones tecnológicas de la producción intelectual que con los contenidos específicos. En otras palabras, pensar desde la periferia, y en particular desde América Latina, podría ser otra manera de decir que es hora de pensar qué características debe tener una infraestructura de conocimiento periférica, qué debe copiar de los éxitos del mundo desarrollado y qué crear para afrontar los desafíos del mundo en desarrollo. Si somos capaces de desarrollar esa infraestructura, tal vez seamos capaces de encontrarnos en diálogos internos y, luego, en otros globales, pero con algo que decir y desde dónde decirlo.

Referencias

Alatas, Syed Farid (2003). Academic Dependency and the Global Division of Labour in the Social Science. Current Sociology 51(6), 599-613. [ Links ]

Alatas, Syed Farid (2001). The Study of the Social Sciences in Developing Societies: Towards an Adequate Conceptualization of Relevance. Current Sociology 49(2), 1-19. [ Links ]

Anheier, Helmut, y Raj Isar, Yudhishthir (eds.) (2008). The Cultural Economy. Los Ángeles, Londres, Nueva Delhi y Singapur: Sage. [ Links ]

Azor Hernández, Ileana; Grijalva Maza, Luisa Fernanda, y Gómez Rossi, Alfonso (coords.) (2016). Más allá del texto. Cultura digital y nuevas epistemologías. México: Itaca/Universidad de las Américas Puebla. [ Links ]

Baber, Zaheer (2003). Provincial Universalism: The Landscape of Knowledge Production in an Era of Globalization. Current Sociology 51(6), 614-623. [ Links ]

Bastow, Simon; Dunleavy, Patrick, y Tinkler, Jane (2014). The Impact of the Social Sciences. How Academics and their Research Make a Difference. Londres: Sage. [ Links ]

Blair, Ann (2010). Too Much to Know. Managing Scholarly Information before the Modern Age. New Haven y Londres: Yale University Press. [ Links ]

Borgman, Christine (2015). Big Data, Little Data, No Data. Scholarship in the Networked World. Cambridge, MA: MIT Press. [ Links ]

Burke, Peter (2012). The Social History of Knowledge: From Encyclopaedia to Wikipedia. Vol. II. Cambridge: Polity. [ Links ]

Busch, Lawrence (2013). Starndards. Recipes for Reality. Cambridge, MA: MIT Press. [ Links ]

Columbus, Louis (2016). PwC Global 100 Software Leaders, 2016: Subscription & Cloud Apps Revolutionizing Enterprise Software. Forbes, 30 de julio de 2016. Recuperado de: Recuperado de: https://www.forbes.com/sites/louiscolumbus/2016/07/30/pwc-global-100-software-leaders-2016-subscription-cloud-apps-revolutionizing-enterprise-software/#7f9550424466 (consultado: 15 de agosto de 2018). [ Links ]

Connell, R. Raewyn (2007). Southern Theory. Social Science and the Global Dynamics of Knowledge. Cambridge, MA: Polity Press. [ Links ]

Correa-Díaz, Luis (2016). Remediaciones poéticas y el “lugar del texto” en la cultura literario-digital hoy. Primera parte: Del poema impreso al poema animado. En Azor Hernández, I.; Grijalva Maza, L. F., y Gómez Rossi, A. A. R. (coords.) (2016). Más allá del texto. Cultura digital y nuevas epistemologías (pp. 135-156). México: Itaca/ Universidad de las Américas Puebla. [ Links ]

Edwards, Paul (2010). A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. Cambridge, MA: MIT Press. [ Links ]

Farías, Ignacio, y Wilkie, Alex (2015). Studio Studies: Operations, Topologies & Displacements. Londres: Routledge. [ Links ]

Finkelstein, David, y McCleery, Alistair (2014). Una introducción a la historia del libro. Buenos Aires: Paidós. [ Links ]

Gingras, Yves (2014). Bibliotemetrics and Research Evaluation. Uses and Abuses. Cambridge, MA: MIT Press. [ Links ]

Ginsberg, Benjamin (2011). The Fall of the Faculty: The Rise of the All-Administrative University and Why It Matters. Nueva York: Oxford University Press. [ Links ]

Gleick, James (2011). The Information. A History. A Theory. A Flood. Nueva York: Vintage Books. [ Links ]

Golinski, Jan (2005). Making Natural Knowledge. Constructivism and the History of Science. Chicago: University of Chicago Press. [ Links ]

Haraway, Donna (2004). The Haraway Reader. Nueva York: Routledge. [ Links ]

Harding, Sandra (2005). The Postcolonial Science and Technology Reader. Durham y Londres: Duke University Press. [ Links ]

Harding, Sandra (1998). Is Science Multicultural? Postcolonialisms, Feminisms, and Epistemologies. Bloomington e Indianapolis: Indiana University Press. [ Links ]

Hayles, Katherine (2012). How We Think. Digital Media and Contemporary Technogenesis. Chicago y Londres: The University of Chicago Press. [ Links ]

Hernández de Gante, Alicia; Mallorquín Suzarte, Carlos, y Lora Cam, Jorge (coords.) (2008). Las indisciplinas en las ciencias sociales. México: Benemérita Universidad Autónoma de Puebla/Universidad Academia de Humanismo Cristiano/Universidad Autónoma “Gabriel René Moreno”/Universidad Nacional Autónoma de México. [ Links ]

Ihde, Don (1998). Expanding Hermeneutics. Visualism in Science. Evanston: Northwestern University Press. [ Links ]

Keim, Wiebke (2008). Social Sciences Internationally: The Problem of Marginalization and its Consequences for the Discipline of Sociology. African Sociological Review 12(2), 22-48. [ Links ]

Kuhn, Michael, y Weidemann, Doris (eds.) (2010). Internationalization of the Social Sciences. Asia-Latin America-Middle East-Africa-Eurasia. Bielefeld: Transcript. [ Links ]

Latour, Bruno (2005). Reassembling the Social. An Introduction to Actor-Network Theory. Oxford: Oxford University Press. [ Links ]

Latour, Bruno (1993). We Have Never Been Modern. Cambridge, MA: Harvard University Press. [ Links ]

Latour, Bruno (1987). Science in Action. How to Follow Scientists and Engineers through Society? Cambridge, MA: Harvard University Press. [ Links ]

Latour, Bruno, y Woolgar, Steve (1986). Laboratory Life. The Construction of Scientific Facts. Princeton: Princeton University Press. [ Links ]

Larivière, Vincent; Haustein, Stefanie, y Mongeon, Phillipe (2015). The Oligopoly of Academic Publishers in the Digital Era. PLoS One 10(6): e0127502. DOI: https://doi.org/10.1371/journal.pone.0127502 [ Links ]

Livingstone, David (2005). Science, Text and Space: Thoughts on the Geography of Reading. Transactions of the Institute of British Geographers 30(4), 391-401. [ Links ]

López Cuenca, Alberto, y Ramírez Pedrajo, Eduardo (coords.) (2008). Propiedad intelectual. Nuevas tecnologías y libre acceso a la cultura. México: Universidad de las Américas Puebla. [ Links ]

Manguel, Alberto (1996). A History of Reading. Nueva York: Viking. [ Links ]

Manovich, Lev (2013). Software Takes Command. Nueva York y Londres: Bloomsbury Academic. [ Links ]

McGann, Jerome (2014). A New Republic of Letters. Memory and Scholarship in the Age of Digital Reproduction. Cambridge, MA, y Londres: Harvard University Press. [ Links ]

Muenchen, Robert (2015). The Popularity of Data Analysis Software, blog r4stats.com. Recuperado de http://r4stats.com/articles/popularity/Links ]

Palme, Jacob (1984). You Have 134 Unread Mail! Do You Want to Read Them Now? En H. T. Smith (ed.). Proceedings of the IFIP Conference on Computer-Based Message Service. Nottingham, UK. Nueva York: Elsevier North-Holland. [ Links ]

Rodríguez Medina, Leandro (2014a). Centers and Peripheries in Knowledge Production. Londres y Nueva York: Routledge. [ Links ]

Rodríguez Medina, Leandro (2014b). The Circulation of European Knowledge: Niklas Luhmann in the Hispanic Americas. Nueva York: Palgrave. [ Links ]

Rodríguez Medina, Leandro (2014c). Construyendo periferia. Un microanálisis de objetos subordinantes como tecnologías epistémicas. Revista Sociológica, 29(83): 9-46. [ Links ]

Ross-Hellauer, Tony (2017). What is Open Peer Review? A Systematic Review [version 2; referees: 4 approved]. F1000Research, 6:588. [ Links ]

Shapin, Steve, y Schaffer, Simon (1985). Leviathan and the Air-pump. Princeton: Princeton University Press. [ Links ]

Sousa Santos, Boaventura de (2009). Una epistemología del sur. La reinvención del conocimiento y la emancipación social. México: Clacso y Siglo XXI. [ Links ]

Stein, Arlene, y Daniels, Jessie (2018). Going Public. A Guide for Social Scientists. Chicago: The University of Chicago Press. [ Links ]

Sugimoto, Cassidy, y Larivière, Vincent (2018). Measuring Research. What Everyone Needs to Know. Nueva York: Oxford University Press. [ Links ]

Times Higher Education (2015). Higher Education Green Paper at a Glance, 6 de noviembre. Recuperado de https://www.timeshighereducation.com/news/higher-eduction-green-paper-glanceLinks ]

Toffler, Alvin (1970). Future Shock. Nueva York: Bantam Books. [ Links ]

Vance, Ashlee (2009). Data Analysts Captivated by R’s Power, New York Times, 6 de enero. Recuperado de http://www.nytimes.com/2009/01/07/technology/business-computing/07program.html?pagewanted=all&_r=0Links ]

Vessuri, Hebe (2006). Academic Science in Twentieth-century Latin America. En Saldaña, J. J. (ed.). Science in Latin America. Austin: University of Texas Press. [ Links ]

Wagner, Caroline (2008). The New Invisible College. Science for Development. Washington, DC: Brooking Institution Press. [ Links ]

Ware, Mark, y Mabe, Michael (2009). The STM Report. An Overview of Scientific and Scholarly Journal Publishing. Oxford: International Association of Scientific/Technical and Medical Publishers. [ Links ]

Weinberger, David (2011). Too Big to Know. Rethinking Knowledge Now That the Facts Aren’t the Facts, Experts are Everywhere, and the Smartest Person in the Room Is the Room. Nueva York: Basic Books. [ Links ]

Welch, Anthony (ed.) (2007). The Professoriate: Profile of a Profession. Dordrecht: Springer. [ Links ]

1La mayor parte de mi análisis se orienta a los científicos en general y a los científicos sociales en particular. Filósofos y artistas quedan, en lo que sigue, lamentablemente relegados, aunque imagino que parte de lo argumentado aquí puede describir, al menos parcialmente, sus prácticas profesionales.

2Youtube tiene mil millones de usuarios registrados que suben 300 horas de video por minuto (véase https://www.youtube.com/yt/press/es-419/statistics.html).

3Spotify, un sitio de reproducción online de música, tiene a la fecha 140 millones de usuarios activos que consumen en promedio 1 700 millones de horas de música y que han creado más de 2 000 millones de listas (playlists) (véase https://expandedramblings.com/index.php/spotify-statistics/), consultado: 5 de febrero de 2018.

4Instagram tiene unos 500 millones de usuarios activos que han subido, al momento, alrededor de 40 000 millones de fotografías, con un promedio de 95 millones subidas diariamente (véase https://www.omnicoreagency.com/instagram-statistics/), consultado: 5 de febrero de 2018.

6Véase http://www.itu.int/en/ITU-D/Statistics/Pages/stat/default.aspx, consultado: 10 de febrero de 2018.

7Véase http://www.internetworldstats.com/top20.htm, consultado: 18 de febrero de 2018.

8Véase http://www.internetworldstats.com/stats.htm, consultado: 17 de febrero de 2018.

11Véase http://geography.oii.ox.ac.uk/?page=age-of-internet-empires, consultado: 18 de febrero de 2018.

12Véase http://geography.oii.ox.ac.uk/?page=user-generated-content-in-google, consultado: 18 de febrero de 2018.

13Véase http://geography.oii.ox.ac.uk/?page=geographic-knowledge-freebase, consultado: 18 de febrero de 2018. Freebase es una base de acceso abierto que describe 43 millones de entidades a partir de las cuales se identifican 478 000 lugares específicos, que pueden ubicarse geográficamente con precisión.

15Véase http://geography.oii.ox.ac.uk/?page=the-location-of-academic-knowledge, consultado: 18 de febrero de 2018. El dato corresponde a 9 500 revistas indexadas por el ISI Web of Knowledge Journal Citation Report (2009).

16Véase http://geography.oii.ox.ac.uk/?page=academic-knowledge-and-publishers, consultado: 18 de febrero de 2018.

18Véase http://www.scimagojr.com/countryrank.php, consultado: 18 de febrero de 2018.

19Según algunos cálculos, la preparación de un artículo lleva entre 90 y 100 horas de trabajo (Ware, y Mabe, 2009, p. 24).

20Véase http://www.software.ac.uk/blog/2014-12-04-its-impossible-conduct-research-without-software-say-7-out-10-uk-researchers, consultado: 18 de febrero de 2018. Estos datos se corresponden con los propuestos por Muenchen (2015, s/d) para quien, en relación con el uso de software académico, “podemos ver tendencias amplias (en las cuales) R, SAS, SPSS y Stata tienden, siempre, a estar en la cima”.

Recibido: 19 de Febrero de 2018; Aprobado: 20 de Agosto de 2018

Acerca del autor

Leandro Rodríguez Medina es doctor en Sociología por la University of Cambridge (Reino Unido) y profesor de Relaciones Internacionales y Ciencia Política en la Universidad de las Américas, Puebla. Es miembro del Sistema Nacional de Investigadores (nivel II) del Consejo Nacional de Ciencia y Tecnología de México y editor en jefe de la revista Tapuya: Latin American Science, Technology and Society, editada por Taylor & Francis. Sus principales temas de investigación son la circulación internacional del conocimiento, con especial interés en las ciencias sociales, los estudios sociales de ciencia y tecnología en entornos periféricos y la relación entre cultura y ciudad. Recientemente ha colaborado en el proyecto International Cooperation in the Social Sciences and Humanities, financiado por la Unión Europea a través del Séptimo Programa Marco (2014-2017) y fue profesor visitante Paul F. Lazarsfeld del Departamento de Sociología de la Universidad Autónoma Metropolitana-Azcapotzalco en 2017.

Dos de sus trabajos más recientes son:

(2019). Enacting networks, crossing borders: On the internationalization of the social sciences in Mexico. Current Sociology. https://doi.org/10.1177/0011392119833101.

(2019). International Ties at Peripheral Sites: Co-producing Social Processes and Scientific Knowledge in Latin America. Science as Culture. https://doi.org/10.1080/09505431.2019.1629409.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons