Trayectorias de la Arquitectura de Información
La Arquitectura de Información (AI) web es un proceso de diseño iterativo y transversal, implementado en cada fase del ciclo de vida del producto digital, que asegura objetivos de producción y desarrollo de la interfaz con el fin de estructurar y organizar contenido en concreto. Dicho ciclo de vida del proceso se construye a través de las siguientes unidades: "a) exploración del contexto, b) organización y representación de la información, y c) interacción con usuarios, que involucran investigación, análisis, diseño e implementación" (González, 2003:1).
Diversos teóricos han ofrecido definiciones para los profesionales de la Arquitectura de Información, en tanto trata, en realidad, sobre lo oculto. Se recogen algunas declaraciones teóricas de Lara Navarra y Martínez Usero porque la investigación usó estos conceptos como criterios de validación de la Arquitectura de Información en los portales web periodísticos analizados: "estudio de la organización de la información con el objetivo de permitir al usuario encontrar su vía de navegación hacia el conocimiento y la comprensión de la información" (2007:35).
La evolución histórica de la AI marca tres hitos principales a partir de la década de 1970, caracterizados fundamentalmente por el desarrollo de la tecnología, en especial, del avance en funcionalidad de los sistemas de bases de datos y de conectividad entre ellas. De tal manera que los conceptos nucleares que definen a la Arquitectura de Información han ido avanzando igualmente en sus significados, para Tufte es "diseño de la presentación de la información para facilitar su entendimiento" (1992:18).
Las marcas de la década 1970-1980 para la AI determinaron que la tecnología inicia la evolución hacia la informática personal, se desarrolla el sistema operativo UNIX, se inventa el protocolo TCP/IP, el sector empresarial hace uso de servicios mediante correo electrónico y transferencia de ficheros (FTP). Adicional, con los aportes del científico informático inglés Ted Codd a la teoría de bases de datos relacionales, se define el modelo relacional y las formas no procedimentales de consultar los datos.
El entorno computacional de entonces intensificó un problema básico: desorganización informacional, dado que la conectividad estaba centrada en nodos restringidos para cada masa crítica. Aun así, la comunidad de desarrollo alcanzó una generalidad en el uso de términos como Data Base Architecture & System Architecture y una contribución al diseño de programación.
De igual manera, el entorno organizacional presentaba gestión de datos como resultante de procesos internos, construcción de sistemas de información independientes, resolución de problemas específicos y una contribución al diseño de la interacción. Por otra parte, el uso de información computacional se caracterizó mediante bases de datos para procesamientos destinados a generar nueva información deslocalizada, proceso IN/Process/OUT modelado y contribución al diseño gráfico y de información.
Las marcas de la década 1980-1990 muestran variados avances, por ejemplo Paul Mockapetris inventó el DNS (Domain Name System) en 1987; Facebook apareció en 1988; Tim Berners Lee creó el Protocolo HTTP (Hypertext Transfer Protocol) en 1990, entre otros. El modelo relacional de Codd no se usó en la práctica en este período por inconvenientes de rendimiento, lo que condujo a eficientes desarrollos de técnicas para la construcción del sistema de bases de datos relacionales. Con este nuevo modelo sencillo de usar se intensifican las aplicaciones para el procesamiento de transacciones, hasta que finalmente se reemplazan las bases de datos jerárquicas y de red. En esta década también se investigó la técnica de bases de datos paralelas y distribuidas, así como bases de datos orientadas a objetos.
El perfil independiente del entorno computacional para ese período evolucionó en relación con las categorías de información con base en los procesos de negocios; se categorizan negocios, mercados e información según el personal, la organización y la tecnología; se hace uso de términos como arquitecturas de software, arquitecturas de hardware, redes, comunicación, información y sistema de información. Wurman define a la Arquitectura de Información en términos de "ocupación profesional emergente del siglo XXI, dedicada a las necesidades de la era, enfocada a la claridad, entendimiento humano y la ciencia de organización de la información" (1997:10-11).
A la par, el entorno de negocios exteriorizaba relaciones por categorías conectadas para la toma de decisiones de la organización, y un diseño por niveles orientados a: (i) identificar y definir las funciones básicas del negocio; (ii) hacer mapas de las estructuras de negocio; y (iii) categorizar información sobre aplicaciones existentes. Se podría afirmar con Garret que la Arquitectura de Información es "diseño estructural del espacio informacional para facilitar el acceso intuitivo a los contenidos" (2002:11).
Posteriormente, el uso de la AI se caracterizó por la visión conceptual desde el alto nivel organizacional para descender sucesivamente hasta el nivel de base de datos físico; el análisis de requerimientos según categorías de información, guía las relaciones de los procesos de negocio y las necesidades generales corporativas mediante la contribución desde mapas y el usuario para el óptimo diseño del sistema de información.
Las marcas de las décadas posteriores a 1990 revelan el gran avance y desarrollo desmesurado de la tecnología para: navegar gratis (Navigator de Nestcape); clasificar negocios en páginas amarillas digitales (Yahoo!); buscar, posicionar y mercadear todo tipo de contenido digital (Google); publicar información censurada por los Mass Media tradicionales (sistema de weblog); intercambiar y colaborar en una relación Peer to Peer (Napster, Nupedia); postear información ciudadana periodística (warblog); relacionar racionalidad y emotividad en red (MySpace); crear, promocionar y micro-bloguear contenido espontáneo (Youtube, Twitter); estructurar una gobernanza de red (Neutralidad de la Red).
La AI es entonces "arte y ciencia de la organización de la información que ayuda a la gente a satisfacer efectivamente sus necesidades de información" (Lara Navarra y Martínez Usero, 2007:35); pero a principios de la década, un área importante de aplicación para las bases de datos cambia con la creación del lenguaje SQL (siglas en inglés que traducen Structured Query Language; es decir, un lenguaje declarativo de acceso a bases de datos relacionales que permite especificar diversos tipos de operaciones en ellas), y las aplicaciones se orientan a la ayuda de toma de decisiones y consultas con interfaz web a los datos.
El acontecimiento extraordinario fue el crecimiento explosivo de la World Wide Web, a finales de la década de 1990, lo que conduce a una notable implantación de sistemas de bases de datos con soporte para tasas de transacciones muy altas, fiabilidad y disponibilidad de conexión a la naciente red 24 horas 7 días a la semana y actividades de mantenimiento planificadas, como copias de respaldo a la información.
La conexión del entorno computacional para este período ha permitido más acciones disimiles y caóticas por la indización social de contenidos (folksonomías), la definición de entidades informacionales (ontológica, lógica o semántica), la incorporación de plantillas para interfaz, la distinción entre conceptual y convencional, el uso del Modelo Global de Datos, entre otros desafíos para el usuario. En otros términos, el entramado de la World Wide Web cada vez se orienta a un sistema Social Media, "cuya automatización de tareas para el procesamiento de datos precede a los computadores" (Silberschatz, Korth y Sudarshan, 2006:13) y se centra en la percepción del usuario. Ello sin duda ha generado preocupación por quién controla la calidad de la información en la red, en especial cuando se trata de recuperar información dentro de la inmensa cantidad de documentos irrelevantes.
Conceptos nucleares
En Fernández Marcial (2006), por ejemplo, se recopila y aclara el impacto que ha tenido la gestión del conocimiento en el perfeccionamiento de la gestión de información, a partir de diferencias y puntos de encuentro en la noción de los conceptos:
Información es un estado cognitivo obtenido por apropiar y usar datos (Fernández Marcial, 2006, 47); es un conjunto de datos organizados para comunicar mensajes corporativos y personales (Glosario de la Librería Harrod); es la contextualización de símbolos, números, letras, signos agrupados y organizados con base en reglas y convenciones formales y compartidas (Debons & Cronenweth, 1988); es el resultado del proceso de asimilar y comprender datos (Middletonn, 1999); es materia prima pública para generar conocimiento (Hill, 2000); es relación subjetiva entre emisor y receptor, mediados por la intención de mensajes (Prax, 2000); es conocimiento explícito (Al-Hawamdeh, 2002).
Conocimiento es la capacidad de comprender y aplicar lo que se conoce (Fernández Marcial, 2006); es información sintetizada, clasificada y dotada de contenido y significado (Bawden, 1997); es el resultado del proceso de evaluar y de sintetizar información (Middletonn, 1999); es aplicación práctica de carácter interno personal (Hill, 2000); es memoria y proceso de construcción con el cual se adquiere información y se ejecutan acciones (Prax, 2000); son elementos tales como figuras, símbolos e imágenes que no pueden ser representados a través del texto (Al-Hawamdeh, 2002).
Gestión de Información (GI) -mediante tecnologías- se orienta hacia el procedimiento de objetos mientras que las tecnologías del conocimiento se establecen para encontrar, transmitir y conocer cómo se crean y utilizan los contenidos (Duffy, 2001 y Davenport y Prusak, 1998); la GI se reduce a garantizar la accesibilidad y difusión de la información mientras que la Gestión del Conocimiento (GC) pone el énfasis en añadir valor (De Long, Davenport & Beers 1997); la GI basa su éxito en conservar y recuperar información y la GC radica en el grado en que se comparte el conocimiento (Martesson, 2000); en la práctica, no se distinguen los conceptos ni se discute el carácter epistemológico porque en empresas relevantes se comprueba que el concepto conocimiento se utiliza en lugar del término información (Wilson, 2002).
Otros autores, como León Santos y otros (2007) arguyen que las organizaciones de información del tipo bibliotecas, museos, Mass Media, tienen preocupación por cómo medir y analizar la gestión del conocimiento, con el propósito de obtener y desarrollar ventaja competitiva porque tanto información como conocimiento son activos intangibles.
Los autores argumentan que la medición de la Gestión del Conocimiento propicia visibilidad, interpretación de cambios y determinación de objetivos para el trámite y análisis, lo que genera factores decisivos de desarrollo tales como: coherencia de procesos, medición, posicionamiento ante retos actuales, etcétera. Aun así existen barreras objetivas que impiden medir y analizar la GC relacionadas con: desconocimiento de modelos internacionales; factores humanos (por ejemplo: falta de liderazgo, poco dominio de la gestión, modelos mentales obsoletos, carencia de competencias y dominios de la Tecnología de Información y Comunicación); y factores orgánico-funcionales (por ejemplo: pasividad en las bibliotecas públicas, falta de estructura, desorientación en centros de información).
Con Marcos (2001:4-16) se gesta otra expansión en la década de 1970, pero desde la tecnología que facilita el simulacro de la comunicación hombre-computador. Por tanto, aquella interacción humano-computador se analiza con base en el diseño de interfaz de usuario, que la define como una serie de dispositivos, tanto físicos como lógicos, que permiten al hombre interactuar. Con Booth complementa el significado de la interacción como un "diálogo" con "intercambio de símbolos entre dos o más partes, [ siempre que ] los participantes asignen durante el proceso comunicativo significados a esos símbolos" (1989:46).
Por su parte, Scolari (2010) determina cinco leyes para la interfaz cuya evolución entiende como una forma adaptativa a la interacción entre dos actores a partir de diferentes soportes y dispositivos tecnológicos, razón por la cual nunca muere sino que se transforma.
Al no existir una definición unívoca de interfaz, dado su débil y fluctuante semántica, sólo queda metaforizarla: interfaz-membrana, interfaz-instrumento, interfaz-conversación, interfaz-espacio. El término conceptuado por The Oxford English Dictionary, a finales del siglo XIX, se definía como "superficie entre dos porciones de materia o espacio que tienen un límite en común". Con el perfeccionamiento de la tecnología esa explicación de puente se modificó al lugar de interacción: un espacio de frontera entre lo real y lo virtual, lo semiótico y lo pragmático, la arquitectura y el diseño espacial, el hardware y el software, el sujeto y la pantalla.
Durante los últimos 25 años, diseñadores de interfaz e investigadores insistían en que la mejor interfaz es la que desaparece, el instrumento que no se siente durante el uso, la prótesis que el sujeto no percibe. Al diseñar una interfaz se ponen en marcha procesos perceptivos e interpretativos, pues por las interacciones se iluminan ciertos aspectos pero se oscurecen otros, se privilegian algunas propiedades y se desfavorecen unas terceras al mismo tiempo. La interfaz transparente está lejos de ser una actividad automática y natural; contiene ideología porque se visiona el mundo convertida en dispositivo de interacción. El diseño de interfaz es una actividad política: recupera saberes y experiencias, baraja hipótesis y produce intercambios comunicativos.
El mundo natural no concibe ningún ser en solitario, tampoco el artificial. Todo conforma un sistema, todos interaccionamos en sociedad y la interfaz nunca ha permanecido aislada. Los primeros desarrollos de ingeniería computacional requirieron de un teclado, los diseñadores echaron mano del teclado de la máquina de escribir, posterior necesitaron de otro dispositivo de salida y aprovecharon la pantalla del televisor. Tanto los medios tradicionales y digitales con su remediación como la interfaz con su amalgama dialogan sin discriminación al punto de formar una red expandida para cualquier elemento del ecosistema socio-cultural simbólico, con los cuales se genera, reproduce, envía, recibe, elimina, archiva, recupera y actualiza, todo tipo de textualidad.
La historia evidencia que los medios por su naturaleza se transforman, no desaparecen. Los primeros dispositivos de lectura fueron los rollos de papiro, éstos dieron paso al códice manuscrito; posterior se comercializaron las gacetas que abrieron la puerta al libro impreso. Con la evolución del computador, se han utilizado para el proceso cintas magnéticas, tarjetas perforadas, sistemas operativos codificados en sucesión de letras y números, iconografías que semejan los utensilios de oficina. Con toda esta arqueología hemos traspasado hitos y estadios históricos que evidencian la variación de la interfaz para enfrentar nuevas interacciones.
Portales web periodísticos analizados
La realización del presente estudio tomó en cuenta dos actividades. La primera, de selección de portales web periodísticos; y la segunda actividad, explicación y verificación desde cuatro componentes que la AI considera fundamentales para organizar la información documental digital. Tales componentes son: catalogación temática, clasificación de información, rotulación de contenido y tipologías de interfaz, que se interpretan y confirman más adelante.
Los portales web periodísticos de Colombia seleccionados proporcionaron material para identificar conceptos nucleares en concreto, frente al significado de la AI publicado por Rosenfeld y Morville:
actividad que: clarifica la misión y visión del sitio, equilibra las necesidades del patrocinador y de la audiencia (...) determina el contenido y funcionalidad que el sitio dispone (...) especifica cómo los usuarios encontrarán la información una vez sea definida la organización, navegación, etiquetado y sistemas de búsqueda (1999:14,20,21,29,58,65,67,105,137,140,151).
El tema de este trabajo se articula con base en la pedagogía pragmática, cuyo propósito es explorar las AI particulares del entorno web periodístico de Colombia, a partir de componentes combinados de organización, rotulación y esquemas de navegación asociados a sistemas de información digital noticiosa. La ejecución de observación-identificación se realizó en los dos períodos lectivos del año 2015, cuya actividad antes descrita, de explicación y verificación desde cuatro componentes de la AI, comprendió 18 semanas de trabajo entre la tercera semana de marzo a la segunda semana de mayo, y entre la segunda semana de septiembre a la segunda semana de noviembre. En este lapso se analizaron todos los medios clasificados en las tablas anexas 1-4.
El listado de los 15 portales web periodísticos de Colombia escogidos, obedece al resultado del estudio nacional "6º Panel de opinión 2014", elaborado por la empresa colombiana Cifras & Conceptos S. A. "que busca conocer las percepciones de los líderes de opinión del país sobre temas políticos, económicos, sociales y ambientales a nivel nacional y departamental" (Cifras & Conceptos, 2014:4). Dicho proyecto se realiza anualmente cumpliendo los lineamientos de la Norma Internacional ISO 20252 versión 2012 y ha construido una serie histórica en medición al recoger 2,307 respuestas que representan a los líderes de 17 departamentos y de Bogotá. La pregunta seleccionada del mencionado estudio fue "¿cuáles son los medios de comunicación que usted más consulta para mantenerse informado?". La encuestadora aclara que la pregunta de su estudio es abierta para recibir una mención espontánea.
En consecuencia, la selección de portales web periodísticos es la siguiente:
Periódicos diarios (editados también en la versión impresa tradicional): La República, El Tiempo y El Espectador (editados en Bogotá); La Tarde y El Heraldo (editados en ciudades diferentes a la capital de la República).
Medio de comunicación digital: La Silla Vacía; Revista Semana y Actualidad Panamericana (editados en Bogotá). Se incorpora al análisis el último medio digital de tono satírico por cuanto algunos periodistas, en especial conductores de programas de opinión emitidos por radio comercial, repetidamente han divulgado aquella información como apología de verdad periodística a pesar del aviso legal del propio medio satírico en cuanto al "uso incorrecto, inapropiado o ilícito y de la falta de veracidad, integridad, actualización y precisión de los datos o informaciones que contiene."
En cuanto a portales web periodísticos del sistema de radiodifusión sonora, se empleó la clasificación según la concesión regulada por el Ministerio de Tecnologías de la Información y las Comunicaciones de Colombia. Así, radio comercial es:
cuando la programación del servicio está destinada a la satisfacción de los hábitos y gustos del oyente y el servicio se presta con ánimo de lucro, sin excluir el propósito educativo, recreativo, cultural, científico e informativo que orienta el Servicio de Radiodifusión Sonora en general y radio de interés público, cuando la programación se orienta, a satisfacer necesidades de comunicación del Estado con los ciudadanos y comunidades, la defensa de los derechos constitucionales, la protección del patrimonio cultural y natural de la nación, a fin de procurar el bienestar general y el mejoramiento de la calidad de vida de la población, sin ánimo de lucro, a cargo y bajo la titularidad del Estado (MINTIC, 2010).
Con estas definiciones legales se obtuvo el listado de las más importantes cadenas de radio que operan en el país en la banda FM e internet, cuya programación incluye la etiqueta usada en la clasificación para los periódicos diarios y los medios de comunicación digital; es decir, uso de internet para informar el interés general a través de producción de noticias todos los días de la semana y a todas horas del día a nivel web. Igualmente se constató que la lista estuviera clasificada en la definición de
universitario: funciona bajo una organización universitaria y/o es producida por estudiantes y profesores universitarios; institucional: funciona como medio de divulgación de una institución pública o privada que determina información según los propósitos de dicha entidad; (...) produce noticias: realiza labores periodísticas como reportar, redactar, editar y publicar en torno a la actualidad informativa; produce otros géneros periodísticos: realiza labores periodísticas en torno a géneros como la crónica, el reportaje, la entrevista, el perfil, entre otros. El género de opinión no se incluye (Rey y Novoa, 2013:8-9).
La selección ya catalogada es la siguiente:
Radiodifusión sonora comercial: Caracol radio; RCN Radio; Bluradio; La FM y W Radio (emisoras que emiten desde Bogotá en cadena nacional por frecuencias AM, FM y bajo el codificador streaming).
Radiodifusión sonora de interés público: Emisora HJCK (emisora cultural que emite por streaming solamente) y UN Radio (emisora universitaria que emite en frecuencia FM y por streaming con programación diferente), ambas emiten desde Bogotá.
Catalogación temática
La tabla 1 muestra la catalogación de temas comparativa entre los cinco periódicos diarios elegidos. Todos los diarios nacionales digitalizados catalogan sus temas noticiosos mediante (secciones) una barra horizontal que contiene el menú principal y se encuentra localizado abajo del logo de marca. Dos de ellos, utilizan adicional una barra horizontal para un menú secundario localizado encima del logo de marca.
La tabla 2 agrupa los tres medios de comunicación digitales para comparar la catalogación de los temas noticiosos. Se observó que en estos medios la barra horizontal para el menú principal de temas o secciones se localiza abajo del logo de marca o arriba del logo de marca y uno de ellos usa doble barra de menú, en este caso una vertical en la columna derecha con 30 secciones noticiosas. El promedio general de temas catalogados en los dos grupos de portales web periodísticos es de 13.
La tabla 3 muestra el comparativo entre cinco emisoras comerciales. Todas las cadenas radiales catalogan sus temas noticiosos mediante una barra horizontal que contiene el menú principal y se encuentra localizado abajo del logo de marca. Solo un portal web periodístico mantiene una AI redundante mediante la barra de menú horizontal temática localizada arriba del logo de marca en una franja para banner publicitarios y un segundo menú horizontal incorporado a la zona del logo de marca, que presenta el archivo clasificado según formato de archivos sonoros. Finalmente, la tabla 4 compara las dos emisoras, cultural y universitaria, en cuanto a catalogación temática. Ambas presentan la barra de menú horizontal desplegable localizada abajo del logo de marca.
En general todos los periódicos y medios de comunicación digital analizados catalogan su temática periodísticamediante la configuración de la barra de menú horizontal, en mínimos casos desplegable, ubicada en la parte inferior del logo de marca. Las unidades de contenido (noticias), por tanto, se ordenan dentro de aquella área de interfaz de usuario mediante asuntos definidos por cada medio (secciones periodísticas), según el enfoque editorial de su negocio. Para todos estos medios son recurrentes tres temas o secciones periodísticas: "Opinión", "Deportes" y "Entretenimiento". La segunda relación temática más frecuente para todos los medios analizados es "[ avisos ] Clasificados", "Economía" y "[ recursos ] Multimedia".
Para los portales web periodísticos relacionados con la radiodifusión sonora se destaca que la barra del menú principal se rotula por bloques que en general, contiene secciones periodísticas como temas "Nacional", "Política", "Deportes", "Economía", y recursos tecnológicos del tipo podcasts y videos. Las emisoras de interés público (cultural y universitaria) catalogan los temas de programación a través de una barra de navegación con menú horizontal desplegable, localizado en la parte inferior del logo de marca. Estos menús son los más simples pero de mayor precisión temática pues las palabras clave no dan lugar a la divagación a pesar del orden ambiguo por ejemplo, "Secciones", "Programación", "Temáticos", "Musicales".
En cuanto a la información, como relación subjetiva entre emisor y receptor mediados por la intención de los mensajes (Prax, 2000), se puede inferir que el catálogo de los temas noticiosos será mayormente inagotable entre más indeterminada sea las palabras clave inscritas en la barra del menú principal. A fin de cuentas la categoría de "noticia" es aplicable sólo al oficio del periodismo, que comprende el conjunto de actividades sociales relacionadas con la recogida, elaboración y difusión de información de interés general.
Por su parte, la Gestión de Información (GI) -mediante la barra de menú horizontal- se reduce a garantizar la accesibilidad y difusión de la información (De Long, Davenport & Beers, 1997) confirmando la efectividad como portales de propósito general también llamados portales horizontales, dirigidos a una amplia audiencia con base en información universal estructurada en secciones periodísticas.
Clasificación de información
Los arquitectos de información subordinan las unidades de contenido homogéneas como clasificación facetada, considerando que aquellas unidades pueden ser descritas a través de varias dimensiones. En efecto, la clasificación de información web contiene una relación propia de posibles categorías mientras que todos los tipos de metadatos comparten valor, siempre y cuando las unidades de contenido correspondan (Hassan Montero, et. al., 2003). Entendemos en consecuencia que la facetada clasifica un contenido a través de metadatos del tipo tema, fecha, formato, idioma, autor, excluyendo al título y al resumen ya que éstas son lexías únicas de un documento.
En general, todos los medios analizados catalogan la información periodística en unidades de contenido (noticias) organizadas en dos espacios de interfaz del portal web:
Una página de inicio (home page) que por sus características intrínsecas se muestra diferente respecto del resto del sitio web. El home page agrupa la información de mayor actualidad según el Mass Media, junto a otros contenidos que incorporan publicidad, notas más leídas, información agregada, etcétera.
Una segunda página como sección de temas periodísticos donde se ordena toda la producción informativa de un mismo asunto noticioso. Esa sección de temas contiene el conjunto de noticias homogéneas categorizadas por asuntos genéricos como "Deportes", "Economía", "Entretenimiento", "Internacional", "Especiales", "Podcast", "Videos", etc.
Se trataría de una gestión de conocimiento entendido desde Prax como memoria y proceso de construcción (en este caso del usuario) con el cual el receptor adquiere información y ejecuta acciones (2000). La facetada resulta ciertamente ventajosa, porque todas las unidades de contenido son narradas mediante una asociación de metadatos comunes, como se pudo observar y saber:
Periódicos diarios: sección del tema, fecha de publicación, título hipertextual de la noticia, foto hipertextual relacionada con el tema y lead1 de la noticia. El Heraldo es el único periódico que adiciona listado con viñetas, relacionado al tema.
Medios de comunicación digital: sección del tema, fecha de publicación, foto relacionada con el tema, título hipertextual de la noticia, lead de la noticia y palabras clave que enlazan subtemas de la noticia.
Radiodifusión sonora comercial: foto relacionada con el tema, título hipertextual de la noticia y lead de la noticia.
Todos los Mass Media analizados clasifican las noticias por secciones temáticas periodísticas y/o por fechas de publicación extraordinariamente generales. Son ejemplos extractados al texto de sus originales: "JUDICIAL Hace 16 min", "ECONOMÍA Hace 3 horas", "LOCAL Jueves 26 de Marzo de 2015 - 12:05am", "Abr 07", "bernardodelportillo Abr 14, 2015", "14 Sep 09:40 Galerias", "Septiembre 18 - 12:32 pm", "La Silla 06 de Octubre", "02 nov 08:07".
Estos Mass Media analizados, en general carecen de titulación alfabética y de un orden preciso de publicación para su segunda página de sección de temas periodísticos. Dicho orden se ajusta a la indización mediante palabras clave específicas y un listado informativo con base en la estrategia LIFO (acrónimo de Last In, First Out), en informática se usa en estructuras de datos y teoría de colas, conservando analogía con una pila de libros, en la que los volúmenes se van poniendo uno sobre el otro, y al retirar uno, se saca primero el último que se ha puesto.
La búsqueda, recuperación y adquisición de información específica a partir de aquellas dos dimensiones -sección de temas y fecha de publicación- es una completa serendipia para el usuario, un hallazgo inesperado en la consulta para recuperar las primeras entradas. Como gestión de información, que asienta su éxito en conservar y recuperar información (Martesson, 2000), es un proceso igualmente infructuoso por las actualizaciones, que eliminan las versiones anteriores de la información almacenada. En síntesis, encontrar información noticiosa retrospectiva en portales web periodísticos debería ser una disciplina que involucre procesos lógicos de la archivística en función del: tiempo, soporte offline (para periódicos y medios) y online (para emisoras), personal que efectúa búsquedas y, estado de conocimiento del usuario o tipos de necesidades temáticas.
El periodismo digital al clasificar la información en portales web, habitualmente facilita dos tipos importantes de metadatos: descriptivo y estructural; deja de gestionar el administrativo. Para alcanzar una AI eficiente, los metadatos descriptivos han de ser creados por profesionales especializados, quienes aplican determinadas reglas y esquemas de catalogación y se limitan a un explícito vocabulario técnico que representa la información. Esta información así generada es de calidad pero a la vez, costosa en tiempo y en esfuerzo. La alternativa de solución empleada por los Mass Media es la creación de metadatos provenientes de los propios autores de la información noticiosa. En este caso, son periodistas quienes proporcionan palabras clave para enlazar sus propias creaciones. El nivel de estructura queda entonces resuelto para el periodismo digital al dar acceso a información noticiosa mediante palabras clave asignadas desde los contenidos. Sin duda, se ayuda con respecto a la situación de metadatos diseñados por profesionales pero genera otro problema básico: usuarios de esa información quedan desconectados del proceso.
Las estrategias de búsqueda querying aplicadas por el usuario resultan efectivas cuando tiene bastante claro qué está averiguando. Pero en estos casos, el usuario es un lector tradicional cuya acción de leer se asemeja a sostener entre sus manos el papel. Con esas dos dimensiones que emplean términos de categorización considerablemente comunes, el usuario sólo puede aplicar estrategias para búsquedas de propósito general, más apropiadas para sistemas de navegación que para necesidades de información personal mediante consultas precisas.
Finalmente, en cuanto al nivel de interactividad definida como "la forma en la cual los mensajes de una secuencia se relacionan entre sí, y sobre todo, la forma como los mensajes posteriores son influenciados por mensajes anteriores" (Guevara C., Botero T., & Castro C., 2015:470), el usuario puede saltar del home page hasta la página de la sección periodística mediante el título hipertextual de la noticia, para terminar de leer la información en particular o navegar mediante las palabras clave de la sección para alcanzar al conjunto de temas noticiosos. Con base en la clasificación sobre niveles de interactividad porpuesto por el Departamento de Defensa norteamericano, el usuario actúa en el nivel de interacción pasiva, es decir un simple receptor de información que puede leer texto en la pantalla, así como ver gráficos o imágenes (U.S. Departament of Defense, 1999). Mejor aún, el usuario receptor de información "logra interactuar naturalmente usando los botones de navegación para desplazarse hacia adelante o hacia atrás a través del programa, o puede navegar por los vínculos del hipertexto" (Guevara C., Botero T., & Castro C., 2015:472).
Rotulación de contenidos
El tercer componente de la AI es igualmente un estudio atributivo sobre la forma de representar información. Todos los Mass Media usan como tipo de rotulado común texto e imagen (la foto relacionada con el tema) para el contenido digital periodístico. El rotulado de texto está representado por el título hipertextual de la noticia y por palabras clave que enlazan la sección del tema o subtemas de la noticia.
La observación de estos casos evidencia conceptualización común de lo que significa el etiquetado para el periodismo digital y que el periodista, de alguna manera, lo aplica para la correlación de datos de su noticia informativa con la clasificación de contenido digital en el portal web del Mass Media. La folksonomía, término que se acredita Thomas Vander Wal (2007), es un tipo de etiquetado (se diría que el único) más utilizado en la mayoría de los Mass Media digitales analizados. Para el periodismo digital la folksonomía consiste en un seriado de palabras clave extractadas de información noticiosa que el periodista, individualmente, relaciona con el tema de su narración. En realidad, la folksonomía es el conjunto de términos del lenguaje natural, empleado para describir el contenido de un documento o recurso web. Explica Serrano-Cobos que aquella etiqueta:
es un sistema de auto clasificación de contenidos que no la hace a priori el arquitecto de la información, un documentalista profesional, ni un sistema automático de mapeado basado en algoritmos, sino que son los propios usuarios quienes van clasificando los contenidos de algún modo, de forma natural, democrática y cambiante (2007:71-72).
Para Moreiro, Carbonero y Morato (2009) este sistema de folksonomías ofrece los siguientes beneficios:
presenta sencillez de uso;
es rentable económicamente;
contiene vocabulario específico proveniente del recurso descrito;
es solución simple para crear términos, describir e interpretar resultados;
cualquier usuario sin formación previa en el vocabulario realiza ese etiquetado.
Igualmente manifiesta desventajas, tales como:
falta de control terminológico;
utiliza frecuentemente términos simples;
presenta errores ortográficos entre los términos;
carece de relaciones semánticas entre los términos;
manifiesta ambigüedad de lenguaje por fenómenos de polisemia y de sinonimia;
es impreciso al asignar los términos por privación de políticas previas de etiquetado.
El valor de ese etiquetado se deriva de los mismos periodistas, quienes utilizan su propio vocabulario pero adicionan significado explícito, que puede apoyarse en la comprensión de información y no del recurso inferido. En otras palabras, la importancia no es tanto de clasificar el contenido, sino de proveer un componente que conecte elementos para proporcionar significado a la propia comprensión individual del usuario. Desde la mirada de la AI, esta cultura en el uso de folksonomías como tipología única de etiquetado genera dos limitaciones en el usuario del Mass Media digital del siguiente orden:
Etiquetado 1 (recurso, etiqueta). Funciona si se vive en un mundo cerrado pero internet está lejos de serlo. Puesta la función en el contenido del periodismo digital, igualmente ese entorno es tan abierto como el propio mundo. Los Mass Media en cuestión no habilitan el filtrado colaborativo, pues se observó en la práctica que las folksonomías utilizadas dejan de mencionar explícitamente el nombre del periodista etiquetador. Acaso escribe en la etiqueta el nombre de la fuente o el protagonista de la información y los subtemas relacionados con el asunto central de la noticia informativa.
Etiquetado 2 (recurso, etiqueta, etiquetador). Con este tipo se tiene que pensar en cómo se podrían compartir esos tres datos. No se puede dejar implícito el nivel de inter-aplicación algorítmica.
Para el caso del etiquetado 1, los sistemas estándares de consulta pueden devolver todos los documentos de una colección (textos, fotos, archivos en formato mp3, etc.) o sólo los documentos que coinciden con el criterio especificado. Por ejemplo, si la estrategia de consulta aplica palabras clave con términos como "Alianza del Pacífico", "Latinoamérica", "Comercio", "Relaciones exteriores", para una noticia informativa relacionada con el tema Trans-Pacific Economic Partnership Agreement (TPP) el resultado excluirá seguramente en el mejor de los casos información económica sobre Perú, Chile y México, miembros firmantes del Acuerdo. Ahora bien, si el usuario consulta por un artículo concreto que expone la polarización política y económica latinoamericana en el marco del Acuerdo TPP, la consulta será en el peor de los casos infructuosa desde esas etiquetas personales marcadas por el periodista en la información de su noticia.
En caso del etiquetado 2, por ejemplo, si dos informaciones relacionadas con el mismo tema del etiquetado anterior, pero catalogadas en las secciones "Economía" y "Latinoamérica" del mismo portal web, cuando los datos de consulta se agrupen, se podrían recuperar sólo algunos de los recursos clasificados en relación con las tres referencias del etiquetado, pues el periodista supone a priori que ha clasificado todas las noticias sobre el Acuerdo TPP en aquellas dos secciones de temas del medio y tienen exactamente los mismos recursos, folksonomías y etiquetadores. Éste es un error ya que puede haber más de un periodista que escriba del tema TPP y puede haber más información del Acuerdo TPP clasificada en otras secciones del portal web, distintas a "Economía" y "Latinoamérica".
Es evidente que los diversos sistemas de etiquetado de la actualidad operan en tres procesos: de entrada, de salida y de congruencia de las folksonomías mediante frases diferentes. Por ejemplo, las siguientes etiquetas son totalmente discordantes para el proceso de consulta, búsqueda y recuperación de una noticia fechada en la ciudad costera de Santa Marta:
Ante los incoherentes, Miller & Brickley (2005) sostienen que usar un conjunto de definiciones diseñado para servir a las personas, como un diccionario de términos que se puede utilizar con la finalidad de expresar afirmaciones sobre el mundo, "proporciona una base para que las herramientas traspasen automáticamente una red de archivos relacionados entre sí" (p. 28). Una técnica consiste en representar una función de nombres para las etiquetas, por ejemplo: "sea tag_1 topónimo igual a tag_2 igual a tag_3". Pero surgen otros problemas similares para los etiquetadores desde el ámbito de las folksonomías, en caso que sean fuentes de información noticiosa. Verbigracia, ¿qué nombre representa al conjunto "grafiteros" como fuente? o que sean entornos universales de URI (Uniform Resource Identifier), una cadena de caracteres que identifica los recursos de una red de forma unívoca: http://elmedio.com/columna/rfc/20102015.html#acuerdo.
Para Vander Wal (2007) sigue existiendo una fuerte creencia que las tres referencias de un etiquetado -recurso, etiqueta y etiquetador- son fundamentales para la desambiguación de los términos, ya que se proporciona una rica comprensión del recurso etiquetado. Gruber (2007), por su parte, anota que arquitectos de la información como Thomas Vander Wal; Joshua Shachter, inventor del software social del.icio.us en 2003; y Jason Classon, Caterina Fake & Stewart Butterfield, creadores de Corporación Ludicorp (empresa que lanzó a Flickr en 2004); y otros observadores de internet como Bruce Sterling, escritor estadounidense de ciencia ficción considerado el fundador del movimiento cyberpunk; Katharine Mieszkowski, reportera de temas sobre ciencia y medio ambiente; comenzaron a apreciar las folksonomías como datos que emergen de la información compartida, habida cuenta que las personas que no escriben programas de computador se muestran felices por el etiquetado del contenido que crean.
Finalmente, según Mathes (2004) es difícil definir una métrica para argumentar si las folksonomías son éxito o fracaso, ya que al parecer el grado de ser más eficaz es la forma de organizar y comunicar la información porque un grueso grupo de personas está utilizando el sistema para intercambiar recursos (titulares hipertextuales, fotografías y videos) en una retroalimentación casi instantánea al utilizar la etiqueta. La medición de la utilidad de las folksonomías probablemente requerirá investigación cualitativa en forma de entrevista o un estudio etnográfico de usuarios, y es un área de estudio adicional.
Tipología de interfaz
El concepto de interfaz para la AI está estrechamente ligado a la interacción humano-computador, una frontera entre la información jerarquizada y el entorno de la pantalla. Tiene por finalidad que el lector navegue el documento con elementos de accesibilidad dentro de pantallas en dispositivos con los cuales se simula el "diálogo" y el "intercambio de símbolos". A partir de finales de la década del año 2000 el Responsive Web Design (RWD) se ha vuelto "inteligente", en el sentido filosófico, ya que el enfoque sugiere un diseño y desarrollo que responda al comportamiento del usuario y al dispositivo en función del tamaño de pantalla, plataforma y orientación.
La filosofía de diseño y desarrollo RWD manifiesta el propósito de adaptación a través de la apariencia de páginas web en el dispositivo móvil, que el usuario utiliza ubicuamente para visualizar información y contenidos. Todos los medios estudiados manifiestan este diseño web adaptable y en consecuencia es posible visibilizar los contenidos en pantallas de dispositivos móviles como smartphone o tablet. De tal manera que el diseño de interfaz incorpora leyes para dar cabida a la interacción y simulacro de la comunicación hombre-computador.
Todos los medios digitales analizados en este estudio presentan un diseño del tipo de interfaz instrumental como transparencia. Aquélla con la cual se realizan tareas por usuarios no expertos, sin condicionamientos de máquina digital y cuya interacción se caracteriza por las variables detalladas a continuación.
La interfaz se muestra como prótesis, considerando los estudios del canadiense Marshall McLuhan, en el sentido que el usuario sustituye algún órgano de su cuerpo (la mano) por dispositivos físicos (el mouse o el teclado) y se concentra en la acción (leer contenido y decidir activar hipervínculos).En este caso, la interactividad es digital a través del hipervínculo como sistema de acceso aleatorio implícito en el título de la información, y en la categoría temática que clasifica la información al leer.
El lector "manipula objetos", en este caso anclas textuales sugeridas que contrastan el texto noticioso con enlaces de hipertexto. Por lo general, los hipertextos se enganchan a títulos, fotografías y palabras clave de la noticia para iniciar la navegación local (un hipervínculo dirigido a información relacionada sin salirse del diario). Así el usuario no llega a tener conciencia del contexto debido a que la prótesis genera el denominado obstáculo epistemológico: dificultades psicológicas que no permiten una correcta apropiación del conocimiento objetivo.
Con base en la noción de obstáculo epistemológico acuñada por el filósofo francés Gastón Bachelard (1981; 1987), el análisis a esta hipervinculación de textos en los medios seleccionados podría originar la denominada "barrera realista". Significa cómo el lector entiende pero queda deslumbrado con la presencia de lo real, a tal punto que el fenómeno periodístico, en tanto hecho fáctico, se sigue adornando con imágenes que llevan consigo impresiones idénticas a las presentadas por otros medios analógicos. Es decir, la argumentación de realidad en web es más agresiva ante quien no posee la realidad en sentido de verdad por el falso dilema de inmediatez, de similitud entre contenido digital y analógico y del refuerzo hipermedial en la pantalla.
Finalmente, la tercera interacción característica se genera mediante mensajes de texto. Un segundo obstáculo identificado con base en la teoría de Bachelard es la dificultad al conocer lo cuantitativo, ya que todo conocimiento cuantitativo se considera libre de errores y franquea de lo cuantitativo a lo objetivo. La interfaz instrumental contribuye a una "narcosis del sentido", términousado por McLuhan, que alcanza a frenar el desarrollo de una teoría de interacción.
La pantalla aturde al cerebro y todo lo que se pueda contar en ese espacio tiene mayor validez frente a lo que no permita un proceso. Por tanto, leer en la pantalla se percibe como estar actualizado en oposición a leer páginas del periódico de ayer. El funcionamiento de textos dinámicos no salen de la pantalla ni del entorno digital que publica el Mass Media, así el usuario realiza tareas de funciones tecnológicas sin considerar lo que no cuenta la narración o no tenga gran influencia sobre la cuantificación total del hecho divulgado.
Conclusiones
En términos generales, el periodismo digital dista de comprender y, en consecuencia, aplicar métodos estándar de la AI para apropiar información noticiosa mediante la gestión del conocimiento. En efecto, los medios tradicionales han ido adaptando la teoría de la remediación a la estrategia de hipermediación, que consiste en que ambos medios tradicionales y digitales se representan uno en el otro.
Los medios digitales están retando al viejo medio a ser representado en el digital. Este deseo de inmediatez lo ha buscado el periodista desde los orígenes del oficio y se sigue manteniendo en el entorno digital a fuerza. Por ejemplo, la tecnología analógica de la TV y del cine está representada por "www" y la realidad virtual como estrategia de multiplicación (de contenidos, de documentos, de formatos, entre otros) y estrategia de incorporación (mundos, realidades, objetos, gráficos, etcétera). Que los portales web para la radiodifusión sonora comercial periodística incluyan contenido en video es una demostración latente de las estrategias señaladas.
Los periódicos diarios, así como los medios de comunicación digital analizados, informan considerando criterios de rapidez, brevedad, concreción, con base en hechos informativos que se solicitan objetivos. Sin embargo, la información -como relación subjetiva entre emisor y receptor, mediados por la intención del mensaje- se oculta cuando los medios digitalizan su contenido y lo hospedan en la web sin método de adaptación. Es decir, los portales web periodísticos se han diseñado con las características de la web 2.0 y todavía siguen sin considerar algunos problemas y desafíos que ese diseño arroja para la especificación de etiquetas con la que podrían permitir más servicios de análisis y razonamiento.
El contenido digital almacenado carece de estándares que la archivística ha considerado para la optimización dentro de las características de la tecnología digital. Es notorio que el periodista digital tal vez considere importante extraer palabras clave del contenido redactado antes que comprender la noción más general de las técnicas de la web semántica. No surgen especificaciones formales de datos estructurados a través de diferentes fuentes de datos analizadas. Estos se pueden aplicar a folksonomías y permitir al usuario, además de navegar, buscar información retrospectiva de su interés en el momento que considere oportuno. A fin de cuentas, la hipertextualidad resta obligatoriedad a los tiempos de lectura.
Otra insuficiencia de aquellos medios es la organización jerárquica en el conjunto de categorías de temas bajo las que clasifican las noticias. El periodismo digital no es más que una burda réplica de lo que expuso en formato de novela Umberto Eco, pues
la obra 'Número cero' es sublime en los capítulos destinados a desnudar y denunciar los vicios de la profesión: cómo manipular sin que se note, cómo presionar y chantajear sin tener ningún elemento real de presión, cómo reírse, en definitiva, del lector que tan sólo pretende informarse de lo que ha pasado, contextualizar su realidad y encontrar guías que le permitan entender qué pasará (Rodríguez, 2015:7).
Si aceptamos que conocimiento es memoria y proceso de construcción, el periodismo digital también reconstruye realidades ahistóricas, debido a que la información que adquiere es para el momento de su publicación y no para necesidades sociales del lector. Es decir, habría un menoscabo a las posibilidades de la www, en especial como estrategia de multiplicación (de contenidos, de documentos, de formatos, etcétera). Quizá existe y está también oculto debido al proceso de etiquetado individual mediante folksonomías, que el periodista identifica desde los datos que emergen de hechos de variadas fuentes sin que el Mass Media especifique, en su sala de redacción, un vocabulario controlado que exponga supuestos. La ontología como taxonomía que denomina y representa entidades, ideas y eventos, junta propiedades y relaciones con base en un sistema de categorías. Bajo este enfoque de la ontología aplicada, en la información periodística no son folksonomías usadas para la organización de información; son sistemas de clasificación taxonómica controlados centralmente y se muestran limitados. Para los medios, el sistema de etiquetado es resistente contra varias de aquellas limitaciones, mientras la distribución de noticias sea masiva y libre.
Con una ontología como etiqueta de datos, el periodismo digital podría permitir que tecnologías de búsqueda, agregación y conexión de personas y contenido contribuyan con su portal web. Al mismo tiempo, la riqueza de datos desde seres humanos culturalmente divergentes, pero participantes activos podría ofrecer más dinamismo para desarrollar sistemas que aprovechen el poder de inteligencia colectiva, carácter en que se funda la web social.
Tanto la gestión de información como la gestión de conocimiento es difícil de aplicar desde estos sitios web periodísticos, por cuanto no implementan estrategias de ventaja competitiva ya que, quizá, no consideran la información y el conocimiento como activos intangibles. Finalmente, en todos los medios analizados, el espacio de interacción entre conocimiento razonado-sensible (humano) y dispositivos de comunicación (máquinas) se diseña desde la instrumentalización que sólo favorece la lectura en pantalla y una navegación lineal para extender el texto de lectura sin alternativas de explorar otras fuentes distintas al sitio web periodístico seleccionado.