La influencia del factor “neotecnológico” en la experiencia de la lectura

Son muchos los cambios que la digitalización textual va a producir en el mundo del libro. No sólo desde un punto de vista industrial, sino también a nivel de consumo, en el ámbito de los lectores.
Resulta muy descriptivo que la digitalización esté llegando mucho más tarde al mundo editorial que a otros ámbitos. Confróntese por ejemplo la madurez del proceso en la producción musical, si se quiere comparar con otras industrias culturales, con la situación actual de las editoriales que se encuentran en un estadio mucho más temprano.

Cierto es que ya desde hace 5 o 6 años, los grandes grupos editoriales reinvertían parte de los beneficios para digitalizar su fondo, antes incluso de que el gigante Google lo hiciera. Pero esos productos no han llegado a comercializarse hasta años después.

El caso es que si uno valora la industria editorial desde dentro se da cuenta de que esta “reticencia” es algo característico e inherente a ella misma. Las nuevas tecnologías se han ido extendiendo en las formas de producción editorial, favoreciendo una mayor eficacia y rapidez, y también, como no, la reducción de costes. Pero lo que nunca ha ocurrido es que se haya cambiado la mentalidad del trabajo. En la producción editorial se usan las nuevas tecnologías, pero a “la antigua usanza”. Me explico: la producción editorial usa las nuevas tecnologías con una intención analógica. En lugar de linotipias, tipos móviles, grabados, fundiciones de plomo… ahora se usan computadoras, impresoras de inyección de tinta, etc. Pero la forma de pensar no ha cambiado hasta ahora. Baste poner un ejemplo en los programas de maquetación. Realmente, la única diferencia entre el trabajo de un antiguo tipógrafo o un linotipista, y la de un maquetador que trabaja en cualquiera de los dos programas más extendidos, es el tiempo que tarda en maquetar cada página. No existen cambios de concepto. Pero esto es algo que trataré en otras entradas. Esto está cambiando, pero lentamente. Quizá demasiado.

Algunas de estas reservas tenían su origen en la reflexión sobre la experiencia misma de la lectura. En la música se habían conseguido producir algoritmos de compresión que mantenían, en su parte fundamental, la calidad del producto. Sólo hubo que perfeccionar los ratios de compresión y abaratar los dispositivos reproductores para llenar la sociedad de pequeños aparatitos que satisfacían la necesidad musical de los compradores. Sólo el endémico problema de la distribución, y el ansia de perpetuar unos exagerados beneficios ha sido lo que ha dañado para siempre la forma de comercialización tradicional.

Sin embargo, en la lectura, esto era más difícil de hacer. En primer lugar por esa forma analógica de entender el libro. ¿Por qué? Porque en este caso, la digitalización sí producía un cambio manifiesto en el consumo. Y esto se producía varios niveles. El primero, a nivel de dispositivos reproductores. Las pantallas de retroiluminación, bien TFT o CRT, cansaban la vista e impedían una sesión cómoda y placentera de lectura. Casi todos los lectores recurrían a la impresión para poder solucionar este problema. Y esto significaba, en la mayoría de los casos, un sobrecoste que no merecía la pena asumir, por lo que la venta de libros se mantenía (en sus característicos niveles irrisorios, pero al menos se mantenía). Hoy en día solo es cuestión de tiempo que se regalen e-readers en el periódico o hasta por comprar patatas, fundamentalmente cuando la industria china, con su legislación no demasiado restrictiva en lo que a la protección de patentes extranjeras se refiere, comience a producir aparatos de lectura con tinta electrónica a precios competitivos y sature el mercado. Cualquiera que haya tenido un e-reader en sus manos sabe que es una tecnología a la que le faltan varias cosas para ser más efectiva. Ahora mismo, en mi casa, nuestro pequeño papyre familiar no nos permite muchas cosas que sin embargo sí echamos de menos. El color, la conexión a internet, procesadores más rápidos, sistemas de indización y formularios de búsqueda más eficientes, etc. Pero podemos estar seguros que eso es sólo una cuestión de tiempo.

Pero, es ahora cuando tenemos que tener en cuenta un segundo nivel: el nivel de archivo. ¿Cómo se digitalizaba hace unos años? O bien como archivos portátiles de documentos (PDF) o más recientemente como unos OCR cuya correspondencia con el original dejaba mucho que desear. Estos dos productos no satisfacían totalmente las necesidades de un lector. El primero por gran peso y menor maniobrabilidad, y los segundos por una cuestión de fiabilidad de cara a citar. Hoy en día, estos archivos se combinan en PDF que mantienen la estética original, con OCR subyacentes, que amplian su “manejabilidad” y mejoran la experiencia de uso.

La tercera cuestión a la que debemos remitirnos es la cuestión del formato. No es la primera vez que las empresas tecnológicas se enfrentan al intentar imponer un determinado tipo de archivo. Ya ha ocurrido con los videos VHS, Beta… con dos HD-DVD, Blue-Ray Discs, y ahora pasa con los libros. PDF, ODF, DOC, XDOC, Mobiepocket, TXT… son extensiones a las que estamos acostumbrados los usuarios de archivos de documentos digitales. Cada una con sus ventajas y sus incovenientes. Y quizá, ésta sea la clave del retraso. No la multiplicidad de extensiones, que se solucionaría, y de hecho se hace, con la versatilidad de los dispositivos de lectura, sino la relación entre las ventajas e inconvenientes en cada uno. Intentaré ser más explícito: el tamaño importa.

No se me malinterprete. Uno de los maravillosos legados que nos ha dejado la industria editorial tradicional es el diseño. Basta una pequeña excursión a la librería para darse cuenta de la importancia capital de éste. Colores, formas, tamaños, incluso olores, cubiertas emocionantes, sobrecubiertas, troqueles… forman parte de la experiencia de la lectura. Y la tecnología actual dista mucho de poder satisfacer estas necesidades. Esta cuestión va a ser satisfecha únicamente por la “edición de arte”, y dejaremos para nuestro e-reader la cuestión informacional únicamente. Aquí sí existe una pérdida. No hay algoritmo que permita codificar la sensación del tacto de una piel animal o un papel verjurado, el olor de la oxidación del papel o incluso de la tinta vegetal, el sonido del pasar de una página, la calidad de hilo de un cosido. No quiero decir que estas sensaciones sean necesarias para muchos de los lectores, pero sí que es algo que no se puede satisfacer con la llegada de lo digital. Esto condicionará la comercialización, pero eso es algo de lo que hablaré en sucesivas entradas también.

Por último, centrémonos en la cuestión del diseño de página. La versatilidad del texto (la posibilidad de ampliar el tamaño de fuente, de agrandar o empequeñecer las ilustraciones, etc), va a privarnos del disfrute del diseño tradicional. Ya no valen las proporciones áureas ni todas esas características que habíamos heredado de los libros físicos. Esa es la desventaja del formato abierto. Los diseñadores en particular, y los lectores en general, vamos a tener que admitir que casi todas las maquetaciones van a estar condicionadas por el formato estándar que decidan los productores chinos. Ni troqueles personalizados, ni pequeños libros que caben en la palma de la mano, ni grandes tratados fotográficos que deberían traer una grúa de regalo… Eso será cuestión sólo de la “edición de arte”, que será la encargada de satisfacer todas estas necesidades de los bibliófilos. Y eso, como es obvio, costará dinero. ¿Ahorro o encarecimiento? Eso sin olvidar que es posible que olvidemos la sonrisa de nuestro librero…
¿Hay algún algoritmo para eso?

Una respuesta para La influencia del factor “neotecnológico” en la experiencia de la lectura

Deja un comentario


*

Política de privacidad