Cinque Terre

Antonio Pasquali

La revolución del dígito-binario: sombras y luces

En el texto el autor expone la tesis de que los dos mayores saltos exponenciales de la cultura humana, en los siglos XII a.C. y XX de nuestra era, se produjeron gracias a la invención de nuevos y más eficientes códigos para expresarse, conservar y comunicar el saber: la escritura alfabética y el dígito binario.

¿Hacia dónde nos conduce esta segunda revolución de código, de dimensiones cuantitativamente tan inconmensurables? Mejor será que nadie se atreva a pronosticar con ligereza. Estamos en su primera fase, la equivalente al alegre estupor inicial de las etnias mediterráneas que a partir del siglo XI a.C. comenzaron a transcodificar su habla a ese alfabeto lineal que dejara en el puerto algún navegante fenicio, garabateando en arcilla, pergamino o papiro sus primeros ejercicios de una nueva escritura. Y así como ellos tuvieron que esperar un par de siglos o más para enterarse de que aquel código había hecho posible que algún aedo contase por escrito conservable la Ilíada y la Odisea, que Safo expresara sus pasiones, Mimnermo su melancolía, Pitágoras el cálculo, Erodoto la historia, Tales la filosofía, Hipócrates la medicina e Hipodamos el urbanismo, asimismo habremos de atisbar nosotros la aparición de extraordinarias y hoy insospechables formas de la cultura humana que brotarán con gran poder fecundante de un uso universal, adulto y maduro del código dígito binario, el primero en permitir, por ejemplo, por su multimedialidad, una pluri-expresividad total, la imbricación en un mismo mensaje de palabras, imágenes y sonidos.

Platón pensó que el libro (es decir, el plebeyo código lineal fenicio) había llegado a destruir la esencia de la verdadera paidéia, de la mayéutica o pedagogía presencial basada en la pura oralidad, y los detractores actuales de Internet estiman que los medios electrónicos (es decir, el mecánico código dígito binario) han llegado a destruir la esencia del genuino saber basado en la vieja y gloriosa cultura libresca. Esta doble, vistosa, contradictoria y reiterativa miopía cultural encierra para nosotros dos lecciones:

1) En ambos casos, una de las principales causas del salto adelante que se hizo posible tras adoptar el código nuevo, fue su ampliada capacidad de conservar el saber; un caso patente, como se dijo al comienzo, de los favores recíprocos que conservación y progreso se prestan pese a los temores que suelen generar las novedades, y

2) Se acumulan evidencias de que el uso masificado del código dígito binario por medios electrónicos está multiplicando “n” veces, y a alta velocidad, aquel proceso de democratización del saber que recibió su primer gran empuje con la adopción casi unánime del lineal fenicio: un hecho indiscutiblemente positivo que ningún cuestionamiento por el “cómo” y “a qué precio” logrará minimizar, salvo que se quiera eternizar un progreso a dos velocidades, y se añore una sociedad polarizada de escribas por un lado y de analfabetos por el otro.

De la copiosa e irresuelta problemática que queda hoy en el tapete tras esta segunda revolución cultural, la digital, señalemos dos aspectos apenas, uno lamentablemente más real que ficticio, el otro felizmente más ficticio que real.

El problema real silenciado: la digitalización es un recurso para codificar electrónicamente con suprema eficacia y eficiencia cualquier familia de signos, pero eso no incluye -como se imaginó en los comienzos- que sus productos sean imborrables e imperecederos. Hoy estamos emplazados otra vez por la necesidad de distinguir entre la codificación y su soporte, y por el reconocimiento de que el empleo del código binario no significa haber dado automáticamente con aquel soporte imperecedero que siempre soñaron los conservadores de cultura. La digitalización también deja sin resolver uno de los grandes problemas culturales del hombre, dominador del espacio más que del tiempo, conquistador de las profundidades cósmicas pero aún hoy incapaz (Thomas A. Sebeok lo demostró en 1984) de enviar mensajes a la humanidad dentro de 10 o 20 mil años.

Quienes han tenido ocasión de visitar sitios arqueológicos activos, han podido observar la presencia no sólo de fotógrafos y camarógrafos sino también de nutridos grupos de artistas dibujando a lápiz sobre papel de calidad todo lo que sale de las excavaciones. La respuesta que ofrecen al curioso es siempre la misma: dentro de 10 o 15 siglos todo lo que nuestros colegas graban con modernas tecnologías se habrá borrado, nuestros dibujos no. Desde el cavernícola que trabajaba durante meses para grabar en piedra un rústico mensaje que duraría milenios, al fax o la foto de hoy, instantáneos pero de vida breve, no hemos hecho más que sacrificar en aras de la calidad, cantidad y comunicabilidad del mensaje la duración de sus respectivos soportes. De la real duración de cada uno de ellos ni siquiera los modernos sistemas de envejecimiento rápido en laboratorio dan indicadores científicamente precisos. Tabletas de arcilla y papiros, por ejemplo, sólo quedan en los museos, pero algunos con más de 3 mil años y en muy buen estado de conservación, y asimismo dígase del pergamino y en general de las tintas de calidad usadas en la antigüedad.

Cuando comienza a emplearse masivamente el papel, hacia los siglos XII y XIII, el problema de su menor duración se plantea en seguida; Federico II Hohenstaufen rey de Sicilia prohíbe por ejemplo con edicto de 1231 expedir instrumenta notariales sobre papel, y aún hoy se cree que el coreano hansji, de pulpa de morera, es el único con una duración excepcional y garantizada de mil años. Dejando de lado el llamado “papel ácido” de la prensa diaria y de muchos libros de hoy (que no sobreviven más de 30-40 años), dos estándares internacionales, el ISO 9706 y el ISO 11108, regulan hoy las características respectivamente del llamado “papel permanente” y del más duradero “papel de archivo” (que sólo puede ser de fibras de algodón, lino o cáñamo), pero sus duraciones oscilan, dependiendo de las condiciones de conservación, entre 60 y 300 años como máximo. Desde 2005, la Autoridad de la Energía Atómica del Reino Unido UKAEA, “tras haber estudiado todas las alternativas posibles” conserva copia de sus principales documentos secretos con la esperanza de que duren más que cualquier soporte existente, 30 siglos cuando menos, sobre hojas de papiro mejorado, selladas en sobres impregnados de cobre y guardadas en archivadores que reproducen la atmósfera del interior de las pirámides egipcias. De las grabaciones analógicas de sonido por surco sobre “pasta negra” nada o casi quedará en unas décadas más, y hasta la foto, en su breve historia, no ha hecho más que ir de mayor a menor duración: mientras las de nuestros abuelos en glorioso blanco y negro ortocromático siguen desafiando impertérritas la luz tropical, todas nuestras pancromática, de color, diapositivas, fijas o en movimiento (pese a la promesa de las industrias de que durarían más de un siglo), están llenándose de hongos o virando a magenta, camino de su próxima desaparición. La posibilidad de digitalizar el impreso, el sonido, la imagen y los cálculos (en suma todo lo analógico) nos hizo creer por un tiempo que el problema de su breve duración ya era cosa del pasado, que finalmente habíamos dado con el santo graal de un método que conservaría nuestro saber y arte por la eternidad. Con base en esta creencia (aunque también por razones más realistas, como poner el libro al alcance de incontables nuevos lectores en la web) muchas grandes bibliotecas del mundo se han lanzado en la costosa aventura de digitalizar sus fondos impresos.

El informe conjunto de un comité de expertos de las Academias Francesas de Ciencia y de Tecnología del 29 de marzo de 2010, titulado “Longevidad de la Información numérica” da dramáticamente al traste con aquella beata ilusión. “Se han confundido dos nociones muy diferentes, la de almacenar y la de archivar datos. El progreso espectacular del disco duro y su costo cada vez menor permiten almacenar fácilmente la información, pero archivarla durante decenios o siglos plantea un problema diferente, debido a que todos los soportes digitales tienen una duración aproximada de 5 o 10 años”. Los CD de los años 80 o los DVD-R de hoy “se degradan constantemente, incluso si no se utilizan”, y lo mismo puede decirse de las memorias flash, de las cintas magnéticas e incluso del nuevo método Blu-Ray. Algunas grandes instituciones empeñadas en la digitalización de su patrimonio ya comienzan a programar una política de “migración perpetua” de una digitalización a la siguiente (que ocasionará forzosamente una pérdida de información en cada migración). Al igual que el escrito, las grabaciones y las emulsiones, tampoco lo dígito-binario ha podido dar pues, por el momento, con un soporte imperecedero o de muy larga duración que garantice a nuestro saber, codificado en analógico o digital, una cómoda supervivencia de siglos y milenios.

El problema ficticio exagerado: algunos observadores del devenir cultural -norteamericanos en su mayoría, aunque parezca extraño- vienen denunciando una pérdida de calidad en los conocimientos, la educación y la sensibilidad de los contemporáneos por obra de la electrónica que nos rodea, es decir, por el ya preponderante uso de mensajes que conservamos y nos intercambiamos en código dígito binario. Su Savonarola, salvo errores, es el ya citado Nicholas Carr, un culto egresado de Harward hoy consultor de Enciclopedia Británnica, quien se hizo notar por sus acérrimos ataques a Wikipedia y a la seudo libre programación de Linux, luego con un ensayo de desafiante título: “Is Google making Us stupid?” de 2008 y hace poco con su libro The Shallows: What the Internet is Doing to Our Brains, de junio 2010. Los grandes argumentos de Carr contra lo electrónico no se alejan gran cosa, mutatis mutandis, de los del Fedro platónico contra el libro: Internet remodela el proceso de pensar, reprograma la memoria, desfigura nuestra capacidad de concentración y reflexión; asombrados por los fáciles y breves tesoros que nos ofrece la red, vamos perdiendo el gusto por la asimilación de los textos largos, que fueron la base de nuestra civilización, y creemos saber más cuando en realidad sólo hemos recogido dispersas migajas de los grandes y sistemáticos banquetes culturales del pasado. La fragmentación del saber, sintomática de la red, nos retrograda de esforzados cultivadores sedentarios del conocimiento que hemos llegado a ser en milenios leyendo libros, al nomadismo primitivo de una azarosa y desperdigada recolecta; los motores de búsqueda, cuya prospección del problema puesto en ventana no supera el 10/20% de su extensión total, humillan nuestra inteligencia y la dejan en la superficie de las cosas reduciendo nuestros lapsos de atención, lo que ha permitido el éxito posterior de Twitter y hasta de YouTube que logró lo que se creía imposible: degradar aún más el mediocre discurso de la televisión a peor rosario de dispersos fragmentos audiovisuales. En una palabra, la red inhibe la mágica relación entre autor y lector, desintegra el saber y modifica negativamente la actividad neuronal de la lectura, la que desplegamos a plenitud ante las páginas de un libro. Los usuarios de Internet creen que aprenden sistemáticamente algo, cuando sólo picotean conocimientos de manera desestructurada.

Este neoplatonismo del siglo XXI deja perplejos por más de una razón, en primer término por la carencia de sentido histórico de sus portavoces, quienes parecen ignorar que su idolatría por el lineal fenicio del libro repite mutatis mutandis la aristocrática polémica de Platón contra el libro y en favor de la paidéia ágrafa, y no parecieran siquiera sospechar que la historia guardará recuerdo de ellos en el rinconcito de curiosidades y wrong way reservado a fundamentalistas equivocados como Squarciafico y Burton, o en libros del género When Old Technologies Were New de Carolyn Marvin. Quedaría luego por aclarar si sus argumentaciones, por momentos brillantes, nos alertan contra la substitución de la lectura -como correa de transmisión del saber- por una suerte de fast track de inferior calidad (lo que sería efectivamente preocupante), o si sólo encubren una educada saudade por la próxima desaparición del objeto libro de papel y tinta, alguna pulsión inconsciente a totemizar ese soporte de papel con textos en lineal fenicio, de peso, tamaño y olor familiares, con el que llevamos 8 o 9 siglos de feliz convivencia.

Todos amamos los libros y la gente de la tercera edad aprendió en ellos casi todo lo que sabe; la sospecha del neoplatonismo sobre este último aspecto es seria, grave, e impone cartesiana claridad. ¿Estaría la humanidad abandonando de veras el uso intensivo, privilegiado y prioritario del código lineal fenicio, inductor de una fértil gimnasia mental que nos ha conducido en 30 siglos al vertiginoso progreso actual? El intento de bajar el lógos o verbum del podio de código privilegiado para la conservación y transmisión del saber, si es que de verdad el dígito binario incluye tal intento, no es del todo nuevo. La irrupción de la imagen, fija primero y luego en movimiento, que antes fragmentariamente (miniaturas, vitrales, imágenes impresas etcétera) pero que a partir de 1826 con Niepce vino a ocupar un lugar fijo entre los signos universalmente utilizables para expresarse y comunicarse, ha podido perfectamente conducir la humanidad a desarrollar lenguajes icónicos no-alfabéticos siempre más complejos y expresivos, capaces de remplazar u opacar parcialmente el imperio de la palabra. Esta posibilidad concreta tuvo incluso un teórico de talla, Rudoplh Arnheim autor de Visual Thinking (1969), un título que es todo un programa, quien defendió con vigor durante toda su larga vida (murió en 2007 a los 103 años) la tesis de un rol subalterno de la palabra que “sólo sabe nombrar lo previamente percibido” y quien en los años 30 del pasado siglo tuvo la osadía de afirmar que el recién inventado parlante estaba cayendo como una bomba sobre la catedral del cine mudo a destruir su siempre más refinada capacidad de expresar conceptos y emociones por la sola imagen. Finalmente no fue así, no hubo cine mudo tan perfecto que pudiera prescindir a nunca jamás de la palabra, el “pensar visual” nos enseñó a ver otras dimensiones de lo real pero sin necesidad de desplazar lo verbal, el audio y el technicolor no manipularon genéticamente el discurso icónico desfigurándolo; en pocas palabras, el mestizaje del audio-visual alcanzó altísimos niveles de originalidad y excelencia retórica, estética y científica pero al modo complementario y no competitivo, sólo regaló a la humanidad otro lenguaje discursivo y no puramente verbal de expresión, de signos y códigos propios perfectamente ensamblables con los viejos; un mundo donde Clarke y Kubrick, Fellini y García Márquez, Proust y Bergman conviven en concordia, solidaridad y cooperación.

Hasta ahora, todo indica que un iter análogo rige y regirá las relaciones del libro con la electrónica, mejor dicho entre códigos, el lineal fenicio y el dígito binario, y que las melancólicas sospechas de competitividad libro/ Internet (que esconden entre sus pliegues la ecuación cultura/incultura) carecen de fundamento real y se limitan a reeditar el milenario horror vacui, el temor al salto al vacío, a lo nuevo. Lo icónico prelógico, que requería un cambio de signos expresivos, no desplazó lo verbal y convive armoniosamente con las gramáticas de los lenguajes en lo audiovisual; lo electrónicodigital, que sólo implica un cambio de soporte, a fortiori tampoco lo hará, ya que el dígito-binario es un super-código que se limita a encifrar todos los demás sin desfigurarlos ni remplazarlos, ofreciendo al usuario el mismo producto alfabético o audiovisual en más generosas cantidades y a menor costo sobre “hojas” de un nuevo tipo y por otros canales. El cambio de soporte, han sentenciado por su lado los neurólogos, no sólo no degrada los mecanismos de la lectura, sino que una búsqueda en Google, por ejemplo, genera en el córtex prefrontal dorsolateral del cerebro una actividad mayor que la de la lectura de un libro, y agudiza el deseo de conocer. Leer en pantalla, añaden otros, más bien “aumenta el libro” por la enorme ampliación de horizontes al alcance de un click que ofrecen hipertextos, hipervínculos, links y motores de búsqueda durante la lectura, poderosos “interpretantes” como diría Pierce. Otros más, del Pew Research Center, establecieron por amplia encuesta titulada “El Futuro de Internet” (2010) que el 75% de los especialistas entrevistados cree que el uso de la red realza y aumenta la inteligencia humana, contra un 16% apenas que estima lo contrario, ya que la red propicia el nacimiento de una nueva “inteligencia fluida capaz de encontrar sentido en la confusión y resolver nuevos problemas con independencia de los conocimientos adquiridos”.

En el fondo, la argumentación de los detractores de Internet es reducible y se apoya en una indemostrable identificación de lectura con libro, de ejercicio mental con el soporte físico del mensaje a aprender (tan indemostrable como la superioridad de la relación presencial mayéutica maestro/alumno de épocas pre-alfabéticas frente al two steep flow, la intermediación de un medio escrito), por ser ésta una relación huérfana de inherencia, totalmente accidental e histórica.

Ante este tema que seguirá siendo controversial por un tiempo más, a un solo imperativo claro y distinto hemos de conceder carácter apodíctico: lo que hay que salvaguardar por sobre todo no es el objeto libro sino el ejercicio de la escritura/lectura, una vertiginosa operación puramente intelectual, no-natural, fruto de una invención cultural que sí constituye la base de nuestra forma mentis actual, una inconmensurable labor lógica de interpretación de signos codificados para la expansión de cuyas capacidades, afirman hoy los neurólogos, hemos “reclutado” preexistentes zonas cerebrales destinadas al ver y escuchar, y que ha llegado a convertirse en el principal motor del pensar y del humano progreso. Escribir y leer no son inherentes al empleo de libros y papeles. Estos vectores y soportes terminaron enviando a los museos hace ocho siglos, por su superioridad tecnológica, sus predecesores de arcilla, cortezas, papiros y pergaminos; ahora les toca a ellos llegar al término de su propia vida útil por obra de otro soporte tecnológicamente muy superior en más de un sentido. En nuestra época de tantas y tan veloces revoluciones en ámbito comunicacional, los cambios de soporte están a la orden del día; le acaba de suceder a las emulsiones fotosensibles ahora totalmente desplazadas por las imagenes digitales: Kodachrome, nacida en 1935 fue declarada oficialmente difunta por su fabricante en diciembre 2010. Se equivoca pues, histórica y conceptualmente, todo aquel que crea ver en el dígito binario una tendencia a descalificar la lectura en alfabeto lineal fenicio. Con neutralidad absoluta, el nuevo código deja el variado y variable mundo de la humana expresividad tal como está, ya que su propiedad omni-denotativa le permite codificar de una misma manera cualquiera de los lenguajes y sistemas de códigos actuales y futuros. Por otro lado, y en tanto que receptores, nuestro uso de la red sigue vinculado preferentemente a la lectura de signoslingüísticos que la electrónica, concluido su transporte, descodifica diligentemente, de digital a alfabético para su percepción final por parte de nuestros canales naturales. En tanto que transmisores, y exceptuando algún complemento fotográfico, audiovisual o jeroglífico, lo que más hacemos es escribir, con inmensas facilidades logísticas que estamos aprendiendo a aprovechar al máximo para pensar y escribir mejor, más rápido y mejor documentados. Materia de reflexión, supongamos, que los adolescentes comenzaran a dialogar enviándose SMS puramente icónicos, frases en emoticones, en una suerte de regreso al ideograma capaz de dar vida al visual thinking Arnheim; pero no, en su incesante invención de idiomas sintéticos y códigos semi-cifrados sobrevive en la juventud actual un apego ontológico al escribir y leer, saben portadores de más precisa información. Nada está perdido, la Cultura del lógos , del leer, la palabra y el concepto se mantiene con vida, evolucionando saludablemente al ritmo de los grandes avances tecnológicos.

Los estadígrafos de Google estimaron que para el 6 de agosto de 2010 todos los libros impresos por el hombre sumaban 129 millones 864 mil 880 títulos. Tomemos el dato, cortésmente, por bueno. Lo cierto y real es que, al igual que su competencia, dicha empresa esté digitalizando millones de ellos en las grandes bibliotecas del mundo para subirlos a la red y permitir su lectura en pantalla, e-books o e-readers, lo que indica a las claras que sobrevive con fuerza: a) una conciencia universal del irremplazable valor del escrito; b) la certeza de que la lectura sin libro/papel seguirá siendo lectura en lineal fenicio; c) razonables seguridades de que la humanidad seguirá amando la lectura aún sobre nuevo soporte, y d) una real, efectiva e invalorable complementariedad entre el viejo y el nuevo código, el lineal fenicio y el dígito binario.

Una última palabra (por ahora) sobre esta falsa antinomia la pronunció en enero 2011, en entrevista a Le Monde, el norteamericano Robert Darnton, gurú mundial de la historia del libro y actual director de la biblioteca de Harvard, la segunda más grande del mundo (17 millones de libros y 400 millones de manuscritos en 350 idiomas). Darnton reconoce, a su manera, el valor de la que hemos calificado de primera gran revolución cultural: “la escritura vino a transformar la relación de la especie humana con el pasado”, y en cuanto a recaídas socio-culturales, también considera que “la democratización del saber está en camino gracias a lo digital”. En lo referente al libro, estima que las ediciones digitalizadas pudieran llegar pronto al 20% del mercado, pero por el momento “más se ojea un libro en tableta electrónica, más se corre a comprar la edición impresa…; Las bibliotecas viven más atestadas que nunca”; el sistema editorial, recuperado de la crisis, lanzará al mercado en 2011 un millón de nuevos títulos en papel, sin contar que las Book Machine, ya en venta, pueden imprimir en tres minutos sobre papel y encuadernar por menos de 10 dólares cualquier libro introducido en digitalizado. “Internet…; puede permitirnos crear una verdadera República de las letras al alcance de todos, y de un click: la República digital del saber ¿imagina usted la revolución que sería la creación de una biblioteca universal gratuita?” Cero pánico, pues, aunque quedaría un problema por resolver, el siguiente: “En Harvard tenemos la concentración más grande de premios Nobel. Esos científicos esbozan, descubren, inventan y enseñan hoy sin dejar tras si el menor documento impreso, todo lo hacen en computadora, en blogs, foros y redes electrónicas. Todo eso habrá que guardarlo”.

Por el momento, el más visible talón de Aquiles de lo impreso no es el libro sino la prensa escrita en papel, que muchos ven amenazada de desaparición a mediano plazo por obra de su versión electrónica. Si en el norte europeo ella resiste, en los Estados Unidos los lectores de periódico han pasado, entre 1964 y 2008, del 81 al 30% de la población, y la deserción de los jóvenes ante el periódico de papel, pese a un interés por la información que supera la de sus padres y abuelos, es masiva. Pero una vez más no es la lectura la que pierde espacios (lo que sería, repitámoslo, gravísimo una vez más, nos acosa un nostálgico aprecio por un soporte, el periódico-papel, afortunadamente destinado a ser remplazado por un sucesor ecológicamente más correcto. Le Monde, por ejemplo, ha bajado en siete años (entre 2004 y 2010), de 310 mil a 231 mil ejemplares diarios certificados (-25.5%), pero su sitio en la red está recibiendo hoy en promedio un millón y medio de visitas por día, lo que compensa sobradamente, en términos de circulación de la información y lectura, sus pérdidas en soporte papel. Una vez más, no hay en esta materia un problema real de salto o retroceso cualitativo, sino complejas, y a veces dolorosas, cuestiones técnicas, económicas y estéticas de adaptación a nuevos soportes y canales.

Lo que sí está transformando rápidamente Internet y para siempre (que los educadores de todos los niveles tomen nota: para siempre), es nuestra creación, aproximación, búsqueda, apropiación, uso, consumo y transmisión del saber. Pensar es buscar palabras, es hurgar en un código sígnico hasta dar con la fehaciente expresión de lo pensado, y el dígito-binario sí modificará de alguna manera el pensar -es todo lo que podemos imaginar por ahora- por expansión de la vieja lógica ugarita, inherente al alfabético lineal, en una lógica boleana inherente al dígito binario. Otros aspectos del entorno comunicacional también han cambiado radicalmente en pocas décadas. Quienes por ejemplo denunciamos hace años, en pleno imperialismo de la univectorial, aislante y enmudecedora radiotelevisión, la “incomunicabilidad” que paradójicamente se venía creando en plena abundancia de tales medios, ya no estamos en condiciones de ratificar tal denuncia. Por una serie de felices coincidencias, y gracias al advenimiento del dígito binario, las nuevas tecnologías de la comunicación han redistribuido entre todos un poder emisor otrora confiscado por los grandes comunicadores que efectivamente generaba incomunicabilidad por emplear tecnologías univectoriales, han devuelto sus fueros al diálogo donde sólo había información epitáctica y han reinstalado democracia comunicacional allí donde prevalecía un autoritarismo ventajista. ¿Cómo seguir hablando de incomunicabilidad en un mundo que asiste al paulatino estancamiento de la radiotelevisión mientras el almacenamiento de información crece del 23%, las telecomunicaciones bidireccionales del 28% y la capacidad de procesamiento del 58% anual; en un mundo en que la telefonía, vector-príncipe del genuino diálogo, está alcanzando su viejo ideal de servicio universal (5 millardos de personas, el 71% de la población humana, disponían de celular a comienzos de 2011, con 458 millardos de minutos anuales tan sólo en llamadas internacionales, skype inclusive)? ¿Qué incomunicabilidad sobrevive en un mundo que ya cuenta con 2 millardos de usuarios de Internet (eran 250 millones en 2000), 2 millardos 900 millones de cuentas e-mail y 152 millones de blogs, en el que todos podemos escribir y circular electrónicamente al mundo entero un periódico, un ensayo, una protesta o un manifiesto en texto o en audiovisual, en el que cada 24 horas lanzamos a la red 2,5 millardos de Gb de información, nos enviamos 294 millardos de e-mails y visionamos 2 millardos de videos en YouTube, amén de visitar Google 4 mil 500 millones de veces al mes, Facebook unas 3 mil 500 millones y Wikipedia mil millones; en un mundo -detalle a no olvidar nunca- que hizo realidad la utopía del todos-emisores? Otros han resumido con cálculos más espectaculares esta inversión de polaridad cuyo momento crucial se suele ubicar en 2002 (año en que la masa de datos digitales superó por primera vez los analógicos del impreso, audio y video cassettes, vinilo y emulsiones), y que pauta el salto de una paradójica comunicación incomunicante, acaparada por los escribas del siglo XX, al ámbito de la hiper-comunicación actual, del todos-emisores, de la genuina reciprocidad y de una definitiva hiper-democratización del saber en todas sus formas.

Nos referimos a The World’s Technologial capacity to store, communicate and compute Information de Hilbert y López (UCLA de Annenberg y UOC de Barcelona) que publica Science de febrero 2011, que resumiremos así: las computadoras del mundo ejecutan, por ahora, 6,4 exabytes de cálculos por segundo (10 elevado a 18), una tarea en la que un solo ser humano emplearía 30 mil millardos de años, 2 mil 200 veces la edad del Universo; de 1986 a 2010, o sea en 24 años y gracias al dígito binario, la humanidad ha multiplicado por 113 el saber total que ha almacenado, el cual llenaría hoy 404 millardos de CD de 1,2 milímetros de espesor capaces de formar una columna de 500 mil kilómetros de altura. Tras una larga época caracterizada por la presencia en campo comunicacional de pocos emisores privilegiados e infinitos perceptores mudos, vivimos en estos años el comienzo tumultuoso y mal comprendido de una era de hiper-comunicabilidad y de hiper democratización del saber, y no por esforzada conquista político-social de grandes reformadores, visionarios y pioneros, sino por mor de una novedosa tecnología de genes más democráticos. En su reciente Liaisons numériques, el sociólogo Antonio Casilli defiende convincentemente la tesis de que las TIC’s ya no son desocializantes como lo fueron durante el reinado de la radiotelevisión, sino que simplemente reconfiguran nuestra manera de ser en sociedad aportando ellas mismas un “suplemento de sociabilidad”, una nueva dimensión de interacción social “asistida por computadora”. Dentro de algún tiempo nuestros años serán recordados como los del explosivo “destape” de la inter- comunicabilidad total, del retorno a un ágora del tamaño del mundo, de una nueva y superior intersubjetividad, del todos-emisores-receptores, tras siglos y decenios de comunicación unidireccional asimétrica con sus escribas, comunicadores fuertes y dueños de la palabra; una época que ciertamente cometió exageraciones, borracheras de SMS, Facebook y Twitter, excesos orgiásticos de una inédita libertad de emitir que el tiempo terminará reduciendo a más manejables y adultas dimensiones. Pero años de un desplazamiento de fronteras en la acumulación de saberes y en las dimensiones del comunicar de las que la humanidad no volverá más nunca atrás.

La educación (pero se ignora cuántos educadores la están viendo así) es el capítulo noble y más esencial de la comunicación, y los sistemas educativos deberían ser los primeros en presagiar y prestar máxima atención a los grandes cambios comunicacionales traídos por este segundo salto de código. Los conceptos atropelladamente reunidos en los párrafos anteriores son algunos apenas de los que habrán de tomarse en cuenta para inventar una nueva “ciencia unificada”, o una “ciencia general de la comunicación” un poco sobre el modelo de aquella “ciencia general de los signos” intentada en los años 30 del pasado siglo por la semiología norteamericana en el ámbito del gran proyecto de una Enciclopedia Internacional de la Ciencia Unificada de Carnap y Neurat; una ciencia o disciplina capaz de repensar unitariamente todos los procesos de comunicación de mensajes, formales o informales, presenciales o mediatizados, lingüísticos o multimediales. Quienes educan habrán de elaborar una pedagogía nueva para una escuela nueva, que deje a la red y a sus poderosas memorias la transmisión al educando, en casi todos los niveles de aprendizaje, de toda la información asequible en ella, y que haga del alumno un usuario sagaz y maduro de la web asegurando la conformación y permanencia en su espíritu de una sólida matriz receptora de saberes que incluya cuando menos: una viva capacidad de asombro (el thaumazéin platónico), una fuerte sensibilidad axiológica y una rectitud ética, una capacidad de jerarquizar valores y situaciones, sólidas bases lógico-conceptuales de aplicación universal, las grandes categorías del pensar, los macro-marcos filosóficos, históricos, lingüísticos y topográficos para pensar el mundo, los grandes escenarios de los principales cambios culturales de la humanidad; en suma, todo aquel bagaje de una buena y sólida cultura (uno de cuyos paradigmas fue, y tal vez sigue siendo, el egresado de los liceos europeos de finales del siglo XIX, comienzos del XX), que permita navegar en el océano informativo de la red no al azar como lo haría un nómada sin destrezas sino como lo hace un investigador mentalmente bien equipado que sabe exactamente lo que quiere buscar y cómo encontrarlo. Es de suponer que el nivel primario de la educación seguirá necesitando la presencialidad por razones de socialización, gregarismo y solidaridad, pero a partir del secundario esa misma tarea de formación previa también será asegurada por la red de manera crecientemente eficaz, lo que obligará al educador a ser maestro también en el uso activo y no sólo pasivo de los medios. Sin embargo, ciertos aspectos hasta ahora considerados problemáticos en el uso de la red comienzan a verse con criterios más empíricos y realistas. Una encuesta de gran escala de la Comisión Europea efectuada en 2010 en 25 países a 25 mil 140 internautas entre 9 y 16 años, relativizó los “peligros” del uso de la web entre los más jóvenes (sólo el 8% declaró haberse sentido perturbado por mensajes de Internet), subrayando su importancia como medio de socialización precoz (a partir de los 15 años, el 81% pertenece a alguna red) y la naturalidad con la que hacen uso de ella (más del 93% se conecta rutinariamente).

Los detractores de Internet ven en la falta de accuracy, de control científico y moral de mucha información lanzada por la red, y en la dispersa fragmentación de conocimientos, las principales debilidades de Internet. Son acusaciones parcial y momentáneamente ciertas de espíritus impacientes, incapaces o poco deseosos de presagiar la calma y la disciplina que vendrán. Vivimos los gozosos y anárquicos comienzos de una enorme liberación expresiva que produce exageraciones como el abuso en empleo de juegos y correos electrónicos, el exceso de horas pasadas delante de la computadora, la proliferación de spam y phishing, una explosión comercial de porno electrónico, irresueltos forzamientos en el resbaladizo terreno del copyright, la censura previa de dictaduras como la china, la norcoreana o la cubana y el espionaje aposteriórico como el del Echelon norteamericano, los intentos de abusar de las liberalidades de Wikipedia para llevar el agua a molinos propios, una pérdida de jerarquías culturales que dificulta distinguir el grano del afrecho, los daños de un exceso de anonimato destinado a desaparecer, o la presencia en red de contenidos relacionados con pedofilia, la fabricación de armas, instrucciones para la eutanasia o la apología del nazismo y del racismo condenados por los códigos penales. Las capas profundas de la personalidad humana, donde residen las pulsiones comportamentales y la conciencia moral, evolucionan, si es que lo hacen, mucho más lentamente que el más joven intelecto racional, lo que explica, por ejemplo, por qué nada queda hoy de científicamente válido en la obra física de Aristóteles mientras que en su Ética Nicomaquea ni una sola palabra ha perdido validez. Ciencias axiológicas y ciencias naturales no se perfeccionan pues a la misma velocidad, lo que ayuda a entender por qué las actitudes humanas y ciertos comportamientos exagerados ante lo nuevo no hayan cambiado en milenios: más de un francés se murió de indigestión cuando Catalina de Médicis llevó a Francia los petits-pois; en el siglo XVII cundió en Holanda la locura por los cruces de tulipanes cuyos bulbos se compraban y vendían a precios delirantes; la modesta tarjeta postal, inventada en la Londres de 1902 fue literalmente el Twitter de la época: en sus primeros ocho años los súbditos de Eduardo VII se enviaron 10 millardos de ellas con breves mensajes; el semanario Interviú desahogó durante años con vehe-mencia la sexualidad española reprimida por 40 años de moralismo franquista. Internet nos ha puesto a vivir otra experiencia similar entre las exageraciones del asombro, la sobredosis, la sospecha y el rechazo. Ciertamente aún faltan a veces en la red cuidado y exactitud (la antigua acríbeia del “todo, sólo y cómo”), pero la historia de Wikipedia, una fabulosa iniciativa de construcción social del saber, muestra hoy los esfuerzos que se van desplegando, a partir del ejemplo inicialmente dado por su capítulo alemán, para asegurarle un más cuidadoso arbitraje y más credibilidad a los textos subidos a la red. Visitada casi un millardo de veces al mes, mantenida por contribuciones públicas (16 millones de dólares en 2010 aportados por unos 700 mil usuarios de 140 países para evitar el recurso a la publicidad) Wikipedia ya acumula 16 millones de artículos en 270 idiomas redactados por unos 100 mil voluntarios. La denuncia de fragmentación, francamente irrelevante y casi risible, pudiera lanzarse contra todas las enciclopedias existentes. Internet y enciclopedias nos permiten tomar, cada una a su manera, la medida de la enorme complejidad de lo real, pero Internet lo hace mejor y más rápidamente, con cornucopia más grande, mayor facilidad y elasticidad, más sinapsis y multimedialidad. Se tiende en cambio a obliterar una de los mayores aportes socio-culturales de la red, una ulterior y esta vez universal democratización del saber, de aquel proceso puesto en marcha más de 30 siglos atrás con la aparición del código alfabético, que recibe ahora del dígito binario un doble y excepcional impulso: una elevación a la “n” potencia del acceso de la gente al saber en absolutamente todas sus manifestaciones escritas, visuales y auditivas, y la apertura tecnológica a un colosal proceso de participación en el que (tras la edad oscura de la unidireccional radiotelevisión) millardos de seres humanos se vuelven felizmente y por primera vez emisores de mensajes al mundo entero, luego verdaderos interlocutores dialógicos, miembros de una familia humana de inter pares desde el ángulo de la expresión y la comunicación libres. Tras las exageraciones iniciales, esta gigantesca expansión en acceso y participación que promueve la red está llamada a desencadenar una evolución socio-cultural que no sólo revolucionará milenarios procesos educativos sino que terminará acabando con los despotismos, autocracias y dictaduras culturales y políticas de todo origen, garantizando la universalización y asentamiento de la democracia y asimismo (sin descuidar el aporte de individualidades y genios) una definitiva construcción social del saber, el ya llamado common knowledge convirtiendo poco a poco la red en una suerte de inteligencia colectiva capaz de organizar con credibilidad toda la memoria humana y hacer avanzar el conocimiento por aportes multitudinarios. Recuérdese una iniciativa tomada hace años, el proyecto “grid computing” de [email protected], de utilizar en horas nocturnas centenares de miles de computadoras caseras de colaboradores voluntarios para procesar datos provenientes del observatorio radiotelescópico de Arecibo y reenviarlos a la Universidad de Berkeley, al que han colaborado hasta ahora 5.2 millones de voluntarios y que ya ha sido imitado por numerosos proyectos de los que cabe destacar [email protected] para identificar fragmentos de polvo interestelar en la cola del cometa Wild2,[email protected] para el análisis compartido de la estructura tridimensional de las proteínas, o Galaxy Zoo, de la Universidad de Oxford, para determinar la forma de ciertas galaxias. Estos ejercicios se inauguraron pidiendo la cooperación pasiva de computadoras caseras y han terminado envolviendo a los propietarios de dichas computadoras en ejercicios mentales y observaciones científicas cuales aportes a una construcción colectiva del saber. Es lo que hoy se comienza a llamar Citizen Science, generable no ya por redes de computadoras sino por redes de cerebros, o con términos más fuertes, categoriales y explícitos Common Knowledge.

La gloriosa lectura sobre papel y el uso de todos los medios pre-digitales revelan ahora sus límites: todos ellos funcionaban como lo haría un diodo univectorial, enviaban mensajes a un perceptor pasivo y mudo. Con la red, nuestro hiper-teléfono que ha devuelto a todos una capacidad emisora confiscada por los viejos medios, podemos bajar un fragmento de saber y subir otro, aprender algo y enseñar algo, usufructuar y dar en usufructo bienes culturales, escuchar y expresarnos, recibir y enviar mensajes, pasar en tiempo real de receptores a emisores, contribuyendo al definitivo asentamiento de una democracia universal en todos los aspectos de la vida y de la cultura y en la edificación de un almacén de conocimientos como nunca imaginó la humanidad. En este sentido, puede tranquilamente afirmarse que el código dígito binario sí ha desencadenado una segunda, más profunda e inconmensurable transfiguración social, cultural y política de la humanidad. En las universidades se comienza a discutir ahora de “inteligencia colectiva”, de “plusvalía cognoscitiva” o de “ciencia ciudadana”, esto es, de un saber más comprensivo, profundo y matizado que nunca engendrado por interacción y aporte de miles y millones de internautas a quienes el libro, el cine, la radio y la televisión, inductores de pasividad y solipsismo, no permitían “sumar” con soltura y eficacia elementos de saber, y que hallan ahora en el enorme hormiguero organizado de la red la manera de hacerlo, de lograr con el tiempo avances del conocimiento que superarán con creces la mera sumatoria de los aportes constitutivos. En su reciente libro Cognitive Surplus 2010, Clay Shirky estima que Wikipedia (en la que se invierte el 1% apenas del tiempo que el norteamericano consume en ver televisión) es sólo la punta del iceberg de este gigantesco proceso, que la humanidad dispone de mil millardos de horas/hombre anuales libres, una mínima parcela de las cuales pudiera dedicarse a la construcción colectiva del saber, y que esto producirá pronto cambios dramáticos en el humano progreso y en nuestro perfil cultural.

Login

Welcome! Login in to your account

Remember me Lost your password?

Lost Password