agosto 23, 2008

Polisemia (II): Ese Fantasma

Desde que se publicara el trabajo de Claude E. Shannon en 1948, titulado “Una teoría matemática de la comunicación”, el vórtice polisémico del término ‘información’ no se detiene; lejos de ello, amenaza con arrasar con la endeble cordura científica que a duras penas podemos aun mantener al respecto.

Para la inmensa mayoría de los ‘enfoques científicos’ esparcidos bondadosamente sobre el mundo de la ciencia que hoy conocemos, el trabajo mencionado anteriormente, constituye la piedra fundamental de lo que se conoce como ‘Teoría de la Información’. Un monumental error que ha cumplido ya 60 años y que sin embargo sigue calando profundo en las raíces mismas del pensamiento posmoderno y dando fundamento a casi todo lo que se elabora referido al tema.

¿Por qué digo que este enfoque constituye un error? Básicamente porque lo que Shannon elaboró, trabajando para una compañía telefónica, fue un ingenioso sistema para controlar la fidelidad de los mensajes transmitidos por esta vía. De allí el tratamiento matemático (relacionado con la probabilidad y la estadística) que le dio a su investigación y lo que posibilitó el sacarle un enorme beneficio práctico.

Según nos cuenta la anécdota Shannon tenía pensado bautizar su función H como ‘incertidumbre’ ya que la utiliza en su trabajo para medir justamente el grado de ‘no certeza’ de que un determinado mensaje sea elegido de entre un conjunto posible. Parece que von Neumann (el padre de la teoría de los juegos y el pionero de la computadora digital) intercedió a favor del término ‘entropía’ dada la similitud formal con la función utilizada en mecánica estadística; pero en definitiva, cuantifica la ‘fidelidad’ existente entre un mensaje emitido y el mismo mensaje recibido a la distancia, y que según Shannon mostró, está en relación inversa a la probabilidad de ser elegido.

La terminología acuñada en este trabajo: Entropía, Canal, Ruido, Emisor, Receptor, Redundancia, Feedback (retroalimentación), quedó indeleblemente ligada al término ‘información’, el cual pasa a ser tratado como el representante de una magnitud física pudiendo así utilizar la ‘entropía’ como una medida de la ‘información’ contenida en una secuencia de símbolos.

De esta manera, lo que quizás era tan solo una metáfora, terminó siendo una sinonimia, como un aporte más a la ambigüedad de nuestro lenguaje natural y a la confusión general.

Debido a la gran difusión que ha alcanzado el manejo electrónico de datos (datos que también se equiparan a información), le son aplicables en su totalidad los términos de la ‘teoría de la información’; pero, y dado el uso que se hace del término ‘entropía’, y por tanto la equivalencia creada con el manejo de la energía desde el punto de vista físico, el otro campo en donde ha calado hondo y se ancló en forma definitiva es la Biología. En esta última, el aspecto energético tiene relevancia, si se lo ve a ‘lo vivo’ exclusivamente desde el punto de vista físico-químico. Desde aquí, hasta considerar que los seres vivos se manejan con un ‘lenguaje’ que porta información relevante para su funcionamiento y que todo esto se puede asimilar a su vez, al ‘manejo lingüístico’ de cualquier lenguaje, hay solo un paso.

Analizaremos, por su importancia, el problema que la polisemia ha generado en un campo tan vasto como lo es el de la Biología.

Como si la confusión fuera poca, en 1956, el físico francés León Brillouin introduce el término ‘negentropía’ para establecer la identidad entre ‘información’ y la ‘entropía negativa’. Este autor hace la distinción entre dos tipos de ‘información’: Por un lado la ‘información libre’, y por otro la ‘información ligada’ (haciendo clara alusión a la física de un sistema). Con la segunda se representa los posibles estados o casos de un sistema entre los que se reparte la probabilidad, constituyendo así un caso especial de la ‘información libre’; y ésta ocurre cuando los posibles estados del sistema son completados en forma abstracta (sin un significado físico determinado).

La ‘información libre’ existiría (por así decirlo) solo en la ‘mente’ con lo que la ‘entropía’ se ‘subjetiviza’ pasando a ser vista como un ‘medida’ de nuestra ignorancia. De esta forma se prepara todo para que, cuando realicemos una ‘medición’ sobre un sistema, obtengamos ‘información’ pero a cambio de introducir ‘entropía’ en él. Desde aquí luego, la ‘información’ producida podría ser medida en función del aumento de ‘entropía’.

En compensación, la acción ordenadora sobre el sistema, disminuye su ‘entropía’. Invocando la segunda ley de la Termodinámica, según la cual en todo sistema aislado la ‘entropía’ tiende a aumentar, Brillouin generalizándola establece que tanto la ‘información ligada’ como la ‘información libre’ son intercambiables por la ‘entropía’ física, como si de una reacción química reversible se tratara; intentando legalizar de esta forma, la aplicación de ciertas fórmulas matemáticas, en más de un dominio científico. No obstante, no logra establecer la identidad entre ‘entropía’ física y la ‘información’, como no sea en la forma subjetiva del generalizar indiscriminadamente una convención.

Por otro lado la desmedida generalización según la cual la ‘información libre’ es igual a la ‘negentropía’, también es impropia porque es ridículo intentar medir la variación de ‘entropía’ producida en un sistema por el solo hecho, por ejemplo, de haber escrito éste artículo que Ud. está leyendo; y correlacionar esto con la ‘cantidad de información’ que contiene (lo cuál es más ridículo aun). Solo a modo de un ejemplo simple: es como si se pretendiera establecer que las dos expresiones que siguen, al tener los mismos símbolos (tanto en calidad como en número) y, según la propuesta anterior, generar la misma variación de entropía, producen la misma información (negentropía):

Sadran Lancho Cañal que Sebalgamos.

Ladran Sancho Señal que Cabalgamos.

Queda más que claro entonces, que no solo importa el ‘mensaje’ (que es lo único que pondera la supuesta ‘Teoría de la Información), sino el significado de dicho mensaje, a la hora de establecer la ‘información’ que se trata de comunicar. De otro modo: la ‘información’ puede ser considerada (como propuso Gregory Bateson) como “la diferencia que hace la diferencia”, pero con un sentido; es decir, el cambio (cuali-cuantitativo) producido en el conocimiento que se tiene de ese aspecto real que se pretende abarcar, debe ser mayor que el poseído antes de recibir la comunicación (diferencia cuantitativa); y luego de ello, lo aprehendido necesariamente, debe tener un sentido distinto (diferencia cualitativa).

Toda esta edificación teórica culminó en la relación establecida entre ‘entropía’ y evolución de la ‘información biológica’.

La evolución de los seres vivos nos muestra que a partir de sustancias inertes surgen formas complejas y ordenadas. Esta paradoja, según lo establecido anteriormente, se intentó resolver admitiendo (convencionalmente), que la disminución de la ‘entropía’ en la biosfera se compensa sobradamente con un aumento en el entorno de ésta. Claro que esto dicho así, no justifica el por qué de este proceso organizativo. De la formalización de lo anterior surgió la ‘Termodinámica de los Sistemas Lejos del Equilibrio’ que se ocupa del surgimiento (emergencia) de las estructuras ordenadas.

Ésta torre de Babel siguió creciendo hasta llegar a relacionar los aspectos de complejidad y organización propios de los seres vivos, con las nociones de ‘entropía’ e ‘información’, basados en considerar tal ‘información’ como ‘forma’ y a su medida como la clave del orden y la complejidad de lo viviente.

Se establece esta nueva relación de orden con ‘entropía’ e ‘información’ ya que ambas, según se dice, sirven para medir el orden de un sistema.

El orden es un aspecto relativo y solo podría ser ‘medido’ bajo ciertas condiciones restrictivas elegidas arbitrariamente.

Para redondear el término orden y dar una posible explicación concreta de qué entendemos por él, podemos considerar al menos, tres tipos distintos: orden estructural (estático – que llamaremos lisa y llanamente orden); orden dinámico (que llamaremos desorden); y orden funcional (que llamaremos organización); por supuesto en este esquema nada tienen que ver la ‘entropía’ y la supuesta ‘información’ que de ella se derive.

La referencia a la información en un cálculo termodinámico carece de sentido y por ende, el concepto derivado: entropía informacional. Aceptar su existencia y darle sustento formal a su ‘evolución’ sería equivalente a admitir que la mera observación de los desechos orgánicos, producto de una buena digestión de un rumiante, permitiera explicarnos lo que es dicho rumiante.

Del rápido análisis anterior, algo me queda claro: se mal interpreta el concepto de entropía y se toma como ‘rehén’ el término ‘información’ para justificar la flagrante violación de la regla de oro de la biología (por lo menos desde Darwin): la vida es un fenómeno contingente que tiene como paradigma el sobrevivir y el reproducirse; los elementos integrantes de esta ‘empresa’ están dados por la naturaleza del organismo en cuestión y su entorno específico; y el ajuste preciso de estas relaciones: ser vivo-entorno es la clave determinante de un proceso evolutivo continuo.

Si quisiéramos explicar lo que es ‘información’, se podría entonces decir: “es aquello que permite administrar el orden”. Es la diferencia entre dos estados capitalizada por una estructura influenciada por un desorden, a través de una organización; es en fin, lo que posibilita que un ser vivo pueda construir una historia que le sea propia, que esa historia esté representada en él mismo y que surja en función de encontrarle sentido a su realidad: sobrevivir.

agosto 04, 2008

Polisemia (I): Ese Fantasma

Caminando una tarde cualquiera por las calles de la ciudad pasé frente a una de las tantas instituciones que existen en ella. Creo que había pasado …, en realidad no lo sé, pero seguramente, varias veces por el mismo lugar. Nunca nada llamó especialmente mi atención (debo reconocer que soy un poco distraído) pero esa última vez me detuve a mirar el cartel, hecho de un hermoso travertino (tengo cierta afinidad por esta piedra y creo que fue lo que me retuvo) y con una inscripción moldeada en bajo relieve que decía: “Hospital Privado de Nariz, Garganta y Oídos”. Luego de escrutar otros detalles arquitectónicos del anuncio (como los cuatro bulones de cabeza piramidal hechos de algún metal patinado) me puse a pensar en lo que trataba de decir.

Pese a que me sentía protegido por el sentido común, no pude reprimir el asomo de una sonrisa cuando trataba de imaginar cómo sería un hospital sordo, mudo y que no pudiera percibir los olores (aunque teniendo en cuenta nuestra realidad sanitaria actual, no se si la metáfora era tan descabellada).



Mis conciudadanos que vean la fotografía adjunta que tomé en aquella oportunidad, seguramente estarán haciendo memoria para tratar de ubicar geográficamente el lugar y quizás poder así recrear alguna vez la anécdota.

Debo confesarles que esto no va a ser posible. Básicamente porque lo que están viendo no es una fotografía; es una toma instantánea del producto de un programa de computadora para fabricar entornos 3D. El edificio no existe sino que es una fotografía de un lugar desconocido y que fue usada como textura para ‘pintar’ un bloque rectangular virtual. Lo mismo sucede con el piso. El cartel si es tridimensional y sus letras están ‘cavadas’ en un bloque rectangular virtual y ‘pintado’ con una textura sacada de una fotografía de un travertino original y finalmente, el personaje que está de espaldas observando la escena, no soy yo, sino una fotografía de no sé quién que fue ‘pintada’ sobre un plano virtual y filtrada mediante luces virtuales especiales, para recortar la figura.

Todo esta ‘lata’ no es para demostrar mis habilidades como diseñador 3D, ni para declararme como un mentiroso, sino para dejar en claro que las cosas no siempre son lo que parecen. Es más, no hace falta ni decir que la historia que relaté es ficticia y que lo único que perseguía, apoyada por la imagen, era poner en evidencia el uso y abuso que hacemos, en el lenguaje corriente, de la polisemia.


No entraremos en detalles técnicos. Simplemente diremos que polisemia es el término que se utiliza para describir la situación en la que una palabra tiene dos o más significados relacionados entre sí. Si bien esta definición es técnicamente correcta, hay un detalle que quiero destacar de ella, ya que justifica plenamente el comienzo de este texto. Ese detalle es que lo de ‘significados relacionados entre sí” se basa muchas veces en la apariencia de lo designado por la palabra en cuestión. Por ejemplo: el término ‘pico’ que usamos para identificar una parte de un ave, también lo usamos para referirnos a la cima de una montaña; en la práctica ambos términos, aunque idénticos, tienen distintos significados que mantienen una relación común cual es: una prolongación alargada en forma de cono.

Si bien, según el estrecho criterio de algunos, la polisemia supone una gran economía para el lenguaje al poder atribuir varios sentidos a una misma palabra, evitando así una carga excesiva para la memoria humana, debemos convenir que no representa mucho más que un estigma propio de la ambigüedad de nuestro convencional lenguaje natural.

El sentido común resuelve (cuando no se carece de él) la mayoría de las ambigüedades que puedan presentarse en el día a día, como sucede con la palabra ‘privado’ que usamos al principio. No obstante ello y a pesar de la riqueza expresiva que lo caracteriza, nuestro lenguaje es especialmente inapropiado, gracias a esa ambigüedad, para ser usado verbi gratia, en el estudio de las argumentaciones, terreno propio de la lógica. Esto último da la pauta de que, si bien en el uso corriente la polisemia no trae demasiados problemas y quizás un dudoso beneficio, cuando se utiliza indiscriminadamente en otros dominios (como el científico por ejemplo), no solo puede inducir a error como el la lógica sino que además puede inducir a convalidar algo que no tiene en realidad ningún fundamento.

Las disciplinas formales se han visto obligadas a elaborar un lenguaje riguroso (sin ambigüedades) para poder evolucionar y ser así útiles. Pero, las ciencias naturales y aquellas que se desarrollaron en los suburbios de la ciencia tradicional (ciencias de la información, ciencias de la complejidad, ciencias cognitivas, constructivismo radical, etc.) no tienen demasiados escrúpulos a la hora de explotar la ambigüedad del lenguaje natural con el propósito de ‘definir’ algunos términos pretendidamente técnicos que suponen no menos pretendidos conceptos.

El abuso de lo ambiguo obedece en la mayoría de los casos a que solo se conforma, la ciencia en cuestión, con ‘definir’, pero pocas veces con ‘explicar’. Es de esta manera que no solo se abusa de la polisemia, sino de todas las otras ambigüedades que nos provee el lenguaje: homonimia, metonimia, metáfora y hasta el extremo de considerar, porque dos términos se escriben igual, la semejanza o equivalencia en la sinonimia.

En una serie de tres artículos (de los que éste es el primero) trataremos del enorme problema que significa para las ciencias (y no solo por una cuestión de terminología formal) los términos polisémicos.

Tomaremos como muestra tres términos que tienen una gran difusión en la actualidad en distintos campos del quehacer científico: Complejidad, Información y Cibernético.

En esta instancia trataremos el término Complejidad.

Complejo se dice de aquello que está compuesto por varios elementos iguales o diversos y que generalmente es de difícil entendimiento o resolución. Lo anterior como definición, no está mal. Como el mismo Aristóteles lo estableció, definir es tender a un límite sin alcanzarlo jamás. Las matemáticas tienen un nombre específico para esto: función asintótica que no significa otra cosa que uno puede aproximarse infinitamente a la ‘verdad’ de un valor, pero sin alcanzarlo nunca.

Definiciones son las de los diccionarios que constituyen un catálogo de significados; es decir, una lista de las convenciones para designar los distintos aspectos de nuestra realidad cotidiana con una adaptación a cada comunidad (a cada idioma).

Si se pretende encarar una terminología distinta de la utilizada diariamente para referirse a un aspecto específico que necesitemos destacar, no basta con definir. Un glosario no deja de ser una colección de palabras difíciles para el no iniciado en el tema específico que se está tratando, o de difícil explicación, a las que se les pretende dar el rango de corpus para camuflar el abismo conceptual que subyace.

Siempre, a no dudarlo, es preferible una ‘pobre explicación’ a una ‘exquisita definición’. Definir es lidiar con el significado (cubrir las apariencias); explicar es tratar con el sentido (investigar la esencia – comprometerse).

Vamos a tratar entonces de dar una explicación a lo complejo, aunque sin pretender que sea la única ni la mejor, pero tampoco la más pobre.

Prescindiré de los ‘malos tratos’ de los que ha sido objeto el término y me abocaré a los componentes básicos que considero fundamentales para tratar de explicar en qué consiste la complejidad.

Estos componentes son cuatro: orden, desorden, organización y desorganización.

Se han escrito miles de páginas sobre estos aspectos y hay de todo y para todos. No voy a discutir ningún enfoque en particular; y esto incluye aquellos que los imponen con total displicencia como los que, rigor formal en mano, tratan de imponerlos igual, pero en sentido contrario.

Lo que sí queda claro, por lo menos para mí, que estos términos no son sinónimos por pares y que no constituyen dos maneras inversas de medir la misma cosa. Antes bien, son términos que describen estados concretos que se encuentran en los extremos opuestos de un continuum. Tampoco constituyen per se, lógicas individuales, totipontenciales ni autónomas que pudieran de alguna forma extraña, convertirse en fuerzas promotoras de conductas o comportamientos, en sí mismas.

No hay un funcionamiento individual de cada uno de los elementos mencionados. Juntos (interrelacionados) constituyen un sistema y de esa forma surge una lógica que rige su funcionamiento.

Acabamos de incluir otro término que padece de ‘polisemia aguda’: sistema. Para no caer en lo mismo que estamos condenando, diremos que sistema es aquel conjunto de elementos básicos ligados por un par de funciones (estructuras proyectadas en otras estructuras) que determinan una unión aparente (a través del cambio) de los aspectos que diferencian tales elementos y una separación oculta (cambio profundo) de aquellos aspectos que tienen en común (sustento de una categoría); todo lo cual le da la posibilidad de evolucionar como veremos luego. Es importante distinguir lo anterior de una mera definición (sistema: conjunto de elementos relacionados entre sí con un fin común) ya que se explicita el mecanismo íntimo que sostiene un sistema; se explica cómo está formado y cómo funciona.

Las pautas lógicas que regulan un sistema complejo, según yo lo veo, tienen que ver con la existencia, entre sus elementos, de una triple relación: son opuestos, son complementarios y son concurrentes (se dan simultáneamente). A su vez están distribuidos, por pares, en dos niveles: un nivel superficial que da cuenta de lo evidente, lo organizado, y un nivel profundo que partiendo de la desorganización, promueve la reorganización del sistema y una posterior evolución ‘sustrayendo’ complejidad a su entorno inmediato. El todo se comporta como una oposición de Galois; es decir: una oposición de términos mediada por otra oposición; constituyendo de esta manera, algo similar a un grupo algebraico con autonomía (tanto de producción, como de funcionamiento) pero con una ‘frontera’ que a la vez que lo delimita, le permite el intercambio necesario con el exterior, como para poder evolucionar complejizándose.

Este ‘par de pares’ se constituye entonces, en una sola lógica producto de otras dos a su vez: una discreta (binaria) que nos muestra la apariencia; y una continua (difusa) que nos muestra la evolución, tanto en el crecimiento por adaptación, como en la génesis de nuevas unidades complejas.

La figura que sigue tal vez logre resumir (desde un punto de vista binario) y de un modo muy simple, esta unidad estructural que a mi parecer, representaría la mínima expresión de complejidad real; la más pequeña evidencia de realidad que podríamos concebir.