junio 30, 2014

Historia de la Lógica Transcursiva (Capítulo 261)

Cuaderno XI (páginas 1567 a 1572)

(Hoy veremos el segundo artículo sobre Polisemia)

Polisemia (II): Ese Fantasma

Desde que se publicara el trabajo de Claude E. Shannon en 1948, titulado “Una teoría matemática de la comunicación”, el vórtice polisémico del término ‘información’ no se detiene; lejos de ello, amenaza con arrasar con la endeble cordura científica que a duras penas podemos aún mantener al respecto.

Para la inmensa mayoría de los ‘enfoques científicos’ esparcidos, bondadosamente, sobre el mundo de la ciencia que hoy conocemos, el trabajo mencionado anteriormente, constituye la piedra fundamental de lo que se conoce como ‘Teoría de la Información’. Un monumental error que ha cumplido ya 60 años, y que sin embargo, sigue calando profundo en las raíces mismas del pensamiento posmoderno y dando fundamento a casi todo lo que se elabora referido al tema.

¿Por qué digo que este enfoque constituye un error? Básicamente porque lo que Shannon elaboró, trabajando para una compañía telefónica, fue un ingenioso sistema para controlar la fidelidad de los mensajes transmitidos por esta vía. De allí el tratamiento matemático (relacionado con la probabilidad y la estadística) que le dio a su investigación y lo que posibilitó el sacarle un enorme beneficio práctico.

Según nos cuenta la anécdota, Shannon tenía pensado bautizar su función H como ‘incertidumbre’ ya que la utiliza en su trabajo para medir justamente el grado de ‘no certeza’ de que un determinado mensaje sea elegido de entre un conjunto posible. Parece que von Neumann (el padre de la teoría de los juegos y el pionero de la computadora digital) intercedió a favor del término ‘entropía’ dada la similitud formal con la función utilizada en mecánica estadística; pero en definitiva, cuantifica la ‘fidelidad’ existente entre un mensaje emitido y el mismo mensaje recibido a la distancia, y que según Shannon mostró, está en relación inversa a la probabilidad de ser elegido.

La terminología acuñada en este trabajo: Entropía, Canal, Ruido, Emisor, Receptor, Redundancia, Feedback (retroalimentación), quedó indeleblemente ligada al término ‘información’, el cual pasa a ser tratado como el representante de una magnitud física pudiendo así utilizar la ‘entropía’ como una medida de la ‘información’ contenida en una secuencia de símbolos.

De esta manera, lo que quizás era tan solo una metáfora, terminó siendo una sinonimia, como un aporte más a la ambigüedad de nuestro lenguaje natural y a la confusión general.

Debido a la gran difusión que ha alcanzado el manejo electrónico de datos (datos que también se equiparan a información), le son aplicables en su totalidad, los términos de la ‘teoría de la información’; pero, y dado el uso que se hace del término ‘entropía’, y por tanto la equivalencia creada con el manejo de la energía desde el punto de vista físico, el otro campo en donde ha calado hondo y se ancló en forma definitiva es la Biología. En esta última, el aspecto energético tiene relevancia, si se lo ve, a ‘lo vivo’, exclusivamente desde el punto de vista físico-químico. Desde aquí, hasta considerar que los seres vivos se manejan con un ‘lenguaje’ que porta información relevante para su funcionamiento y que todo esto se puede asimilar a su vez, al ‘manejo lingüístico’ de cualquier lenguaje, hay solo un paso.

Analizaremos, por su importancia, el problema que la polisemia ha generado en un campo tan vasto como lo es el de la Biología.

Como si la confusión fuera poca, en 1956, el físico francés León Brillouin introduce el término ‘negentropía’ para establecer la identidad entre ‘información’ y la ‘entropía negativa’. Este autor hace la distinción entre dos tipos de ‘información’: por un lado la ‘información libre’, y por otro la ‘información ligada’ (haciendo clara alusión a la física de un sistema). Con la segunda se representa los posibles estados o casos de un sistema entre los que se reparte la probabilidad, constituyendo así un caso especial de la ‘información libre’; y ésta ocurre cuando los posibles estados del sistema son completados en forma abstracta (sin un significado físico determinado).

La ‘información libre’ existiría (por así decirlo) solo en la ‘mente’ con lo que la ‘entropía’ se ‘subjetiviza’ pasando a ser vista como un ‘medida’ de nuestra ignorancia. De esta forma se prepara todo para que, cuando realicemos una ‘medición’ sobre un sistema, obtengamos ‘información’ pero a cambio de introducir ‘entropía’ en él. Desde aquí luego, la ‘información’ producida podría ser medida en función del aumento de ‘entropía’.

En compensación, la acción ordenadora sobre el sistema, disminuye su ‘entropía’. Invocando la segunda ley de la Termodinámica, según la cual en todo sistema aislado la ‘entropía’ tiende a aumentar, Brillouin, generalizándola, establece que tanto la ‘información ligada’ como la ‘información libre’ son intercambiables por la ‘entropía’ física, como si de una reacción química reversible se tratara; intentando legalizar de esta forma la aplicación de ciertas fórmulas matemáticas en más de un dominio científico. No obstante, no logra establecer la identidad entre ‘entropía’ física y la ‘información’, como no sea en la forma subjetiva del generalizar indiscriminadamente una convención.

Por otro lado la desmedida generalización según la cual la ‘información libre’ es igual a la ‘negentropía’, también es impropia, porque es ridículo intentar medir la variación de ‘entropía’ producida en un sistema por el solo hecho, por ejemplo, de haber escrito éste artículo que Ud. está leyendo; y correlacionar esto con la ‘cantidad de información’ que contiene (lo cuál es más ridículo aún). Solo a modo de un ejemplo simple: es como si se pretendiera establecer que las dos expresiones que siguen, al tener los mismos símbolos (tanto en calidad como en número) y, según la propuesta anterior, generar la misma variación de entropía, producen la misma información (negentropía):

Sadran Lancho Cañal que Sebalgamos.
Ladran Sancho Señal que Cabalgamos.

Queda más que claro entonces, que no solo importa el ‘mensaje’ (que es lo único que pondera la supuesta ‘Teoría de la Información), sino el significado de dicho mensaje, a la hora de establecer la ‘información’ que se trata de comunicar. De otro modo, la ‘información’ puede ser considerada (como propuso Gregory Bateson) como “la diferencia que hace la diferencia”, pero con un sentido; es decir, el cambio (cuali-cuantitativo) producido en el conocimiento que se tiene de ese aspecto real que se pretende abarcar, debe ser mayor que el poseído antes de recibir la comunicación (diferencia cuantitativa); y luego de ello, lo aprehendido necesariamente, debe tener un sentido distinto (diferencia cualitativa).

Toda esta edificación teórica culminó en la relación establecida entre ‘entropía’ y evolución de la ‘información biológica’.

La evolución de los seres vivos nos muestra que a partir de sustancias inertes surgen formas complejas y ordenadas. Esta paradoja, según lo establecido anteriormente, se intentó resolver admitiendo (convencionalmente), que la disminución de la ‘entropía’ en la biosfera se compensa sobradamente con un aumento, de ésta, en el entorno. Claro que esto dicho así, no justifica el porqué de este proceso organizativo. De la formalización de lo anterior surgió la ‘Termodinámica de los Sistemas Lejos del Equilibrio’ que se ocupa de la emergencia de las estructuras ordenadas.

Ésta torre de Babel siguió creciendo hasta llegar a relacionar los aspectos de complejidad y organización propios de los seres vivos, con las nociones de ‘entropía’ e ‘información’, basados en considerar tal ‘información’ como ‘forma’ y a su medida como la clave del orden y la complejidad de lo viviente.

Se establece esta nueva relación de orden con ‘entropía’ e ‘información’ ya que ambas, según se dice, sirven para medir el orden de un sistema.

El orden es un aspecto relativo y solo podría ser ‘medido’ bajo ciertas condiciones restrictivas elegidas arbitrariamente.

Para redondear el término orden y dar una posible explicación concreta de qué entendemos por él, podemos considerar al menos, tres tipos distintos: orden estructural (estático – que llamaremos lisa y llanamente orden); orden dinámico (que llamaremos desorden); y orden funcional (que llamaremos organización); por supuesto en este esquema nada tienen que ver la ‘entropía’ y la supuesta ‘información’ que de ella se derive.

La referencia a la información en un cálculo termodinámico carece de sentido y por ende, el concepto derivado: entropía informacional. Aceptar su existencia y darle sustento formal a su ‘evolución’ sería equivalente a admitir que la mera observación de los desechos orgánicos, producto de una buena digestión de un rumiante, permitiera explicarnos lo que es dicho rumiante.

Del rápido análisis anterior, algo me queda claro: se mal interpreta el concepto de entropía y se toma como ‘rehén’ el término ‘información’ para justificar la flagrante violación de la regla de oro de la biología (por lo menos desde Darwin): la vida es un fenómeno contingente que tiene como paradigma el sobrevivir y el reproducirse; los elementos integrantes de esta ‘empresa’ están dados por la naturaleza del organismo en cuestión y su entorno específico; y el ajuste preciso de estas relaciones: ser vivo-entorno es la clave determinante de un proceso evolutivo continuo.

Si quisiéramos explicar lo que es ‘información’, se podría entonces decir: “es aquello que permite administrar el orden”. Es la diferencia entre dos estados capitalizada por una estructura influenciada por un desorden, a través de una organización; es en fin, lo que posibilita que un ser vivo pueda construir una historia que le sea propia, que esa historia esté representada en él mismo y que surja en función de encontrarle sentido a su realidad: sobrevivir.

¡Nos encontramos mañana!