julio 31, 2014

Historia de la Lógica Transcursiva (Capítulo 292)

Cuaderno XII (páginas 1755 a 1760)

(En este capítulo completaremos la Hipótesis de Trabajo y veremos, además, la Metodología utilizada en nuestra investigación)

Peirce aporta una solución a lo superficial del silogismo. Basado en una descripción que hace el mismo Aristóteles en los "Primeros Analíticos", quien caracteriza otros tipos de argumentaciones reduciéndolas a una forma silogística:
“La abducción tiene lugar cuando es cierto que el primer término es atribuido al medio, y es incierto que el medio lo es al último, por más que esta menor sea tan creíble, y, si se quiere, más creíble que la conclusión” (Organon, 2004: 201 – Primeros Analíticos – Libro Segundo: Sección Tercera: Capítulo 25)
Peirce (1878) asocia la abducción con el acto de descubrimiento y con la producción de explicaciones científicas. Le otorga un importante nivel epistemológico al dar un fundamento a los procesos de búsqueda o investigación, independientemente, de dónde se apliquen. Desde esta perspectiva heurística, la abducción sirve como un esquema para investigar hechos insuficientemente explicados.

Este autor considera que la deducción (la cual asimila a la aplicación de una regla) es insuficiente para representar cualquier tipo de razonamiento (CP. 2.620); y la describe así: la premisa mayor formula una regla, la menor es el caso sometido a dicha regla; la conclusión aplica la regla al caso y constituye el resultado; quedando claro de esta manera, que toda deducción es básicamente la aplicación de reglas generales a casos particulares.

Según Peirce, en la inducción el caso es el punto de partida y la conclusión es la regla, la que es obtenida desde la observación de un resultado. Pero cuando se enfrentan determinados fenómenos que aunque no estén completamente caracterizados son asignados a un género particular de objetos (por ejemplo lo subjetivo del lenguaje), estamos en presencia de una abducción (o hipótesis como también la llamó) que es la inferencia de un caso a partir de una regla y un resultado; en donde el caso, debe ser reconstruido cíclicamente pues no es asequible al observador.

La abducción se distingue de la deducción en que ésta infiere que, si lo que se describe de un caso es verdadero, también lo será para toda la clase a la que pertenece ese caso. En cambio en la abducción o hipótesis se supone que el caso inferido deriva de la aplicación de cierta regla que es elegida intuitivamente.

Peirce soluciona lo superficial del silogismo pero deja ‘borroso’ lo profundo. Hay dos inconvenientes, según lo vemos, con la propuesta peirceana: por un lado, el hecho de que la inducción produzca la regla, la deducción produzca el resultado y la abducción el caso, no evita que se caiga en un círculo vicioso (algo incompatible con la lógica), ya que por más que se comience por el resultado (que es lo posible de ser observado), se necesita una regla para obtener el caso que permita dar con la regla. Por otro lado, no queda claro de dónde sale la regla que unida al resultado observado, nos da el caso o conclusión; no queda establecido ningún criterio que ayude a seleccionar una regla específica en un caso dado.

El ciclo vicioso se produce porque Peirce opera en la monocontextura y está tratando de caracterizar, desde la superficie, aspectos profundos que quedan, por esta razón, sin definir. Una solución a este inconveniente sería adherir a una lógica policontextural desde donde distribuir estos distintos niveles.

En cuanto al origen de la regla, invocaremos una solución propuesta por Samaja (2005, p. 104) quien también de una manera muy original, amalgamó la analogía hegeliana a la abducción de Peirce para explicar, aunque no en todos los casos, un posible origen de la regla en la abducción.
La propuesta de Samaja se basa en lo siguiente:


Este enfoque aunque no exhaustivo ya que este tipo de razonamiento puede darse sin que haya que invocar una analogía, tiene el mérito de ensamblar lo superficial a lo profundo.

Samaja identifica la Regla con una especie y la Conclusión (el Caso) con un espécimen; es decir, la ocurrencia de lo general en un particular, ligando así: el ‘genotipo’ (la estructura oculta) al ‘fenotipo’ (los aspectos observables y evidentes del resultado), confirmando que, si bien desde el punto de vista lógico tradicional, la abducción es una falacia, {Esta falacia que se llama afirmación del consecuente es un argumento de la forma "A implica B, B es verdadero, luego A es verdadero". Por ejemplo: "Si el universo fue creado por un ser sobrenatural, veríamos orden en todo. Y como vemos orden, por lo tanto el universo tuvo un creador"} constituye un método de búsqueda de conocimientos que no solo se sustentan en verdades lógicas, sino en el sujeto mismo. Quizás por eso, al separar {Por eso quizás esté bien colocado su nombre: abducción (del latín abductio = separar)} netamente lo superficial de lo profundo, podría constituirse en una opción válida para el abordaje de la subjetividad.

La propuesta de Samaja, además de no agotar todos los casos (situación que la coloca casi en el plano de una inducción, si bien esta última se basa en regularidades observadas y nunca en una conexión de consecuentes (observados) y antecedentes), deriva en un resultado irresoluble para la lógica tradicional (Samaja, 2005, p. 107), ya que produce un silogismo con cuatro términos, en vez de tres:
1. el análogo
2. la regla
3. el resultado
4. el caso

Mediante un arreglo de compromiso los hace ‘encajar’ en los tres clásicos al igualar 1. y 2.; con lo que, a mi juicio, malogra toda la propuesta, pues termina invocando el crédito que un científico otorga a una ‘muestra significativa’ (típica de la inducción) para convalidar esta cuasi-identidad. Con esto volvemos al principio del análisis: cuando hay que tratar con aspectos subjetivos, la lógica tradicional no es suficiente; y dado que salirse de ella está penado con la pseudo-ciencia (según lo dijo Bunge (2004a, p. 32), se termina forzando una elaboración original para que se amolde a la forma lógica bien vista por la ciencia.

En este trabajo se adoptará un enfoque silogístico similar al de Samaja pero en el que se intenta subsanar los problemas que este presenta tanto los propios como los heredados de los modelos que toma como base.

Dos son los impedimentos más serios de la propuesta de Samaja. En primer lugar, un ciclo vicioso que no fue totalmente resuelto, y que en realidad, representa lo que ocurre siempre que se intenta transgredir la transitividad jerárquica de la lógica binaria al tratar de hacer evidente un aspecto profundo (general) en un elemento particular. Este ciclo vicioso está indicando el modus operandi de la heterarquía, y esta a su vez nos dice, de la existencia de dos procesos (uno superficial y otro profundo) pero que en vez de separarse, se aproximan {Por eso también la propuesta que se hace en este trabajo podría llamarse analógico- adductiva (del latín adductus = aproximar, contraer, apretar)}; y lo hacen tanto, que se tornan simultáneos. Este proceso es el que se invocará en esta investigación como el responsable de uno de los aspectos subjetivos humanos por excelencia: la cognición; o sea, la concreción de actos creativos del pensar, estructurados desde un universo sistémico en donde comprender, utilizar, desarrollar y transformar la realidad obedece a una única regla: la lógica del sentido posibilitada por un lenguaje universal, que hace de dicho proceso algo semiótico.

El segundo impedimento es la reducción forzada de cuatro términos a solo tres para acomodarlos en un silogismo canónico. La lógica polivalente propuesta tiene la cantidad de valores de verdad suficientes para contener un cuarto término, aunque relacionado de una manera distinta y con un significado diferente.

Hechas las consideraciones anteriores, veremos en detalle cómo se estructura nuestra propuesta. La Figura H1 muestra la distribución de los niveles superficial y profundo y su relación heterárquica. Cada nivel opera con una lógica binaria, pero su integración se da en un ámbito lógico policontextural tetravalente (con cuatro valores de verdad: 00, 01, 10, 11), que otorga a la estructura la solidez de una unidad funcional y operativa capaz de generar hipótesis.


Figura H1 - Estructura de la inferencia analógico-adductiva

La generación de la hipótesis central de esta investigación se muestra en la Figura H2.


Figura H2 - Generación de Hipótesis

Lo anterior es posible porque el proceso generativo (creativo) se desarrolla en dos niveles que discurren en forma simultánea. El levógiro o profundo permite, partiendo del observable, probar distintos patrones en los cuales basarse para producir la regla o ley rectora que permitirá arribar a la conclusión. Este nivel profundo tiene algunas particularidades: en primer lugar, la posibilidad de manejar desde un individual (el espécimen o copia del patrón) lo universal de una regla, sin la necesidad de apelar a una ‘muestra significativa’ como en la inducción; en segundo lugar, el ciclo iterativo que se cumple en busca de la regla deja de ser ‘vicioso’ para transformarse en ‘virtuoso’ al operar heterárquicamente con respecto al ciclo superficial.

En el nivel superficial o dextrógiro se produce entonces, basada en el profundo, la generación de la hipótesis de la siguiente forma: partimos de un observable, el lenguaje natural, patrimonio de todo lo vivo, denota aspectos subjetivos. Aprehendida esta observación, se va en busca de un patrón o modelo que evidencie, superficialmente, aspectos subjetivos; tal patrón puede ser, por ejemplo, un ser vivo (paradigma de la subjetividad). Cualquier ser vivo muestra evidencias superficiales que lo caracterizan como sujeto, y es conocido desde la ciencia, que esta apariencia fenotípica tiene su origen en su genotipo; es decir en su código genético, que es el responsable de mantener la estructura genérica de las distintas especies en que se divide la biosfera. Por tanto, se elabora el patrón correspondiente: El código genético da sentido al fenotipo (lo que se ve). Paso seguido se elabora la regla basándose en un particular (un espécimen), pero que no es una ‘muestra significativa’ sino el representante de todo el universo tomado en consideración, ya que su código genético es igual al que impera en toda su especie. Luego, la regla es: el lenguaje universal del código genético da sentido a la vida de un sujeto, permitiéndole hacer evidentes los aspectos que caracterizan su subjetividad. Resta hacer la analogía entre un sujeto vivo y el lenguaje natural y llegar a la conclusión: los aspectos subjetivos (evidentes) del lenguaje natural pueden abordarse desde una lógica del sentido propia del lenguaje universal de lo vivo; que es la hipótesis principal del presente trabajo. Así, se cumple, por un lado, con la sentencia de Peirce {La abducción es el proceso de formación de una hipótesis explicativa - CP. 5.171} y, por otro, con los preceptos que dicta la ciencia.

METODOLOGÍA

Toda investigación consiste en tener en cuenta dos aspectos fundamentales; por un lado, el producto científico que se quiere lograr en función de la hipótesis propuesta, y por otro, el método que se empleará para lograrlo. Para que lo que resulte de esta conjunción pueda ser considerado ciencia, es imprescindible que se ajusten, ambos elementos, al esquema canónico aceptado por la comunidad científica.

Tal como nos lo muestra Samaja (2005, p. 41), el conocimiento científico (el producto a lograr) acepta dos variantes: la teórica (basada en teorías) y la empírica (basada en los hechos). El método por su parte, también acepta un par de opciones: la validación y el descubrimiento. Aunque sería sencillo, apareando unas opciones con las otras, lograr un panorama concreto y simple de cómo investigar; esto no es así, según lo deja ver Samaja, ya que el descubrimiento no es equiparable a los hechos, ni la validación lo es a la teoría. Necesariamente hay que contemplar un ‘producto lógico’ de todas las opciones y así, si asignamos arbitrariamente un ‘0’ a teoría y validación, y un ‘1’ a hecho y descubrimiento, obtenemos cuatro valores de verdad para una lógica polivalente que permite discriminar todas las situaciones a que nos enfrentamos cuando intentamos investigar algo: 00 = validación mediante la teoría; 01 = descubrimiento de una teoría; 10 = validación mediante los hechos; y 11 = descubrimiento de los hechos. Más allá de la mayor o menor pertinencia que tengan las posibilidades anteriores lo concreto es que, como se puede ver, investigar siempre consiste en una combinación de procedimientos destinados a descubrir algo y de procedimientos para validar lo descubierto. Según lo anterior entonces, no estaríamos faltando a la norma científica si utilizáramos un método que se adecue al conocimiento científico que pretendemos lograr y nos provea de las herramientas necesarias para validar lo que logremos descubrir.

Dado que vamos a trabajar con elementos subjetivos y que éstos no pueden ser abordados, por no estar en el dominio de la lógica tradicional, por el método tradicional más aceptado, fundamentalmente por las ciencias fácticas (hipotético-deductivo), es que optaremos por la variante analógico-abductiva (aceptada también por la ciencia) para poder acceder al dominio subjetivo con la propiedad que exige toda buena investigación.

Inspirados en Samaja (2005) emplearemos un método analógico-abductivo basados conceptualmente en la transdisciplina, y estructuralmente en una modificación de la Lógica Policontextural de Günther (1979), que hemos llamado Lógica Transcursiva.

2. UNIVERSO DE ESTUDIO
Supuestamente deberíamos restringirnos al universo lingüístico, si lo que pretendemos estudiar es el lenguaje. No obstante como lo que vamos a estudiar son los aspectos subjetivos del lenguaje natural humano, y dado que consideramos el lenguaje en general como algo real, patrimonio de todo lo vivo, es que nuestro universo de estudio es la realidad, única forma que vemos de poder entender cómo surge, se comprende y usa ese fenómeno real y vivo tan particular que es el lenguaje.

Debido al carácter inabarcable que la realidad ostenta, hemos optado por encarar el estudio u observación de la realidad y sus elementos constitutivos (incluido el lenguaje en este caso), dividiendo (arbitrariamente) la realidad en tres sistemas: a) Sistema Psico-interno; b) Sistema Bio-externo; y c) Sistema Socio- cultural.

Luego de establecer una estructura común en todos los sistemas, que constituye una especie de lenguaje universal mediante el cual se comunican, es posible construir una unidad estructural y operativa en cada uno de los sistemas mencionados: en el Sistema Psico-interno, la unidad de sentido; en el Sistema Bio-externo, la unidad lógica; en el Sistema Socio-cultural, la unidad semiótica. Estas unidades dispuestas ‘ortogonalmente’ configuran el universo semiótico (semiosfera) en donde todo lo real adquiere sentido.

Por otra parte, cada sistema se considera compuesto por dos niveles: uno superficial (el de lo evidente, lo cuantitativo, lo objetivo), y uno profundo (el de lo oculto, lo cualitativo, lo subjetivo). Ambos guardan entre sí una relación compleja, o sea, son opuestos, complementarios y concurrentes (simultáneos). Como nuestro propósito es estudiar los fenómenos subjetivos, partiendo de los fenómenos objetivos, necesariamente debemos modificar el punto de vista desde donde observar el fenómeno a estudiar. Por ello, en este trabajo se utiliza con este fin una Lógica Policontextural tetravalente que permite, al hacer un giro ontológico, sacar el sujeto fuera del sistema objetivo (superficial) y transformarlo en un verdadero observador. La Lógica Policontextural, al facilitar el acceso a los aspectos cualitativos, mediatizados por la monocontextura, posibilita que mediante una metáfora se encastren los elementos superficiales y los profundos en su origen, orden y función, determinando, además de una homología genuina, la caracterización acabada de las identidades que forman toda realidad: Sujeto, Objeto y el Cambio que los liga.

3. DISEÑO DE LA INVESTIGACIÓN Y MÉTODO
La lógica pura es ontológicamente neutra, no hace presuposiciones sobre lo que existe o pueda existir; es decir, no habla sobre el sujeto en su relación con el objeto. Restringir el conocimiento de la realidad solo a lo aportado por una visión cartesiana (mediante métodos lógico-matemáticos) es negar absolutamente la continuidad y universalidad de los fenómenos reales. De esta manera, el lenguaje como fenómeno universal que es, constituido por aspectos objetivos y subjetivos, no puede ser abordado cabalmente desde la lógica tradicional y sus sucedáneos.

La única forma de establecer un puente entre lo objetivo y lo subjetivo es cambiar el enfoque lógico; en este trabajo se aborda el problema desde la Lógica Policontextural.

Para la ciencia, la realidad es lo que se ve (lo objetivo) y su verdad es el determinar qué y cómo existe. El abordar científicamente lo subjetivo exige que nos preocupemos también del cuándo y del porqué de la existencia, y que admitamos que si hay algo a lo que se le puede llamar verdad, no es solo aquello que cumple con las reglas de la lógica clásica, sino aquello que constituye el sentido de todo lo real y que como tal, permanece oculto y se debe descubrir. El concepto de verdad en este enfoque que estamos haciendo, tiene que ver, no con premisas verdaderas o falsas, sino con alguna forma de hacer superficial (evidente) lo profundo (el sentido) de algo.

Parte del método a utilizar se basa en la abducción propuesta por Peirce (1878) como alternativa o en conjunción con la inducción y deducción clásicas. Esta elección se debe a que su creador la propone como una lógica del análisis exploratorio de los datos objetivos; es decir, una lógica de la observación y del descubrimiento, lo que le da a este enfoque el elemento de contraste.

La abducción que aporta sobre la existencia y actualidad, junto a la deducción que promueve la posibilidad y la potencialidad, y de acuerdo con la inducción que nos dice de la generalidad (de la continuidad), hacen posible un enfoque distinto de los temas subjetivos desde las directrices de continuidad y contraste que nos da la posibilidad, desde un estudio de la vida desde sus comienzos, de llegar al hombre y su lenguaje. Dado que la realidad humana es la vida, y que esta resume su historia natural en el hombre como una integración evolutiva, el lenguaje, patrón sublime de lo subjetivo, es parte de esa misma historia natural.

La abducción es la búsqueda de un patrón de regularidades en el fenómeno estudiado; y como se propone en el presente trabajo un lenguaje universal que engarza toda la realidad, es el método apropiado, pero no tal como la propuso Peirce, ya que la búsqueda de la ley o regla guía es cuasi-intuitiva. Por tanto, ampliamos el método según lo sugerido por Samaja (2005, p. 104), asociando abducción y analogía para, por un lado, generar hipótesis, pero por otro, usarlo como metodología de investigación al posibilitar un rastreo (observación) de los aspectos subjetivos del lenguaje. Todo esto sustentado en una Lógica Policontextural tetravalente.

Dado que la abducción crea, la deducción explica y la inducción verifica es que, el lenguaje desde lo subjetivo, solo puede estudiarse desde la abducción porque la creación, en este caso, surge de la observación de patrones universales y no de leyes ad hoc que expliquen lo que vemos en la superficie. De otra manera, la verdad (según la entendemos aquí) o aquello que subyace, no emerge sino a través del funcionamiento heterárquico (simultáneo e independiente) de jerarquías binarias; o lo que es lo mismo, de aquello que alojado en distintas contexturas coadyuva para dar sentido a una identidad, ya sea esta un sujeto o un objeto o sus interrelaciones.

En la inferencia abductiva se va desde el efecto a la causa y sirve para sugerir que algo puede ser, no que realmente lo sea. La regla (lo universal) no hace alusión a leyes empíricas sino a hipótesis explicativas que se conjeturan como verosímiles en función de índices que directa o indirectamente se refieren al fenómeno en estudio. El resultado (lo observable) se transforma en una serie de elementos que hacen referencia al caso (lo individual) que es lo que permanece oculto y debe ser puesto en evidencia (lo subjetivo del lenguaje); es decir, llegar a la verdad (según vimos) de la cual hay ‘rastros’ en los signos observables del resultado. El caso (la hipótesis y conclusión) por derivar de una analogía es un singular pero con características universales (ocultas), por lo que opera como una inducción ideal; o sea, dispone de una certeza máxima, al ‘conocer’ todo el universo y no llegar a la conclusión mediante la extrapolación de lo encontrado en una muestra significativa del mismo.

Por su parte, la analogía, que consiste en establecer una cierta relación entre objetos de una clase con objetos de otra, opera una transferencia estructural que en nuestro estudio se refiere a una transferencia de la lógica interna (profunda); o sea, de las interrelaciones entre los elementos constitutivos de los análogos que por esta razón, metafóricamente, están regidos por las mismas leyes y pueden ser sometidos a las mismas operaciones prácticas.

El patrón análogo se extrae de la observación fáctica y ese modelo se ajusta a la estructura propuesta, elemento a elemento y relación a relación. Dado que la analogía se establece en la realidad toda (en los aspectos psico-bio-socio-culturales), es aplicable para el análisis de cualquier fenómeno universal, como por ejemplo, el lenguaje.

La Figura M3 nos muestra el diseño planteado en esta investigación.


Figura M3 - Diseño de la investigación

La Figura M4 nos dice cómo se concibe en este estudio, la emergencia del producto de la investigación; es decir, el conocimiento científico sobre los aspectos subjetivos del lenguaje.


Figura M4 - Conocimiento científico

En la Figura M5, en fin, podemos apreciar la relación entre la realidad propuesta en este trabajo y la forma de adquirir conocimiento de ella, a través de la Lógica Transcursiva.


Figura M5 - Realidad y conocimiento

En este trabajo, el patrón o modelo que se toma como marco de referencia es el código genético. La elección recae en este universal biológico porque se ajusta exactamente para dar respuesta al planteo hecho en la hipótesis central de esta investigación; o sea:
a) Es universal (con escasísimas excepciones): todos los seres vivos tienen el mismo código.
b) Maneja una lógica del sentido idéntica a la propuesta en este trabajo: la misma cantidad de elementos constitutivos (4 bases); las mismas relaciones planteadas entre ellos (se estructura en 64 tripletes de bases o codones); permite distinguir francamente dos niveles de expresión: uno superficial o evidente (fenotipo) y uno profundo u oculto (genotipo), en donde, lo que se ve superficialmente está condicionado por lo que subyace.
c) Parece tener un origen común; esto es, habría tenido un origen único en todos los seres vivos conocidos.
d) Es específico: ningún codón codifica más de un aminoácido (unidad operativa de las proteínas) y en la mayoría de los seres vivos son los mismos 20 los que forman el genoma o capital genético de la vida.
e) Es redundante pero no ambiguo. Dos o más codones pueden codificar un mismo aminoácido, pero no a la inversa (d).
f) Permite variaciones infinitas con medios finitos.
g) Puede acoplarse a otro código para representar en forma sencilla toda su potencialidad; por ejemplo: la teoría del color de la luz, en donde se parte de tres elementos básicos (colores primarios) para definir lo evidente (superficial o fenotipo) y se define lo profundo (o genotipo) mediante la combinación (oculta) de los anteriores (colores secundarios), permitiendo caracterizar casi la totalidad de las combinaciones genéticas posibles; y todo esto, sin modificar absolutamente la lógica de base.

La idea de tomar el código genético como patrón surge de la lectura de Aristóteles (Poética, Capítulo XXI: 1457b):
“Explico la metáfora por analogía como lo que puede acontecer cuando, de cuatro cosas, la segunda permanece en la misma relación respecto a la primera como la cuarta a la tercera; entonces se puede hablar de la cuarta en lugar de la segunda, y de la segunda en vez de la cuarta”
En símbolos sería: 2a : 1a :: 4a : 3a ; lo cual se lee: la segunda es a la primera como la cuarta es a la tercera. Esto tiene la relevancia de expresar dos oposiciones por complementariedad, que además de representar el germen de toda la lógica Aristotélica, si a estas oposiciones las hacemos coexistir, dan la base de la Lógica Policontextural tetravalente que vamos a utilizar.
El código genético (aunque parezca increíble) está estructurado con la misma lógica básica que acabamos de plantear (Figura M6).


Figura M6 - Metáfora por analogía - Relación entre código genético y Lógica Transcursiva

Basado en lo analógico-abductivo el método a utilizar en esta investigación se podría definir como metafórico por analogía. La Figura M7 nos lo muestra en sus detalles fundamentales.

Figura M7 - Metodología analógico-adductiva

Según Black (1993, p. 30), la analogía permite descubrir el modelo oculto que subyace a toda metáfora. La analogía es un ir desde lo concreto (lo observable en el lenguaje corriente) a través de un modelo o patrón (código genético) a lo abstracto (teoría); o de más a menos (10→ 01; giro levógiro ), de lo superficial a lo profundo, de lo objetivo a lo subjetivo; es un ir, en fin, en busca de la verdad. Ella se aplica a un dominio conocido (fuente) para intentar conocer o comprender mejor un dominio desconocido (destino). En otras palabras, la analogía hace más familiar un dominio en el cual se producen fenómenos extremos o sorprendentes (como los llamó Peirce - 1878). De esta manera, mediante la abducción es posible abordarlos doblemente, por un lado, generando hipótesis explicativas, y por otro, permitiendo su investigación.
A través de la metáfora se realiza el camino inverso al de la analogía. Se va de menos a más (01→11; giro dextrógiro), de lo profundo a lo superficial, de lo abstracto a lo concreto; surge la verdad que se hace evidente en el cambio producido en la superficie y que no es otra cosa que el impacto de la transferencia desde el dominio fuente en el dominio destino, lo cual permite a la abducción generar una hipótesis. De esta manera se concluye que es posible que el dominio interrogado (observado) muestre una estructura (lógica) similar y por tanto, un funcionamiento homólogo al dominio conocido tomado como referencia.

La clave entonces está en utilizar la analogía para encontrar una similitud estructural (lógica) entre lo objetivo y lo subjetivo; esto es, entre dos dominios que superficialmente son muy distintos e inclusive, según la lógica tradicional, excluyentes. Encontrada la analogía, la metáfora (la abducción) se encarga de dar una respuesta a ese fenómeno oculto y misterioso que estamos tratando de observar o estudiar.

Desde el punto de vista lógico se pueden establecer las relaciones básicas que tornan operativas, tanto la analogía como la metáfora.

Toda la realidad se sustenta (genéricamente) en la relación establecida entre sujeto y objeto a través de un cambio (sea este evidente u oculto). Si representamos el sujeto con 01 y el objeto con 10 se pueden constituir las siguientes relaciones: (Figura M8)

Figura M8 - Empalme lógico entre analogía y metáfora

En la analogía lo que interesa son las semejanzas, mientras que en la metáfora, lo importante son las diferencias entre los elementos. La presencia simultánea de lo que los distingue y la ausencia simultánea de lo que tienen en común (sujeto y objeto), configuran un ensamble de la unión (∪ = disyunción) de lo que los diferencia, con la separación (∩ = conjunción) de lo que los iguala (pertenecer ambos a la categoría de elementos reales).

La metáfora aquí tiene dos aspectos a considerar: por un lado la vertiente analógica y por otro, la vertiente metafórica propiamente dicha.

La analogía parte de un observable concreto (en nuestro caso el código genético) porque sospechamos que la estructura funcional que subyace puede ser útil para estudiar un fenómeno desconocido que tiene en común con él, el compartir un ser vivo. Luego, yendo de lo concreto a lo abstracto, extraigo el patrón o modelo funcional que está en lo profundo (que no es evidente). Por tanto lo que interesa en esta etapa son las semejanzas, que al separarse, me permiten individualizar elementos que pertenecen a la misma categoría; estos elementos son el código genético (como manifestación fenotípica) y la estructura-función que lo hace universal.

A partir de aquí, debo buscar un medio de rescatar desde lo profundo, la disposición universal del modelo (lo abstracto) y relacionarlo con el fenómeno a estudiar bajo estas consideraciones; es decir, hacerlo concreto de nuevo, para poner en evidencia qué del patrón es rescatable en el dominio destino. Este paso que representa en sí una abducción, es lo que llamo metáfora propiamente dicha.
Esta metáfora se sustenta en las diferencias entre el modelo (abstracto) y la evidencia (el lenguaje por ejemplo) donde es posible captar la analogía planteada inicialmente. Si perdiéramos de vista que el modelo no es el lenguaje (si no tuviéramos en cuenta las diferencias) la metáfora sería tomada como una realidad y estaría dando por sentado que lo que puedo 'simular' con el código genético, es tal como es en la realidad. De esta forma aceptaríamos, como lo hacen las ciencias cognitivas, que una metáfora es una explicación.

La frontera entre la analogía y la metáfora (es decir: el sujeto) es el verdadero puente entre lo subjetivo y lo objetivo, donde moran desde el punto de vista lógico y simultáneamente, la disyunción y la conjunción.

Este par de operaciones lógicas son expresables desde la Lógica Transcursiva mediante una disyunción exclusiva {Aquella que es verdadera (1) solo cuando uno de sus disyuntivos es verdadero (1) y el otro es falso (0); cuando sus valores son iguales, la disyunción exclusiva es falsa (0). Es decir excluye los valores iguales a diferencia de la disyunción habitual, que los incluye (disyunción inclusiva)} que hace ‘ciclar’ el nivel superficial (en sentido dextrógiro o hacia la derecha), dándole la dinámica necesaria para ‘extraer’ la verdad desde el nivel profundo, el que está ‘gobernado’ por una operación lógica opuesta: la equivalencia {Una proposición bicondicional es verdadera (1) únicamente en el caso en que ambos componentes tengan el mismo valor de verdad; si sus valores son distintos entre sí, entonces es falsa (0). (Colacilli de Muro, 1965: 121)} (o doble implicación).

En estos simples principios se basa la metodología empleada en esta investigación; es decir, un enfoque analógico-abductivo que se justifica desde el uso de metáforas con contenido transdisciplinario.

¡Nos vemos mañana!

julio 30, 2014

Historia de la Lógica Transcursiva (Capítulo 291)

Cuaderno XII (páginas 1749 a 1754)

(Hoy veremos el Marco Teórico y parte de la Hipótesis de Trabajo de mi Tesis Doctoral)

MARCO TEÓRICO

INTRODUCCIÓN

En este estudio se considera que el lenguaje natural, junto al conocimiento y la vida misma, constituyen la base fundamental del ser subjetivo. Esta consideración hace que se indague preferentemente, en algunos campos particulares del conocimiento científico, en busca de antecedentes de tal enfoque. Lo encontrado no sorprende demasiado ya que, desde sus orígenes, la ciencia tradicional dejó de lado, por una cuestión metodológica, todo lo relacionado con el sujeto; sujeto que fue desplazado y terminó siendo un aspecto más de los estudiados por la filosofía y las llamadas ciencias sociales. Sin embargo, hoy por hoy, aquella gran responsabilidad asumida de facto y no de jure por las ciencias humanísticas, ha quedado tan diluida que en sí, no representa un verdadero paradigma del estudio del hombre.

Más aún, el hombre, profusamente atomizado en sus aspectos primordiales es abordado por una miríada de ‘ciencias’ que dicen tener la verdad sobre cada uno de esos aspectos indagados, pero, a no dudarlo, nada que se parcele tanto puede dar jamás la idea de totalidad, tanto más cuando cada parcela constituye un conjunto que resulta de la relación entre un operador y un argumento y que de por sí es disjunto con respecto a los demás. En medio de esta expansión explosiva de laboratorios de estudio, el sujeto, el hombre, que supuestamente es el verdadero objeto de estudio, no quedó exactamente en ningún lugar.

La tendencia actual está marcada, casi absolutamente, por las ciencias cognitivas; en ellas se dirime el destino del sujeto y con él, el de todos aquellos aspectos que le son inherentes, como lo es el lenguaje. La lingüística como ciencia, ha sufrido idéntica parcelación que el resto y es así que se asiste a un gran número de especialidades y de sub-especialidades dentro de sub-especialidades que hacen bastante difícil el seguir algún norte posible. Por tal motivo el marco teórico de este trabajo estará dado, en gran parte, en el ámbito de las ciencias cognitivas, ya que muchas de ellas tienen una fuerte relación e influencia en la lingüística actual que inclusive, como ciencia individual, también forma parte de ellas.

Dado que vamos a tratar sobre la subjetividad es menester apropiarse de alguna herramienta que permita su análisis y estudio. Como medio para tal fin utilizaremos la Lógica Policontextural de G. Günther (1979).

Uno de los objetivos de la investigación es proveer una herramienta semiótica, un nuevo tipo de lógica, para un estudio de la producción/comprensión del lenguaje que esté más acorde a su origen y como asumimos que este es absolutamente subjetivo, vamos a utilizar las bases lógicas que Günther aportó para adaptarlas a nuestros propósitos. Esto hace necesario plantear, al menos en sus rudimentos, el marco teórico respectivo, organizado en apartados que se referirán a la presencia de las lógicas no clásicas en lingüística y a por qué fue elegida la lógica de Günther como guía para esta elaboración.

1. CIENCIAS COGNITIVAS 
1.1. Introducción

Las ciencias cognitivas (Thagard, 2007) representan un estudio interdisciplinario de la mente y la inteligencia e incluyen: filosofía, psicología, inteligencia artificial, neurociencia, lingüística y antropología. Su origen se puede ubicar en la década de 1950 cuando un grupo de investigadores de distintas ramas de la ciencia, comienzan a desarrollar teorías de la mente basadas en representaciones complejas y procesos computacionales. Su oficialización se produjo en la década de 1970 y desde entonces, un buen número de universidades en todo el mundo, establecieron programas de investigación y de instrucción en estas ciencias.

El tratar de entender la mente no es un problema nuevo; ya desde los albores de la filosofía occidental, los griegos, fundamentalmente Platón y Aristóteles, trataron de explicar cómo funcionaba la mente a través de intentar comprender la naturaleza del conocimiento humano.

Este estudio de la mente fue patrimonio exclusivo del campo de la filosofía hasta el S. XIX, momento en el cual hace su entrada en el ámbito científico, la psicología experimental de la mano de W. Wundt (1879) quien aplica por primera vez métodos experimentales sistemáticos al estudio de las operaciones mentales.

Rápidamente esta psicología experimental se vuelca hacia lo conductual y entonces pasa a negarse la existencia de la mente. Investigadores como J. B. Watson (1913) llevan a la psicología a la restrictiva tarea de constatar relaciones entre estímulos y respuestas, y las discusiones sobre la mente y la conciencia, desaparecieron del escenario científico. Así fue el panorama, sobre todo en Norte América, hasta la década de 1950.

Miller, en 1956, realiza varios estudios en donde muestra que la capacidad de memoria es limitada y trata de explicar este hecho proponiendo que el registro de la información en esta ‘memoria de corto plazo’ requería de procedimientos de codificación y decodificación de dicha información. Por esos años hacían su aparición las primeras computadoras y los investigadores John McCarthy (1956), Marvin Minsky (1954), Allen Newell (1956) y Herbert Simon (1956), fundaban la Inteligencia Artificial. Además Noam Chomsky (1956) rechazando las suposiciones conductistas que consideraban el lenguaje como un hábito aprendido, propone una explicación de la comprensión del lenguaje en términos de una gramática mental sustentada en reglas. Se puede considerar a los últimos seis investigadores nombrados, como los creadores de las Ciencias Cognitivas.

1.2. Métodos
En general, y sobretodo en aquellas ciencias cognitivas que como la psicología, la lingüística, la inteligencia artificial y la neurociencia, tienen que ver directamente con la mente y la inteligencia, ha primado la utilización de modelos computacionales que permitieran ‘probar’ los planteos teóricos surgidos en estos campos de estudio.

Partiendo de la base de que para investigar cómo trabaja la mente no es suficiente seguir lo que dicta el sentido común o el análisis introspectivo, ya que es por todos conocido que muchas de estas operaciones mentales no nos son accesibles mediante la conciencia, es que mediante experimentos sobre razonamiento y formación de conceptos (Rumelhart y McClelland, 1986; Holland, 1986; Anderson, 1990), formación de imágenes mentales (Sadoski, 1983; Kosslyn, 1995; Damasio, 2004) y solución de problemas por analogía (Gick y Holyoak, 1983), contrastados con un supuesto marco teórico representacional, se prueban en respectivos modelos ad hoc.

1.3. Representación y Computación
La hipótesis central de las ciencias cognitivas sostiene que la mejor forma de entender el pensamiento es a través de la existencia, en la mente, de estructuras representacionales y procedimientos computacionales que operen en ellas.

La gran mayoría de lo trabajado en este campo asume que la mente se maneja con representaciones análogas a las estructuras de datos de una computadora y que los procedimientos operativos son similares a los algoritmos que esta maneja.

Para los teóricos cognitivos, las representaciones mentales son proposiciones lógicas, reglas, conceptos, imágenes o analogías que permiten la deducción, búsqueda, encaje, ciclado y recuperación de información.

La analogía inicial mente-computadora tuvo al poco tiempo una variante, al incorporar el cerebro como otro elemento análogo. Surge así el conexionismo en el seno de la naciente Psicología Cognitiva, inspirado en el asociacionismo formulado desde la psicología conductista estímulo-respuesta de E. Thorndike (1898). Fue F. Rosenblatt (1958) uno de los principales responsables de la reformulación cognitivista de este enfoque que, sustentado en el funcionamiento biológico neuronal y potenciado por el trabajo señero de Warren McCulloch y Walter Pitts (1943)1, en 1962 desarrolló una prueba de convergencia y definió el rango de problemas para los que su algoritmo aseguraba una solución. Propuso los 'perceptrons' como herramienta computacional, aportando nuevas ideas sobre la representación y computación mentales.

Finalmente las ciencias cognitivas terminan siendo una integración compleja de la analogía entre mente, cerebro y computadora utilizada para sugerir posibles modos operativos de la mente.

Asumiendo que el cerebro procesa la información en paralelo; es decir, a través de varios procesos simultáneos, con la llegada de la nueva tecnología de multiprocesadores en una sola computadora se elaboraron modelos informáticos que trataban de remedar tal funcionamiento. Esto se vio fundamentalmente en el campo de la inteligencia artificial con el desarrollo de cada vez más sofisticadas redes neuronales artificiales.

1.4. Planteos Teóricos
Las ciencias cognitivas parten desde una serie de premisas de índole especulativa que intentan dar base a las distintas explicaciones de cómo funciona la mente. Esta especie de supuestos básicos (en un intento de aproximación a una ciencia natural) entreteje la trama fundamental que contiene todos sus desarrollos, siendo la lógica formal su hilo esencial. Se le da notable preponderancia al cálculo proposicional o lógica de enunciados {Un enunciado es toda oración gramatical declarativa, esto es, aquella que es capaz de ser verdadera o falsa, dado que todo enunciado expresa -o significa- una proposición. (Diccionario de Filosofía Herder, 1996)} como herramienta idónea para expresar todo tipo de conocimiento complejo y por tanto, los mecanismos mentales y aquellos que tengan que ver con el pensamiento, pueden ser caracterizados mediante deducciones y reglas de inferencias lógicas. Al aceptar que el ser humano tiene representaciones mentales similares a las sentencias utilizadas en la lógica de predicados {La lógica de predicados es un lenguaje formal cuyos enunciados son fórmulas con las que simboliza y analiza la estructura interna de las frases. (Diccionario de Filosofía Herder, 1996)}, se especula con la existencia de procedimientos deductivos e inductivos que operan sobre estas sentencias para producir las inferencias.

Se admite que gran parte del conocimiento humano puede ser descrito, naturalmente, en términos de reglas con la forma if then else {Estructura lógica fundamental de cualquier lenguaje de programación de computadoras. El uso del si condicional en inglés (if) posibilita, desde elaborar sentencias o estructuras de control, hasta tomar decisiones y realizar un proceso repetidas veces. Son las denominadas bifurcaciones y bucles. Estas estructuras son muy importantes en informática puesto que se encargan de controlar el flujo de un programa, según los requerimientos del mismo} (si tal cosa ocurre luego haga esto de lo contrario haga esto otro). Por tanto, un comportamiento inteligente se podría poner de manifiesto mediante el uso de reglas de este tipo, que permitan rastrear un ‘espacio’ acotado de soluciones posibles para un problema determinado, con el agregado de la producción de nuevas aplicaciones de la misma regla (con otros elementos) con el fin de dar respuesta a las distintas alternativas que se puedan presentar. Este tipo de procedimiento es ampliamente usado en experimentos psicológicos que intentan mejorar la adquisición del lenguaje (Allen, 1995, Rodríguez, 2003), enseñar a solucionar problemas complejos (Kowalski, 1986) o de favorecer en general, el aprendizaje (Molina, 2003).

Otro de los elementos en los que se basan las ciencias cognitivas es el concepto, el cual se corresponde, parcialmente, como representación mental, a las palabras del lenguaje oral y escrito.

Esta elección pretende cambiar la vieja visión del concepto como una mera definición, por un conjunto de aspectos típicos que permitan aproximarlo al elemento que representa del mundo real y así poder ser aplicado a las situaciones cambiantes del entorno. Una explicación de cómo un ser humano podría tener un tipo particular de comportamiento inteligente sería: que dispone, por un lado, de un conjunto de conceptos organizados jerárquicamente, y por otro, de un conjunto de procedimientos para aplicar dichos conceptos, trasladándolos a reglas que se adaptan a diferentes procesos computacionales.

El enfoque cognitivista considera que las analogías juegan un importante papel en el pensamiento humano, en áreas tan diversas como solución de problemas, toma de decisiones, explicación y comunicación lingüística. Se asume que el humano posee representaciones visuales y verbales que pueden ser utilizadas en situaciones análogas a las que las generaron. Se opera sobre estas analogías mediante mecanismos de recuperación, rastreo y adaptación; luego, procesos análogos aplicados a representaciones análogas, producen un comportamiento determinado.

Un comportamiento inteligente, dicen los cognitivistas, también puede ser producido a través del manejo de imágenes (visuales y de otro tipo), dándoles a estos elementos un papel importante en el pensamiento humano dado que, mediante ellas es posible ‘captar’ mucha más información visual y espacial que la que posibilita una simple descripción verbal. El humano dispondría de procesos que mediante manipulación de las imágenes (rastreo, rotación, etc.), generarían un comportamiento específico.

La aproximación conexionista es otro enfoque que utilizan las ciencias cognitivas para explicar el comportamiento inteligente, aceptando que existen representaciones que involucran unidades simples de proceso unidas a otras del mismo tipo, mediante conexiones excitatorias e inhibitorias.

Mecanismos dedicados se encargarían de propagar la activación entre estas unidades, a través de sus conexiones, como así también, posibilitarían el modificar una conexión ya establecida. Aplicando una activación que se propague y generando un aprendizaje (reforzando caminos ya recorridos) se produciría el comportamiento esperado. Se piensa que mecanismos como el descrito, estarían involucrados en la visión, la toma de decisiones y en la comprensión del lenguaje.

1.5. Algunas limitaciones generales de las ciencias cognitivas
A pesar de auto-catalogarse como el estudio científico de la mente (Bruner, 1966; Newell y Simon, 1972; Minsky, 1986; Gadner, 1987; Chomsky, 1992; Bly y Rumelhart, 1999), su aproximación a las ciencias naturales es cuando menos, forzada, ya que aunque se dicen no especulativas sino hipotético-deductivas, pocos conceptos manados de su seno cruzaron la valla de lo incontrastable.

De entre los aspectos que consideramos, en esta investigación, como no resueltos por estas ciencias, podemos mencionar: a) el carácter innato o adquirido del conocimiento; b) si el cerebro opera con un lenguaje codificado o el pensamiento es consecuencia de una determinada arquitectura conexionista. Es decir, cuál es la relación entre los modelos cognitivos simbólicos y las redes neuronales, si es que hay alguna; c) si la mente opera con imágenes visuales o de otro tipo, o solo con un lenguaje de representaciones abstractas; en cualquier caso, qué se debe entender por cada uno de ellos; d) si el significado de las representaciones mentales (si las hubiera) depende de su relación con otras representaciones, de su relación con el mundo real, o de su relación con el pensamiento de los demás; e) si los ‘estados mentales’ se corresponden con los ‘estados cerebrales’; o sea: si hay una relación entre psicología y neurociencia, y cuál es; f) si existe algo parecido al libre albedrío o la intencionalidad, o las acciones humanas son solo producto de eventos cerebrales; g) el papel que juegan las emociones en el acto de pensar y qué es una emoción; y h) si está en la relación mente/cerebro la posibilidad de dar forma y evaluar las supuestas representaciones del mundo exterior; en otras palabras, cómo opera la distinción entre apariencia y realidad.

¿Dónde se originan estos desencuentros epistemológicos?

De lo analizado hasta ahora se puede concluir que lo no explicado o explicado mediante ‘rodeos argumentativos’ por estas ciencias, tiene un origen múltiple y único a la vez. Diciéndolo más claro: hay una serie de aspectos a los cuales, las ciencias cognitivas les resta importancia cuando no, directamente, los niega o ignora en su relación con el pensamiento, como son: las emociones, la conciencia, el entorno, lo biológico, lo social, el sentido común, lo intencional, lo psíquico en general lo cual es considerado (en contadas ocasiones) como un sistema computacional más que como un sistema dinámico adaptativo. Luego, el origen único de todas estas ‘carencias’ es no tener en cuenta la subjetividad (y todo lo que esto comporta), algo que por otra parte, no distingue al enfoque cognitivo del de las ciencias en general.

En síntesis, como se ha podido apreciar a lo largo del desarrollo histórico- metodológico de la Lingüística Cognitiva hay al menos tres aspectos comunes: i) uso de la lógica tradicional o de alguna de sus variantes como ‘hilo esencial’ de toda su trama; ii) manejo del concepto de información sustentado por la informática; iii) adhesión casi incondicional a la teoría del procesamiento de la información cuyo supuesto fundamental es la abstracción cíclica de los procesos cognitivos por la que cualquier hecho informativo unitario puede describirse de modo más completo, si se divide en unidades más pequeñas. Esta adherencia al análisis secuencial de la información descansa, por otro lado, en una supuesta emancipación de las partes del proceso, haciendo de la cognición humana algo que queda definido ‘exclusivamente por leyes sintácticas’ que se ocupan de guiar la construcción de procesos más complejos. Por tanto, lo cognitivo en el hombre es concebido como un sistema lógico de procesamiento de información. En esto se ve la influencia de Chomsky que, como hemos visto, fue quien sembró estos conceptos en los cimientos mismos de las ciencias cognitivas.

1.7. Conclusión
Si tuviésemos que nombrar algún elemento que caracterice el enfoque cognitivista, sin dudas sería el procesamiento de la información, ya que en él se incardinan, tanto la adhesión a los preceptos lógicos, como la idea de proceso computacional, además de un concepto ambiguo sobre lo que es la información.

El procesamiento de la información respalda el hecho de que los sujetos construyen su propio conocimiento a partir de sus estructuras y procesos cognitivos, sin explicar cómo se construyen tales estructuras y procesos. Consecuencia directa de lo anterior es que una simulación se convierte en una explicación. Aquello que pueda ser imitado queda de facto explicado y por una consecuencia lógica, todo lo que no se puede imitar no se puede explicar o en el mejor de los casos pasa a la categoría de irrelevante.

Los modelos lógicos planteados han mostrado ser ineficaces a la hora de formalizar tanto lo semántico, como los supuestos contenidos cognitivos, ya que mediante leyes sintácticas (y transformacionales, al mejor estilo chomskyano) pretenden dar cuenta de los distintos procesos que relacionan entradas y salidas del sistema, luego de un procesamiento ad hoc de los datos (y no de información). Ante tal panorama no es posible pensar en un lugar, en este tratamiento, para lo cualitativo, ya que de lo contrario no sería una ciencia objetiva. Luego, tampoco hay un espacio adecuado para analizar lo subjetivo y ninguna de sus manifestaciones básicas, según se consideran en este trabajo, a saber: la vida, el conocimiento y el lenguaje.

HIPÓTESIS DE TRABAJO

Cualquier hipótesis va más allá de la evidencia de los datos que intenta explicar. O sea, las hipótesis tienen un contenido más considerable que los datos cubiertos por ellas. Por ejemplo, la subjetividad es conjeturable, pero no observable. Por eso se necesita de una hipótesis; sin embargo esta hipótesis puede ser falsa si se analizan los datos desde la lógica tradicional, pues las generalizaciones lógicas no son en sí mismas datos, sino solo una construcción lógica.

Las hipótesis tampoco pueden quedar establecidas por una sola experiencia (por ejemplo: algún proceso computacional que imite algún proceso cerebral); los datos sueltos no pueden establecer sino, a lo sumo, refutar una hipótesis.

Puesto que el mundo nunca nos está dado enteramente, tenemos que formular hipótesis de alguna manera. Cuando hablamos sobre la subjetividad no estamos en realidad aportando información sobre nuestra experiencia al respecto, sino formulando una hipótesis con cuya ayuda se pueda interpretar ciertas experiencias. Estos supuestos, por ser parte de una hipótesis, no son acerca de nuestra experiencia, sino sobre hechos no experimentados por otros que yo uso para explicar mi propia experiencia.

El carácter hipotético de una proposición que involucre aspectos que tengan que ver con la subjetividad se puede poner de manifiesto por su forma lógica, como en cualquier hipótesis, pero aquí esta forma no puede ser la de la lógica tradicional o monocontextural. Esta última opera entrelazando dos proposiciones concretas, de las cuales, una puede ser una hipótesis y la otra un dato; pero, no hay manera conocida de que esta situación se corresponda al condicional completo (es decir a la proposición hipotética completa). En otras palabras, el tener la forma de un condicional, el ser una proposición hipotética ya la hace una hipótesis, pero aunque cambiemos en las proposiciones de la forma si entonces (if then) su nombre de hipotéticas por condicionales, no las hace indicadoras absolutas del estatus epistemológico y metodológico (Bunge, 2004a, p. 197).

A nivel lógico monocontextural una hipótesis es un supuesto, o sea, el punto de partida de una argumentación y por ende, una premisa; una fórmula previamente aceptada (axioma, teorema, etc.), o una convención o un enunciado introducido a modo de ensayo que posibilita alguna deducción que permite evaluar ciertas consecuencias. A nivel policontextural (el marco propuesto en este trabajo para el estudio de lo subjetivo), una hipótesis es lo que saldremos a buscar desde un razonamiento analógico-abductivo.

Las hipótesis referidas a los eventos dados en la realidad son presunciones enunciadas para dar alguna explicación a los hechos. En este trabajo, la hipótesis central trata de explicar los hechos reales (de una realidad definida específicamente), sean conocidos o no por la experiencia.

Hay tres requisitos que debe cumplir una hipótesis para ser considerada científica (Bunge, 2004a, p. 200): i) debe estar bien formada (formalmente correcta); ii) debe estar fundada en conocimientos científicos previamente convalidados; iii) tiene que ser empíricamente contrastable, mediante técnicas y teorías científicas.

Para lograr lo anterior, a lo largo de la historia de la ciencia, se han seguido variados caminos. En lingüística es bastante difícil cumplir con los preceptos anteriores pues es complicado hacer ‘encajar’ el esquema ‘objetivo’ del lenguaje natural en los patrones objetivos de las ciencias empíricas.

A comienzos del S. XX se dio un fenómeno curioso. Se produjo, en filosofía, lo que se conoce como el ‘giro lingüístico’, de la mano de los positivistas lógicos del Círculo de Viena, y desde allí trascendió a todas las áreas del conocimiento que el lugar ocupado durante siglos por la razón ahora lo ocuparía el lenguaje, ya que él era, precisamente, el que nos diría sobre el significado de la realidad. Esto indujo a los científicos a encarar sus investigaciones desde un supuesto ‘lenguaje de la ciencia’ que unificaba la consecución de conocimientos a través de un método científico con fuerte arraigo en el lenguaje de la lógica y proyectado al lenguaje natural por el ‘realismo semántico’ de Frege (1973). De aquí en más, la presunción de que solo tienen algún interés teórico aquellas expresiones que describiendo algún estado de la realidad pudieran ser caracterizadas como verdaderas o falsas, fue moneda corriente y la clave para la solución casi definitiva a todos los problemas planteados en las ciencias humanísticas. Pero como bien nos dice Popper (1980, p. 16) 
Reconozco que entender las funciones de nuestro lenguaje es una parte importante de la filosofía, pero no lo es acabar con nuestros problemas presentándolos como meros ‘rompecabezas lingüísticos
Hay otro pasaje en "La Lógica de la Investigación Científica" de Popper, que deja en evidencia una tendencia en investigación que hoy día es mayoritaria, sobre todo en el campo de la lingüística, y que se toma muy en serio lo del 'lenguaje de la ciencia':

Hay un grupo que tienen como meta estudiar el ‘lenguaje de la ciencia’ y que han escogido como método filosófico la construcción de modelos artificiales de lenguajes esto es, la construcción de lo que creen ser modelos del ‘lenguaje de la ciencia’ ~ en clara alusión a las por entonces nacientes ciencias cognitivas de la mano de Chomsky ~ Ellos parten del ‘nuevo camino de las ideas’; es decir, reemplazan el método (pseudo-) psicológico del ‘nuevo camino’ antiguo por el análisis lingüístico. Pero debido quizá a los consuelos espirituales que proporcionan la esperanza en un conocimiento que sea ‘exacto’, ‘preciso’ o ‘formalizado’, han elegido como objeto de su análisis lingüístico el ‘lenguaje de la ciencia’ en vez del lenguaje ordinario. Más, por desdicha, al parecer no existe semejante ‘lenguaje de la ciencia’, por lo cual se les hace necesario construir uno; sin embargo, la construcción de un modelo a tamaño natural que funcione como ‘lenguaje de la ciencia’ – un modelo en el que pudiera manejarse una verdadera ciencia, como la física - resulta ser algo dificultosa en la práctica, y, por tal razón, los encontramos embarcados en la construcción de muy complicados modelos que funcionan, pero en miniatura – de enormes sistemas de diminutos chirimbolos.” (1980, p. 20-21)

Al margen de la tendencia que se estableció en lingüística de investigar el lenguaje natural mediante modelos basados en lenguajes artificiales, la ciencia toda se ‘acomodó’ al modelo lógico y el método científico quedó definitivamente ceñido a la tarea de perseguir la verdad que asegurara el conocimiento de la realidad; y para llegar a esta verdad no se encontró otra manera, que a través de inferencias lógicas que argumentaban, ‘correctamente’, a través de hipótesis que conducirían por el camino racional y objetivo, al método mediante el cual se podía ‘hacer ciencia’.

Karl Popper fue una figura de relevancia en la investigación científica porque, oponiéndose a los métodos inductivos que propone el deductivismo lógico, que al unirse al método empírico, desembocó en lo que hoy se conoce como método hipotético-deductivo y que representa, actualmente, el método al que la ciencia le tiene mayor confianza.

Como se puede ver la tendencia fundamental en la ciencia es lógica y dentro de esta, silogística; es decir, basada en el silogismo, esa forma de razonamiento deductivo creada por Aristóteles y que plantea dos premisas y una conclusión que representa una inferencia necesariamente deductiva surgida de ellas.

Como nos dice Bunge (2004a, p. 260) “La lógica presupuesta por la ciencia factual no es sino una entre las innumerables lógicas posibles (consistentes) es: la lógica ordinaria bivalente o de dos valores de verdad (verdadero/falso). Las demás teorías lógicas son interesantes pero no se aplican al análisis del discurso científico”. Y en otro pasaje (ibidem) “La ciencia tiene que aceptar de algún modo y en algún lugar los principios de la lógica (identidad, no contradicción, y TND),
para distinguir las fórmulas e inferencias correctas de las incorrectas

Si hacer ciencia pasa, necesariamente, por la lógica entonces, para abordar científicamente la subjetividad, debemos plantear algún modo científicamente aceptado de utilizar la lógica, ya que desde la lógica tradicional (la de la investigación estrictamente objetiva) estamos doblemente limitados. Por un lado, desde el planteo silogístico que contempla al silogismo como una expresión formalizada de las leyes del pensamiento asumiendo que el pensar es idéntico al pensar lógico, cuando en realidad el pensamiento lógico usa de la razón de un modo absolutamente irracional; y en segundo lugar, desde la lógica binaria que dispone de leyes que excluyen lo subjetivo, además de no disponer de los suficientes elementos como para contener la subjetividad (específicamente más valores de verdad).

En cuanto al silogismo contemplaremos en forma resumida, dos propuestas importantes que lo modificaron con respecto a su planteo aristotélico original: una es la que aportó Hegel y la otra la que propuesta por Peirce, se transformó en una alternativa de la lógica de la investigación, muy usada en la actualidad principalmente en el campo de la Inteligencia Artificial.

La propuesta de Hegel (1985, T.II, pp. 131 y ss.) se centra en que todo objeto de pensamiento implica su propio opuesto como aspecto verdadero e inseparable (en Aristóteles los opuestos se excluyen).

Luego, la naturaleza real de una cosa es siempre triple: primero lo que aparenta ser (tesis), después lo opuesto a esto (antítesis), y por último, el resultado de la unión de los dos anteriores (síntesis). Según la noción de silogismo – nos dice Hegel – lo verdadero es la relación de las diferencias por un medio que constituye su unidad. Pero las relaciones de los extremos (las premisas mayor y menor) con el término medio, son relaciones inmediatas; es decir superficiales, con lo que se hace necesario demostrar indefinidamente tales premisas. Esta especie de contradicción del silogismo, Hegel propone solucionarla mediante la posibilidad de sintetizar una descripción con una teoría; o sea, lo particular con lo universal. De aquí surge lo que llama el silogismo de la reflexión en donde se parte de lo universal presupuesto (deducción), el cual se apoya en lo particular observado (inducción) pero, dado que no es posible investigar la infinidad de individuales que existen, se apoya en una analogía (un modelo) con un individual, aunque algo particular, porque este individual tiene una significación general al representar una especie; es decir, ser un espécimen que comparte la estructura interna con los de su clase y no solo los aspectos superficiales.

De esta manera, el primer silogismo halla mediación en el segundo y éste en el tercero, que a su vez invoca lo universal determinado o la individualidad en cuanto género. Así, las formas de la relación exterior de lo individual y de lo universal son agotadas en el silogismo de la reflexión.

La propuesta de Hegel, muy ingeniosa, soluciona una parte del problema cual es, el tener en cuenta el aspecto ‘profundo’ de estas relaciones que, en última instancia, es el responsable de lo que ‘vemos’ en la superficie. Pero como contrapartida, se pierde todo lo superficial. Es verdad que la descripción aristotélica caracteriza muy incompletamente lo superficial, pero no por eso la tenemos que desechar.

[continuará ... ]

¡Nos vemos mañana!

julio 29, 2014

Historia de la Lógica Transcursiva (Capítulo 290)

Cuaderno XII (páginas 1743 a 1748)

(En el capítulo de hoy vamos a comenzar con los capítulos iniciales y los finales de la Tesis, es decir, Introducción, Marco Teórico, Hipótesis de Trabajo, Metodología, y Conclusiones, Apéndice y Glosario. También se ofrecerá el listado completo de las Referencias Bibliográficas)

INTRODUCCIÓN

El presente trabajo aborda el estudio del lenguaje natural humano desde la observación. Se busca con ello poder determinar, sin condicionamientos, su realidad, su arraigo a lo vivo, su anclaje subjetivo y qué aspectos de la realidad del hombre es capaz de reflejar y cómo lo hace.

Para poder aproximarse a lo anterior será preciso disponerse a dejar en un suspenso momentáneo algunos marcos conceptuales que quizás, por estar muy arraigados, no nos dejen contemplar todo el amplio panorama de posibilidades que se nos ofrece como una invitación a explorarlo y lograr así, avanzar algo más sobre el conocimiento de este tan esquivo tesoro humano.

Este estudio se enmarca dentro de un enfoque semiótico pero desde una Semiótica que no sigue los cánones tradicionales, sino que, y no por esto menos válida, adopta criterios fundamentalmente lógicos para su encuadre. Aunque la Semiótica convencional es de carácter lógico, aquí se invoca una estructura distinta apta para tratar aspectos que tienen que ver con la vida y lo subjetivo manado de ella, estrechamente ligados ambos, al lenguaje y no solo con la objetividad que una ciencia pretende trabajar.

Los planteos que se hace esta investigación bien pueden quedar reflejados en las siguientes cuestiones:

¿Hay una solución evolutiva entre la esfera del sentido y el entorno?; es decir, ¿es necesario encontrarle sentido a la realidad para seguir vivos?

Dado que el lenguaje es patrimonio humano y, supuestamente, su manejo está en el aspecto psíquico del hombre, ¿cómo surge esa psiquis, cómo se estructura y funciona?

Si para que haya un lenguaje que estudiar necesitamos estar vivos, y además tener un aparato psíquico apto para su manejo, ¿cómo funciona este acople psico-biológico?

Si una de las funciones obvias del lenguaje es servir como elemento comunicativo y esto involucra un medio socio-cultural operativo, ¿cómo surgen, evolucionan y se ‘heredan’ los ‘patrones’ socio-culturales que facultan la comunicación?

Por último, habiendo indagado por los condicionantes necesarios para la existencia de un lenguaje como el que tenemos, ¿cómo se adquiere tal lenguaje? ¿hay algún proceso evolutivo que explique por qué es tanto universal como variado?

Demasiadas cosas a las que responder, podrá aducirse, pero no son tantas ni tan insolubles si se plantean desde otra óptica que no sea la estricta formalidad y experimentación.
Como respuestas transitorias a las preguntas anteriores invocaremos solo dos de los elementos que en este trabajo tendrán un peso relevante: la presencia de una lógica del sentido que permita ligar la realidad del lenguaje a la realidad toda ,y la existencia de un Lenguaje Universal que soportándose en dicha lógica, justifique la emergencia psico-bio-socio-cultural como el sustrato del lenguaje natural humano.

Los aspectos que conforman el escenario teórico en donde se desenvolverá este trabajo, tienen que ver con el amplio campo de las Ciencias Cognitivas (Filosofía, Psicología, Inteligencia artificial, Neurociencia, Lingüística, Antropología) las que, desde su nacimiento (hace ya más de 50 años), han dictado el destino de la investigación lingüística.

Cada disciplina cognitiva trata de informar, desde su lugar, sobre los aspectos del lenguaje que ella abarca, descuidando algunos supuestos pormenores que, según trataremos de demostrar, constituyen elementos relevantes a la hora de entender qué es el lenguaje.

A nadie escapa que el lenguaje es usuario-dependiente y por tanto, lo conveniente para su estudio sería que no se transforme en observador-dependiente como lo son, por ejemplo, los fenómenos físicos analizados desde la física clásica. Un análisis lingüístico desde las estrictas normas científicas (ligeramente adaptadas) abarcará una pequeña parte (la evidente y superficial) de lo que pueda atribuírsele al lenguaje mismo; de esta manera solo se podrá lograr la formulación de cualquier ley objetiva que haya de tener, a priori, una oportunidad de ser cierta.

La justificación de este estudio entonces está en tratar de descubrir leyes expresadas en función del resto subjetivo del lenguaje que a nuestro juicio, constituye su rasgo más destacado.

Si en el mundo que nos rodea no hubiera realidad sino una visión individual de cada uno de nosotros, no esperaríamos poder encontrar ninguna ley que ligara una visión a las otras. Es la conexión íntima entre las visiones humanas (universalmente dadas) y las visiones simultáneas de otro, lo que nos lleva a creer en un origen externo común de las diferentes visiones a las que nos estamos refiriendo. La lingüística, de la mano de las distintas Ciencias Cognitivas, intenta explicar cómo las semejanzas y diferencias que hay entre las visiones de los distintos seres humanos, influyen en la expresión que surge ante la percepción de un mismo hecho. Claro que, para poder lograr esto con un grado aceptable de realidad, se deberían conocer cuáles son las semejanzas que, a no dudarlo, no son las que habitualmente se suponen, ya que al tener la obligatoria intervención de lo biológico, lo psíquico y lo socio-cultural, mal se puede afrontar la problemática desde un punto de vista estrictamente objetivo.

Por lo considerado anteriormente se sustenta la hipótesis de que es posible abordar, cabalmente, el estudio del lenguaje desde una Semiótica entendida como una lógica del sentido que contemple la subjetividad. Como hipótesis secundaria se propone que el lenguaje natural humano y dentro de él, las distintas lenguas, son producto de una evolución genética manifiesta a través de una variabilidad evolutiva.

Desde la hipótesis central planteada se desprenden una serie de objetivos a lograr en esta investigación. El principal de ellos es aportar una herramienta semiótica, un nuevo tipo de lógica, para un estudio de la producción/comprensión del lenguaje más acorde a sus orígenes. Son objetivos secundarios: el proponer una solución evolutiva a la relación entre la esfera de significación y el entorno; el sugerir cómo emerge y se estructura la psiquis; el plantear cómo se adquiere el lenguaje humano y como fue su evolución hasta nuestros días; el esbozar cómo surgen, evolucionan y se heredan los patrones socio-culturales; y el establecer pautas de diseño y construcción lógica de un autómata capaz de un comportamiento simbólico que sea útil para fundamentar las bases teóricas de un modelo de estudio del lenguaje mediante la simulación.

Metodológicamente se encara el análisis del lenguaje desde un enfoque analógico-abductivo. Conceptualmente, y bajo las directrices de continuidad y contraste, se asume que estudiando la vida desde sus comienzos, llegaremos al hombre y su lenguaje; y dado que la realidad humana es la vida, y que ésta resume su historia natural en el hombre como una integración evolutiva, el lenguaje patrón sublime de lo subjetivo, es parte de esa misma historia natural. La Cibersemiótica aporta, en cuanto a los aspectos generales del método, la necesidad de establecer un puente entre lo objetivo y lo subjetivo y esto lo propone desde la transdisciplina que involucra, según se ve en este trabajo, la utilización de metáforas a las que se les aplica todas las leyes que rigen la especialidad científica desde donde se las extrae, en contraposición a lo interdisciplinario en donde tales metáforas carecen de contenido. Esto parte de la suposición de que la información aportada por una especialidad científica determinada, desde donde se encara el estudio, no basta y que necesariamente se le debe dar intervención a especialidades que enfoquen íntegramente el aspecto humano del tema objeto de estudio y no solo mencionarlas a través de algún concepto aislado.

El elemento de unión de las distintas disciplinas invocadas en este trabajo es una lógica policontextural (no clásica) que precisamente constituye la herramienta propuesta para el estudio del lenguaje desde lo subjetivo, lo cual va a permitir poner a prueba, de esta forma, su adecuado funcionamiento.

El núcleo de este trabajo se ha desarrollado a lo largo de cuatro capítulos principales, los cuales están precedidos por una introducción y los capítulos: Marco Teórico, Hipótesis de trabajo y Metodología; y seguidos por las Conclusiones Generales, un Anexo y la Bibliografía con sus respectivas referencias.

El Capítulo 1 aborda la realidad subjetiva y su transitar por los distintos sistemas reales. Para ello se analizan aspectos filosóficos generales y los surgidos de la propuesta de G. Günther (1959); como así también, aspectos lógicos que según se ven, podrían ser tomados en cuenta como un fundamento firme en futuros intentos de explicación de los fenómenos subjetivos: se presenta lo que a partir de aquí se conocerá como Lógica Transcursiva.
En un resumen general quedan establecidas las bases sobre las cuales se puede desarrollar (en investigaciones futuras) una simulación de los sistemas reales planteados y poder probar de esta forma su funcionamiento, especialmente del sistema Socio-Cultural, que es donde se hace evidente el elemento subjetivo fundamental motivo de este estudio: el lenguaje natural humano.

El Capítulo 2 trata sobre la existencia del lenguaje universal que subyace a los principios mismos de la vida, lo cual sirve a su vez, de sustento para caracterizar un segundo lenguaje, aquel que cumple la función comunicativa entre elementos individuales al permitir la reorganización de la realidad circundante. Se muestra que es posible establecer un paralelo entre el desarrollo de este lenguaje natural y la evolución del sistema nervioso central que le da sustento. La Lógica Transcursiva se muestra operativa tanto en la unidad biológica del sistema nervioso: la neurona, como en la complejidad de la corteza cerebral. Un resumen final integra, en la Lógica Transcursiva, todos los niveles filogenéticos con las distintas etapas del desarrollo neurológico.

El Capítulo 3 considera el estudio de la pieza clave en el problema que plantea la subjetividad: la psiquis. Durante el desarrollo del mismo se busca una demostración de la posible existencia del lenguaje universal como pauta insobornable de coherencia lógica con la realidad. Encontrado éste, se propone una estructura y funcionamiento psíquicos que expliquen, de una forma aceptable, la presencia viva y real de nuestro ‘mundo interno’ y de cómo se da la comprensión del lenguaje natural que este utiliza para comunicar su experiencia.
Se reafirman los hallazgos mediante un análisis contrastado de la ironía y se presenta, a modo de resumen final, los pormenores comunicativos durante un acto sémico que acierta en encontrarle sentido a un hecho real.

El Capítulo 4 muestra a los hechos reales como la unidad estructural del Sistema Socio-Cultural y nos dice de la existencia del Lenguaje Universal que soporta los principios mismos de la subjetividad. Revela la posibilidad de un estrecho paralelo con el mundo biológico el cual da las bases de un abordaje genético y luego evolutivo del Lenguaje Natural humano. La Lógica Transcursiva está presente para demostrar, que el modelo propuesto como herramienta para la investigación del lenguaje natural es operativo, y que además, posibilita otras aplicaciones que hacen al entorno de la investigación lingüística en sí misma. Las aplicaciones prácticas que se ofrecen permiten evidenciar, no la inhabilidad de los métodos actuales para estudiar el lenguaje, sino los parámetros que hay que tener en cuenta para justipreciar los logros obtenidos y a obtener por estos medios, tal como se lo deja ver en el resumen general que cierra este capítulo.

En los próximos capítulos se abordarán los aspectos teóricos que le dieron marco a esta investigación; es decir: las ciencias cognitivas y la lógica policontextural, para desarrollar luego, una formulación epistemológica de las hipótesis con el fin de justificar el enfoque metodológico utilizado en este trabajo.

[continuará ... ]

¡Nos vemos mañana!

julio 28, 2014

Historia de la Lógica Transcursiva (Capítulo 289)

Cuaderno XII (páginas 1737 a 1742)

(Hoy continuamos con los colores ocultos)

Principios básicos del funcionamiento de los colores ocultos

Una de las maneras de comprender el funcionamiento genético en biología es analizar las mutaciones. Dado que una mutación, en general, es producto de una inactivación de uno o más genes, la expresión superficial de esta ‘anomalía’ puede orientar sobre dónde se originó y explicar las transformaciones que se hacen evidentes.

Para entender de una manera simple a qué nos referimos con el término mutación, bastará con imaginar lo que ocurría si en el caso de la célula mensajera (vista en un punto anterior) por un ‘error’ de interpretación, la mitad de los elementos celulares nucleares, ubicados correctamente cada uno en su respectivo cuadrito de color, leyera la hoja Nº 2 de su manual de instrucciones, en vez de la Nº 1 como el resto, para generar la primera parte del mensaje. El resultado, en la superficie, sería un mensaje, que por lo menos para nosotros, resultaría incomprensible ya que aparecería en la pantalla algo como esto: ESTVA (en vez de ESTOY).

De una manera similar proponemos, en el estudio de las lenguas, el análisis de las variaciones que existen entre ellas, pero abordándolas desde el punto de vista genético (tal como entendemos el término en este estudio).

La inactivación de un gen en biología significa que, o un órgano o un conjunto de ellos no se desarrollan o bien que una función determinada, en un órgano presente, no se lleva a cabo.

Un supuesto paralelo lingüístico (que luego desarrollaremos más ampliamente) es el caso de la (des)cortesía. En muchas lenguas, si removemos una palabra determinada en una frase, esta se puede transformar en una incorrección gramatical y/o en una aseveración sin sentido, pero en otras ocasiones, como sucede por ejemplo, con la palabra gracias, al ser suprimida en una expresión, no modifica su legalidad gramatical ni su sentido, pero sí transforma a una expresión cortés, en una manifestación de descortesía. Este hallazgo tan común y que ha orientado muchos de los estudios actuales sobre el tema de la cortesía, no deja de ser una convención y nada nos dice de las características de las lenguas analizadas desde la cortesía. Lo pragmático del lenguaje solo tiene valor como tal; es decir, solo puede orientar hacia los bienes de uso, pero poco es lo que aporta sobre los elementos íntimos que hacen a una lengua en su esencia, ya que las diferencias significativas entre una lengua y otra no son una cuestión de código sino de interpretación. De esto se colige que, asignarle el mote de primitiva a una lengua, por no disponer de estructuras que ayuden a expresar un comportamiento supuestamente cortés (y por ende, supuestamente culto), es cuando menos, un improperio.

Antes de llegar al análisis comparativo entre dos lenguas tomadas como ejemplo, haremos un ejercicio teórico para poner en evidencia el método a utilizar en esta comparativa.

Vamos a suponer que S, V y O, los componentes superficiales del REM, son elementos mutantes que derivan de un color oculto (el BLANCO) y que ⊽ (el NEGRO) es quien fusiona los componentes profundos que son consecuencia directa de la combinación (de a pares) de los elementos superficiales, y por supuesto, de los colores profundos que de esto se derivan. La figura siguiente detalla el esquema propuesto.

La fórmula cromática de un REM evolucionado, según se deduce de la figura adjunta, sería: S, sv, V, vo, O, os (azul, magenta, rojo, amarillo, verde, ciano). Los colores AZUL y VERDE, en la superficie (en la apariencia) son opuestos y complementarios, esto hace que, por ejemplo, si se perdiera S sería reemplazado por O y viceversa. El primer caso representa la situación planteada en el lenguaje natural de los animales, cuya estructura superficial es OVO, y por lo tanto, su fórmula cromática sería: O, ov, V, vo, O, oo (verde, amarillo, rojo, amarillo, verde, verde). El caso inverso, es decir, la pérdida de O, plantearía una estructura superficial: SVS que como ya sugerimos, explicaría el lenguaje formal. Su fórmula cromática sería: S, sv, V, vs, S, ss (azul, magenta, rojo, magenta, azul, azul).
Los ejemplos anteriores sirven para ver la profunda modificación que se produce en la superficie como consecuencia del reemplazo de un solo color primario, es decir, se pasa de ‘reflejar’ el arco iris, a una conformación cromática que nada tiene que ver con él, situación que, más allá de los meros colores, está representando una profunda modificación en los elementos activos y sus relaciones, que en definitiva, son los que dictarán de qué tipo de lenguaje se trata: sígnico (el del animal) o simbólico formal (el del científico).

Proponemos que en todas las lenguas sucede algo similar a lo planteado en los lenguajes naturales y que tales alternativas tienen sus raíces en la identidad de los distintos elementos.

Esta forma de encarar el estudio nos permitirá predecir qué tipo de estructura tendremos en una lengua cuando una característica distintiva ‘regional’ representada por un determinado color ‘se pierde’ o ‘no se expresa en la superficie’. Los distintos elementos superficiales (S, V, O) de un REM son los encargados de ‘producir’ los colores ocultos y por tanto, también de otorgar las distintas identidades (como ya lo hemos visto).

Valiéndonos de un esquema como el propuesto podremos decir que dos lenguas, por distintas que parezcan, tienen una disposición ‘oculta’ semejante y que el cambio que se opera en la apariencia se debe a solo dos circunstancias: por un lado, una alteración, no del código, sino de su interpretación, y por otro, una alteración del elemento que otorga una identidad determinada. Se produce una variación en la producción de los colores ocultos. En cualquiera de los casos anteriores los colores ocultos representan un marco de referencia y no un conjunto de ‘instrucciones’ de cómo ‘fabricar’ un verbo, un sustantivo o un adjetivo, o cualquier parte de una expresión lingüística.

Las lenguas que utilizaremos en el ejercicio serán: el Español y el Hopi y el método que emplearemos para establecer disparidades y semejanzas se basará entonces, en dos premisas fundamentales: a) Cada uno de los elementos del REM que dé origen a la LMU de la cual deriven las lenguas consideradas es necesario para un color oculto particular, y la combinación de estos colores determinará una identidad segmentaria específica en una expresión dada; y b) El rol habitual de estos elementos constitutivos será generar los colores ocultos en sus respectivos segmentos expresivos.

Una variación que ‘inactive’ o ‘remueva’ uno o más de estos elementos identitarios, resultará en la ‘pérdida’ o modificación de un color y por tanto, en la modificación de alguna de las identidades.
Cuando en un punto anterior hablábamos de una ‘fila de genes reguladores’ nos estábamos refiriendo, precisamente, a este esquema que acabamos de plantear a través de los colores ocultos y sus elementos productores.

Como todo el mecanismo tiene una base binaria (no olvidemos que opera en la monocontextura de nuestro mundo evidente), la expresión de un determinado gen, simplemente, se puede hacer manifiesta mediante un ‘1’ colocado en el ‘casillero’ respectivo, así como su inactivación, mediante un ‘0’ en ese mismo lugar.

Las consideraciones anteriores nos ayudarán a establecer un patrón de actividad expresiva mediante el ‘rastreo’ de los ‘genes’ que estén activados en un tiempo dado, o que, por no estar activados, permanezcan ocultos. El problema entonces se restringe a ¿cómo distinguimos, por ejemplo, una estructura sintáctica específica?

En biología se usa, para identificar si un gen está o no activo o presente, las llamadas sondas moleculares {Son moléculas de distinto grado de complejidad (ARN o Proteínas) que por ser complementarias a las moléculas que se buscan (o rastrean), se adhieren a ellas (en caso de existir en el organismo en que se busca), y mediante un artilugio bioquímico, el complejo: molécula buscada+sonda molecular, se tiñe de un color determinado por lo que es fácil ubicar en la observación ocular, el o los lugares en donde ese gen estudiado, se expresa, pues aparece ese color en la superficie}. En nuestro caso vamos (metafóricamente se entiende) a utilizar un procedimiento similar. Estas sondas (que aquí las podríamos llamar sondas sintácticas, ya que el propósito es averiguar la correspondencia o no entre las estructuras de dos expresiones) serán de dos tipos: i) aquellas que pueden reconocer un subjetivón (la escala de grises que regula la disposición estructural), y ii) las que pueden reconocer una expresión completa. Las sondas del primer tipo hacen su reconocimiento en los productos que surgieron en la etapa de transcripción de una lengua (o sea: a muy poco andar desde su origen) y que tienen que ver con la sintaxis, mientras que las del segundo grupo, permiten rastrear elementos que aparecieron en la etapa de traducción (que representa la etapa previa a la funcionalización lingüística definitiva que aparece en la lengua ‘madura’ y que le otorga el manejo semántico).

Whorf (1971, p. 67) nos enseña que, referido a los verbos, el Hopi formaliza de distintas maneras el contraste entre punto y extensión en el emplazamiento de un fenómeno, haciéndolo independiente del tiempo, del espacio o de ambos. Los verbos Hopi también tienen tres tiempos, pero agrupados de otra forma:
1) Positivo (presente – pasado)
2) Futuro
3) Generalizado (usitativo). Los verbos pertenecen a varias conjugaciones distintas pero en la más importante de ellas, en tamaño, se encuentra el aspecto segmentativo que consiste en una reduplicación final de la raíz CVCV (que se encuentra en tercera persona del singular de la voz intransitiva), más el sufijo durativo –ta, lo que produce una modificación en el significado del vocablo simple.

El cambio se manifestaría a través de un fenómeno que, indicado por la raíz y mostrado en su aspecto preciso en forma de manifestación sobre un punto, se convierte en la exteriorización de una serie de segmentos repetidos e interconectados de un fenómeno mayor y de un carácter segmental más amplio, cuya extensión se realiza en una dimensión que permanece indiferente al espacio, al tiempo, o ambos simultáneamente.

Tomaremos como único ejemplo el que muestra la figura siguiente.


Caracterización del verbo Hopi (extraído de Whorf, 1971, p. 68)

Según lo muestra la figura anterior la forma genérica (fórmula cromática) de la acción Hopi sería: lo puntual y su extensión como duración {Que es también como se ha calificado en este estudio al tiempo interno (subjetivo) de la mano de Bergson}, es decir, desde el punto de vista de nuestra geometría funcional sería un acontecimiento que se manifiesta sucesivamente como un punto (lo preciso y adimensional), una línea (la reduplicación, lo unidimensional) y un plano (la extensión, lo bidimensional), afirmando de esta manera el qué y el cuándo en forma simultánea sin otorgar preponderancia a ninguno de ellos. Aunque dadas sus características fundamentales que son:
I. No requerir de un agente externo.
II. Manifestarse en forma recursiva (luego de un cambio no aparente que se acumula y es disparado ante una determinada situación interna).
III. No tener duración externa, sino interna.
IV. Mostrar actividad y resultado al mismo tiempo sin precisar de dónde viene; en realidad, se puede asimilar, absolutamente, a la dinámica de nuestro ⊽, ya que equivale a un proceso de reorganización, o sea, a un cambio no aparente que se resume, cromáticamente, en el NEGRO que, como ya vimos anteriormente, se deriva de los colores secundarios reflejados de la superficie: MAGENTA, AMARILLO y CIANO.

Según la Lógica Transcursiva, el Hopi, pertenece al dominio SOV y por tanto, a la variante levógira, contrariamente al Español que integra el dominio SVO y por ende es una lengua dextrógira. La figura siguiente muestra la fórmula cromática de ambas lenguas.


Fórmulas Cromáticas

Aplicando el método de la sonda sintáctica (en este caso), veremos en qué se transforma un verbo Hopi cuando lo pasamos al Español (figura siguiente).

Como muestra la figura adjunta, si hacemos ‘reaccionar’ (se le aplica un XOR) el núcleo (lo superficial, lo representado por el BLANCO) de la expresión Hopi con una sonda (que va en busca de lo superficial del Español) que en este caso es la gameta de la expresión española (y se usa ésta porque es de la misma variante que el núcleo Hopi; es decir, levógira), obtenemos un producto intermedio (neutro: sin sentido de giro alguno), que lo hemos llamado empalme sígnico, pues, al remedar una de las variantes del lenguaje natural de los animales, nos dice de la lógica básica común que tienen estas dos lenguas, y por otro lado, da sentido al uso, en el Hopi, del tiempo de verbo positivo (presente – pasado), ya que según se vio en el capítulo 2, el formato de tiempo que se maneja en esta etapa filogenética del lenguaje es idéntica.

Si este empalme sígnico lo hacemos reaccionar (le aplicamos un XOR), ahora sí, con la gameta Hopi (lo representante del NEGRO en esta lengua) que es de giro dextrógiro (recordar que la gameta siempre ‘gira en sentido opuesto’ al núcleo), obtenemos lo BLANCO (superficial) del Español, que es lo que estábamos buscando, probando de esta manera, que la sonda sintáctica fue efectiva, pues logró extraer de la estructura Hopi su complementario: SVO; demostrándose entonces que la expresión Hopi, que por distintas circunstancias (socio-culturales) tenía un ‘gen’ inactivo en su estructura, se hizo presente (también por las mismas circunstancias) en una expresión en Español, al activarse. Pero lo concreto y trascendente es que el ‘gen’ siempre estuvo presente desde el origen mismo en ambas lenguas, que según sugiere lo que acabamos de ver, es un origen común.

Este, en apariencia, muy limitado análisis que hemos hecho de un solo verbo sirve sin embargo para afianzar varios aspectos de nuestro enfoque. En primer lugar, demostrar la operatividad del método empleado. En segundo lugar, mirar con otros ojos las relaciones que ligan a las distintas lenguas e intentar alguna explicación de sus diferencias. En tercer lugar, al profundizar de alguna manera en la visión de la realidad que tiene el pueblo Hopi, darse cuenta que los Sistemas Reales son iguales para todos, no importando la distribución geográfica o temporal, confirmando la no procedencia del relativismo Whorfiano, ya que las lenguas parecen organizarse en función de la experiencia y no al revés. El hecho que la lengua Hopi no contenga referencia alguna (ni explícita ni implícita) al tiempo (Whorf, 1971, p- 74) (tal como lo entendemos, y mal expresamos nosotros en nuestra lengua), no significa que esta lengua no pueda explicar perfectamente todo fenómeno observable en el universo.

Esto último depende de una cuestión de interpretación y no de un código deficiente o primitivo.
Disiento con Whorf (1971, p. 74) cuando dice que el tiempo en el Hopi ‘desaparece’. Creo que lo que sucede es que se interpreta de otra forma y no me refiero a que nosotros lo hagamos matemáticamente de la mano de la relatividad einsteiniana, y ellos lo hagan aparentemente de una manera simplemente lingüística, sino que se interpreta un único patrón cromático profundo de otra manera, a pesar de tener un origen común. Sostenemos firmemente, que en nuestro caso, la herencia social (que luego desarrollaremos) se encargó de modificar la concepción del tiempo y hacerlo esclavo del acerbo judeocristiano que consolidó el tiempo lineal tripartito.

Finalmente, el simple ejemplo presentado, sirve para percatarse de que el reinado de la estructura sujeto – predicado que ha sido y sigue siendo considerada como imprescindible para pensar y comunicarse, pierde sustento cuando aprendemos a mirarla desde adentro; es decir, desde la policontextura; comprobándose así que la gramática ‘sujeto – predicado’ no se corresponde con un universal del lenguaje natural simbólico, sino más bien, con el esquema sujeto – acción – objeto que hemos planteado desde el lenguaje universal.

Se debe tener en cuenta que el esquema aludido solo muestra (aparentemente) ser universal en las lenguas que derivan del griego en donde, hay cosas independientes, sustancias que se denominan con los sustantivos que muestran propiedades o atributos, que se designan con adjetivos; y hay cambios o sucesos en el mundo que relacionan tales cosas y se reflejan en los verbos; cimentándose así la ‘doctrina de las clases de palabras’ en una ontología del ser. Esto que a priori parece otorgar una ventaja al plantear una estructura convenientemente uniforme, endilga a todas estas lenguas una marcada ambigüedad, como la que podemos constatar en la siguiente expresión: “Puedo ver la llegada desde el cerro”.

¿Aquí, el término ‘llegada’ representa un sustantivo (la señal que indica el final de una competencia); un adjetivo (la meta de una competencia); o un verbo (la acción y resultado del llegar de los competidores)?

En el Hopi, no ‘contaminado culturalmente’ se puede ‘ver’ en el interior de la policontextura; algo evidente en el análisis que hace de la realidad en términos de ‘acontecimientos’ en vez de cosas, sustancias o materias, justificándose de este modo que, un sustantivo en Español (fleco), sea un verbo (flaquear {pido disculpas a Whorf por lo precario de la traducción}) en Hopi.

Tal vez se pueda encontrar una explicación más gramatical a lo que hemos presentado como ejemplo si se tiene en cuenta que estos verbos Hopi, como ya dijimos, surgen desde una raíz que se encuentra en voz intransitiva. Los verbos intransitivos (los absolutos de Nebrija) (Martinez Amador, 1966, p. 1439) a los que también se los llama neutros son los que expresan una predicación completa, o sea, expresan una idea sin que la acción recaiga sobre alguna persona o cosa. Dada esta característica excluyen, de facto, el complemento directo, ya que no existe cosa alguna independiente del sujeto, que participe en la expresión. Entre estos verbos intransitivos se cuentan los verbos de estado que sirven para expresar una situación más o menos fija y estable del sujeto y cuyo prototipo en nuestra lengua es el verbo estar (aunque hay muchos otros, como por ejemplo: llegar), y en los cuales la intervención del sujeto está más que restringida, puesto que no es él el que produce la acción, sino que es ésta la que en él se manifiesta. Gramaticalmente hablando, estos verbos ocupan un lugar intermedio entre los verbos activos y los pasivos; ¿no será esta la frontera (el Rubicón) que las lenguas greco-dependientes cruzaron, abalanzándose sobre la ambigüedad? ¡Alea iacta est! Dicho de otra forma, ¿la palabra ‘llegada’, en Español, no tendría que haber sido un verbo y nada más?

¡Nos vemos mañana!