Historia de la Lógica Transcursiva (Capítulo 291)

Cuaderno XII (páginas 1749 a 1754)

(Hoy veremos el Marco Teórico y parte de la Hipótesis de Trabajo de mi Tesis Doctoral)

MARCO TEÓRICO

INTRODUCCIÓN

En este estudio se considera que el lenguaje natural, junto al conocimiento y la vida misma, constituyen la base fundamental del ser subjetivo. Esta consideración hace que se indague preferentemente, en algunos campos particulares del conocimiento científico, en busca de antecedentes de tal enfoque. Lo encontrado no sorprende demasiado ya que, desde sus orígenes, la ciencia tradicional dejó de lado, por una cuestión metodológica, todo lo relacionado con el sujeto; sujeto que fue desplazado y terminó siendo un aspecto más de los estudiados por la filosofía y las llamadas ciencias sociales. Sin embargo, hoy por hoy, aquella gran responsabilidad asumida de facto y no de jure por las ciencias humanísticas, ha quedado tan diluida que en sí, no representa un verdadero paradigma del estudio del hombre.

Más aún, el hombre, profusamente atomizado en sus aspectos primordiales es abordado por una miríada de ‘ciencias’ que dicen tener la verdad sobre cada uno de esos aspectos indagados, pero, a no dudarlo, nada que se parcele tanto puede dar jamás la idea de totalidad, tanto más cuando cada parcela constituye un conjunto que resulta de la relación entre un operador y un argumento y que de por sí es disjunto con respecto a los demás. En medio de esta expansión explosiva de laboratorios de estudio, el sujeto, el hombre, que supuestamente es el verdadero objeto de estudio, no quedó exactamente en ningún lugar.

La tendencia actual está marcada, casi absolutamente, por las ciencias cognitivas; en ellas se dirime el destino del sujeto y con él, el de todos aquellos aspectos que le son inherentes, como lo es el lenguaje. La lingüística como ciencia, ha sufrido idéntica parcelación que el resto y es así que se asiste a un gran número de especialidades y de sub-especialidades dentro de sub-especialidades que hacen bastante difícil el seguir algún norte posible. Por tal motivo el marco teórico de este trabajo estará dado, en gran parte, en el ámbito de las ciencias cognitivas, ya que muchas de ellas tienen una fuerte relación e influencia en la lingüística actual que inclusive, como ciencia individual, también forma parte de ellas.

Dado que vamos a tratar sobre la subjetividad es menester apropiarse de alguna herramienta que permita su análisis y estudio. Como medio para tal fin utilizaremos la Lógica Policontextural de G. Günther (1979).

Uno de los objetivos de la investigación es proveer una herramienta semiótica, un nuevo tipo de lógica, para un estudio de la producción/comprensión del lenguaje que esté más acorde a su origen y como asumimos que este es absolutamente subjetivo, vamos a utilizar las bases lógicas que Günther aportó para adaptarlas a nuestros propósitos. Esto hace necesario plantear, al menos en sus rudimentos, el marco teórico respectivo, organizado en apartados que se referirán a la presencia de las lógicas no clásicas en lingüística y a por qué fue elegida la lógica de Günther como guía para esta elaboración.

1. CIENCIAS COGNITIVAS 
1.1. Introducción

Las ciencias cognitivas (Thagard, 2007) representan un estudio interdisciplinario de la mente y la inteligencia e incluyen: filosofía, psicología, inteligencia artificial, neurociencia, lingüística y antropología. Su origen se puede ubicar en la década de 1950 cuando un grupo de investigadores de distintas ramas de la ciencia, comienzan a desarrollar teorías de la mente basadas en representaciones complejas y procesos computacionales. Su oficialización se produjo en la década de 1970 y desde entonces, un buen número de universidades en todo el mundo, establecieron programas de investigación y de instrucción en estas ciencias.

El tratar de entender la mente no es un problema nuevo; ya desde los albores de la filosofía occidental, los griegos, fundamentalmente Platón y Aristóteles, trataron de explicar cómo funcionaba la mente a través de intentar comprender la naturaleza del conocimiento humano.

Este estudio de la mente fue patrimonio exclusivo del campo de la filosofía hasta el S. XIX, momento en el cual hace su entrada en el ámbito científico, la psicología experimental de la mano de W. Wundt (1879) quien aplica por primera vez métodos experimentales sistemáticos al estudio de las operaciones mentales.

Rápidamente esta psicología experimental se vuelca hacia lo conductual y entonces pasa a negarse la existencia de la mente. Investigadores como J. B. Watson (1913) llevan a la psicología a la restrictiva tarea de constatar relaciones entre estímulos y respuestas, y las discusiones sobre la mente y la conciencia, desaparecieron del escenario científico. Así fue el panorama, sobre todo en Norte América, hasta la década de 1950.

Miller, en 1956, realiza varios estudios en donde muestra que la capacidad de memoria es limitada y trata de explicar este hecho proponiendo que el registro de la información en esta ‘memoria de corto plazo’ requería de procedimientos de codificación y decodificación de dicha información. Por esos años hacían su aparición las primeras computadoras y los investigadores John McCarthy (1956), Marvin Minsky (1954), Allen Newell (1956) y Herbert Simon (1956), fundaban la Inteligencia Artificial. Además Noam Chomsky (1956) rechazando las suposiciones conductistas que consideraban el lenguaje como un hábito aprendido, propone una explicación de la comprensión del lenguaje en términos de una gramática mental sustentada en reglas. Se puede considerar a los últimos seis investigadores nombrados, como los creadores de las Ciencias Cognitivas.

1.2. Métodos
En general, y sobretodo en aquellas ciencias cognitivas que como la psicología, la lingüística, la inteligencia artificial y la neurociencia, tienen que ver directamente con la mente y la inteligencia, ha primado la utilización de modelos computacionales que permitieran ‘probar’ los planteos teóricos surgidos en estos campos de estudio.

Partiendo de la base de que para investigar cómo trabaja la mente no es suficiente seguir lo que dicta el sentido común o el análisis introspectivo, ya que es por todos conocido que muchas de estas operaciones mentales no nos son accesibles mediante la conciencia, es que mediante experimentos sobre razonamiento y formación de conceptos (Rumelhart y McClelland, 1986; Holland, 1986; Anderson, 1990), formación de imágenes mentales (Sadoski, 1983; Kosslyn, 1995; Damasio, 2004) y solución de problemas por analogía (Gick y Holyoak, 1983), contrastados con un supuesto marco teórico representacional, se prueban en respectivos modelos ad hoc.

1.3. Representación y Computación
La hipótesis central de las ciencias cognitivas sostiene que la mejor forma de entender el pensamiento es a través de la existencia, en la mente, de estructuras representacionales y procedimientos computacionales que operen en ellas.

La gran mayoría de lo trabajado en este campo asume que la mente se maneja con representaciones análogas a las estructuras de datos de una computadora y que los procedimientos operativos son similares a los algoritmos que esta maneja.

Para los teóricos cognitivos, las representaciones mentales son proposiciones lógicas, reglas, conceptos, imágenes o analogías que permiten la deducción, búsqueda, encaje, ciclado y recuperación de información.

La analogía inicial mente-computadora tuvo al poco tiempo una variante, al incorporar el cerebro como otro elemento análogo. Surge así el conexionismo en el seno de la naciente Psicología Cognitiva, inspirado en el asociacionismo formulado desde la psicología conductista estímulo-respuesta de E. Thorndike (1898). Fue F. Rosenblatt (1958) uno de los principales responsables de la reformulación cognitivista de este enfoque que, sustentado en el funcionamiento biológico neuronal y potenciado por el trabajo señero de Warren McCulloch y Walter Pitts (1943)1, en 1962 desarrolló una prueba de convergencia y definió el rango de problemas para los que su algoritmo aseguraba una solución. Propuso los 'perceptrons' como herramienta computacional, aportando nuevas ideas sobre la representación y computación mentales.

Finalmente las ciencias cognitivas terminan siendo una integración compleja de la analogía entre mente, cerebro y computadora utilizada para sugerir posibles modos operativos de la mente.

Asumiendo que el cerebro procesa la información en paralelo; es decir, a través de varios procesos simultáneos, con la llegada de la nueva tecnología de multiprocesadores en una sola computadora se elaboraron modelos informáticos que trataban de remedar tal funcionamiento. Esto se vio fundamentalmente en el campo de la inteligencia artificial con el desarrollo de cada vez más sofisticadas redes neuronales artificiales.

1.4. Planteos Teóricos
Las ciencias cognitivas parten desde una serie de premisas de índole especulativa que intentan dar base a las distintas explicaciones de cómo funciona la mente. Esta especie de supuestos básicos (en un intento de aproximación a una ciencia natural) entreteje la trama fundamental que contiene todos sus desarrollos, siendo la lógica formal su hilo esencial. Se le da notable preponderancia al cálculo proposicional o lógica de enunciados {Un enunciado es toda oración gramatical declarativa, esto es, aquella que es capaz de ser verdadera o falsa, dado que todo enunciado expresa -o significa- una proposición. (Diccionario de Filosofía Herder, 1996)} como herramienta idónea para expresar todo tipo de conocimiento complejo y por tanto, los mecanismos mentales y aquellos que tengan que ver con el pensamiento, pueden ser caracterizados mediante deducciones y reglas de inferencias lógicas. Al aceptar que el ser humano tiene representaciones mentales similares a las sentencias utilizadas en la lógica de predicados {La lógica de predicados es un lenguaje formal cuyos enunciados son fórmulas con las que simboliza y analiza la estructura interna de las frases. (Diccionario de Filosofía Herder, 1996)}, se especula con la existencia de procedimientos deductivos e inductivos que operan sobre estas sentencias para producir las inferencias.

Se admite que gran parte del conocimiento humano puede ser descrito, naturalmente, en términos de reglas con la forma if then else {Estructura lógica fundamental de cualquier lenguaje de programación de computadoras. El uso del si condicional en inglés (if) posibilita, desde elaborar sentencias o estructuras de control, hasta tomar decisiones y realizar un proceso repetidas veces. Son las denominadas bifurcaciones y bucles. Estas estructuras son muy importantes en informática puesto que se encargan de controlar el flujo de un programa, según los requerimientos del mismo} (si tal cosa ocurre luego haga esto de lo contrario haga esto otro). Por tanto, un comportamiento inteligente se podría poner de manifiesto mediante el uso de reglas de este tipo, que permitan rastrear un ‘espacio’ acotado de soluciones posibles para un problema determinado, con el agregado de la producción de nuevas aplicaciones de la misma regla (con otros elementos) con el fin de dar respuesta a las distintas alternativas que se puedan presentar. Este tipo de procedimiento es ampliamente usado en experimentos psicológicos que intentan mejorar la adquisición del lenguaje (Allen, 1995, Rodríguez, 2003), enseñar a solucionar problemas complejos (Kowalski, 1986) o de favorecer en general, el aprendizaje (Molina, 2003).

Otro de los elementos en los que se basan las ciencias cognitivas es el concepto, el cual se corresponde, parcialmente, como representación mental, a las palabras del lenguaje oral y escrito.

Esta elección pretende cambiar la vieja visión del concepto como una mera definición, por un conjunto de aspectos típicos que permitan aproximarlo al elemento que representa del mundo real y así poder ser aplicado a las situaciones cambiantes del entorno. Una explicación de cómo un ser humano podría tener un tipo particular de comportamiento inteligente sería: que dispone, por un lado, de un conjunto de conceptos organizados jerárquicamente, y por otro, de un conjunto de procedimientos para aplicar dichos conceptos, trasladándolos a reglas que se adaptan a diferentes procesos computacionales.

El enfoque cognitivista considera que las analogías juegan un importante papel en el pensamiento humano, en áreas tan diversas como solución de problemas, toma de decisiones, explicación y comunicación lingüística. Se asume que el humano posee representaciones visuales y verbales que pueden ser utilizadas en situaciones análogas a las que las generaron. Se opera sobre estas analogías mediante mecanismos de recuperación, rastreo y adaptación; luego, procesos análogos aplicados a representaciones análogas, producen un comportamiento determinado.

Un comportamiento inteligente, dicen los cognitivistas, también puede ser producido a través del manejo de imágenes (visuales y de otro tipo), dándoles a estos elementos un papel importante en el pensamiento humano dado que, mediante ellas es posible ‘captar’ mucha más información visual y espacial que la que posibilita una simple descripción verbal. El humano dispondría de procesos que mediante manipulación de las imágenes (rastreo, rotación, etc.), generarían un comportamiento específico.

La aproximación conexionista es otro enfoque que utilizan las ciencias cognitivas para explicar el comportamiento inteligente, aceptando que existen representaciones que involucran unidades simples de proceso unidas a otras del mismo tipo, mediante conexiones excitatorias e inhibitorias.

Mecanismos dedicados se encargarían de propagar la activación entre estas unidades, a través de sus conexiones, como así también, posibilitarían el modificar una conexión ya establecida. Aplicando una activación que se propague y generando un aprendizaje (reforzando caminos ya recorridos) se produciría el comportamiento esperado. Se piensa que mecanismos como el descrito, estarían involucrados en la visión, la toma de decisiones y en la comprensión del lenguaje.

1.5. Algunas limitaciones generales de las ciencias cognitivas
A pesar de auto-catalogarse como el estudio científico de la mente (Bruner, 1966; Newell y Simon, 1972; Minsky, 1986; Gadner, 1987; Chomsky, 1992; Bly y Rumelhart, 1999), su aproximación a las ciencias naturales es cuando menos, forzada, ya que aunque se dicen no especulativas sino hipotético-deductivas, pocos conceptos manados de su seno cruzaron la valla de lo incontrastable.

De entre los aspectos que consideramos, en esta investigación, como no resueltos por estas ciencias, podemos mencionar: a) el carácter innato o adquirido del conocimiento; b) si el cerebro opera con un lenguaje codificado o el pensamiento es consecuencia de una determinada arquitectura conexionista. Es decir, cuál es la relación entre los modelos cognitivos simbólicos y las redes neuronales, si es que hay alguna; c) si la mente opera con imágenes visuales o de otro tipo, o solo con un lenguaje de representaciones abstractas; en cualquier caso, qué se debe entender por cada uno de ellos; d) si el significado de las representaciones mentales (si las hubiera) depende de su relación con otras representaciones, de su relación con el mundo real, o de su relación con el pensamiento de los demás; e) si los ‘estados mentales’ se corresponden con los ‘estados cerebrales’; o sea: si hay una relación entre psicología y neurociencia, y cuál es; f) si existe algo parecido al libre albedrío o la intencionalidad, o las acciones humanas son solo producto de eventos cerebrales; g) el papel que juegan las emociones en el acto de pensar y qué es una emoción; y h) si está en la relación mente/cerebro la posibilidad de dar forma y evaluar las supuestas representaciones del mundo exterior; en otras palabras, cómo opera la distinción entre apariencia y realidad.

¿Dónde se originan estos desencuentros epistemológicos?

De lo analizado hasta ahora se puede concluir que lo no explicado o explicado mediante ‘rodeos argumentativos’ por estas ciencias, tiene un origen múltiple y único a la vez. Diciéndolo más claro: hay una serie de aspectos a los cuales, las ciencias cognitivas les resta importancia cuando no, directamente, los niega o ignora en su relación con el pensamiento, como son: las emociones, la conciencia, el entorno, lo biológico, lo social, el sentido común, lo intencional, lo psíquico en general lo cual es considerado (en contadas ocasiones) como un sistema computacional más que como un sistema dinámico adaptativo. Luego, el origen único de todas estas ‘carencias’ es no tener en cuenta la subjetividad (y todo lo que esto comporta), algo que por otra parte, no distingue al enfoque cognitivo del de las ciencias en general.

En síntesis, como se ha podido apreciar a lo largo del desarrollo histórico- metodológico de la Lingüística Cognitiva hay al menos tres aspectos comunes: i) uso de la lógica tradicional o de alguna de sus variantes como ‘hilo esencial’ de toda su trama; ii) manejo del concepto de información sustentado por la informática; iii) adhesión casi incondicional a la teoría del procesamiento de la información cuyo supuesto fundamental es la abstracción cíclica de los procesos cognitivos por la que cualquier hecho informativo unitario puede describirse de modo más completo, si se divide en unidades más pequeñas. Esta adherencia al análisis secuencial de la información descansa, por otro lado, en una supuesta emancipación de las partes del proceso, haciendo de la cognición humana algo que queda definido ‘exclusivamente por leyes sintácticas’ que se ocupan de guiar la construcción de procesos más complejos. Por tanto, lo cognitivo en el hombre es concebido como un sistema lógico de procesamiento de información. En esto se ve la influencia de Chomsky que, como hemos visto, fue quien sembró estos conceptos en los cimientos mismos de las ciencias cognitivas.

1.7. Conclusión
Si tuviésemos que nombrar algún elemento que caracterice el enfoque cognitivista, sin dudas sería el procesamiento de la información, ya que en él se incardinan, tanto la adhesión a los preceptos lógicos, como la idea de proceso computacional, además de un concepto ambiguo sobre lo que es la información.

El procesamiento de la información respalda el hecho de que los sujetos construyen su propio conocimiento a partir de sus estructuras y procesos cognitivos, sin explicar cómo se construyen tales estructuras y procesos. Consecuencia directa de lo anterior es que una simulación se convierte en una explicación. Aquello que pueda ser imitado queda de facto explicado y por una consecuencia lógica, todo lo que no se puede imitar no se puede explicar o en el mejor de los casos pasa a la categoría de irrelevante.

Los modelos lógicos planteados han mostrado ser ineficaces a la hora de formalizar tanto lo semántico, como los supuestos contenidos cognitivos, ya que mediante leyes sintácticas (y transformacionales, al mejor estilo chomskyano) pretenden dar cuenta de los distintos procesos que relacionan entradas y salidas del sistema, luego de un procesamiento ad hoc de los datos (y no de información). Ante tal panorama no es posible pensar en un lugar, en este tratamiento, para lo cualitativo, ya que de lo contrario no sería una ciencia objetiva. Luego, tampoco hay un espacio adecuado para analizar lo subjetivo y ninguna de sus manifestaciones básicas, según se consideran en este trabajo, a saber: la vida, el conocimiento y el lenguaje.

HIPÓTESIS DE TRABAJO

Cualquier hipótesis va más allá de la evidencia de los datos que intenta explicar. O sea, las hipótesis tienen un contenido más considerable que los datos cubiertos por ellas. Por ejemplo, la subjetividad es conjeturable, pero no observable. Por eso se necesita de una hipótesis; sin embargo esta hipótesis puede ser falsa si se analizan los datos desde la lógica tradicional, pues las generalizaciones lógicas no son en sí mismas datos, sino solo una construcción lógica.

Las hipótesis tampoco pueden quedar establecidas por una sola experiencia (por ejemplo: algún proceso computacional que imite algún proceso cerebral); los datos sueltos no pueden establecer sino, a lo sumo, refutar una hipótesis.

Puesto que el mundo nunca nos está dado enteramente, tenemos que formular hipótesis de alguna manera. Cuando hablamos sobre la subjetividad no estamos en realidad aportando información sobre nuestra experiencia al respecto, sino formulando una hipótesis con cuya ayuda se pueda interpretar ciertas experiencias. Estos supuestos, por ser parte de una hipótesis, no son acerca de nuestra experiencia, sino sobre hechos no experimentados por otros que yo uso para explicar mi propia experiencia.

El carácter hipotético de una proposición que involucre aspectos que tengan que ver con la subjetividad se puede poner de manifiesto por su forma lógica, como en cualquier hipótesis, pero aquí esta forma no puede ser la de la lógica tradicional o monocontextural. Esta última opera entrelazando dos proposiciones concretas, de las cuales, una puede ser una hipótesis y la otra un dato; pero, no hay manera conocida de que esta situación se corresponda al condicional completo (es decir a la proposición hipotética completa). En otras palabras, el tener la forma de un condicional, el ser una proposición hipotética ya la hace una hipótesis, pero aunque cambiemos en las proposiciones de la forma si entonces (if then) su nombre de hipotéticas por condicionales, no las hace indicadoras absolutas del estatus epistemológico y metodológico (Bunge, 2004a, p. 197).

A nivel lógico monocontextural una hipótesis es un supuesto, o sea, el punto de partida de una argumentación y por ende, una premisa; una fórmula previamente aceptada (axioma, teorema, etc.), o una convención o un enunciado introducido a modo de ensayo que posibilita alguna deducción que permite evaluar ciertas consecuencias. A nivel policontextural (el marco propuesto en este trabajo para el estudio de lo subjetivo), una hipótesis es lo que saldremos a buscar desde un razonamiento analógico-abductivo.

Las hipótesis referidas a los eventos dados en la realidad son presunciones enunciadas para dar alguna explicación a los hechos. En este trabajo, la hipótesis central trata de explicar los hechos reales (de una realidad definida específicamente), sean conocidos o no por la experiencia.

Hay tres requisitos que debe cumplir una hipótesis para ser considerada científica (Bunge, 2004a, p. 200): i) debe estar bien formada (formalmente correcta); ii) debe estar fundada en conocimientos científicos previamente convalidados; iii) tiene que ser empíricamente contrastable, mediante técnicas y teorías científicas.

Para lograr lo anterior, a lo largo de la historia de la ciencia, se han seguido variados caminos. En lingüística es bastante difícil cumplir con los preceptos anteriores pues es complicado hacer ‘encajar’ el esquema ‘objetivo’ del lenguaje natural en los patrones objetivos de las ciencias empíricas.

A comienzos del S. XX se dio un fenómeno curioso. Se produjo, en filosofía, lo que se conoce como el ‘giro lingüístico’, de la mano de los positivistas lógicos del Círculo de Viena, y desde allí trascendió a todas las áreas del conocimiento que el lugar ocupado durante siglos por la razón ahora lo ocuparía el lenguaje, ya que él era, precisamente, el que nos diría sobre el significado de la realidad. Esto indujo a los científicos a encarar sus investigaciones desde un supuesto ‘lenguaje de la ciencia’ que unificaba la consecución de conocimientos a través de un método científico con fuerte arraigo en el lenguaje de la lógica y proyectado al lenguaje natural por el ‘realismo semántico’ de Frege (1973). De aquí en más, la presunción de que solo tienen algún interés teórico aquellas expresiones que describiendo algún estado de la realidad pudieran ser caracterizadas como verdaderas o falsas, fue moneda corriente y la clave para la solución casi definitiva a todos los problemas planteados en las ciencias humanísticas. Pero como bien nos dice Popper (1980, p. 16) 
Reconozco que entender las funciones de nuestro lenguaje es una parte importante de la filosofía, pero no lo es acabar con nuestros problemas presentándolos como meros ‘rompecabezas lingüísticos
Hay otro pasaje en "La Lógica de la Investigación Científica" de Popper, que deja en evidencia una tendencia en investigación que hoy día es mayoritaria, sobre todo en el campo de la lingüística, y que se toma muy en serio lo del 'lenguaje de la ciencia':

Hay un grupo que tienen como meta estudiar el ‘lenguaje de la ciencia’ y que han escogido como método filosófico la construcción de modelos artificiales de lenguajes esto es, la construcción de lo que creen ser modelos del ‘lenguaje de la ciencia’ ~ en clara alusión a las por entonces nacientes ciencias cognitivas de la mano de Chomsky ~ Ellos parten del ‘nuevo camino de las ideas’; es decir, reemplazan el método (pseudo-) psicológico del ‘nuevo camino’ antiguo por el análisis lingüístico. Pero debido quizá a los consuelos espirituales que proporcionan la esperanza en un conocimiento que sea ‘exacto’, ‘preciso’ o ‘formalizado’, han elegido como objeto de su análisis lingüístico el ‘lenguaje de la ciencia’ en vez del lenguaje ordinario. Más, por desdicha, al parecer no existe semejante ‘lenguaje de la ciencia’, por lo cual se les hace necesario construir uno; sin embargo, la construcción de un modelo a tamaño natural que funcione como ‘lenguaje de la ciencia’ – un modelo en el que pudiera manejarse una verdadera ciencia, como la física - resulta ser algo dificultosa en la práctica, y, por tal razón, los encontramos embarcados en la construcción de muy complicados modelos que funcionan, pero en miniatura – de enormes sistemas de diminutos chirimbolos.” (1980, p. 20-21)

Al margen de la tendencia que se estableció en lingüística de investigar el lenguaje natural mediante modelos basados en lenguajes artificiales, la ciencia toda se ‘acomodó’ al modelo lógico y el método científico quedó definitivamente ceñido a la tarea de perseguir la verdad que asegurara el conocimiento de la realidad; y para llegar a esta verdad no se encontró otra manera, que a través de inferencias lógicas que argumentaban, ‘correctamente’, a través de hipótesis que conducirían por el camino racional y objetivo, al método mediante el cual se podía ‘hacer ciencia’.

Karl Popper fue una figura de relevancia en la investigación científica porque, oponiéndose a los métodos inductivos que propone el deductivismo lógico, que al unirse al método empírico, desembocó en lo que hoy se conoce como método hipotético-deductivo y que representa, actualmente, el método al que la ciencia le tiene mayor confianza.

Como se puede ver la tendencia fundamental en la ciencia es lógica y dentro de esta, silogística; es decir, basada en el silogismo, esa forma de razonamiento deductivo creada por Aristóteles y que plantea dos premisas y una conclusión que representa una inferencia necesariamente deductiva surgida de ellas.

Como nos dice Bunge (2004a, p. 260) “La lógica presupuesta por la ciencia factual no es sino una entre las innumerables lógicas posibles (consistentes) es: la lógica ordinaria bivalente o de dos valores de verdad (verdadero/falso). Las demás teorías lógicas son interesantes pero no se aplican al análisis del discurso científico”. Y en otro pasaje (ibidem) “La ciencia tiene que aceptar de algún modo y en algún lugar los principios de la lógica (identidad, no contradicción, y TND),
para distinguir las fórmulas e inferencias correctas de las incorrectas

Si hacer ciencia pasa, necesariamente, por la lógica entonces, para abordar científicamente la subjetividad, debemos plantear algún modo científicamente aceptado de utilizar la lógica, ya que desde la lógica tradicional (la de la investigación estrictamente objetiva) estamos doblemente limitados. Por un lado, desde el planteo silogístico que contempla al silogismo como una expresión formalizada de las leyes del pensamiento asumiendo que el pensar es idéntico al pensar lógico, cuando en realidad el pensamiento lógico usa de la razón de un modo absolutamente irracional; y en segundo lugar, desde la lógica binaria que dispone de leyes que excluyen lo subjetivo, además de no disponer de los suficientes elementos como para contener la subjetividad (específicamente más valores de verdad).

En cuanto al silogismo contemplaremos en forma resumida, dos propuestas importantes que lo modificaron con respecto a su planteo aristotélico original: una es la que aportó Hegel y la otra la que propuesta por Peirce, se transformó en una alternativa de la lógica de la investigación, muy usada en la actualidad principalmente en el campo de la Inteligencia Artificial.

La propuesta de Hegel (1985, T.II, pp. 131 y ss.) se centra en que todo objeto de pensamiento implica su propio opuesto como aspecto verdadero e inseparable (en Aristóteles los opuestos se excluyen).

Luego, la naturaleza real de una cosa es siempre triple: primero lo que aparenta ser (tesis), después lo opuesto a esto (antítesis), y por último, el resultado de la unión de los dos anteriores (síntesis). Según la noción de silogismo – nos dice Hegel – lo verdadero es la relación de las diferencias por un medio que constituye su unidad. Pero las relaciones de los extremos (las premisas mayor y menor) con el término medio, son relaciones inmediatas; es decir superficiales, con lo que se hace necesario demostrar indefinidamente tales premisas. Esta especie de contradicción del silogismo, Hegel propone solucionarla mediante la posibilidad de sintetizar una descripción con una teoría; o sea, lo particular con lo universal. De aquí surge lo que llama el silogismo de la reflexión en donde se parte de lo universal presupuesto (deducción), el cual se apoya en lo particular observado (inducción) pero, dado que no es posible investigar la infinidad de individuales que existen, se apoya en una analogía (un modelo) con un individual, aunque algo particular, porque este individual tiene una significación general al representar una especie; es decir, ser un espécimen que comparte la estructura interna con los de su clase y no solo los aspectos superficiales.

De esta manera, el primer silogismo halla mediación en el segundo y éste en el tercero, que a su vez invoca lo universal determinado o la individualidad en cuanto género. Así, las formas de la relación exterior de lo individual y de lo universal son agotadas en el silogismo de la reflexión.

La propuesta de Hegel, muy ingeniosa, soluciona una parte del problema cual es, el tener en cuenta el aspecto ‘profundo’ de estas relaciones que, en última instancia, es el responsable de lo que ‘vemos’ en la superficie. Pero como contrapartida, se pierde todo lo superficial. Es verdad que la descripción aristotélica caracteriza muy incompletamente lo superficial, pero no por eso la tenemos que desechar.

[continuará ... ]

¡Nos vemos mañana!