Historia de la Lógica Transcursiva (Capítulo 84)

Cuaderno IV (páginas 501 a 506)

(Continuamos con IA)

Lógica de primer orden: es un lenguaje de representación. [se supone que establece las leyes del pensamiento; y así es, pero del pensamiento lógico que es el único que puede manejar un 'agente' que tenga incluido un programa apto para ello]

- Los lenguajes de representación del conocimiento deberían ser declarativos, composicional, expresivos, independientes del contexto, y no ambiguos. [esto es, un lenguaje ideal y arbitrario que nada tiene que ver con la realidad que pretende representar.]

- Las lógicas difieren en sus compromisos ontológicos y compromisos epistemológicos. Mientras que la lógica proposicional se compromete solo con la existencia de hechos, la lógica de primer orden se compromete con la existencia de objetos y sus relaciones, y por ello gana poder expresivo. [en cualquier caso, si hablamos del compromiso ontológico, veremos que este no existe en absoluto, en ninguna de las lógicas que tienen como base la lógica aristotélica, pues como su creador lo estableció, la lógica no es un tratado de psicología, sino una doctrina del pensar metódico el cual se funda en las leyes de la deducción, la que a su vez, opera a través de proposiciones formadas de términos (conceptos). Por tanto, la lógica (cualquiera que esté basada en las leyes aristotélicas) es una metodología y técnica del pensamiento, pero no indaga sobre qué es la realidad ontológica, ya que no intenta averiguar cómo y por qué se originan los conceptos en la consciencia humana y qué relación tienen estos con las cosas externas. Del compromiso epistemológico no se puede hablar, porque representa un invento de las Ciencias Cognitivas para justificar que el conocimiento depende de las leyes del pensamiento lógico, y por lo tanto, es 'científica' esta forma de encarar tanto la psiquis como la inteligencia humanas.]

- Un mundo posible, o modelo, se define para la lógica de primer orden como un conjunto de objetos, las relaciones entre ellos y las funciones que se les puede aplicar. [un mundo posible es un mundo inventado a propósito, para que un 'agente' pueda 'demostrar' su 'inteligencia'.]

- Los símbolos de constante identifican los objetos, los símbolos de predicado identifican las relaciones, y los símbolos de función identifican las funciones. Una interpretación específica, una aplicación de los símbolos al modelo. Los términos complejos aplican símbolos de función a los términos para identificar un objeto. Dados un modelo y una interpretación se determina el valor de verdad de la sentencia. [verdad que en todos los casos es de perogrullo, es decir, obvia.]

- Una sentencia atómica consiste en un predicado aplicado a uno o más términos: el predicado es verdadero cuando la relación identificada por el predicado sucede entre los objetos identificados por los términos. Las sentencias compuestas utilizan las conectivas como lo hace la lógica proposicional, y las sentencias cualificadas permiten expresar reglas generales. [todo el esquema 'atado' férreamente al tratado de lógica de Aristóteles; sobre todo al 'Tratado de las categorías' que representa un tratado de la doctrina de los predicables, esto es, de las maneras que tienen de relacionarse sujeto y predicado en una oración, pues deriva de la lógica gramatical; de esta forma se pretende hacer ver que el 'pensamiento' se ve reflejado por la gramática. El nivel semántico (el nivel interpretativo) otorgado a los distintos símbolos, propicia el paralelismo entre lo lógico-gramatical y el pensamiento, y así la gramática lógico-noética de Aristóteles se transformó en una 'gramática psicológica', por eso se la considera apta para expresar el nivel de 'inteligencia' de un 'agente'.]

- Desarrollar una base de conocimiento en lógica de primer orden requiere un proceso cuidadoso para analizar [inventar] el dominio, escoger el vocabulario [crear un lenguaje lógicamente perfecto en donde no haya ambigüedad], y codificar los axiomas [proposiciones consideradas 'evidentes' y que se aceptan sin requerir demostración previa.] que se necesitan para soportar las inferencias deseadas. [para inventar un mundo posible.]

Representación del conocimiento:

Veremos cómo se supone que se representa el conocimiento, vale decir, como se construyen [inventan] las bases de conocimientos.

- La representación de conocimiento a gran escala necesita una ontología de propósito general [ad hoc] para organizar y unir varios dominios de conocimiento específicos.

- Una ontología de propósito general necesita abarcar una amplia gama de conocimientos y debería ser capaz, en principio, de manejar cualquier dominio. [que fuera previamente pergeñado]

- Se ha presentado una ontología superior basada en categorías [ya sabemos, por lo visto en el punto anterior, qué significa esto.], y en el cálculo de eventos. [¡nada puede ser ontológico si puede ser calculado!] Se ha cubierto la estructura de objetos, espacio y tiempo, cambio, procesos, sustancias y creencias. [todas cuestiones fundamentales que nadie ni nada ha podido describir cabalmente.]

- Las acciones, los eventos y el tiempo se pueden representar utilizando el cálculo de situaciones o una representación más expresiva como el cálculo de eventos y el cálculo de flujos. [todos guiados por un lenguaje arbitrario que en realidad no calcula nada.] Estas representaciones capacitan a un agente para construir planes mediante inferencia lógica. [se le siguen asignando a un simple 'agente' (a un programa de computadora) una serie de 'capacidades' humanas que son la envidia de los 'agentes' de Matrix.]

- Los estados mentales de los agentes se pueden representar mediante cadenas que denoten creencias. [sin dudas se usan términos grandilocuentes para definir lo indefinible o para ocultar esta incapacidad. Un 'agente' (un programa) no puede tener 'estados mentales', sencillamente porque no tiene 'mente' (esto solo está bien en las novelas de ciencia ficción) ni nada que lo relacione con algo vivo y mucho menos con el hombre; por lo tanto, tampoco puede tener creecias, ya que éstas derivan de un deseo y no de una simple proposición. Todos estos 'vicios representacionales' se han multiplicado con el uso de las lógicas modales; razonamientos pueriles que pretenden 'cuantificar' lo existencial que se le 'escapa' a las lógicas de primer orden y proposicional]

Redes Neuronales:


Referencias: Wj.i = peso del enlace que está entre la unidad j y la unidad i

Una red neuronal es un modelo computacional que comparte algunas de las características del cerebro. [vamos a precisar mejor esta mala definición: es un modelo computacional que muestra con su funcionamiento (simula sin explicar cómo) escasas aproximaciones a comportamientos cerebrales. Para que comparta alguna característica cerebral, estos artilugios tendrían que ser capaces de emular el funcionamiento cerebral, es decir, llevar a cabo una serie de procesos bien definidos que, una vez interrumpidos, por ejemplo, mostraran las mismas deficiencias que muestra el cerebro cuando alguna de sus zonas se ve alterada.]

Consta de varias unidades sencillas que trabajan en paralelo según un control central. Las conexiones entre las unidades tienen 'pesos' numéricos que el elemento de aprendizaje puede modificar. Como se ve en la figura anterior, toda neurona artificial recibe conexiones de entrada y 'emite' conexiones de salida. La salida de una neurona de este tipo viene dada por tres funciones: 1) función de propagación o de excitación (de entrada en la figura), que pone en relación la entrada con el 'peso de su interconexión. Si el peso es positivo, la conexión se denomina excitadora, si es negativo, se denomina inhibidora; 2) función de activación, que modifica la anterior. Puede que esta función no exista, si este es el caso, la salida es la misma función de propagación; y 3) función de transferencia o salida propiamente dicha (ai en la figura), que es aplicada al valor resultante de la función de activación. Esta función se utiliza para acotar la salida y como resultado de ello se pueden caracterizar, al menos, tres tipos de neuronas: a) neuronas 'todo o nada' que manejan cantidades discretas comprendidas en un determinado rango, b) neuronas identidad en donde su salida equivale a la no aplicación de la función de salida, y c) neuronas continuas que manejan cantidades analógicas. Finalmente, todas se rigen por una regla de aprendizaje definida.

El comportamiento de una red neuronal está determinado por la topología de la conexión y por la naturaleza de las unidades individuales. Las redes de alimentación anticipada son aquellas en las que las conexiones forman un ciclo; son las más sencillas y sirven para implementar funciones que no tienen funciones o estados independientes del entorno.

Los perceptrones son redes de prealimentación con un solo nivel de unidades, y solo pueden representar funciones linealmente separables. {Por ejemplo, pueden resolver una operación AND u OR, pero no una XOR.} Las redes de prealimentación de varios niveles permiten representar cualquier función, si se cuenta con la suficiente cantidad de unidades.

El algoritmo de aprendizaje de propagación posterior (back propagation) opera en redes de prealimentación de varias capas, y utiliza la disminución del gradiente en el 'espacio de pesos', para reducir al mínimo el error de salida. Convergen a una solución óptima local. Como en el caso de prealimentación, no hay garantía de que se pueda encontrar una solución global. Además, su convergencia es muy lenta.

El método de aprendizaje bayesiano sirve para aprender representaciones de funciones probabilísticas, en especial las 'redes de creencias'. [ya dijimos algo al respecto.]

[continuará ... ]

¡Nos encontramos mañana!