Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos,también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.
El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
Diferentes metodologías:
1.La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.
2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora.El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc.Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de éstas hacia la salida.El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de los estados.
Experiencia, Habilidades y Conocimiento:
Los tipos de experiencia que son de interés en los sistemas basados en conocimiento, pueden ser clasificados en tres categorías: asociativa, motora y teórica.Los sistemas basados en conocimiento son excelentes para representar conocimiento asociativo. Este tipo de experiencia refleja la habilidad heurística o el conocimiento que es adquirido mayoritariamente, a través de la observación. Puede ser que no se comprenda exactamente lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o estímulos con salidas o respuestas, para resolver problemas que han sido previamente conocidos.La experiencia motora es más física que cognitiva. La habilidad se adquiere fundamentalmente a través del ejercicio y la práctica física constante. Los sistemas basados en conocimiento no pueden emular fácilmente este tipo de experiencia, principalmente por la limitada capacidad de la tecnología robótica.La experiencia teórica y el conocimiento profundo permite que los humanos puedan resolver problemas que no se han visto antes, es decir, no existe una posibilidad asociativa. El conocimiento teórico y profundo se adquiere a través de estudio y entrenamiento formal, así como por medio de la resolución directa de problemas.Debido a su naturaleza teórica, este conocimiento se puede olvidar fácilmente, a no ser que se use en forma continua. Al momento, los sistemas convencionales basados en conocimiento tienen muchas dificultades para duplicar este tipo de experiencia. Sin embargo, los Sistemas de Razonamiento Basado en Modelos representan un notable intento de encapsular este conocimiento profundo y razonar con él.
Algunos casos y antecedentes históricos:
Los hitos más importantes en el desarrollo de los sistemas expertos son:
1928: John Von Neuman desarrolla su teorema "mínimos y máximos" utilizado posteriormente en juegos.
1943: McCullock y Pitts proponen la arquitectura de redes neuronales para la simulaciones de la inteligencia.
1945: Vannevar Bush publica "As we may think ...", o "Cabría imaginar ... ", en Atlantic Monthly el cual sienta las bases de lo que hoy se conoce como Hipertexto, Multimedia e Hipermedia.
1949: Shannon desarrolla la Teoría de la Información base fundamental de la informática y varias de sus áreas.
1950: Shannon propone el primer programa de ajedrez .
Turing publica "Computing machinery and Intelligence".
1956: Newell, Shaw, y Simon crean "IPL-11" el primer lenguaje de programación para IA.
Newell, Shaw, y Simon crean "The Logic Theorist" para la resolución de problemas matemáticos.
1957: Chomsky escribe "estructuras Sintácticas".
Newell, Shaw, y Simon crean GPS.
1958: McCarthy introduce el lenguaje "LISP", para procesamiento simbólico de la información.
1959: Rosenblatt introduce el Perceptron.
EL programa de ajedrez de Samuel gana juegos contra grandes jugadores.
1963: ARPA da un fondo de investigación de dos millones de dólares al laboratorio de IA del MIT.
Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.
Minsky escribe "Steps toward Artificial Intelligence".
1964: Bobrow desarrolla STUDENT.
Se comienza el desarrollo de BBNLisp en BBN.
1965: Buchanan, Feigenbaum y Lederberg comienzan el proyecto DENDRAL, el primer Sistema Experto.
Iva Sutherland hace demostración del primer Monitor en forma de casco para realidad virtual.
Dreyfus argumenta en contra de la IA.
1968: Minsky publica "Semantic Information Processing".
1969: Minsky y Papert critican el Perceptron.
1970: Colmerauer desarrolla PROLOG quizás el lenguaje de Inteligencia Artificial más popular actualmente.
Winograd crea SCHRDLU.
1972: Dreyfus publica "What Computers Can't Do".
Se desarrolla el lenguaje SmallTalk en Xerox PARC.
1973: Shank y Abelson desarrollan los guiones, o scripts, base de muchas técnicas actuales de la Inteligencia Artificial y la Informática en general.
1974: Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos.
Minsky publica "A Framework for Representing Knowledge".
Se establece la red SUMEX-AIM para aplicaciones de la Inteligencia Artificial en medicina.
1975: La DARPA lanza un programa de financiación para el procesamiento y comprensión de imágenes.
1976: Greenblatt crea "CONS" el primer ordenador con arquitectura para LISP.
Lenat introduce su "Automated Matematician".
1978: Xerox comienza a desarrolla ordenadores LISP.
1979: Raj Reddy funda el Instituto de Robótica en la Universidad Carnegie Mellon.
1980:Primera conferencia de la AAAI (American Association on Artificial Intelligence) en Stanford, y primera Conferencia de Lisp y programación funcional de la ACM.
1981: Kazuhiro Fuchi anuncia el proyecto japonés de quinta generación de computadores.
El PSL (Portable Standard Lisp) se puede ejecutar sobre varias plataformas.
Se construyen máquinas LISP por Xerox, LMI y Simbolics, las cuales soportan Programación Orientada a Objetos.
Se sientan las bases del Common Lisp con aspectos comunes de las familias: Lisp machine Lisp, MacLisp, NIL, S-1 Lisp, Spice Lisp y Scheme.
1982: John Hopfield resucita las redes neuronales.
1983: Feigenbaum y McCorduck publican "The Fifth Generation".
1984: Steele publica "Common Lisp the Language".
La comunidad europea comienza el programa ESPRIT.
Gold Hill crea el Golden Commom Lisp.
1985: General Motors y Campbell's Soup dejan de usar Lisp para sus Sistemas Expertos.
Se funda el Media Lab en el MIT.
Minsky publica "The Society of Mind".
Teknowledge, una compañía dedicada al desarrollo de sistemas en Inteligencia Artificial, abandona Lisp y Prolog por el lenguaje C.
1986: Primera conferencia de la OOPSLA sobre programación orientada a objetos, en la cual se presenta CLOS, Lisp Orientado a Objetos, como lenguaje independiente de la comunidad de Lisp e IA.
IBM desarrolla shells para Lisp, Prolog y Sistemas expertos y entra a la AAAI.
McClelland y Rumelhart's publican "Parallel Distributed Processing" (Redes Neuronales).
Aparecen compañías dedicadas al desarrollo de Redes Neuronales.
1987: Existen alrededor de 1900 Sistemas Expertos en el mundo.
Sistema experto XCON de DEC capaz de configurar ordenadores realizando el trabajo de 300 personas, basándose para esto en 10.000 reglas.
Japón establece su sistema AFIS para la identificación automática de huellas digitales.
1988:El chip del 386 ofrece una velocidad a los PC’s comparable a la de las máquinas Lisp.
Minsky y Papert publican una revisión de "Perceptrons".
Se establecen los lenguajes Orientados a Objetos.
La compañía TI anuncia microExplorer una máquina Lisp con tecnología Macintosh.
1990: Steele publica la segunda edición de "Common lisp the Language".
1992: Apple Computer introduce el lenguaje Dylan, de la familia Lisp, como su visión del futuro en la programación.
X3J13 crea una propuesta para la Sociedad Americana de Common Lisp.
1994: La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza en sistema de intercambio de AT&T.
No hay comentarios:
Publicar un comentario