CARACTERÍSTICAS DE LA INTELIGENCIA ARTIFICIAL*


Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos,también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.
El razonamiento
basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
Diferentes metodologías:
1.La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.
2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora.El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc.Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de éstas hacia la salida.El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de los estados.
Experiencia, Habilidades y Conocimiento:
Los tipos de experiencia que son de interés en los sistemas basados en conocimiento, pueden ser clasificados en tres categorías: asociativa, motora y teórica.Los sistemas basados en conocimiento son excelentes para representar conocimiento asociativo. Este tipo de experiencia refleja la habilidad heurística o el conocimiento que es adquirido mayoritariamente, a través de la observación. Puede ser que no se comprenda exactamente lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o estímulos con salidas o respuestas, para resolver problemas que han sido previamente conocidos.La experiencia motora es más física que cognitiva. La habilidad se adquiere fundamentalmente a través del ejercicio y la práctica física constante. Los sistemas basados en conocimiento no pueden emular fácilmente este tipo de experiencia, principalmente por la limitada capacidad de la tecnología robótica.La experiencia teórica y el conocimiento profundo permite que los humanos puedan resolver problemas que no se han visto antes, es decir, no existe una posibilidad asociativa. El conocimiento teórico y profundo se adquiere a través de estudio y entrenamiento formal, así como por medio de la resolución directa de problemas.Debido a su naturaleza teórica, este conocimiento se puede olvidar fácilmente, a no ser que se use en forma continua. Al momento, los sistemas convencionales basados en conocimiento tienen muchas dificultades para duplicar este tipo de experiencia. Sin embargo, los Sistemas de Razonamiento Basado en Modelos representan un notable intento de encapsular este conocimiento profundo y razonar con él.

Algunos casos y antecedentes históricos:

Los hitos más importantes en el desarrollo de los sistemas expertos son:

1928: John Von Neuman desarrolla su teorema "mínimos y máximos" utilizado posteriormente en juegos.

1943: McCullock y Pitts proponen la arquitectura de redes neuronales para la simulaciones de la inteligencia.

1945: Vannevar Bush publica "As we may think ...", o "Cabría imaginar ... ", en Atlantic Monthly el cual sienta las bases de lo que hoy se conoce como Hipertexto, Multimedia e Hipermedia.

1949: Shannon desarrolla la Teoría de la Información base fundamental de la informática y varias de sus áreas.

1950: Shannon propone el primer programa de ajedrez .
Turing publica "Computing machinery and Intelligence".

1956: Newell, Shaw, y Simon crean "IPL-11" el primer lenguaje de programación para IA.
Newell, Shaw, y Simon crean "The Logic Theorist" para la resolución de problemas matemáticos.
1957: Chomsky escribe "estructuras Sintácticas".
Newell, Shaw, y Simon crean GPS.

1958: McCarthy introduce el lenguaje "LISP", para procesamiento simbólico de la información.

1959: Rosenblatt introduce el Perceptron.
EL programa de ajedrez de Samuel gana juegos contra grandes jugadores.

1963: ARPA da un fondo de investigación de dos millones de dólares al laboratorio de IA del MIT.
Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.
Minsky escribe "Steps toward Artificial Intelligence".

1964: Bobrow desarrolla STUDENT.
Se comienza el desarrollo de BBNLisp en BBN.

1965: Buchanan, Feigenbaum y Lederberg comienzan el proyecto DENDRAL, el primer Sistema Experto.
Iva Sutherland hace demostración del primer Monitor en forma de casco para realidad virtual.
Dreyfus argumenta en contra de la IA.

1968: Minsky publica "Semantic Information Processing".

1969: Minsky y Papert critican el Perceptron.

1970: Colmerauer desarrolla PROLOG quizás el lenguaje de Inteligencia Artificial más popular actualmente.
Winograd crea SCHRDLU.

1972: Dreyfus publica "What Computers Can't Do".
Se desarrolla el lenguaje SmallTalk en Xerox PARC.

1973: Shank y Abelson desarrollan los guiones, o scripts, base de muchas técnicas actuales de la Inteligencia Artificial y la Informática en general.

1974: Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos.
Minsky publica "A Framework for Representing Knowledge".
Se establece la red SUMEX-AIM para aplicaciones de la Inteligencia Artificial en medicina.

1975: La DARPA lanza un programa de financiación para el procesamiento y comprensión de imágenes.

1976: Greenblatt crea "CONS" el primer ordenador con arquitectura para LISP.
Lenat introduce su "Automated Matematician".

1978: Xerox comienza a desarrolla ordenadores LISP.

1979: Raj Reddy funda el Instituto de Robótica en la Universidad Carnegie Mellon.

1980:Primera conferencia de la AAAI (American Association on Artificial Intelligence) en Stanford, y primera Conferencia de Lisp y programación funcional de la ACM.

1981: Kazuhiro Fuchi anuncia el proyecto japonés de quinta generación de computadores.
El PSL (Portable Standard Lisp) se puede ejecutar sobre varias plataformas.
Se construyen máquinas LISP por Xerox, LMI y Simbolics, las cuales soportan Programación Orientada a Objetos.
Se sientan las bases del Common Lisp con aspectos comunes de las familias: Lisp machine Lisp, MacLisp, NIL, S-1 Lisp, Spice Lisp y Scheme.

1982: John Hopfield resucita las redes neuronales.

1983: Feigenbaum y McCorduck publican "The Fifth Generation".

1984: Steele publica "Common Lisp the Language".
La comunidad europea comienza el programa ESPRIT.
Gold Hill crea el Golden Commom Lisp.

1985: General Motors y Campbell's Soup dejan de usar Lisp para sus Sistemas Expertos.
Se funda el Media Lab en el MIT.
Minsky publica "The Society of Mind".
Teknowledge, una compañía dedicada al desarrollo de sistemas en Inteligencia Artificial, abandona Lisp y Prolog por el lenguaje C.

1986: Primera conferencia de la OOPSLA sobre programación orientada a objetos, en la cual se presenta CLOS, Lisp Orientado a Objetos, como lenguaje independiente de la comunidad de Lisp e IA.
IBM desarrolla shells para Lisp, Prolog y Sistemas expertos y entra a la AAAI.
McClelland y Rumelhart's publican "Parallel Distributed Processing" (Redes Neuronales).
Aparecen compañías dedicadas al desarrollo de Redes Neuronales.

1987: Existen alrededor de 1900 Sistemas Expertos en el mundo.
Sistema experto XCON de DEC capaz de configurar ordenadores realizando el trabajo de 300 personas, basándose para esto en 10.000 reglas.
Japón establece su sistema AFIS para la identificación automática de huellas digitales.

1988:El chip del 386 ofrece una velocidad a los PC’s comparable a la de las máquinas Lisp.
Minsky y Papert publican una revisión de "Perceptrons".
Se establecen los lenguajes Orientados a Objetos.
La compañía TI anuncia microExplorer una máquina Lisp con tecnología Macintosh.

1990: Steele publica la segunda edición de "Common lisp the Language".

1992: Apple Computer introduce el lenguaje Dylan, de la familia Lisp, como su visión del futuro en la programación.
X3J13 crea una propuesta para la Sociedad Americana de Common Lisp.

1994: La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza en sistema de intercambio de AT&T.

*INTELIGENCIA ARTIFICIAL*






La disciplina de la IA se ha desarrollado ya suficientemente como para ofrecer a la sociedad humana algunos instrumentos que mejoren su adaptación al medio ambiente: programas que se conocen con el nombre de sistemas expertos, cuya teoría y práctica son muy novedosas. Podemos decir, pues, que su ejercicio por parte de los investigadores tiene como mira en muchos casos la fabricación de artefactos útiles, programas con habilidad especial para realizar funciones que con anterioridad sólo podíamos confiar a seres humanos.
Llamemos a esa clase de investigación IA de rendimiento. La disciplina comenzó a existir, y todavía se practica en gran número de casos, con otro propósito, a saber, el intento de comprender el funcionamiento de la inteligencia humana; a este tipo de investigación lo llamamos IA de comprensión. De este segundo tipo fue el trabajo realizado por los pioneros de la disciplina, A. Newell y H. Simon, en los años cincuentas y siguientes que culminaron con la publicación de una importante obra sobre habilidad de solución de problemas en los seres humanos.
A la labor de estos dos investigadores debemos también la caracterización de los métodos de la inteligencia en dos categorías: débiles y fuertes; y el importante descubrimiento de que los métodos más generales de la inteligencia son por necesidad métodos débiles, y que los únicos métodos fuertes son los que aplican conocimientos específicos de un dominio particular (por lo que necesariamente deben carecer de generalidad). Este descubrimiento puede expresarse por una ley: a mayor generalidad, menor fuerza; y a mayor fuerza menor generalidad.

Escuelas del pensamiento:


La IA se divide en dos escuelas de pensamiento:
La inteligencia artificial convencional.
La inteligencia computacional.

Inteligencia artificial convencional:


Basada en análisis formal y estadístico del comportamiento humano ante diferentes problemas:
Razonamiento basado en casos: ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos. Sistemas expertos: infieren una solución a través del conocimiento previo del contexto en que se aplica y de ciertas reglas o relaciones. Redes bavesianas: propone soluciones mediante inferencia estadística. Inteligencia artificial basada en comportamiento: sistemas complejos que tienen autonomía y pueden auto-regularse y controlarse para mejorar.

Inteligencia artificial computacional:


La inteligencia computacional (también conocida como inteligencia artificial subsimbólica) implica desarrollo o aprendizaje iterativo (por ej. modificaciones iterativas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos. Algunos métodos de esta rama incluyen:
Maquinas de vectores soporte: sistemas que permiten reconocimiento de patrones genéricos de gran potencia. Redes neuronales: sistemas con grandes capacidades de Reconocimiento de patrones. Modelos oculto de Markov: aprendizaje basado en dependencia temporal de eventos probabilísticos. Sistemas difusos: técnicas para lograr el razonamiento bajo incertidumbre. Ha sido ampliamente usada en la industria moderna y en productos de consumo masivo, como las lavadoras. Computación evolutiva: aplica conceptos inspirados en la biología, tales como población, mutación y supervivencia del mas apto para generar soluciones sucesivamente mejores para un problema. Estos métodos a su vez se dividen en algoritmos evolutivos (ej. Algoritmos genéticos) e inteligencia colectiva (ej. Algoritmo hormiga).

Tecnologías involucradas

Lenguajes de programación:


En principio, cualquier lenguaje de programación puede ser utilizado. Siendo así de amplio el espectro en el cual se puede escoger un lenguaje para programar un sistema experto. Atendiendo a la forma de estructurar sus instrucciones, se los puede dividir en:
IMPERATIVOS: PASCAL, C/C++.
FUNCIONALES: LISP.
DECLARATIVOS: PROLOG, CHIP, OPS5.
ORIENTADOS A OBJETOS: SmallTalk, Hypercard, CLOS.
Tradicionalmente LISP y PROLOG han sido los lenguajes que se han utilizado para la programación de sistemas expertos.
Lisp
Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico. John McCarthy lo desarrolló en 1958, en el Instituto de Tecnología de Massachusetts (MIT), inicialmente como un lenguaje de programación con el cual los investigadores pudieran implementar eficientemente programas de computadora capaces de razonar.
Rápidamente LISP se hizo popular por su capacidad de manipular símbolos y fue escogido para el desarrollo de muchos sistemas de Inteligencia Artificial.
Prolog
PROgramming in LOGic (PROLOG), es otro de los lenguajes de programación ampliamente utilizados en IA. PROLOG fue desarrollado en Francia, en 1973 por Alain Colmenauer y su equipo de investigación en la Universidad de Marseilles.
Inicialmente fue utilizado para el procesamiento de lenguaje natural, pero posteriormente se popularizó entre los desarrolladores de aplicaciones de IA por su capacidad de manipulación simbólica. Utilizando los resultados del grupo francés, Robert Kowalski de la Universidad de Edimburgo, en Escocia, desarrolló la teoría de la programación lógica. La sintaxis propuesta por Edimburgo, se considera el estándar de facto del PROLOG.

Panorama de la Inteligencia Artificial:


Los antecedentes culturales que han servido de base. Algunos de los puntos más importantes son: Se adopta el criterio de que la inteligencia tiene que ver principalmente con las acciones racionales. Desde un punto de vista ideal, un agente inteligente es aquel que emprende la mejor acción posible en una situación dada. Se estudiará el problema de la construcción de agentes que sean inteligentes en este sentido. Los filósofos (desde el año 400 A.C.) permitieron el poder pensar en IA, al concebir a la mente, con maneras diversas, como una máquina que funciona a partir del conocimiento codificado en un lenguaje interno y al considerar que el pensamiento servía para determinar cuál era la acción correcta que había que emprender.
Las matemáticas proveyeron las herramientas para manipular las severaciones de certeza lógica, así como las inciertas, de tipo probabilista. Así mismo, prepararon el terreno para el manejo del razonamiento con algoritmos. Los psicológicos reforzaron la idea de que los humanos y otros animales podían ser considerados como máquinas para el procesamiento de información. Los lingüistas demostraron que el uso de un lenguaje ajusta dentro de este modelo. La ingeniería de cómputo ofreció el dispositivo que permite hacer realidad las aplicaciones de IA. Los programas de IA por lo general son extensos y no funcionarían sin los grandes avances en velocidad y memoria aportados por la industria de cómputo.

Criterios de evaluación en I. A:


Cada campo necesita criterios para evaluar el éxito alcanzado. En general, es muy difícil determinar si una máquina o un sistema tiene inteligencia o puede pensar. Al respecto se han sugerido algunas pruebas entre las que se destaca la de Alan Turing (1912-1954). En 1950 ideó una prueba para reconocer comportamientos inteligentes, esta prueba dice lo siguiente: Si la ejecución de un sistema de IA puede convencernos de que su comportamiento es el que tendría un humano, entonces el sistema es verdaderamente inteligente.
En una forma más práctica, para saber si un trabajo de investigación en IA ha tenido éxito, debe hacerse tres preguntas claves: ¿Está definida con claridad la tarea? ¿Existe un procedimiento ya instrumentado que efectúe la tarea? Si no existe, es que debe haber muchas dificultades escondidas en algún lugar. ¿Existe un conjunto de regularidades o restricciones identificables a partir de las cuales el procedimiento implantado obtiene su validez? De no ser así, el procedimiento no pasaría de ser un juguete, tal vez capaz de un desempeño superficial impresionante en ciertos ejemplos seleccionados con cuidado, pero incapaz de impresionar con un desempeño profundo y de resolver problemas más generales.

Robótica:
La ciencia de la robótica implica diferentes técnicas de IA. La idea de un robot "listo" con la capacidad de aprender por experiencia es el tema central de teorías e investigaciones en IA. El robot debe ser capaz de comunicarse en lenguaje natural y debe poder realizar tareas que requieran el equivalente a la iniciativa y la originalidad, esto implica que el robot debe llegar a realizar, tras un periodo de aprendizaje cosas para las cuales no estaba inicialmente programado, a diferencia de los robots que se utilizan actualmente en la aplicación industrial, los cuales no son más que meros autómatas. La idea global en la inteligencia artificial estuvo desacreditada durante varios años debido parcialmente, al excesivo optimismo por parte de la primera teoría pero, mayormente causado por la exageración y el sensacionalismo de algunos de sus divulgadores
Los primeros robots creados en toda la historia de la humanidad, no tenían más que un solo fin: entretener a sus dueños. Estos inventores se interesaban solamente en conceder los deseos de entretener a quien le pedía construir el robot. Sin embargo, estos inventores se comenzaron a dar cuenta de que los robots podían imitar movimientos humanos o de alguna criatura viva. Estos movimientos pudieron ser mecanizados, y de esta manera, se podía automatizar y mecanizar algunas de las labores más sencillas de aquellos tiempos. El origen del desarrollo de la robótica, se basa en el empeño por automatizar la mayoría de las operaciones en una fábrica; esto se remonta al siglo XVII en la industria textil, donde se diseñaron telares que se controlaban con tarjetas perforadas.

Cibernética:


La cibernética es una ciencia interdisciplinaria, tratando con sistemas de comunicación y control sobre organismos vivos, máquinas u organizaciones. El término es una derivación del vocablo griego kybernetes que significa gobernador o piloto, y fue aplicado por primera vez en 1948 a la teoría del control de mecanismos por el matemático americano Norbet Wiener. En el cuerpo humano, el cerebro y el sistema nervioso funcionan para coordinar la información, la cual es utilizada para determinar el futuro curso de una acción; controlar los mecanismos para la autocorrección en máquinas que sirven con un propósito similar.
Este principio es conocido como retroalimentación, el cual es fundamental en el concepto de automatización. La cibernética también se aplica al estudio de la psicología, servomecanismo, economía, neuropsicología, ingeniería en sistemas y al estudio de sistemas sociales, el término cibernética no es muy utilizado para describir por separado a un campo de estudio, y muchas de las investigaciones en el campo ahora se centran en el estudio y diseño de redes neuronales artificiales.

Orígenes de la Inteligencia Artificial:


El amanecer de una nueva ciencia La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro humano y animal. Estas neuronas nerviosas abstractas proporcionaron una representación simbólica de la actividad cerebral. Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que se llamó " cibernética", de aquí nacería , sobre los años 50, la Inteligencia Artificial. Los primeros investigadores de esta innovadora ciencia, tomaron como base la neurona formalizada de McCulloch y postulaban que: " El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro". Pero si consideramos la enorme complejidad del mismo esto es ya prácticamente imposible, ni que mencionar que el hardware de la época ni el software estaban a la altura para realizar semejantes proyectos.
Se comenzó a considerar el pensamiento humano como una coordinación de tareas simples relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo que ellos consideraban como los fundamentos de la solución inteligente de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas actividades simples. Por lo tanto podemos decir a grandes rasgos que la Inteligencia Artificial es una ciencia que intenta la creación de programas para máquinas que imiten el comportamiento y la comprensión humana, que sea capaz de aprender, reconocer y pensar.
En 1976, Joseph Weizenbaum publicó Computer Power and Human Reason [El poder del ordenador y la razón humana]. Básicamente Weizenbaum admitía la viabilidad de la I.A., pero se oponía a ella basándose en razones morales. Hacia 1965, Weizenbaum trabajaba en el MIT(Instituto Tecnológico de Massachusetts), intentando que los ordenadores hablaran en inglés con la gente. Una de esas ideas era que el conocimiento sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en funcionamiento una terapia que consistía simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras preguntas).

El nacimiento de la I.A.


El fracaso de la mayoría de los problemas que intentaban resolver eran demasiado complicados, tanto teórica como tecnológicamente. La lógica teórica fue considerada como el primer programa de IA y usada para resolver problemas de búsqueda heurística. Durante el decenio de 1950 se celebraron congresos, proliferaron los grupos de investigación y en 1954 uno de ellos afirmó haber creado un programa que traducía del ruso al inglés. La verdad es que los resultados prácticos fueron descorazonadoramente escasos. De todas formas, el resultado más espectacular de este período fue el programa de Samuel para Jugar a las damas, que se presentó en 1961 y era capaz de aprender de su experiencia, es decir, tener en cuenta sus errores y éxitos pasados, para determinar sus jugadas en la partida posterior.

Evolución histórica:


Prehistoria de la IA Así como de alguna forma los soportes mecánicos para la automatización de cálculos aritméticos se sitúan en la prehistoria de los computadores, la prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización hasta mediados del siglo veinte. En este período se producen hechos que podemos agrupar en dos líneas: Una de ellas, directamente relacionada con la construcción de autómatas que simulaban desde el punto de vista externo el comportamiento humano o animal, y que solían funcionar en ayuda de su amo. La otra línea, referente a la información y automatización del razonamiento lógico y matemático. En relación con los autómatas, siempre se ha relacionado la inteligencia con los aparatos mecánicos complejos.

Manipulación del conocimiento:


Existen tres paradigmas que los investigadores han utilizado tradicionalmente para la resolución de problemas de IA: Programación Heurística.- Está basado en el modelo de comportamiento humano y su estilo para resolver problemas complejos. Existen diversos tipos de programas que incluyen algoritmos heurísticos. Varios de ellos son capaces de aprender de su experiencia. Redes Neuronales Artificiales.- Es una representación abstraída del modelo neuronal del cerebro humano. Las redes están formadas por un gran número de elementos simples y por sus interconexiones Una red neuronal artificial puede ser simulada o ser real. Al elemento procesador de la red, se lo denomina neurona artificial. Evolución Artificial.- Su modelo está basado en el proceso genético de evolución natural, propuesto por Charles Darwin. Se utilizan sistemas simulados en computador que evolucionan mediante operaciones de reproducción, mutación y cruce (Algoritmos Genéticos). Cada paradigma comprende una colección de métodos, configuraciones y técnicas desarrolladas para manipular el conocimiento.
En general, una técnica de IA está caracterizada por incluir los siguientes componentes: Procesos de Búsqueda.- Proporciona una forma de resolver problemas para los cuales no hay un método más directo, así como también se constituye en un marco de trabajo dentro del cual cualquier técnica directa puede ser incorporada. Uso del Conocimiento.- Proporciona una forma de resolver problemas explotando las estructuras de los objetos involucrados. Abstracción.- Proporciona una forma de separar rasgos importantes y variaciones, de los tantos que no tienen importancia. La manipulación del conocimiento involucra además la selección de objetos, entidades y rasgos que son claves para las representaciones.

Los años difíciles:
Tales habían sido las expectativas levantadas por la IA, y tantos sus fracasos, que el desánimo sucedió al optimismo inicial. El mundo exterior se desentendió de los trabajos de investigación, y la financiación de muchos proyectos se volvió problemática, tanto en América como en Europa. No obstante, la IA se fue consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para los viejos problemas.
En el año 1964 se publicó una tesis doctoral sobre el sistema STUDENT, que es un programa de lenguaje natural que comprende y resuelve problemas elevados de álgebra. Es en 1966 cuando se publica, en Comunicaciones de la Asociación para Máquinas Calculadoras, un programa de ordenador para el estudio de comunicación hombre-máquina mediante lenguaje natural interactivo, ELIZA, que fue creado como un programa de psicología que simula respuestas de un terapista en dialogo interactivo con un paciente.

Investigación y desarrollo en áreas de la I.A.


Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado con éxito que pueden resolver complicados problemas de forma masiva, se han desarrollado en sistemas que:
Permiten al usuario preguntar a una base de datos en cualquier lenguaje que sea, mejor que un lenguaje de programación.
Reconocen objetos de una escena por medio de aparatos de visión.
Generar palabras reconocibles como humanas desde textos computarizados.
Reconocen e interpretan un pequeño vocabulario de palabras humanas.
Resuelven problemas en una variedad de campos usando conocimientos expertos codificados. Los países que han apadrinado investigaciones de IA han sido: EEUU., Japón, Reino Unido y la CEE; y lo han llevado a cabo a través de grandes compañías y cooperativas de riesgo y ventura, así como con universidades, para resolver problemas ahorrando dinero. Las aplicaciones más primarias de la IA se clasifican en cuatro campos: sistemas expertos, lenguaje natural, robótica y visión, sistemas censores y programación automática.

Cerebro VS. Microprocesador:


Los microprocesadores son circuitos electrónicos integrados encargados del procesamiento de la información en las computadoras. Las arquitecturas más comunes incluyen: una unidad aritmética y lógica (ALU) encargada de realizar las operaciones; una unidad de control, cuya función es extraer las instrucciones del programa almacenado en memoria, e indicar a los demás dispositivos de la computadora la tarea que deben realizar. La computadora funciona como una unidad de procesamiento, recibiendo los datos a procesar mediante los dispositivos de entrada, y entregando el producto elaborado mediante los dispositivos de salida. Esta actividad la desempeñan con notable precisión y velocidad, y en esto supera seguramente a nuestro cerebro. A diferencia del chip de silicio, nuestro cerebro ha evolucionado durante millones de años. Al intentar simularlo en las computadoras se ha revelado lo difícil que es realizar algunas operaciones que aquél realiza con facilidad. Las operaciones referidas son tareas que realizamos cotidianamente y sin esfuerzo pero requieren cierta característica que las computadoras no poseen.

Velocidad de transmisión:


Cuando comparamos el funcionamiento del cerebro y el de la computadora, la primera gran diferencia que hallamos es la de la manera de que en ambos se transmite la información. El ordenador maneja datos codificados en códigos binarios, que se representan físicamente mediante dos niveles distintos de energía eléctrica. Esto hace que la velocidad de propagación de los mismos sea muy alta y se mejore con cada nuevo diseño de microprocesador. Por el contrario, la transmisión de la información en el sistema nervioso, se realiza mediante un proceso electroquímico en la membrana de la neurona y mediante la sinapsis, que es el proceso químico con el cual se comunica una neurona con otra. Ambos procesos son mucho más lentos que el paso de energía por los circuitos del ordenador. ¿Cómo se explica entonces que el cerebro sea más eficiente en resolver algunas tareas, si emplea tiempos de transmisión mayores?

Características de la I.A.


Una de sus características es que incluye varios campos de desarrollo, como la robótica, la comprensión y traducción de lenguajes, el reconocimiento y aprendizaje de palabras de máquinas o los variados sistemas computacionales expertos, que son los encargados de reproducir el comportamiento humano en una sección del conocimiento. Tales tareas reducen costos y riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto y el control de calidad en el área comercial.

Las áreas de investigación de la I.A.


Son muchas las áreas de la A I que se investigan hoy día. Entre ellas, tenemos las siguientes:
La representación del conocimiento, que busca en el descubrimiento de métodos expresivos y eficientes describir información sobre aspectos del mundo real.
Los métodos de aprendizaje automático, que extienden las técnicas estadísticas con el fin de posibilitar la identificación de un amplio rango de tendencias generales a partir de un conjunto de datos de entrenamiento.
El campo de la planificación, que enfrenta el desarrollo de algoritmos que construyen y ejecutan automáticamente secuencias de comandos primitivos con el fin de alcanzar ciertas metas de alto nivel.
Los trabajos en el área de razonamiento posible, que hacen uso de principios estadísticos para desarrollar codificaciones de información incierta.
El estudio de las arquitecturas de agentes, que busca la integración de otras áreas de la I A con el objeto de crear agentes inteligentes, entidades robustas capaces de comportamiento autónomo y en tiempo real.
La coordinación y colaboración multiagentes, que ha permitido el desarrollo de técnicas para la representación de las capacidades de otros agentes y la especificación del conocimiento necesario para la colaboración entre ellos.
El desarrollo de ontologías, que persigue la creación de catálogos de conocimiento explícito, formal y multipropósito, que puedan ser utilizados por sistemas inteligentes.
Los campos de procesamiento de voz y lenguaje, que buscan la creación de sistemas que se comunican con la gente en su lenguaje.
La síntesis y comprensión de imágenes, que conduce a la producción de algoritmos para el análisis de fotografías, diagramas y videos, así como también de técnicas para el despliegue visual de información cuantitativa y estructurada.

Áreas de aplicación de la I.A.



  • Lingüística computacional.


  • Minería de datos (Data Mining)


  • Mundos virtuales


  • Procesamiento de lenguaje natural (Natural Language Processing)


  • Robótica


  • Sistemas de apoyo a la decisión


  • Videojuegos


  • Prototipos informáticos

Historia


La Inteligencia Artificial comenzó como el resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad.
La
Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar".
La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen
juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas.
Es así como los
sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.
Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar
el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronales creando, en conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo que se conoce como sistemas expertos.

La inteligencia artificial