viernes, 19 de diciembre de 2014

REDES NEURONALES ARTIFICIALES

INTRODUCCION.
En temas anteriores ya se ha visualizado lo que es la inteligencia artificial y algunos temas mas, pues ahora hablaremos sobre otro gran avance de la IA como lo son las redes neuronales artificiales.
MARCO TEORICO.
Las actividades de investigación desarrolladas en torno al estudio de redes neuronales artificiales, simplemente redes neuronales o neuroredes, están motivadas en modelar la forma de procesamiento de la información en sistemas nerviosos biológicos. Especialmente, por la forma de funcionamiento del cerebro humano, que es completamente distinta al funcionamiento del computador digital convencional. El cerebro humano corresponde al de un sistema altamente complejo, no-lineal y paralelo.
FUNDAMENTOS BIOLOGICOS DE LAS REDES NEURONALES.
El aparato de comunicación neuronal de los animales y del hombre, formado por el sistema nervioso y hormonal, en conexión con los órganos de los sentidos y los órganos efectores (musculos, glandulas), tiene la misión de recoger información, transmitirla y elaborarlas, en parte también almacenarlas y enviarlas de nuevo en forma elaborada. El sistema de comunicación neuronal se compone de tres partes:
·       Los receptores.
·       El sistema nervioso
·       Órganos Diana o Efectores.
Los receptores: están en las células sensoriales, recogen las informaciones en forma de estímulos, ya sea del exterior o del interior del organismo.
El sistema nervioso: Este recibe las informaciones, las elabora, en parte las almacena y las envía en forma elaborada a los órganos efectores y a otras zonas del sistema nervioso.
Órganos Diana o Efectores: Son los músculos y glándulas que reciben la información y la interpretan en forma de acciones motoras, hormonales, etc.
El elemento estructural y funcional más esencial, en el sistema de comunicación neuronal, es la célula nerviosa o neurona. La mayoría de las neuronas utilizan sus productos de secreción como señales químicas para la transmisión de la información.
La misión de las neuronas comprende generalmente cinco funciones parciales:
·       Las neuronas recogen la información que llega a ellas en forma de impulsos.
·       La integran en un código de activación propio de la célula.
·       La transmiten codificada en forma de frecuencia de impulsos a través de su axón.
·       A través de sus ramificaciones el axón efectúa la distribución espacial de los mensajes.
·       En sus terminales trasmite los impulsos a las neuronas subsiguientes o células efectoras.
En el siguiente diagrama se aprecia que la neurona consta de un cuerpo celular y un núcleo, como el resto de las células del organismo, pero cuenta también con algunos elementos específicos



MODELO COMPUTACIONAL.
La gran diferencia entre una maquina conexionista, es decir una maquina neuronal y los programas de computador convencionales es que estas “elaboran”, en cierta medida, la información de entrada para obtener una salida o respuesta.
LA NEURONA ARTIFICIAL.
Una red neuronal artificial (ANN) es un esquema de computación distribuida inspirada en la estructura del sistema nervioso de los seres humanos. La arquitectura de una red neuronal es formada conectando múltiples procesadores elementales, siendo éste un sistema adaptivo que posee un algoritmo para ajustar sus pesos (parámetros libres) para alcanzar los requerimientos de desempeño del problema basado en muestras representativas.
Las neuronas poseen una función que les permite cambiar de nivel de activación a partir de las señales que reciben, a dicha función se le denomina función de transición de estado o función de activación.


ESTRUCTURA BASICA DE UNA RED
En el siguiente grafico de una Red de Neuronas Artificial se observa a la izquierda una serie de entradas a la neurona; cada una llega de la salida de otra neurona de la red. Una vez calculada la salida de una neurona, esta se propaga, envía conexiones de salida, a las células destino. Todas las conexiones de salida reciben el mismo valor de salida.

CONCLUSION.
Al revisar el siguente informe podemos concluir que las redes neuronales han le ha brindado un gran avance a la inteligencia artificial ya que en las redes neuronales se puede decir que son automatas puesto que esta brinda el aprendizaje en la inteligencia artificial ya que posee algoritmos para realizar dicha accion.
BIBLIOGRAFIAS
Isasi, P y Galván, I. 2004. Redes neuronales artificiales: Un enfoque práctico. 1 ed. España.  Pearson Education. p 248
Saavedra, C; Izaurieta, F. Redes Neuronales Artificiales. (En Linea). Consultado el 12 de Dic. 2014. Formato PDF.
Salas, R. 2002. Redes Neuronales Artificiales. (En Linea). Consultado el 15 de Dic. 2014. Formato PDF.


miércoles, 26 de noviembre de 2014

ESTRUCTURA DE LOS AGENTES.

INTRUDUCCION.

El siguiente tema a revisar tomaremos en cuenta la estructura de la que dispone un agente racional, se tomara en cuenta mediante qué forma realiza sus acción incluyendo gráficos en los que se logra manifestar lo que se está tratando.
Si ya bien sabemos la estructura de un agente reacciona dependiendo de su medio o entorno esto se toma en cuenta como percepción por medios sensoriales. Y a continuación nuestro tema.

ESTRUCTURA DE LOS AGENTES.

Este se trata de centrarse en el núcleo del problema y hablar sobre cómo trabajan internamente. El trabajo de la IA es diseñar el programa del agente implemente la función del agente que proyecta las percepciones en las acciones. Se asume que este programa se ejecutara en algún tipo de computador con sensores físicos y actuadores, lo cual se conoce como  arquitectura:
Agente = arquitectura + programa
Obviamente, el programa que se elija tiene que ser apropiado para la arquitectura. Si el programa tiene que recomendar acciones como Caminar, la arquitectura tiene que tener piernas. La arquitectura puede ser un PC común, o puede ser un coche robotizado con varios computadores, cámaras, y otros sensores a bordo. En general, la arquitectura hace que las percepciones de los sensores estén disponibles para el programa.

PROGRAMAS DE LOS AGENTES.

Los programas de los agentes reciben las percepciones actuales como entradas de los sensores y devuelven una acción a los actuadores. Hay que tener en cuenta la diferencia entre los programas de los agentes, que toman la percepción actual como entrada, y la función del agente, que recibe la percepción histórica completa.
El desafío clave de la IA es encontrar la forma de escribir programas, que en la medida de lo posible, reproduzcan un comportamiento racional a partir de una pequeña cantidad de código en vez de a partir de una tabla con un gran número de entradas.
En lo que resta de esta sección se presentan los cuatro tipos básicos de programas para agentes que encarnan los principios que subyacen en casi todos los sistemas inteligentes.
• Agentes reactivos simples.
• Agentes reactivos basados en modelos.
• Agentes basados en objetivos.
• Agentes basados en utilidad.
Despues de los siguientes se dara a conocer los agentes que aprenden.

AGENTES REACTIVOS SIMPLES.

El tipo de agente más sencillo es el agente reactivo simple Estos agentes seleccionan Las acciones sobre la base de las percepciones actuales, ignorando el resto de las percepciones Históricas. Por ejemplo, el agente aspiradora cuya función de agente se presentó un agente reactivo simple porque toma sus decisiones solo con base en la localización actual y si esta está sucia.



AGENTES REACTIVOS BASADOS EN MODELOS.

La forma más efectiva que tienen los agentes de manejar la visibilidad parcial es almacenar información de las partes del mundo que no pueden ver. O lo que es lo mismo, el agente debe mantener algún tipo de estado interno que dependa de la historia percibida y que de ese modo refleje por lo menos alguno de los aspectos no observables del estado actual.
La actualización de la información de estado interno según pasa el tiempo requiere codificar dos tipos de conocimiento en el programa del agente. Primero, se necesita alguna información acerca de cómo evoluciona el mundo independientemente del agente. Segundo, se necesita más información sobre cómo afectan al mundo las acciones del agente.


Este conocimiento acerca de (cómo funciona el mundo), tanto si esta implementado con un circuito booleano simple o con teorías científicas completas, se denomina modelo del mundo. Un agente que utilice este modelo es un agente basado en modelos.

AGENTES BASADOS EN OBJETIVOS.

El conocimiento sobre el estado actual del mundo no es siempre suficiente para decidir qué hacer. Por ejemplo, en un cruce de carreteras, el taxista puede girar a la izquierda, girar a la derecha o seguir hacia adelante. La decisión correcta depende de dónde quiere ir el taxi. En otras palabras, además de la descripción del estado actual, el agente necesita algún tipo de información sobre su meta que describa las situaciones que son deseables, por ejemplo, llegar al destino propuesto por el pasajero. El programa del agente se puede combinar con información sobre los resultados de las acciones posibles (la misma información que se utilizó para actualizar el estado interno en el caso del agente reflexivo) para elegir las acciones que permitan alcanzar el objetivo. En algunas ocasiones, la selección de acciones basadas en objetivos es directa, cuando alcanzar los objetivos es el resultado inmediato de una acción individual. En otras ocasiones, puede ser más complicado, cuando el agente tiene que considerar secuencias complejas
Para encontrar el camino que le permita alcanzar el objetivo.

AGENTES BASADOS EN UTILIDAD.

Las metas por si solas no son realmente suficientes para generar comportamiento de gran calidad en la mayoría de los entornos. Por ejemplo, hay muchas secuencias de acciones que llevaran al taxi a su destino (y por tanto a alcanzar su objetivo), pero algunas son más rápidas, más seguras, más fiables, o más baratas que otras. Las metas solo proporcionan una cruda distinción binaria entre los estados de (felicidad) y (tristeza), mientras que una medida de eficiencia más general debería permitir una comparación entre estados del mundo diferentes de acuerdo al nivel exacto de felicidad que el agente alcance cuando se llegue a un estado u otro.

Una función de utilidad proyecta un estado (o una secuencia de estados) en un número real, que representa un nivel de felicidad. La definición completa de una función de utilidad permite tomar decisiones racionales en dos tipos de casos en los que las metas son inadecuadas. Primero, cuando haya objetivos conflictivos, y solo se puedan alcanzar algunos de ellos (por ejemplo, velocidad y seguridad), la función de utilidad determina el equilibrio adecuado. Segundo, cuando haya varios objetivos por los que se pueda guiar el agente, y ninguno de ellos se pueda alcanzar con certeza, la utilidad proporciona un mecanismo para ponderar la probabilidad de éxito en función de la importancia de los objetivos.

AGENTES QUE APRENDEN.

Se han descrito programas para agentes que poseen varios métodos para seleccionar acciones. Hasta ahora no se ha explicado cómo poner en marcha estos programas de agentes. Turing (1950), en su temprano y famoso artículo, considero la idea de programar Sus máquinas inteligentes a mano. Estimo cuanto tiempo podía llevar y concluyo que (Sería deseable utilizar algún método más rápido). El método que propone es construir máquinas que aprendan y después ensenarlas. En muchas áreas de IA, este es ahora el método más adecuado para crear sistemas novedosos. El aprendizaje tiene otras ventajas, como se ha explicado anteriormente: permite que el agente opere en medios inicialmente desconocidos y que sea más competente que si solo utilizase un conocimiento inicial.

Los agentes tienen una gran variedad de componentes, y estos componentes se pueden representar de muchas formas en los programas de agentes, por lo que, parece haber una gran variedad de métodos de aprendizaje. Existe, sin embargo, una visión unificada sobre un tema fundamental. El aprendizaje en el campo de los agentes inteligentes puede definirse como el proceso de modificación de cada componente del agente, lo cual permite a cada componente comportarse más en consonancia con la información que se recibe, lo que por tanto permite mejorar el nivel medio de actuación del agente.

CONCLUCION.
En conclusión vemos como obviamente las estructuras se concentran en los problemas que disponen los medios para que estos sean resueltos por medio de las acciones realizadas de los agentes, esto se logra dar gracias a los sensores que permiten la percepción y los actuadores que permiten q se logre la acción que se requiere realizar.

BIBLIOGRAFIA.

Russell, S; Norvig P. 2004. Inteligencia Artificial Un Enfoque Moderno, Segunda Edición.

Corchado, J. Modelos y Arquitectura de Agentes. Formato PDF. Disponible en: http://bisite.usal.es/archivos/c1%20(1).pdf

lunes, 24 de noviembre de 2014

BUEN COMPORTAMIENTO: EL CONCEPTO DE RACIONALIDAD.

INTRODUCCION.
En el siguiente tema daremos a conocer el buen comportamiento en sentido del concepto de racionalidad, para ello tomaremos en cuento los agentes racionales ya mencionados con anterioridad. Obviamente se dará a conocer lo que es correcto en el conocimiento en un agente racional, así definiremos de forma algo precisa lo que es la racionalidad y su buen comportamiento.
MARCO TEORICO.
BUEN COMPORTAMIENTO: EL CONCEPTO DE RACIONALIDAD.
Un agente racional aquel que hace lo correcto; en términos conceptuales, cada elemento de la tabla que define la función del agente se tendría que rellenar correctamente. Obviamente, hacer lo correcto es mejor que hacer algo incorrecto, pero ¿qué significa hacer lo correcto? Como primera aproximación, se puede decir que lo correcto es aquello que permite al agente obtener un resultado mejor. Por tanto, se necesita determinar una forma de medir el éxito. Ello, junto a la descripción del entorno y de los sensores y actuadores del agente, proporcionara una especificación completa de la tarea que desempeña el agente. Dicho esto, ahora es posible definir de forma más precisa que significa la racionalidad.
MEDIDAS DE RENDIMIENTO.
Las medidas de rendimiento incluyen los criterios que determinan el éxito en el comportamiento del agente. Cuando se sitúa un agente en un medio, este genera una secuencia de acciones de acuerdo con las percepciones que recibe. Esta secuencia de acciones hace que su hábitat pase por una secuencia de estados. Si la secuencia es la deseada, entonces el agente habrá actuado correctamente. Obviamente, no hay una única medida adecuada para todos los agentes. Se puede preguntar al agente por su opinión subjetiva acerca de su propia actuación, pero muchos agentes serían incapaces de contestar, y otros podrían engañarse a si mismos3. Por tanto hay que insistir en la importancia de utilizar medidas de rendimiento objetivas, que normalmente determinara el diseñador encargado de la construcción del agente.
RACIONALIDAD.
La racionalidad en un momento determinado depende de cuatro factores:
·         La medida de rendimiento que define el criterio de éxito.
·         El conocimiento del medio en el que habita acumulado por el agente.
·         Las acciones que el agente puede llevar a cabo.
·         La secuencia de percepciones del agente hasta este momento.
Esto nos lleva a la definición de agente racional:
En cada posible secuencia de percepciones, un agente racional deberá emprender aquella acción que supuestamente maximice su medida de rendimiento, basándose en las evidencias aportadas por la secuencia de percepciones y en el conocimiento que el agente mantiene almacenado.
OMNISCIENCIA, APRENDIZAJE Y AUTONOMIA.
·         Es necesario tener cuidado al distinguir entre racionalidad y omnisciencia. Un agente omnisciente conoce el resultado de su acción y actúa de acuerdo con él; sin embargo, en realidad la omnisciencia no es posible. Considerando el siguiente ejemplo: estoy paseando por los Campos Elíseos y veo un amigo al otro lado de la calle. No hay tráfico alrededor y no tengo ningún compromiso, entonces, actuando racionalmente, comenzaría a cruzar la calle. Al mismo tiempo, a 33.000 pies de altura, se desprende la puerta de un avion4, y antes de que termine de cruzar al otro lado de la calle me encuentro aplastado. ¿Fue irracional cruzar la calle? Seria de extrañar que en mi nota necrológica apareciera (Un idiota intentando cruzar la calle). Este ejemplo muestra que la racionalidad no es lo mismo que la perfección. La racionalidad maximiza el rendimiento esperado, mientras la perfección maximiza el resultado real.
·         La definición propuesta implica que el agente racional no solo recopile información, sino que aprenda lo máximo posible de lo que está percibiendo. La configuración inicial del agente puede reflejar un conocimiento preliminar del entorno, pero a medida que el agente adquiere experiencia este puede modificarse y aumentar. Hay casos excepcionales en los que se conoce totalmente el entorno a priori. En estos casos, el agente no necesita percibir y aprender; simplemente actúa de forma correcta. Por supuesto, estos agentes son muy frágiles. Considérese el caso del humilde escarabajo estercolero. Después de cavar su nido y depositar en el sus huevos, tomo una bola de estiércol de una pila cercana para tapar su entrada. Si durante el trayecto se le quita la bola, el escarabajo continuara su recorrido y hará como si estuviera tapando la entrada del nido, sin tener la bola y sin darse cuenta de ello. La evolución incorporo una suposición en la conducta del escarabajo, y cuando se viola, el resultado es un comportamiento insatisfactorio. La avispa cavadora es un poco más inteligente. La avispa hembra cavara una madriguera, saldrá de ella, picara a una oruga y la llevara a su madriguera, se introducirá en la madriguera para comprobar que todo está bien, arrastrara la oruga hasta el fondo y pondrá sus huevos. La oruga servirá como fuente de alimento cuando los huevos se abran. Hasta ahora todo bien, pero si un entomólogo desplaza la oruga unos centímetros fuera cuando la avispa está revisando la situación, esta volverá a la etapa de (arrastre) que figura en su plan, y continuara con el resto del plan sin modificación alguna, incluso después de que se intervenga para desplazar la oruga. La avispa cavadora no es capaz de aprender que su plan innato está fallando, y por tanto no lo cambiara.
·         Se dice que un agente carece de autonomía cuando se apoya más en el conocimiento inicial que le proporciona su diseñador que en sus propias percepciones. Un agente racional debe ser autónomo, debe saber aprender a determinar cómo tiene que compensar el conocimiento incompleto o parcial inicial. Por ejemplo, el agente aspiradora que aprenda a prever donde y cuando aparecerá suciedad adicional lo hará mejor que otro que no aprenda. En la práctica, pocas veces se necesita autonomía completa desde el comienzo: cuando el agente haya tenido poca o ninguna experiencia, tendrá que actuar de forma aleatoria a menos que el diseñador le haya proporcionado ayuda. Así, de la misma forma que la evolución proporciona a los animales solo los reactivos necesarios para que pueda sobrevivir lo suficiente para aprender por ellos mismos, sería razonable proporcionar a los agentes que disponen de inteligencia artificial un conocimiento inicial, así como de la capacidad de aprendizaje. Después de las suficientes experiencias interaccionando con el entorno, el comportamiento del agente racional será efectivamente independiente del conocimiento que poseía inicialmente. De ahí, que la incorporación del aprendizaje facilite el diseño de agentes racionales individuales que tendrán éxito en una gran cantidad de medios.
CONCLUCION.
En conclusión podemos decir que el buen comportamiento se da en dependencia al medio o en si a los actuadores del agente, pero más aun de su nivel de racionalidad.

Esto se logra resaltar por medio de la media de rendimiento, así mismo ya dicho su racionalidad dado esto se puede lograr un mejor comportamiento si el agente logra aprender de sus actos.
BIBLIOGRAFIA.

Russell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España.

sábado, 15 de noviembre de 2014

AGENTES INTELIGENTES, AGENTES Y SU ENTORNO.

AGENTES INTELIGENTES, AGENTES Y SU ENTORNO.
INTRODUCCION.
En el siguiente tema de redacción vamos a tratar sobre los agentes inteligentes y así mismo a sus agentes y su entorno. Esto se da a conocer gracias a que con anterioridad adquirimos conocimientos de la Inteligencia Artificial, pues este tema es el siguiente paso en con el que nos podemos guiar en la IA.
MARCO TEORICO.
AGENTES INTELIGENTES.
Se identifica el concepto de agente racional como central en la perspectiva de la inteligencia artificial. Esta noción se concreta más a lo largo de este capítulo. Se muestra como el concepto de racionalidad se puede aplicar a una amplia variedad de agentes que operan en cualquier medio imaginable. La idea es utilizar este concepto para desarrollar un pequeño conjunto de principios de diseño que sirvan para construir agentes útiles, sistemas que se puedan llamar razonablemente inteligentes.
De acuerdo a lo comentado anteriormente, la IA puede ser enfocada desde la perspectiva del desarrollo de agentes inteligentes. Esta idea, la cual puede ser considerada como un nuevo reto a corto plazo, está siendo avalada y respaldada por numerosos investigadores en la materia; sirva a modo de ejemplo la siguiente frase: «Los agentes constituyen el próximo avance más significativo en el desarrollo de sistemas y pueden ser considerados como la nueva revolución en el software».
Esta frase fue pronunciada por el Dr. Nicholas Jennings en Su discurso al recoger el premio al mejor investigador novel del último congreso internacional de Inteligencia Artificial celebrado en Estocolmo (IJCAI’99). Resulta mucho más impactante aun cuando tal afirmación se ve refrendada por numerosos indicadores, como por ejemplo el gran interés despertado tanto a nivel académico como industrial. Frente a una afirmación de este tipo, surgen obligatoriamente ciertas preguntas de carácter general: ¿en qué consiste este nuevo paradigma?, ¿qué es un agente?, ¿cómo se caracteriza un agente?, ¿qué nos ofrece de nuevo? etc...
Algunas de estas preguntas son difíciles de responder, entre otras cosas debido a que estamos hablando de una tecnología en ciernes y todavía existen lagunas a nivel conceptual y de desarrollo.
AGENTES Y SU ENTORNO.
Un agente es cualquier cosa capaz de percibir su medio ambiente con la ayuda de sensores y actuar en ese medio utilizando actuadores.



El agente es un sistema computacional capaz de actuar de manera autónoma para satisfacer sus objetivos y metas, mientras se encuentra situado persistentemente en su medio ambiente.

Una idea simple es. Un agente humano tiene ojos, oídos y otros órganos sensoriales además de manos, piernas, boca y otras partes del cuerpo para actuar. Un agente robot recibe pulsaciones del teclado, archivos de información y paquetes vía red a modo de entradas sensoriales y actúa sobre el medio con mensajes en el monitor, escribiendo ficheros y enviando paquetes por la red. Se trabajara con la hipótesis general de que cada agente puede percibir sus propias acciones (pero no siempre sus efectos).



El termino percepción se utiliza en este contexto para indicar que el agente puede recibir entradas en cualquier instante. La secuencia de percepciones de un agente refleja el historial completo de lo que el agente ha recibido. En términos matemáticos se puede decir que el comportamiento del agente viene dado por la función del agente proyecta una percepción dada en una acción. Inicialmente, la función del agente para un agente artificial se implementara mediante el programa del agente.
CONCLUCION.
Dado el siguiente informe se puede concluir que un agente inteligente es aquel que se logra llegar a ver racional, un agente inteligente puede comportarse de la mejor forma posible. En tanto respecto un agente logra su funcionamiento dependiendo de su entorno.
Cada agente actúa respectivamente en el medio para el que ha sido aplicado esto se puede lograr principalmente a sus sensores de gran utilidad y a sus actuadores que son sus herramientas para lograr su cometido.
BIBLIOGRAFÍA.
Russell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España.
Guerra, A. 2013. Agentes Inteligentes.  (En línea).  Consultado, 23 Noviembre. 2014. Formato PDF. Disponible en: http://www.uv.mx/aguerra/documents/2013-ia2-01.pdf
Julián, V., Botti V. 2005. Agentes Inteligentes: el siguiente paso en la Inteligencia Artificial. (En Línea). Consultado, 23 Noviembre 2014. Formato PDF. Disponible en: http://www.ati.es/novatica/2000/145/vjulia-145.pdf


martes, 4 de noviembre de 2014

HISTORIA DE LA INTELIGENCIA ARTIFICIAL



INTRODUCCION.
A continuación se presentara una breve historia de la IA, los años en los que sus autores trabajaron mucho para realizar experimentos y poder demostrar que utilizando la IA se puede dar vida a máquinas que a simple vista no pueden hacer nada. Pero una vez aplicada la IA pueden realizar cosas que ni nosotros mismos hubiésemos imaginado.
MARCO TEORICO.
GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)
Warren McCulloch y Walter Pitts (1943) han sido reconocidos como los autores del primer trabajo de IA.
Propusieron un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar «activada» o «desactivada»; la «activación» se daba como respuesta a la estimulación producida por una cantidad suficiente de neuronas vecinas. El estado de una neurona se veía como «equivalente, de hecho, a una proposición con unos estímulos adecuados». Mostraron, por ejemplo, que cualquier función de cómputo podría calcularse mediante alguna red de neuronas interconectadas, y que todos los conectares lógicos (and, or, not, etc.) Dos estudiantes graduados en el Departamento de Matemáticas de Princeton, Marvin Minsky y Dean Edmonds, construyeron el primer computador a partir de una red neuronal en 1951. El Snarc, como se llamó, utilizaba 3.000 válvulas de vacío y un mecanismo de piloto automático obtenido de los desechos de un avión bombardero B24 para simular una red con 40 neuronas. El comité encargado de evaluar el doctorado de Minsky veía con escepticismo el que este tipo de trabajo pudiera considerarse como matemático, pero se dice que von Newmann dijo, «Si no lo es actualmente, algún día lo será».
Minsky posteriormente probó teoremas influyentes que mostraron las limitaciones de la investigación con redes neuronales.
Hay un número de trabajos iniciales que se pueden caracterizar como de IA, pero fue Alan Turing quien articuló primero una visión de la IA en su artículo Computing Machinery and Intelligence, en 1950
NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956)
Princeton acogió a otras de las figuras señeras de la IA, John McCarthy. Posteriormente a su graduación, McCarthy se transladó al Dartmouth College, que se erigiría en el lugar del nacimiento oficial de este campo. McCarthy convenció a Minsky, Claude Shannon y Nathaniel Rochester para que le ayudaran a aumentar el interés de los investigadores americanos en la teoría de autómatas, las redes neuronales y el estudio de la inteligencia. Organizaron un taller con una duración de dos meses en Darmouth en el verano de 1956. Hubo diez asistentes en total, entre los que se incluían Trenchard More de Princeton, Arthur Samuel de IBM, y Ray Solomonoff y Oliver Selfridge del MIT.
Dos investigadores del Carnegie Tech13, Alien Newell y Herbert Simón, acapararon la atención. Si bien los demás también tenían algunas ideas y, en algunos casos, programas para aplicaciones determinadas como el juego de damas, Newell y Simón contaban ya con un programa de razonamiento, el Teórico Lógico (IL), del que Simón afirmaba: «Hemos inventado un programa de computación capaz de pensar de manera no numérica, con lo que ha quedado resuelto el venerable problema de la dualidad mente-cuerpo»
ENTUSIASMO INICIAL, GRANDES ESPERANZAS (1952-1969)
Los primeros años de la IA estuvieron llenos de éxitos (aunque con ciertas limitaciones).
Teniendo en cuenta lo primitivo de los computadores y las herramientas de programación de aquella época, y el hecho de que sólo unos pocos años antes, a los computadores se les consideraba como artefactos que podían realizar trabajos aritméticos y nada más, resultó sorprendente que un computador hiciese algo remotamente inteligente. La comunidad científica, en su mayoría, prefirió creer que «una máquina nunca podría hacer tareas».
Naturalmente, los investigadores de IA responderían demostrando la realización de una tarea tras otra John McCarthy se refiere a esta época como la era de «Mira, mamá, ahora sin manos».
John McCarthy se trasladó de Darmouth al MIT, donde realizó tres contribuciones cruciales en un año histórico: 1958. En el Laboratorio de IA del MIT Memo Número 1, McCarthy definió el lenguaje de alto nivel Lisp, que se convertiría en el lenguaje de programación dominante en la IA. Lisp es el segundo lenguaje de programación más antiguo que se utiliza en la actualidad, ya que apareció un año después de FORTRAN.
 CONCLUSION.
La IA a través de varios experimentos y cosas locas realizadas por expertos, hoy se ha convertido en lo más utilizado en máquinas, artefactos o robots. Lo cierto es que saber de dónde viene todo esto aclara muchas dudas con respecto a la IA y a la IH
BIBLIOGRAFIAS.
Russell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España