

Se podría situar los orígenes de la inteligencia artificial con la definición de la neurona formal dada por McCulloch y Pitts [1943], como un dispositivo binario con varias entradas y salidas.
Ya en el año de 1956 se volvió a tocar el tema de inteligencia artificial (IA) en el instituto de tecnología de Massachussets por John McCarthy donde se celebró la conferencia de Dartmouth en Hanover (Estados Unidos). En este certamen McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon establecieron las bases de la inteligencia artificial como un campo independiente dentro de la informática.
Previamente, en 1950, Alan M. Turing había publicado un artículo en la revista Mind, titulado “Computing Machinery and Intelligence” (“Ordenador e inteligencia”), en el que reflexionaba sobre el concepto de inteligencia artificial y establecía lo que luego se conocería como el Test de Turing, una prueba que permite determinar si un ordenador o computadora se comporta conforme a lo que se entiende como artificialmente inteligente o no.
La inteligencia artificial en los años sesentas, como tal no tuvo muchos éxitos ya que requería demasiada inversión para ese tiempo y la mayoría de tecnologías eran propias de grandes centros de investigación. En los años 70’s a 80’s se lograron algunos avances significativos en una de sus ramas llamada Sistemas Expertos, con la introducción de PROLOG LISP.
Básicamente lo que pretende la inteligencia artificial es crear una máquina secuencial programada que repita indefinidamente un conjunto de instrucciones generadas por un ser humano.
En la actualidad mucho se sigue investigando en los grandes laboratorios tecnológicos educativos y privados; sin dejar de lado los notables avances en sistemas de visión por computadora (aplicados por ejemplo, para la clasificación de artículos revueltos -tornillería o piezas marcadas por códigos de colores, por citar un caso-), control robótico autónomo (Sony, con sus robots capaces de moverse en forma casi humana y reaccionar a presiones tal como lo hace una persona al caminar), aplicaciones de lógica difusa (aplicación del tracking automático en nuestras video caseteras, por citar una aplicación), etc. Sin embargo, la Inteligencia Artificial sigue en su gran mayoría acotada por su dominio tecnológico, y poco ha podido salir al mercado del consumidor final o a la industria.
Con respecto a las definiciones actuales de inteligencia artificial se encuentran autores como Rich y Knight [1994] y Stuart [1996], quienes definen en forma general la IA como la capacidad que tienen las máquinas para realizar tareas que en el momento son realizadas por seres humanos; Nebendah [1988] y Delgado [1998], la definen cómo el campo de estudio que se enfoca en la explicación y emulación de la conducta inteligente en función de procesos computacionales basadas en la experiencia y el conocimiento continuo del ambiente.
Farid Fleifel Tapia describe a la IA como: “la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución. Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:
En la IA se pueden observar dos enfoques diferentes:
El primer enfoque se centra en la utilidad y no en el método como veíamos anteriormente con los algoritmos, los temas claves de este enfoque son la representación y gestión de conocimiento, sus autores más representativos son McCarthy y Minsky.
En el segundo enfoque encontramos que este se orienta a la creación de un sistema artificial capaz de realizar procesos cognitivos humanos haciendo importante ya no la utilidad como el método, los aspectos fundamentales de este enfoque se refieren al aprendizaje y adaptabilidad y sus autores son Newell y Simon de la Carnegie Mellon University.
La IA al tratar de construir máquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbólico llamado a veces conexionista.
Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular y conocimiento a cerca de cómo obtener más conocimiento a partir del que ya tenemos. El ejemplo más representativo de esta corriente es el Proyecto de Cyc de Douglas B. Lenat, sobre un sistema que posee en su memoria millones de hechos interconectados.
Dentro de la otra corriente: la subsimbólica; los esfuerzos se orientan a la simulación de los elementos de más bajo nivel dentro de los procesos inteligentes con la esperanza de que éstos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos más claros que trabajan con este tipo de orientación son las redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.
La IA se divide en dos escuelas de pensamiento:
Basada en análisis formal y estadístico del comportamiento humano ante diferentes problemas:
La inteligencia computacional (también conocida como inteligencia artificial subsimbólica) implica desarrollo o aprendizaje interactivo (por ejemplo: modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos. Algunos métodos de esta rama incluyen:
Marvin Minsky, ha dado una clasificación para los lenguajes de programación que se utilizan en esta disciplina:
Pero Minsky, admite que aún será necesario desarrollar dos tipos de lenguajes más para obtener una IA comparable a la inteligencia humana; y estos podrían ser:
Otro punto desde luego tiene que ver con el tema que aquí estamos tratando es por supuesto el concepto de lo que es creatividad, que a simple vista es algo que no podemos explicar satisfactoriamente, porque es resultado de un don especial pero, los estudios sobre IA han comenzado a hacerlo posible: nos dicen que en la medida que se logre escribir programas que exhiban propiedad, en esa misma medida se empezará a explicar la creatividad.
Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las investigaciones psicológicas hablan por una parte de que, como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la máquina como del ser humano.
Pero sería imposible tratar de contemplar el tema de la IA sin recurrir a la cuestión de la complejidad; donde el comportamiento inteligente es el resultado de la interacción de muchos elementos y que con seguridad es una de las más valiosas contribuciones al tratar de simular en la máquina los fenómenos intelectuales humanos.
La IA se ha desarrollado como disciplina a partir de la concepción de la inteligencia que se realizó al interior de la psicología y a partir de la cual se elaboraron diferentes categorías.
La Inteligencia Artificial, clasifica las técnicas que pueden ser usadas como herramientas para solucionar problemas en las siguientes categorías:
1. Técnicas Básicas: Así llamadas por encontrarse en la base de diversas aplicaciones de IA:
Estas técnicas son las bases de las aplicaciones. En su mayoría, no necesita conocerla el usuario final, sino los profesionales que se dedican a su aplicación y la generación de aplicaciones comerciales.
2. Tecnologías (o combinaciones de varias Técnicas Básicas) orientadas a resolver familias de problemas. Las Tecnologías son más especializadas que las Técnicas Básicas y están más cerca de las aplicaciones finales. Se pueden mencionar:
La IA tiene las siguientes clases o tipos de aplicaciones:
Todas ellas son familias de problemas tipo. Por ejemplo, el diagnóstico se refiere a encontrar las causas de fallas, ya sea que se trate de fallas en una línea de producción o de enfermedades en una persona.
Los Campos de Aplicación de la IA son: Ingeniería, Medicina, Sistemas de Manufactura, Administración, Apoyo a la Toma de Decisiones Gerenciales, etc. Todos caen dentro de las áreas de los Sistemas Computacionales, pero se consideran como clientes de la IA.
Para que un sistema inteligente pueda ser considerado completo, debe incluir diversas funcionalidades que incluyan:
La incorporación de agentes de decisión inteligente, redes neuronales, sistemas expertos, algoritmos genéticos y autómatas programables para optimización de sistemas de producción es una tendencia activa en el ambiente industrial de países con alto desarrollo tecnológico y con una gran inversión en I&D. Dichos componentes de la Inteligencia Artificial tienen como función principal controlar de manera independiente, y en coordinación con otros agentes, componentes industriales tales como celdas de manufactura o ensamblaje, y operaciones de mantenimiento, entre otras.
Existe una tendencia creciente a la implementación de sistemas de manufactura/ensamblaje más autónomos e inteligentes, debido a las exigencias del mercado por obtener productos con niveles muy altos de calidad; lo cual con operaciones manuales se hace complicada y hace que los países subdesarrollados como el nuestro no alcance niveles competitivos a nivel mundial. Al diseñar un sistema de producción integrado por computadora se debe dar importancia a la supervisión, planificación, secuenciación cooperación y ejecución de las tareas de operación en centros de trabajo, agregado al control de los niveles de inventario y características de calidad y confiabilidad del sistema. Los factores mencionados determinan la estructura del sistema y su coordinación representa una de las funciones más importantes en el manejo y control de la producción.
Muy frecuentemente, la razón para construir un modelo de simulación es para encontrar respuestas a interrogantes tales como ¿Cuáles son los parámetros óptimos para maximizar o minimizar cierta función objetivo? En los últimos años se han producido grandes avances en el campo de la optimización de sistemas de producción. Sin embargo, el progreso en el desarrollo de herramientas de análisis para resultados de modelos de simulación ha sido muy lento. Existe una gran cantidad de técnicas tradicionales de optimización que sólo individuos con gran conocimiento estadístico y de conceptos de simulación han logrado aportes significativos en el área.
Debido al auge de los algoritmos de búsqueda meta-heurísticos, se ha abierto un nuevo campo en el área de optimización con simulación. Nuevos paquetes de software, tales como OPTQuest (Optimal Technologies), SIMRUNNER (Promodel Corporation) y Evolver (Palisade Software), han salido al mercado brindando soluciones amigables de optimización de sistemas que no requieren control interno sobre el modelo construido, sino sobre los resultados que dicho modelo arroja bajo diferentes condiciones. Además, nuevas técnicas de inteligencia artificial aplicadas a problemas de optimización estocástica, han demostrado su eficiencia y capacidad de cómputo y aproximación.
El Aprendizaje Reforzado (Reinforcement Learning) es un conjunto de técnicas diseñadas para dar solución a problemas cuya base son los procesos de decisión markovianos. Éstos son procesos estocásticos de decisión que se basan en el concepto de que la acción a tomar en un estado determinado, en un instante determinado, depende sólo del estado en que se encuentre el sistema al momento de tomar la decisión.
Una de las áreas que puede tener mayor incidencia directa en los procesos productivos de la industria a nivel mundial, es el diseño de sistemas de soporte para la toma de decisiones basados en la optimización de los parámetros de operación del sistema. Para tal efecto, el uso de técnicas inteligentes paramétricas y no paramétricas para el análisis de datos es de gran interés. Sin embargo, a juicio de los autores en la mayoría de las arquitecturas propuestas hasta el momento para manufactura integrada por computadora, carecen de un factor de integración fundamental. La comunicación entre los diversos niveles jerárquicos de una planta de producción es muy poca, ya que cada departamento se limita a realizar su función sin buscar una integración de toda la planta productiva a excepciones de empresas como ABB con su software Baan, etc.
(Royman López Beltrán, Edgar Sotter Solano y Eduardo Zurek Varela. Laboratorio de Robótica y Producción Automática. Universidad del Norte).
Todo proceso industrial es evaluado por la calidad de su producto final, esto hace de la etapa de control de calidad una fase crucial del proceso. Los mecanismos utilizados para establecer la calidad de un producto varían dependiendo de los parámetros que tengan relevancia en el mismo. Cuando el parámetro relevante es la geometría o forma del objeto fabricado se suele dejar a la vista del operario que lleve a cabo tal función tanto de inspección como de verificación para el control de calidad, sin embargo pueden existir errores en la geometría de un objeto que escapen de la vista de un operario y que luego impidan el buen funcionamiento de dicho objeto. En un caso como éste, surge como una buena alternativa el utilizar un sistema de visión artificial capaz de detectar aquellos errores que un operario pudiera pasar por alto. El sistema de visión artificial Robot Visión PRO, es capaz de ejecutar de manera totalmente automática las labores de identificación de objetos y de control de calidad de los mismos.
El sistema Robot Visión PRO es un paquete de software de visión que permite la adquisición de imágenes, preprocesamiento y segmentación. Además realiza procesamiento de datos de alto nivel que brinda filtrado de imágenes, elaboración de clusters y patrones, e identificación de objetos. Este sistema cuenta con una videocámara y un monitor encargado de identificar cada una de las piezas salientes del proceso y hacer una comparación con piezas de 100% de calidad para luego determinar si el empaque puede salir al mercado o debe desecharse.
A continuación se presentan algunas imágenes suministradas por el sistema Robot Visión PRO Para la ejecución de la operación de control de calidad. Fueron dispuestos los empaques de tal forma que las geometrías quedaran plenamente contenidas en el programa, y se procedió posteriormente a realizar de forma individual el control de calidad para cada uno de los empaques.
En las dos figuras posteriores se muestra empaques defectuosos porque no cumplen con las especificaciones necesarias y por ende el sistema de calidad rechaza el producto.
El sistema de visión por computador Robot Visión PRO después de ser evaluado en la empresa resultó eficiente para la detección de defectos geométricos en los empaques de compresores centrífugos, ya que la flexibilidad del software permitió ajustar las condiciones del proceso al sistema de calidad requerido para la apropiada medición de los empaques. Este sistema es lo bastante didáctico como para desarrollar expresiones que permitan realizar de manera totalmente automática mediciones del objeto, labores de reconocimiento y de control de calidad.
Los autores opinan que es muy adecuado el uso de esta tecnología en empresas donde el acabado superficial de una pieza sea muy exigente ó estrechas tolerancias como por ejemplo repuestos de carros, instrumentación industrial, etc.
(Grupo de investigación de la Universidad de Manizales).
Su idea principal es mejorar el servicio de transporte urbano de la ciudad de Manizales a través de despacho y control inteligente que permita mejorar la calidad del servicio y reduzca los costos de operación. La parte inteligente se encarga de programar el despacho de rutas buscando que todas las busetas las cubran de manera equitativa.
Se busca implementar sistemas de circuito cerrado de TV, que incluyan la capacidad de monitoreo remoto a través de un computador y una línea telefónica desde cualquier lugar del mundo y a través de Internet.
Este estudio está centrado en la identificación global de ambientes ejecutada por un robot móvil con base en el entrenamiento de una red neuronal que recibe la información captada del medio ambiente por el sistema sensorial del robot (ultrasonido). Se considera que el robot, a través de la red neuronal, tiene como única tarea maximizar el conocimiento del ambiente que se le presenta. De esta forma éste modela y explora el ambiente eficientemente mientras ejecuta algoritmos de evasión de obstáculos.
El resultado de este estudio es de gran importancia en el campo de la robótica móvil debido a que: el robot adquiere una mayor autonomía del movimiento, se optimiza el uso del ultrasonido como detector de obstáculos y es una herramienta importante para el desarrollo de planificadores de trayectoria y controladores inteligentes.
Uno de los ejemplos con los cuáles fue entrenada la red (para mayor detalle consultar investigación de Rivera y Gauthier [1995] Universidad de los Andes) es, usando los parámetros de entrenamiento: constante de aprendizaje de 0.2 y constante de momento de 0.9, el robot para detectar tres obstáculos.
Se ubica el robot en ocho posiciones diferentes y en cada una de éstas se hizo un barrido y de esta manera se formaron ocho archivos con los cuales se entrenó la red, y ésta, reconociendo el ambiente, no se estrellará con ningún obstáculo.
En la red neuronal a medida que se aumenten las capas internas tendrá más capacidad y velocidad de aprender diversos ambientes.
Los autores, determinan que es muy importante el uso de la robótica móvil en procesos productivos donde el hombre no pueda soportar ambientes de altas temperaturas o bajas temperaturas por intervalos largos de tiempo, como por ejemplo en MEALS, donde se podría entrenar un robot y a medida que se perfeccione su entrenamiento prepararlo posteriormente como transportador de carga.
(Departamento de Investigación Operativa, Escuela de Ingeniería Industrial, Universidad de Carabobo, Valencia, Venezuela, 2001).
El QAP es un problema combinatorio, considerado por algunos autores como NP-completo. El objetivo del QAP es encontrar una asignación de facilidades a sitios, a fin de minimizar una función que expresa costos o distancias. La localización y distribución de facilidades es uno de los tópicos más importantes en la formación de profesionales en el área de Ingeniería Industrial y de todos aquellos profesionales que se encargan de la planificación, organización y crecimiento sistemático de las ciudades. En la vida cotidiana y profesional de todo individuo, se presentan una gran variedad de problemas de localización de facilidades.
Los problemas de localización y distribución de facilidades son estratégicos para el éxito de cualquier operación de manufactura. La principal razón es que los costos de manejo de materiales comprenden entre el 30 y el 75% de los costos totales de manufactura. Una buena solución al problema de asignación de facilidades contribuiría a la eficiencia total de las operaciones, una pobre distribución puede conducir a la acumulación de inventario de producto en proceso, sobrecarga de los sistemas de manejo de materiales, puestas a punto ineficientes y largas colas. Dentro de esta amplia clase de problemas que pueden ser catalogados como QAP se encuentra el problema de flujo en línea generalizado, que es una línea de flujo en la cual las operaciones fluyen hacia adelante y no se procesan necesariamente en todas las máquinas de la línea. Un trabajo en tal clase de línea puede comenzar a procesarse y completar su proceso en cualquier máquina, moviéndose siempre hacia delante (downstream) por operaciones sucesivas de acuerdo con la secuencia de trabajo del proceso. Cuando la secuencia de operaciones para un trabajo no especifica una máquina colocada delante de su localización actual, el trabajo tiene que viajar en sentido contrario (upstream) a fin de completar la operación requerida. Este “viaje en reversa” de las operaciones, es llamado backtracking, y se desvía de una línea de flujo ideal para un trabajo específico, resultando en una estructura de trabajo menos eficiente, como se muestra en la siguiente figura.
Elaine Rich y Knight Kevin. Inteligencia Artificial. Segunda Edición. McGraw Hill: México, 1994.
Stuart Rusell y Norving Meter. Inteligencia Artificial: Un Enfoque Moderno. Prentice Hall: México, 1996.
Revista La Ventana Informática. Edición N0 9. Universidad de Manizales. Pág. 56 – 57. Mayo 2003.
Delgado, Alberto. Inteligencia Artificial y Mini Robots. Segunda Edición. Eco Ediciones. Julio 1998.
Delgado Alberto. Inteligencia Artificial y Mini Robots. VII Congreso Nacional de Estudiantes de Ingeniería Industrial, Administrativa y de Producción. Universidad Nacional Sede Manizales. Memorias Congreso. Octubre 4 – 10 de 1998.
Enciclopedia Informática y Computación. Ingeniería del Software e Inteligencia artificial. Julio 1992.
Nebendah Dieter. Sistemas Expertos. Ingeniería y Comunicación. Editores Marcombo. Barcelona 1988.
Marr D.C. Artificial Intelligence: A Personal View, Artificial Intelligence. EEUU 1977.
Rolston W. David. Principios de Inteligencia Artificial y Sistemas Expertos. McGraw Hill. México 1992.
Mompin P. José. Inteligencia Artificial: Conceptos, Técnicas y Aplicaciones. Marcomobo, S.A. Ediciones. España 1987.
Revista Iberoamericana de Inteligencia Artificial. Aplicación de Inteligencia Artificial en Sistemas Automatizados de Producción. Llata, J.R., Sarabia, E.G., Fernández, D., Arce J., Oria, J.P. Número 10, páginas 100-110. Disponible en .
www.monografías.com
www.wikipedia.com