Teoría de la inteligencia artificial para la calidad

1. HISTORIA DE LA IA

Se podría situar los orígenes de la inteligencia artificial con la definición de la neurona formal dada por McCulloch y Pitts [1943], como un dispositivo binario con varias entradas y salidas.

Ya en el año de 1956 se volvió a tocar el tema de inteligencia artificial (IA) en el instituto de tecnología de Massachussets por John McCarthy donde se celebró la conferencia de Dartmouth en Hanover (Estados Unidos). En este certamen McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon establecieron las bases de la inteligencia artificial como un campo independiente dentro de la informática.

Previamente, en 1950, Alan M. Turing había publicado un artículo en la revista Mind, titulado “Computing Machinery and Intelligence” (“Ordenador e inteligencia”), en el que reflexionaba sobre el concepto de inteligencia artificial y establecía lo que luego se conocería como el Test de Turing, una prueba que permite determinar si un ordenador o computadora se comporta conforme a lo que se entiende como artificialmente inteligente o no.

La inteligencia artificial en los años sesentas, como tal no tuvo muchos éxitos ya que requería demasiada inversión para ese tiempo y la mayoría de tecnologías eran propias de grandes centros de investigación. En los años 70’s a 80’s se lograron algunos avances significativos en una de sus ramas llamada Sistemas Expertos, con la introducción de PROLOG LISP.

Básicamente lo que pretende la inteligencia artificial es crear una máquina secuencial programada que repita indefinidamente un conjunto de instrucciones generadas por un ser humano.

En la actualidad mucho se sigue investigando en los grandes laboratorios tecnológicos educativos y privados; sin dejar de lado los notables avances en sistemas de visión por computadora (aplicados por ejemplo, para la clasificación de artículos revueltos -tornillería o piezas marcadas por códigos de colores, por citar un caso-), control robótico autónomo (Sony, con sus robots capaces de moverse en forma casi humana y reaccionar a presiones tal como lo hace una persona al caminar), aplicaciones de lógica difusa (aplicación del tracking automático en nuestras video caseteras, por citar una aplicación), etc. Sin embargo, la Inteligencia Artificial sigue en su gran mayoría acotada por su dominio tecnológico, y poco ha podido salir al mercado del consumidor final o a la industria.

2. DEFINICIONES DE IA

Con respecto a las definiciones actuales de inteligencia artificial se encuentran autores como Rich y Knight [1994] y Stuart [1996], quienes definen en forma general la IA como la capacidad que tienen las máquinas para realizar tareas que en el momento son realizadas por seres humanos; Nebendah [1988] y Delgado [1998], la definen cómo el campo de estudio que se enfoca en la explicación y emulación de la conducta inteligente en función de procesos computacionales basadas en la experiencia y el conocimiento continuo del ambiente.

Farid Fleifel Tapia describe a la IA como: «la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución. Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:

  • La IA es el arte de crear máquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia. ( Kurzweil, 1990)
  • La IA es el estudio de cómo lograr que las computadoras realicen tareas que, por el momento, los humanos hacen mejor. (Rich, Knight, 1991).
  • La IA es la rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente. (Lugar y Stubblefied, 1993).
  • La IA es el campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en función de procesos computacionales. (Schalkoff, 1990).

En la IA se pueden observar dos enfoques diferentes:

  1. La IA concebida como el intento por desarrollar una tecnología capaz de proveer al ordenador capacidades de razonamiento similares a los de la inteligencia humana.
  2. La IA en su concepción como investigación relativa a los mecanismos de la inteligencia humana que se emplean en la simulación de validación de teorías.

El primer enfoque se centra en la utilidad y no en el método como veíamos anteriormente con los algoritmos, los temas claves de este enfoque son la representación y gestión de conocimiento, sus autores más representativos son McCarthy y Minsky.

Responde esta encuesta sobre consumo de redes sociales. Nos ayudará a brindarte mejor información.

¿Usas sitios de redes sociales para encontrar información académica o laboral?*

¿Usas sitios de redes sociales para encontrar información académica o laboral?*

¿Qué sitios de redes sociales utilizas para investigación académica o laboral*

¿Qué sitios de redes sociales utilizas para investigación académica o laboral*

Puedes seleccionar las opciones que quieras.

Que tipo de dispositivo usas al utilizar redes sociales*

Que tipo de dispositivo usas al utilizar redes sociales*

¿Cuántas cuentas de redes sociales tienes?*

¿Cuántas cuentas de redes sociales tienes?*

¿Cuántas horas a la semana le dedicas a las redes sociales?*

¿Cuántas horas a la semana le dedicas a las redes sociales?*

John McCarthy

En el segundo enfoque encontramos que este se orienta a la creación de un sistema artificial capaz de realizar procesos cognitivos humanos haciendo importante ya no la utilidad como el método, los aspectos fundamentales de este enfoque se refieren al aprendizaje y adaptabilidad y sus autores son Newell y Simon de la Carnegie Mellon University.

La IA al tratar de construir máquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbólico llamado a veces conexionista.

Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular y conocimiento a cerca de cómo obtener más conocimiento a partir del que ya tenemos. El ejemplo más representativo de esta corriente es el Proyecto de Cyc de Douglas B. Lenat, sobre un sistema que posee en su memoria millones de hechos interconectados.

Dentro de la otra corriente: la subsimbólica; los esfuerzos se orientan a la simulación de los elementos de más bajo nivel dentro de los procesos inteligentes con la esperanza de que éstos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos más claros que trabajan con este tipo de orientación son las redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.

3. DIVISIONES DE LA IA

La IA se divide en dos escuelas de pensamiento:

  • La Inteligencia Artificial Convencional
  • La Inteligencia Computacional.

Inteligencia Artificial Convencional

Basada en análisis formal y estadístico del comportamiento humano ante diferentes problemas:

  • Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos.
  • Sistemas Expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y de ciertas reglas o relaciones.
  • Redes Bayesianas: Propone soluciones mediante inferencia estadística.
  • Inteligencia Artificial basada en Comportamientos: Sistemas Complejos que tienen autonomía y pueden auto-regularse y controlarse para mejorar.

Inteligencia Artificial Computacional

La inteligencia computacional (también conocida como inteligencia artificial subsimbólica) implica desarrollo o aprendizaje interactivo (por ejemplo: modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos. Algunos métodos de esta rama incluyen:

  • Máquina de Vectores Soporte: Sistemas que permiten reconocimiento de patrones genéricos de gran potencia.
  • Redes Neuronales: Sistemas con grandes capacidades de reconocimiento de patrones.
  • Modelos ocultos de Markov: Aprendizaje basado en dependencia temporal de eventos probabilísticos.
  • Sistemas Difusos: Técnicas para lograr el razonamiento bajo incertidumbre. Ha sido ampliamente usada en la industria moderna y en productos de consumo masivo, como las lavadoras.
  • Computación Evolutiva: Aplica conceptos inspirados en la biología, tales como población, mutación y supervivencia del más apto para generar soluciones sucesivamente mejores para un problema. Estos métodos a su vez se dividen en algoritmos evolutivos (ej. algoritmos genéticos) e inteligencia colectiva (ej. algoritmos hormiga)

4. LENGUAJES DE PROGRAMACIÓN UTILIZADOS EN IA

Marvin Minsky, ha dado una clasificación para los lenguajes de programación que se utilizan en esta disciplina:

  • Haga ahora: Donde el programador surte de instrucciones a la máquina para realizar una tarea determinada donde todo queda especificado, excepto quizás, el número de repeticiones.
  • Haga siempre que: Aquí se permite escribir un programa que le sirva a la computadora para resolver aquellos problemas que el programador no sabe resolver pero conoce qué tipo de soluciones se pueden intentar.
  • De constreñimiento: Se escriben programas que definen estructuras y estados que se condicionan y limitan recíprocamente.

Pero Minsky, admite que aún será necesario desarrollar dos tipos de lenguajes más para obtener una IA comparable a la inteligencia humana; y estos podrían ser:

  • Haga algo que tenga sentido: Donde se permite al programa aprender del pasado y en una nueva situación aplicar sus enseñanzas.
  • Mejórese a sí mismo: Allí se podrá permitir escribir programas que tengan en adelante la capacidad de escribir programas mejores que ellos mismos.

Otro punto desde luego tiene que ver con el tema que aquí estamos tratando es por supuesto el concepto de lo que es creatividad, que a simple vista es algo que no podemos explicar satisfactoriamente, porque es resultado de un don especial pero, los estudios sobre IA han comenzado a hacerlo posible: nos dicen que en la medida que se logre escribir programas que exhiban propiedad, en esa misma medida se empezará a explicar la creatividad.

Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las investigaciones psicológicas hablan por una parte de que, como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la máquina como del ser humano.

Pero sería imposible tratar de contemplar el tema de la IA sin recurrir a la cuestión de la complejidad; donde el comportamiento inteligente es el resultado de la interacción de muchos elementos y que con seguridad es una de las más valiosas contribuciones al tratar de simular en la máquina los fenómenos intelectuales humanos.

La IA se ha desarrollado como disciplina a partir de la concepción de la inteligencia que se realizó al interior de la psicología y a partir de la cual se elaboraron diferentes categorías.

5. TÉCNICAS UTILIZADAS EN IA

La Inteligencia Artificial, clasifica las técnicas que pueden ser usadas como herramientas para solucionar problemas en las siguientes categorías:

1. Técnicas Básicas: Así llamadas por encontrarse en la base de diversas aplicaciones de IA:

  1. Búsqueda Heurística de Soluciones,
  2. Representación del Conocimiento,
  3. Deducción Automática,
  4. Programación Simbólica (LISP) y
  5. Redes Neuronales.

Estas técnicas son las bases de las aplicaciones. En su mayoría, no necesita conocerla el usuario final, sino los profesionales que se dedican a su aplicación y la generación de aplicaciones comerciales.

2. Tecnologías (o combinaciones de varias Técnicas Básicas) orientadas a resolver familias de problemas. Las Tecnologías son más especializadas que las Técnicas Básicas y están más cerca de las aplicaciones finales. Se pueden mencionar:

  1. La Robótica,
  2. La Visión,
  3. El Lenguaje Natural y
  4. Los Sistemas Expertos.

6. APLICACIONES Y CAMPOS DE APLICACIÓN DE LA IA

La IA tiene las siguientes clases o tipos de aplicaciones:

  1. Diagnóstico,
  2. Predicción (sistemas de autocontrol de reactores atómicos),
  3. Secuenciamiento de operaciones («Scheduling»),
  4. Diseño e
  5. Interpretación de Datos.

Todas ellas son familias de problemas tipo. Por ejemplo, el diagnóstico se refiere a encontrar las causas de fallas, ya sea que se trate de fallas en una línea de producción o de enfermedades en una persona.

Los Campos de Aplicación de la IA son: Ingeniería, Medicina, Sistemas de Manufactura, Administración, Apoyo a la Toma de Decisiones Gerenciales, etc. Todos caen dentro de las áreas de los Sistemas Computacionales, pero se consideran como clientes de la IA.

7. APLICACIÓN DE LA IA EN LOS SISTEMAS PRODUCTIVOS

Para que un sistema inteligente pueda ser considerado completo, debe incluir diversas funcionalidades que incluyan:

  • Inteligencia: Hay muchas definiciones de «inteligencia». Para usos prácticos usamos esta: La inteligencia es el nivel del sistema en lograr sus objetivos.
  • Sistematización: Un sistema es parte del universo, con una extensión limitada en espacio y tiempo. Las partes del sistema tienen más, o más fuertes, correlaciones con otras partes del mismo sistema; que con partes fuera del sistema.
  • Objetivo: Un objetivo es una cierta situación que el sistema inteligente quiere lograr. Normalmente hay muchos niveles de objetivos, puede haber un objetivo principal y muchos subobjetivos.
  • Capacidad Sensorial: Un sentido es la parte del sistema que puede recibir comunicaciones del entorno. Se necesitan los sentidos para que el sistema inteligente puede conocer su entorno y actuar interactivamente.
  • Conceptualización: Un concepto es el elemento básico del pensamiento. Es el almacenamiento físico, material de información (en neuronas o electrones). Todos los conceptos de la memoria están interrelacionados en red. La capacidad de conceptualizar implica el desarrollo de niveles de abstracción.
  • Situación: La situación se integra con una serie de conceptos que el sistema inteligente usa para representar la información que sus sentidos recibieron del entorno.
  • Reglas de actuación: Una regla de actuación es el resultado de una experiencia o el resultado de interpretar la propia memoria. Relaciona situación y consecuencias de la acción.
  • Memoria: La memoria es un almacenaje físico de conceptos y reglas de actuación. Esto incluye la experiencia del sistema.
  • Aprendizaje: El aprendizaje es probablemente la capacidad más importante de un sistema inteligente. El sistema aprende conceptos a partir de la información recibida de los sentidos. Aprende reglas de actuación a base de su experiencia. La actuación, a veces hecha al azar, se almacena con su valor. Una regla de actuación aumenta en valor si permitió el logro de un objetivo. El aprendizaje incluye la fijación de conceptos abstractos, a base de ejemplos concretos y la creación de conceptos compuestos que contienen los conceptos de partes de un objeto. El aprendizaje también es la capacidad de detectar relaciones (patrones) entre la parte «situación» y la parte «situación futura» de una regla de actuación.

La incorporación de agentes de decisión inteligente, redes neuronales, sistemas expertos, algoritmos genéticos y autómatas programables para optimización de sistemas de producción es una tendencia activa en el ambiente industrial de países con alto desarrollo tecnológico y con una gran inversión en I&D. Dichos componentes de la Inteligencia Artificial tienen como función principal controlar de manera independiente, y en coordinación con otros agentes, componentes industriales tales como celdas de manufactura o ensamblaje, y operaciones de mantenimiento, entre otras.

Existe una tendencia creciente a la implementación de sistemas de manufactura/ensamblaje más autónomos e inteligentes, debido a las exigencias del mercado por obtener productos con niveles muy altos de calidad; lo cual con operaciones manuales se hace complicada y hace que los países subdesarrollados como el nuestro no alcance niveles competitivos a nivel mundial. Al diseñar un sistema de producción integrado por computadora se debe dar importancia a la supervisión, planificación, secuenciación cooperación y ejecución de las tareas de operación en centros de trabajo, agregado al control de los niveles de inventario y características de calidad y confiabilidad del sistema. Los factores mencionados determinan la estructura del sistema y su coordinación representa una de las funciones más importantes en el manejo y control de la producción.

Muy frecuentemente, la razón para construir un modelo de simulación es para encontrar respuestas a interrogantes tales como ¿Cuáles son los parámetros óptimos para maximizar o minimizar cierta función objetivo? En los últimos años se han producido grandes avances en el campo de la optimización de sistemas de producción. Sin embargo, el progreso en el desarrollo de herramientas de análisis para resultados de modelos de simulación ha sido muy lento. Existe una gran cantidad de técnicas tradicionales de optimización que sólo individuos con gran conocimiento estadístico y de conceptos de simulación han logrado aportes significativos en el área.

Debido al auge de los algoritmos de búsqueda meta-heurísticos, se ha abierto un nuevo campo en el área de optimización con simulación. Nuevos paquetes de software, tales como OPTQuest (Optimal Technologies), SIMRUNNER (Promodel Corporation) y Evolver (Palisade Software), han salido al mercado brindando soluciones amigables de optimización de sistemas que no requieren control interno sobre el modelo construido, sino sobre los resultados que dicho modelo arroja bajo diferentes condiciones. Además, nuevas técnicas de inteligencia artificial aplicadas a problemas de optimización estocástica, han demostrado su eficiencia y capacidad de cómputo y aproximación.

El Aprendizaje Reforzado (Reinforcement Learning) es un conjunto de técnicas diseñadas para dar solución a problemas cuya base son los procesos de decisión markovianos. Éstos son procesos estocásticos de decisión que se basan en el concepto de que la acción a tomar en un estado determinado, en un instante determinado, depende sólo del estado en que se encuentre el sistema al momento de tomar la decisión.

Una de las áreas que puede tener mayor incidencia directa en los procesos productivos de la industria a nivel mundial, es el diseño de sistemas de soporte para la toma de decisiones basados en la optimización de los parámetros de operación del sistema. Para tal efecto, el uso de técnicas inteligentes paramétricas y no paramétricas para el análisis de datos es de gran interés. Sin embargo, a juicio de los autores en la mayoría de las arquitecturas propuestas hasta el momento para manufactura integrada por computadora, carecen de un factor de integración fundamental. La comunicación entre los diversos niveles jerárquicos de una planta de producción es muy poca, ya que cada departamento se limita a realizar su función sin buscar una integración de toda la planta productiva a excepciones de empresas como ABB con su software Baan, etc.

8. APLICACIONES DE LA IA EN LA SOLUCIÓN DE PROBLEMAS ESPECÍFICOS DE PRODUCCIÓN

I) Operación automática de control de calidad usando un sistema de visión por computadora.

(Royman López Beltrán, Edgar Sotter Solano y Eduardo Zurek Varela. Laboratorio de Robótica y Producción Automática. Universidad del Norte).

Todo proceso industrial es evaluado por la calidad de su producto final, esto hace de la etapa de control de calidad una fase crucial del proceso. Los mecanismos utilizados para establecer la calidad de un producto varían dependiendo de los parámetros que tengan relevancia en el mismo. Cuando el parámetro relevante es la geometría o forma del objeto fabricado se suele dejar a la vista del operario que lleve a cabo tal función tanto de inspección como de verificación para el control de calidad, sin embargo pueden existir errores en la geometría de un objeto que escapen de la vista de un operario y que luego impidan el buen funcionamiento de dicho objeto. En un caso como éste, surge como una buena alternativa el utilizar un sistema de visión artificial capaz de detectar aquellos errores que un operario pudiera pasar por alto. El sistema de visión artificial Robot Visión PRO, es capaz de ejecutar de manera totalmente automática las labores de identificación de objetos y de control de calidad de los mismos.

El sistema Robot Visión PRO es un paquete de software de visión que permite la adquisición de imágenes, preprocesamiento y segmentación. Además realiza procesamiento de datos de alto nivel que brinda filtrado de imágenes, elaboración de clusters y patrones, e identificación de objetos. Este sistema cuenta con una videocámara y un monitor encargado de identificar cada una de las piezas salientes del proceso y hacer una comparación con piezas de 100% de calidad para luego determinar si el empaque puede salir al mercado o debe desecharse.

A continuación se presentan algunas imágenes suministradas por el sistema Robot Visión PRO Para la ejecución de la operación de control de calidad. Fueron dispuestos los empaques de tal forma que las geometrías quedaran plenamente contenidas en el programa, y se procedió posteriormente a realizar de forma individual el control de calidad para cada uno de los empaques.

En las dos figuras posteriores se muestra empaques defectuosos porque no cumplen con las especificaciones necesarias y por ende el sistema de calidad rechaza el producto.

El sistema de visión por computador Robot Visión PRO después de ser evaluado en la empresa resultó eficiente para la detección de defectos geométricos en los empaques de compresores centrífugos, ya que la flexibilidad del software permitió ajustar las condiciones del proceso al sistema de calidad requerido para la apropiada medición de los empaques. Este sistema es lo bastante didáctico como para desarrollar expresiones que permitan realizar de manera totalmente automática mediciones del objeto, labores de reconocimiento y de control de calidad.

Los autores opinan que es muy adecuado el uso de esta tecnología en empresas donde el acabado superficial de una pieza sea muy exigente ó estrechas tolerancias como por ejemplo repuestos de carros, instrumentación industrial, etc.

II) Proyectos en vía de desarrollo por la línea de investigación y desarrollo de inteligencia artificial.

(Grupo de investigación de la Universidad de Manizales).

a. JAT (Sistema Inteligente de Despacho y Control para el Transporte Público):

Su idea principal es mejorar el servicio de transporte urbano de la ciudad de Manizales a través de despacho y control inteligente que permita mejorar la calidad del servicio y reduzca los costos de operación. La parte inteligente se encarga de programar el despacho de rutas buscando que todas las busetas las cubran de manera equitativa.

b. Sistema Inteligente de Vigilancia y Monitoreo Remoto:

Se busca implementar sistemas de circuito cerrado de TV, que incluyan la capacidad de monitoreo remoto a través de un computador y una línea telefónica desde cualquier lugar del mundo y a través de Internet.

c. Reconocimiento de Ambientes en Robótica Móvil por medio de Redes Neuronales

Este estudio está centrado en la identificación global de ambientes ejecutada por un robot móvil con base en el entrenamiento de una red neuronal que recibe la información captada del medio ambiente por el sistema sensorial del robot (ultrasonido). Se considera que el robot, a través de la red neuronal, tiene como única tarea maximizar el conocimiento del ambiente que se le presenta. De esta forma éste modela y explora el ambiente eficientemente mientras ejecuta algoritmos de evasión de obstáculos.

El resultado de este estudio es de gran importancia en el campo de la robótica móvil debido a que: el robot adquiere una mayor autonomía del movimiento, se optimiza el uso del ultrasonido como detector de obstáculos y es una herramienta importante para el desarrollo de planificadores de trayectoria y controladores inteligentes.

Uno de los ejemplos con los cuáles fue entrenada la red (para mayor detalle consultar investigación de Rivera y Gauthier [1995] Universidad de los Andes) es, usando los parámetros de entrenamiento: constante de aprendizaje de 0.2 y constante de momento de 0.9, el robot para detectar tres obstáculos.

Se ubica el robot en ocho posiciones diferentes y en cada una de éstas se hizo un barrido y de esta manera se formaron ocho archivos con los cuales se entrenó la red, y ésta, reconociendo el ambiente, no se estrellará con ningún obstáculo.

En la red neuronal a medida que se aumenten las capas internas tendrá más capacidad y velocidad de aprender diversos ambientes.

Los autores, determinan que es muy importante el uso de la robótica móvil en procesos productivos donde el hombre no pueda soportar ambientes de altas temperaturas o bajas temperaturas por intervalos largos de tiempo, como por ejemplo en MEALS, donde se podría entrenar un robot y a medida que se perfeccione su entrenamiento prepararlo posteriormente como transportador de carga.

d. Algoritmos Genéticos aplicados al problema cuadrático de asignación de facilidades, QAP.

(Departamento de Investigación Operativa, Escuela de Ingeniería Industrial, Universidad de Carabobo, Valencia, Venezuela, 2001).

El QAP es un problema combinatorio, considerado por algunos autores como NP-completo. El objetivo del QAP es encontrar una asignación de facilidades a sitios, a fin de minimizar una función que expresa costos o distancias. La localización y distribución de facilidades es uno de los tópicos más importantes en la formación de profesionales en el área de Ingeniería Industrial y de todos aquellos profesionales que se encargan de la planificación, organización y crecimiento sistemático de las ciudades. En la vida cotidiana y profesional de todo individuo, se presentan una gran variedad de problemas de localización de facilidades.

Los problemas de localización y distribución de facilidades son estratégicos para el éxito de cualquier operación de manufactura. La principal razón es que los costos de manejo de materiales comprenden entre el 30 y el 75% de los costos totales de manufactura. Una buena solución al problema de asignación de facilidades contribuiría a la eficiencia total de las operaciones, una pobre distribución puede conducir a la acumulación de inventario de producto en proceso, sobrecarga de los sistemas de manejo de materiales, puestas a punto ineficientes y largas colas. Dentro de esta amplia clase de problemas que pueden ser catalogados como QAP se encuentra el problema de flujo en línea generalizado, que es una línea de flujo en la cual las operaciones fluyen hacia adelante y no se procesan necesariamente en todas las máquinas de la línea. Un trabajo en tal clase de línea puede comenzar a procesarse y completar su proceso en cualquier máquina, moviéndose siempre hacia delante (downstream) por operaciones sucesivas de acuerdo con la secuencia de trabajo del proceso. Cuando la secuencia de operaciones para un trabajo no especifica una máquina colocada delante de su localización actual, el trabajo tiene que viajar en sentido contrario (upstream) a fin de completar la operación requerida. Este “viaje en reversa” de las operaciones, es llamado backtracking, y se desvía de una línea de flujo ideal para un trabajo específico, resultando en una estructura de trabajo menos eficiente, como se muestra en la siguiente figura.

CONCLUSIONES

  • Los grandes avances de I. A. aplicada a sistemas de producción han hecho que día a día la industria, en su constante búsqueda por mejorar su competitividad, logre sus objetivos con más rapidez y calidad; sin embargo, esto en muchos de los casos desplaza gran cantidad de mano de obra, lo que lleva consigo un deterioro social que se ve reflejado en los indicadores globales de desempleo y niveles de pobreza.
  • Conminamos a los profesionales responsables del uso de la I. A. a respetar la vida y contribuir, con sus nuevos descubrimientos al desarrollo sustentable de la misma, recuperando así, la salud de nuestro planeta.

BIBLIOGRAFÍA

Elaine Rich y Knight Kevin. Inteligencia Artificial. Segunda Edición. McGraw Hill: México, 1994.

Stuart Rusell y Norving Meter. Inteligencia Artificial: Un Enfoque Moderno. Prentice Hall: México, 1996.

Revista La Ventana Informática. Edición N0 9. Universidad de Manizales. Pág. 56 – 57. Mayo 2003.

Delgado, Alberto. Inteligencia Artificial y Mini Robots. Segunda Edición. Eco Ediciones. Julio 1998.

Delgado Alberto. Inteligencia Artificial y Mini Robots. VII Congreso Nacional de Estudiantes de Ingeniería Industrial, Administrativa y de Producción. Universidad Nacional Sede Manizales. Memorias Congreso. Octubre 4 – 10 de 1998.

Enciclopedia Informática y Computación. Ingeniería del Software e Inteligencia artificial. Julio 1992.

Nebendah Dieter. Sistemas Expertos. Ingeniería y Comunicación. Editores Marcombo. Barcelona 1988.

Marr D.C. Artificial Intelligence: A Personal View, Artificial Intelligence. EEUU 1977.

Rolston W. David. Principios de Inteligencia Artificial y Sistemas Expertos. McGraw Hill. México 1992.

Mompin P. José. Inteligencia Artificial: Conceptos, Técnicas y Aplicaciones. Marcomobo, S.A. Ediciones. España 1987.

Revista Iberoamericana de Inteligencia Artificial. Aplicación de Inteligencia Artificial en Sistemas Automatizados de Producción. Llata, J.R., Sarabia, E.G., Fernández, D., Arce J., Oria, J.P. Número 10, páginas 100-110. Disponible en .

www.monografías.com

www.wikipedia.com

Cita esta página

Osuna Rodríguez. Sonia Margarita. (2008, marzo 26). Teoría de la inteligencia artificial para la calidad. Recuperado de https://www.gestiopolis.com/teoria-inteligencia-artificial-calidad/
Osuna Rodríguez. Sonia Margarita. "Teoría de la inteligencia artificial para la calidad". gestiopolis. 26 marzo 2008. Web. <https://www.gestiopolis.com/teoria-inteligencia-artificial-calidad/>.
Osuna Rodríguez. Sonia Margarita. "Teoría de la inteligencia artificial para la calidad". gestiopolis. marzo 26, 2008. Consultado el . https://www.gestiopolis.com/teoria-inteligencia-artificial-calidad/.
Osuna Rodríguez. Sonia Margarita. Teoría de la inteligencia artificial para la calidad [en línea]. <https://www.gestiopolis.com/teoria-inteligencia-artificial-calidad/> [Citado el ].
Copiar

Escrito por:

Imagen del encabezado cortesía de janhoffmann en Flickr