Paradigmas de la Inteligencia Artificial

  1. Antecedentes
  2. Introducción
  3. Desarrollo
  4. Definiciones
  5. Referencias Bibliográficas

Antecedentes

Aunque desde muy atrás en la historia personalidades como DescartesHobbes y Leibniz comenzaban a desarrollar la concepción de que la inteligencia humana funciona como un mecanismo y Von Kempelen y Charles Babbage desarrollaron maquinarias que eran capaces de jugar ajedrez y calcular logaritmos respectivamente, no es hasta  1943 que se perfila de una forma concreta la Inteligencia Artificial con la propuesta de  Warren McCulloch y Walter Pitts de un modelo de neurona de cerebro humano y animal que brindaba una representación simbólica de la actividad cerebral. Norbert Wiener retomando esta idea y fusionándola con otras dentro del mismo campo dio origen a la “cibernética“; naciendo de esta en los años 50 la Inteligencia Artificial (IA).

Uno de los primeros postulados, basándose en la propuesta de la neurona de McCulloch planteaba que: “El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro”. Analizando la complejidad del cerebro y el hardware tan primitivo que existía era casi imposible realizar estos sueños.

En la propia década del 50 se desarrolla con cierto éxito un sistema visual de reconocimiento depatrones llamado Perceptrón de Rossenblatt. Todos los esfuerzos en la construcción de esta aplicación estuvieron concentrados en lograr resolver una amplia gama de problemas.

Ya en los 60 a partir de trabajos realizados en demostraciones de teoremas y el ajedrez porcomputador de  Alan Newell y Herbert Simon se logra crear el GPS (General Problem Solver; sp: Solucionador General de Problemas). Este programa era capaz de resolver problemas como los de las Torres de Hanoi, trabajar con criptoaritmética y otros similares. Su limitación fundamental es que operaba con microcosmos formalizados que representaban parámetros dentro de los que se podían resolver las problemáticas. Además no podía resolver situaciones del mundo real, ni médicas, ni tomar decisiones importantes. 

Al girar un poco las primeras ideas de crear un sistema que fuera capaz de resolver todos los problemas que se plantearan, hacia la idea de darle solución a problemas que se centraran en ámbitos específicos, surgen los Sistemas Expertos. En 1967 sale a la luz el Dendral y en 1974 elMycin que realizaba diagnósticos de sangre y recetaba los medicamentos necesarios.

A partir de la década de los 80 se comienzan a desarrollar lenguajes especiales para programar descriptivamente, basados fundamentalmente en predicados, sobresalen el Prolog y el Lisp.

La IA se ha desarrollado vertiginosamente en las últimas dos décadas surgiendo sistemas cada vez más potentes y aplicables en una amplia gama de esferas, sociales, económicas, industriales y médicas por solo citar algunas.

Introducción

La Inteligencia Artificial consiste en crear teorías y algoritmos encaminados a la simulación de la inteligencia, para intentar representar de forma virtual a través de las máquinas el comportamiento de sistemas naturales y fundamentalmente el comportamiento humano. Los sistemas que se desarrollan  basados en esta ciencia responden a: principios de aprendizajetoma de decisiones, reconocimiento de patrones, búsquedas heurísticas,computación evolutiva, e inferencia difusa. Las ramas de la IA son diversas, Programación Simbólica, Computación EvolutivaRedes Neuronales,RobóticaMétodos de Solución de Problemas (MSP), Minería de DatosMinería de Textos, Sistemas Basados en el Conocimiento (SBC), Agentes Inteligentes, Aprendizaje Automático, Reconocimiento de Voz y Reconocimiento de Patrones. Todas estas ramas son aplicables en la sociedad, pero, ¿qué modelos o patrones definen el desarrollo de la IA?, ¿hacia que dirección se dirige ésta? Dar respuestas a las interrogantes anteriores es el principal objetivo de este artículo.

Desarrollo

El surgimiento y desarrollo de la Inteligencia Artificial  ha sido condicionado por metas ambiciosas que se han perfeccionado y ampliado con el de cursar de los años. El primer paradigma en la historia de la IA fue sin dudas el de simular el funcionamiento del cerebro humano, postulado sobre la idea de que nuestro pensamiento es como una coordinación de tareas simples relacionadas entre sí mediante mensajes, en esos momentos en que el hardware era precario y el desarrollo de esta ciencia muy incipiente parecía imposible  de alcanzar este objetivo, no obstante se lograron resultados discretos en el trabajo con neuronas artificiales. En 1958 surgió la primera Red Neuronal compuesta por la asombrosa cantidad de una neurona, veía la luz el Perceptrón de Rossenblatt.

Poco después se trazó la meta de crear un sistema que fuera capaz de resolver cualquier situación, pero los conjuntos problemas solución eran muy abarcadores y no tardó mucho que esta idea se abandonara o mejor dicho, se perfeccionara. El giro de este paradigma representó el surgimiento de otro que hasta la actualidad se mantiene con metas cada vez más ambiciosas. Un Sistema Basado en el Conocimiento es la idea refinada de tener un Solucionador General de Problemas con la diferencia que se centra en un microcosmos definido por reglas de conocimientos específicas, obtenidas de las experiencias de los expertos humanos. Nacido en 1967, Dendral fue el primero de los Sistemas Expertos, marcando el inicio de innumerables aplicaciones basadas en el conocimiento. Actualmente estos sistemas constituyen uno de los modelos más importantes para el avance de la Inteligencia Artificial.

Con cierto paralelismo fueron surgiendo otros campos de la IA que hoy, ya bien elaborados  toman fuerza y definen el desarrollo de esta. Principalmente se identifican como los tresparadigmas del desarrollo de la IA: Redes NeuronalesAlgoritmos Genéticos y Sistemas de Lógica Difusa.

Las Redes Neuronales simulan ciertas características de los humanos como la capacidad de asociar hechos, de memorizar, de aprender y porque no también, de olvidar. Una red neuronal es “un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: laneurona” [1].

La capacidad de aprendizaje adaptativo de estas redes condiciona la realización de tareas a partir de modelos creados mediante entrenamientos supervisados o no supervisados. Auto-adaptarse para poder encontrar soluciones hasta el momento no conocidas, es parte de sus características de aprendizaje, lo logran gracias a que son muy dinámicas y se auto-ajustan con facilidad. Por lo general una red después de su entrenamiento puede continuar aprendiendo durante toda su vida sin la necesidad de la creación por parte se su diseñador de algún algoritmo para resolver el problema, pues ellas generan sus propias distribuciones de los pesos en los enlaces.

Tienen gran tolerancia a los fallos en cuanto a la entrada de datos como la integridad de la red, son capaces de aprender a reconocer patrones con diferentes interferencias y aunque parte del sistema esté dañado pueden seguir realizando sus funciones hasta cierto punto.

Auto-organizan la información de manera tal que si alguna entrada no esta clara o completa puedan dar una solución o aun cuando no habían sido expuestas a esas situaciones.

Los campos en los que se pueden aplicar las Redes Neuronales son amplios, entre ellos resaltan:Maximización de solución, Reconocimiento de patrones, Aprendizaje supervisado y no supervisado y en Autómatas.

Los Algoritmos Genéticos maximizan soluciones para ello imitan la evolución biológica para resolver problemas, seleccionando de un grupo de soluciones generadas aleatoriamente las que mas se puedan acercar a posibles soluciones de la situación planteada permitiéndoseles vivir y reproducirse con técnicas de cruzamientos o introduciéndole mutaciones para producir pequeñas variaciones en su constitución. Los nuevos individuos se someten a otra iteración en la cual los que han empeorado o no han mejorado se desechan y se vuelven a reproducir los vencedores. Se espera que los resultados mejoren sustancialmente con el transcurso de las generaciones llegando a obtener resultados muy precisos.

El objetivo de los AG es buscar dentro de varias hipótesis la mejor de ellas, que en este caso es la que optimiza el resultado del problema dado, es decir, la que más se aproxima a dicho valor numérico una vez evaluada por la función de evaluación.

Entre las principales funciones de selección de individuos que se convertirán en padres se encuentran: Función de Selección Proporcional a la Función Objetivo, donde cada individuo tiene una probabilidad de ser seleccionado como padre que es proporcional al valor de su función objetivo; Selección Elitista, intenta escoger el mejor individuo de la población; Selección por Torneo, la idea principal consiste en escoger al azar un grupo de individuos de la población.

Una vez seleccionados los individuos padres deberán ser cruzados por medio de la selección de un punto de corte para posteriormente intercambiar las secciones. Se puede introducir un operador de mutación para generar pequeñas variaciones en el código genético de los individuos.

Los Algoritmos Genéticos son aplicables a la Ingeniería Aeroespacial; a la Astronomía y Astrofísica para obtener la curva de rotación de una galaxia, determinar el periodo de pulsación de una estrella variable; a la Química; a la Ingeniería Eléctrica; a las Matemáticas y algoritmia para resolverecuaciones de derivadas parciales no lineales de alto orden; la Biología Molecular; Reconocimiento de Patrones y Explotación de Datos y la Robóticapara controlar y decidir que acciones realizar en diferentes situaciones.

Los Sistemas de Lógica Difusa manejan y trabajan la certidumbre de datos difusos, permiten representar de forma matemática conceptos oconjuntos borrosos en los cuales no se pueden determinar soluciones exactas a partir de datos umbrales. En contraposición con la Lógica Clásica, esta trabaja con valores entre cero (0) y uno (1) donde pueden existir varios resultados verdaderos con diferentes grados de precisión. Si usted necesita determinar si una persona es alta con la ayuda de la Lógica Clásica, normalmente lo haría comparando con un valor numérico para obtener un resultado booleano de verdadero o falso, pero, ¿Cómo saber cuan alta es una persona? Con la ayuda de la Lógica Difusa es muy fácil resolver esta dificultad, solo hay que trabajar con grados y a estos asignarles valores de cuantificación, así si una persona mide 1.85 metros podemos decir que en una escala de cero a uno [0,1] tiene un valor de 0.92 al cual puede estar asignado el valor cuantificador de “bastante alto”.       

Esta lógica se adapta mucho mejor a la vida cotidiana y es capaz de interpretar expresiones como: “hace poco frío” o “estoy muy cansado“.esto se logra al  adaptar el lenguaje para que comprenda nuestros cuantificadores.

Para los conjuntos difusos se definen también las operaciones de unión, intersección, diferencia, negación o complemento. Cada conjunto difuso tiene una función de pertenencia para sus elementos que indican en que medida el elemento forma parte de ese conjunto. Algunas de las formas de funciones de pertenencia más típicas son lineales, trapezoidales y curvas.

Su basamento está sustentado por reglas heurísticas de la forma SI(expresión)ENTONCES(acción) donde la expresión – que es un antecedente – y la acción –que es el consecuente – son conjuntos difusos.

Ej.: SI hace muchísimo frió ENTONCES aumento considerablemente la temperatura.

La Lógica Difusa se usa cuando los problemas a resolver poseen una amplia complejidad o no existen modelos matemáticos precisos, para procesosaltamente no lineales y cuando se envuelven definiciones y conocimiento no estrictamente definido,para tratar variables lingüísticas, con grados de partencia a diferentes conjuntos o términos de variables lingüísticas. Algunos ejemplos de aplicación de la Lógica Difusa tienen pie en: Sistemas de Control de Acondicionadores de aire; Electrodomésticos familiares; Optimización de Sistemas Industriales; Sistemas Expertos; Bases de DatosDifusas para almacenar y consultar información imprecisa; en la Inteligencia Artificial para la resolución de problemas relacionados con el controlindustrial y sistemas de decisión en general.

Conclusiones

La Inteligencia Artificial como ciencia, promete la solución a diferentes dificultades de la vida humana, exploraciones en lugares donde los humanos no pueden acceder, realización de trabajos con riesgos para la vida, toma de decisiones que impliquen pensamientos sentimentales y reconocimiento de patrones.

Gracias a los paradigmas o modelos de la IA que son sin dudas los motores que la impulsan hacia el desarrollo continuo de nuevos procedimientos y técnicas, los sistemas son cada vez mas especializados, más robustos y confiables demuestran sin lugar a dudas que esta ciencia avanza con paso firme hacia el futuro y que es un hecho la solución de muchas problemáticas.          

Definiciones

Patrones: Un diseño mecánico o artístico que revela trazos constantes o características replicables.(www.udesarrollo.cl/udd/CDD/charlas/files/B4-Glosario_Terminos.doc)

Torres de Hanoi: Es un rompecabezas o juego matemático inventado en 1883 por el matemático francés éduard Lucas. (http://es.wikipedia.org/)

Criptoaritmética: Consiste en sustituir cada letra por un dígito, de modo que las cuentas (operaciones) sean correctas. A igual letra, igual dígito, y a distinta letra, distinto dígito. Como es habitual, los números no pueden tener ceros a izquierda. (http://www-2.dc.uba.ar/charlas/lud/criptoar.htm)

Microcosmos: Pequeño espacio de un sistema ordenado o armonioso.

Sistema Experto: Sistema basado en Inteligencia Artificial que mediante una base de conocimientos obtenida de la experiencia de diferentes expertos (personas) es capaz de resolver problemas en un campo específico. 

Programación descriptiva: Es la programación que se preocupa fundamentalmente por el QUé  voy ha hacer y no por el CÓMO, se auxilia de una base de hechos y reglas proposicionales.

Algoritmo: Conjunto de reglas para efectuar algún cálculo, bien sea a mano o (más frecuentemente) a máquina. No debe implicar ninguna decisión subjetiva, ni requerir intuición o creatividad. (www.nachocabanes.com/diccio/ndic.php)

Heurísticas: Regla que permite orientar un algoritmo hacia la solución de un problema. Técnica de programación que permite a un sistema la creación gradual de un valor óptimo para una variable específica por medio del registro de los valores obtenidos en operaciones anteriores.(www.euromaya.com/glosario/H_GLOSARIO.htm)

Computación evolutiva: Está basada fundamentalmente en la evolución de las especies. Se apoya en las teorías evolutivas de Charles Darwin y en lasLeyes de Mendel.    

ParadigmaModelo, patrón, objetivo a seguir para cumplir con una meta. 

Referencias Bibliográficas

[1] Bollilla, Ana. “Redes Neuronales en http://www.monografias.com.          

Monografías.com. 03 mayo 2003.

Bibliografía

David Santiago, Pablo. “Inteligencia Artificial” en http://www.monografias.com.          

Monografías.com. 18 enero 2005.

Bollilla, Ana. “Redes Neuronales en http://www.monografias.com.          

Monografías.com. 03 mayo 2003.

Patricia Daza, Sandra. “Redes neuronales artificiales Fundamentos, modelos y aplicaciones” en http://www.monografias.com. Monografías.com  

Manuel Castillejos Reyes, Juan. “Inteligencia Artificial” (2004) en http://www.enterate.unam.mx/Articulos/2004/junio/artificial.htm. Entérate en línea. Num. 64. 29 noviembre 2007.  

Marczyk, Adam. “Algoritmos Genéticos y Computación Evolutiva” (2004) en http://the-geek.org/docs/algen/

Elguea, Javier. “Inteligencia artificial y psicología: la concepción contemporánea de la mente humana” (1987) en http://biblioteca.itam.mx/estudios/estudio/estudio10/sec_13.html

El perceptrón de Rossenblatt en http://www.cinefantastico.com/nexus7/ia/neurocomp5.htm

¿tienes una sugerencia o duda? - Preguntanos !!