Inteligencia artificial

Si bien a principios de la década de los años 50 aparecieron ya los primeros programas de cálculo formal (que permitían a los ordenadores, utilizados hasta entonces únicamente como máquinas de calcular  manipular símbolos), lo que más tarde recibiría el nombre de inteligencia artificial nació en realidad, en el campo de la informática, con la aparición del primer programa capaz de demostrar teoremas de la lógica de las proposiciones (el Logic Theorist creado  por Newell, Shaw y Simon).

Dicho programa fue presentado durante la conferencia de investigadores que se celebró en el colegio de Darmouth (1956).En aquella ocasión se acuñó, también, el término de inteligencia artificial.

Este avance era consecuencia de la carencia de algoritmos que fuesen capaces de describir una cierta serie de actividades cognitivas como el reconocimiento visual de un objeto, la comprensión de los lenguajes naturales (hablados o escritos), el diagnóstico de enfermedades en el ser humano o de averías en las máquinas, etc.

La inteligencia artificial nació, pues, como resultado dela confluencia de dos corrientes diversas: por un lado, la científica, que tenía como objetivo intentar comprender los mecanismos dela inteligencia humana empleando para ello, como modelo de simulación, los ordenadores y, por otro, la técnica, que pretendía equipar a los ordenadores de capacidades de pensamiento lo más similares posible a las humanas pero sin la pretensión de imitar con toda exactitud los pasos que sigue el ser humano para llevar a cabo dichas actividades intelectuales.

Este procesó se vio además reforzado por la aparición de lenguajes de programación bien adaptados a la inteligencia artificial, el más extendido de los cuales es el LISP crea (creado por McCarthy a partir de 1960). El período que abarca de 1956 a 1968 se caracterizó, en este campo, por los intentos dirigidos a la búsqueda y modelización de determinados principios generales dela inteligencia (aplicaciones como la traducción automática, la percepción visual, etc). A finales de la década de los años 60, los trabajos se encaminaron hacia el desarrollo de sistemas inteligentes de aplicación en la robótica (visión artificial, manipulación de objetos, navegación automática,

etc.) en los que era necesario incorporar una gran cantidad de conocimientos específicos referidos a los problemas que se pretendía resolver con dichas técnicas. Este proceso marcó el inicio del estudio de los llamados sistemas expertos, de cuyo estudio se ocupa la llamada ingeniería del conocimiento.

Los sistemas expertos se caracterizan fundamentalmente por su capacidad de gestionar conocimientos y constituyen uno de los campos de la inteligencia artificial que más desarrollo ésta teniendo en la actualidad, junto con el tratamiento de los lenguajes naturales y la comprensión de las imágenes. Los sistemas expertos son capaces de elaborar diagnósticos y extraer conclusiones o dictámenes, mediante la aplicación de reglas, a partir de hechos que se han introducido como datos.

Para abordar el estudio de los problemas planteados por la inteligencia artificial, ha sido necesario desarrollar una serie de técnicas específicas por ejemplo, representación y modelización del conocimiento, generación de planes de acción, aprendizaje inductivo y deductivo, adquisición de conocimientos, etc. Cabe indican también, que la inteligencia artificial trata temas de estudio que varían con el paso del tiempo y con la maduración de las técnicas desarrolladas.

Así, por ejemplo, las técnicas que han alcanzado ya un grado suficiente de desarrollo y que se emplean de forma corriente dejan de pertenecer al campo del estudio de la inteligencia artificial. Un ejemplo de este proceso lo constituye el reconocimiento óptico de caracteres, o sea, la lectura automática de caracteres que formaba parte del campo de investigación de la inteligencia artificial hasta finales de los años 70, momento en que sus técnicas fueron incorporadas de forma masiva, por ejemplo, a las transacciones bancarias mediante los

lectores ópticos empleados en la lectura de cheques. A finales de los años 70, se produjo un nuevo giro en el campo de la investigación relacionada con la inteligencia artificial: la aparición de robots. Los robots experimentales creados para estos efectos eran automatismos capaces de recibir información procedente del mundo exterior (p. ej., sensores, cámaras de televisión, etc), así como órdenes de un manipulador humano (expresadas en lenguaje natural).

De este modo, el robot determinaba un plan y, de acuerdo con el, ejecutaba las órdenes recibidas mediante el empleo de un modelo del universo en el que se encontraba. Era incluso capaz de prever las consecuencias de sus acciones y evitan así, aquéllas que más tarde pudieran resultarle inútiles o, en algún momento, perjudiciales.

Estos primeros robots experimentales eran bastante más inteligentes que los robots industriales de los que ya hemos hablado, y lo eran porque disponían de un grado mucho mayor de percepción del entorno que los robots empleados en las cadenas de producción.

Los niveles alcanzados por esta época no han sido superados substancialmente todavía, ya que el principal problema con el que se enfrenta la inteligencia artificial aplicada a los robots es el de la visión. Mientras que la información recibida a través de sensores se puede interpretar con relativa facilidad y entra a formar parte de la descripción del modelo de universo que emplea el robot para tomar sus decisiones, la percepción de las imágenes captadas y su interpretación correcta dista satisfactoria.

En cuanto a la interpretación de las imágenes raptadas mediante cualquier sistema, se ha logrado ya el reconocimiento de formas preprogramadas o conocidas, lo que permite que ciertos robots lleven a cabo operaciones de reubicación de piezas o colocación en su posición correcta a partir de una posición arbitraria.

Sin embargo, no se ha logrado aún que el sistema perciba la imagen tomada mediante una cámara de ambiente y adapte su actuación al nuevo cúmulo de circunstancias que esto implica.

Existen, no obstante, otras  tendencias de investigación que si han permitido obtener importantes resultados y han dado, por tanto, un impulso enorme a la inteligencia artificial. A este respecto, mencionaremos el programa Dendral (desarrollado en la universidad de Stanford), cuya misión era analizar los resultados obtenidos por un dispositivo experimental llamado espectrógrafo de masas.

Como la cantidad de conocimientos necesaria para realizar una tarea como esta es muy grande y poco difundida fue necesario que los expertos en la materia traspasaran  sus conocimientos al sistema. Se generaron, así nuevas formas de tratar grandes cantidades de información y de relacionarlas unas con otras, constituyendo el primer embrión de lo que más tarde se conocería con el nombre de sistema experto.

Por otro lado, la celebración en 1969 del primer congreso específicamente dedicado a la inteligencia artificial y la aparición de la primera revista dedicada exclusivamente a este tema marcan el nacimiento de una disciplina autónoma, desgajada ya definitivamente de la informática.

Entre 1970 a 1975 se produjeron una serie de progresos muy espectaculares en dos direcciones distintas. Por un lado, los progresos realizados en el tratamiento de los lenguajes naturales y, por el otro, los que se refieren a la utilización por parte del ordenador  de grandes   cantidades de conocimientos.

En cuanto al tratamiento de los lenguajes naturales, tras el parón sufrido por la retirada de la financiación destinada a este campo por parte del gobierno de los EEUU. (1964), la actividad se reinició y pasó de la primitiva concepción en la que un programa permitía ir de un lenguaje natural a otro (p. ej., del inglés al español) a un nuevo sistema consistente en el empleo de un texto intermedio que hace las veces de representación del sentido del texto original y en el que no se tiene en cuenta la estructura superficial que proyecta sobre él, un lenguaje natural cualquiera.

De este modo, el proceso de traducción automática de una lengua a otra requiere tan sólo dos programas: uno, que pase de la primera lengua a la representación intermedia y, otro, que pase de ésta a la segunda lengua y viceversa. El primero recibe el nombre de analizador; el segundo, generador. Por lo tanto, para un número n de lenguas basta con disponer de n analizadores y generadores y así realizar traducción de una cualquiera a otra distinta, sea la que sea.

Además del avance referido a la traducción automática de los lenguajes naturales, este progreso facilito otras aplicaciones, por ejemplo, la de dar ordenes a un robot.

En cuanto ala segunda vía, la de la utilización por parte del ordenador de grandes cantidades de conocimientos, los trabajos partieron de los resultados obtenidos en la universidad de Stanford para el análisis de los espectros. En 1974, se logró construir el primer sistema experto capaz de diagnosticar una infección bacteriana y de recetar los antibióticos adecuados para combatir las bacterias probablemente causantes de dicha infección (Mycin).