Translate

viernes, 16 de agosto de 2013

¿Qué es la inteligencia artificial?


Él termino "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La IA es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”.
  • ·         Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
  • ·         Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
  • ·         Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
  • ·         Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.



A través de la inteligencia artificial se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores,reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía,medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros vídeo juegos.
Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:

  • Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.
  • Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.
  •  Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.
  • Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.
 
John McCarthy
En el segundo enfoque encontramos que este se orienta a la creación de un sistema artificial capaz de realizar procesos cognitivos humanos haciendo importante ya no la utilidad como el método, los aspectos fundamentales de este enfoque se refieren al aprendizaje y adaptabiliada y sus autores son Newell y Simon de la Carnegie Mellon University.
La IA al tratar de construir maquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbolico llamado a veces conexionista.
Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular¨ y ¨conocimiento a cerca de cómo obtener mas conocimiento a partir del que ya tenemos¨. El ejemplo más representativo de esta corriente es el proyecto de Cyc de Douglas B. Lenat sobre un sistema que posee en su memoria millones de hechos interconectados.
Dentro de la otra corriente: la subsimbolica; sus esfuerzos se orientan a la simulación de los elementos de mas bajo nivel dentro de los procesos inteligentes con la esperanza de que estos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos mas claros que trabajan con este tipo de orientación son las redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.

Marvin Lee Minsky

  • ¨Haga ahora¨: Donde el programador surte de instrucciones a la maquina para realizar una tarea determinada donde todo queda especificado excepto quizás él numero de repeticiones.
  • ¨Haga siempre que¨: Aquí se permite escribir un programa que le sirva a la computadora para resolver aquello problemas que el programador no sabe resolver pero conoce que tipo de soluciones se pueden intentar.
  • "De constreñimiento": se escriben programas que definen estructuras y estados que se condicionan y limitan recíprocamente.
Pero Minsky, admite que aún será necesario desarrollar dos tipos de lenguajes más para obtener una IA comparable a la inteligencia humana; y estos podrían ser.
  • "Haga algo que tenga sentido¨: Donde se permite al programa aprender del pasado y en una nueva situación aplicar sus enseñanzas.
  • "Mejórense a sí mismo": Allí se podrá permitir escribir programas que tengan en adelante la capacidad de escribir programas mejores que ellos mismos.
Otro punto desde luego tiene que ver con el tema que aquí estamos tratando es por supuesto el concepto de lo que es creatividad, que a simple vista es algo que no podemos explicar porque es resultado de un don especial pero que los estudios sobre IA han comenzado hacer posible dar explicación satisfactoria: nos dicen que en la medida que se logre escribir programas que exhiban propiedad, en esa misma medida se empezara a explicar la creatividad.
Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las investigaciones psicológicas hablan por una parte de que como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la maquina como del ser humano.



Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento,semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador de redes neuronales.
Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.
Minsky fue consejero en la película 2001: Una odisea del espacio y hay referencias a él tanto en la película como en el libro. Durante la filmación Minsky casi murió en un accidente.
Minsky también es responsable de sugerir la trama de "Jurassic Park" a Michael Crichton durante un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y concibió los dinosaurios como clones.
Claude Elwood Shannon
Estudia el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite. Al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción. Al cabo de más de medio siglo de sus hallazgos se sigue considerando el trabajo de Shannon la pieza clave en el desarrollo que lleva a que la comunicación adquiera un carácter de centralidad en la sociedad actual. Asimismo, sienta los fundamentos matemáticos de la revolución tecnológica de la segunda mitad del siglo XX.Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.
La información así tratada adquiere una dimensión física, cuantificable y mesurable, independientemente del contenido, de los emisores y de los receptores. Equis páginas de un libro tienen la misma información que una cantidad igual de otro, independientemente de sus autores y la calidad de sus contenidos... La base matemática de la teoría radica en su cuantificación, en la descripción del concepto técnico de canal, en la codificación y descodificación de las señales; esto es, un concepto de la información distinto al conocido hasta entonces en los ámbitos de las ciencias sociales. Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.

John McCarthy,Claude Shannon, Y Marvin Lee Minsky respectivamente: 

FUTURO DE LA IA.
El empleo de la IA esta orientado a aquellas profesiones que, ya sea por lo incomodo, peligroso o complicado de su trabajo necesitan apoyo de un experto en la materia. Las ventajas que trae el disponer de un asistente artificial no son mas que las de solucionar los errores y defectos propios del ser humano; es decir, el desarrollo de sistemas expertos que hoy en día se están utilizando con éxito en los campos de la medicina, geología y aeronáutica aunque todavía están poco avanzados en relación con el ideal del producto IA completo.