viernes, 14 de junio de 2013

¿Cómo se puede saber si una computadora puede pensar?

¿Puede un equipo pasar la prueba de Turing?


En 1950, Alan Turing - el padre de la informática - sugirió una prueba sencilla. Primer paso: diseñar un programa de computadora que puede simular la conversación humana. (Lo cual era una hazaña, teniendo en cuenta lo primitivo fueron los equipos de la segunda mitad del siglo XX.) Pasó dos: colocarlo detrás de una pantalla o de otra manera ocultar de la vista. Pasó tres: invitar a un ser humano para conversar con el equipo en la forma de mensajes de texto. Paso cuatro: Pregúntele a la persona si su interlocutor no se ve es un ser humano o una máquina.

Si él o ella se confunde la conversación generada por ordenador para un ser humano, entonces voila: el equipo, de acuerdo con Turing, se puede decir "pensar".
Suena más como un juego de salón que un experimento mental, y muchos en el campo consideran como eso. Sin embargo, esta "prueba de Turing" pasó a conducir décadas de investigación en inteligencia artificial. Incluso dio lugar a un concurso anual desde 1991 llamado el Premio Loebner , donde los jueces sostienen conversaciones breves con los programas y los seres humanos de inteligencia artificial ocultos y, a continuación, tendrá que decidir cuál es cuál. (En la ausencia de cualquier programa de pasar la prueba, un premio más pequeño se le da a la más "parecidos a los humanos".)
Turing predijo que una computadora podría cumplir con éxito su experimento mental antes del año 2000, pero hasta la fecha, ningún programa de ordenador ha pasado la prueba - ni siquiera el ganador de ayer del Premio 2012 Loebner , Vivant chip . Esto se debe a los parámetros blandos de la prueba en sí en parte - por ejemplo, ¿cuánto tiempo es necesario que el equipo participar en la conversación despreocupada ante el ser humano pasa juicio sobre su identidad? Cinco minutos? Tres horas? Turing nunca dice - sino también porque imitando perfectamente la conversación humana resulta ser más complicado de lo que se esperaba. Entonces, ¿qué haría falta para construir una máquina que pueda pasar la prueba de Turing infame?
Cuidado con la lengua
Una cosa es segura: la lógica de la fuerza bruta no va a hacer el truco. En los primeros días de la investigación de la inteligencia artificial, "pensamiento" se supone que es simple cuestión de conectar símbolos junto con las reglas discretas. "Había una idea en la década de 1960 de reducir el mundo hasta en objetos y acciones que se pueden nombrar: libro, tabla, hablar, correr," dice Robert French, un científico cognitivo en el Centro Nacional Francés para la Investigación Científica. "Todas las palabras en el diccionario son símbolos que hacen referencia al mundo. Así que si pones a todos juntos de una manera cuidadosa, la inteligencia debe emerger, más o menos."
Excepto que no lo hace. Este enfoque, llamado "AI simbólico" encaje como una ramita cuando se somete a la más mínima ambigüedad. Después de todo, hay una regla diccionario puede decirle a una computadora cómo responder adecuadamente a la pregunta casual, "¿Qué pasa?" (Si su respuesta es "Up es lo contrario de abajo", que acaba fallado la prueba de Turing.) Una base de datos densamente interconectado puede contener información "inteligente", pero no es inteligente en sí. Como Brian cristiano, autor de The Human más humano: ¿Qué nos dice la Inteligencia Artificial de estar vivo , lo expresa así: "Cuando leemos un libro, no creo que el libro tiene las ideas."

Una mejor manera de simular la conversación humana es dejar de lado la lógica y el objetivo de una calidad llamado "apátrida". En una conversación sin estado, cada respuesta sólo tiene que referirse vagamente el que se produjo inmediatamente antes de ella. Este comportamiento es mucho más fácil de programar en una computadora, por lo que los llamados "robots charlatanes" se han vuelto tan frecuentes en línea.
A mediados de la década de 1960, ELIZA , uno de los primeros robots charlatanes del mundo, personificó efectivamente un psicoterapeuta por repitiendo lenguaje nuevo de los usuarios a ellos. En la década de 2000, un chatbot más sofisticado llamado ALICE ganó el Premio Loebner tres veces utilizando esencialmente la misma técnica. Sin embargo, estas interacciones apátridas son apenas lo que cualquiera llamaría "inteligente" - irónicamente, es su vacuidad casi total que hace parecer tan humano. Pero no lo suficientemente humano, lo que parece: ALICE podría haber superado a otros robots charlatanes, pero aún así no podía engañar a los jueces humanos consistentemente lo suficiente para pasar la prueba de Turing.
Así que si saber un montón de hechos y hacer una pequeña charla hueca no son habilidades que permiten a una computadora para pasar el test de Turing, ¿qué aspecto de la "inteligencia humana" se queda afuera? Lo único que tenemos que los programas informáticos no: cuerpos.
Total recall
Según French, inteligencia flota en realidad en un "inmenso mar de cosas por debajo de la cognición" - y la mayor parte se compone de experiencias sensoriales asociativas, el "lo que es"-presas construidas por un cuerpo físico, la interacción con un mundo físico. Esta información "subcognitive" podría incluir la memoria de caerse de una bicicleta y el despellejamiento de la rodilla, o morder un bocadillo en la playa y la sensación crujiente arena entre los dientes. Pero también incluye nociones más abstractas, como la respuesta a la siguiente pregunta: "¿Es 'Flugly' un mejor nombre para una actriz glamorosa, o un oso de peluche?"
A pesar de que "flugly" es una palabra sin sentido, casi todos los humanos de habla Inglés escogería el oso de peluche, dice French. ¿Por qué? "Un equipo que no tiene un historial de experiencia encarnada encontrar osos de peluche suave, actrices bonitas, o incluso los sonidos del idioma Inglés", dice el francés. "Todas estas cosas permiten a los seres humanos para responder a estas preguntas de una manera coherente, que un ordenador no tiene acceso." Lo que significa que cualquier programa sin cuerpo tiene un talón de Aquiles cuando se trata de pasar la prueba de Turing.
Pero eso podría cambiar pronto. Francés cita experimentos "vida-captura", al igual que los esfuerzos en curso de investigador del MIT Deb Roy para grabar cada segundo de vigilia de la vida de su hijo pequeño , como una posible solución al problema de realización. "¿Qué pasaría si un equipo se expuso a todos los mismos de las vistas y sonidos y experiencias sensoriales que una persona fue, durante años y años?" Dice francés. "Ahora podemos recoger estos datos. Si el equipo puede analizar y correlacionar correctamente, es razonable imaginar que pudiera contestar las preguntas de tipo Flugly' al igual que lo haría un humano?"

Francés no piensa en la marcha de análisis de un conjunto de datos tan grande será posible en el corto plazo. "Pero en algún momento en el tiempo, vamos a llegar allí", dice. Momento en el que - suponiendo que funciona, y un programa de computadora pasa la prueba de Turing - ¿qué significa esto en términos prácticos? ¿Vamos a considerar que el dispositivo inteligente? ¿O simplemente añadir "tener una conversación convincente" a la lista cada vez mayor de las cosas interesantes que las computadoras pueden hacer, como "seres humanos golpearon en el ajedrez" (como hizo Deep Blue de IBM en un partido con Garry Kasparov en 1997 ) o "jugar Jeopardy! en la televisión "(como Watson hizo en 2011 )?

El científico de la computación conocido Edsger Dijkstra dijo que "la cuestión de si las máquinas pueden pensar que es tan relevante como la cuestión de si los submarinos podrán nadar". Semántica y la filosofía de la "inteligencia" a un lado, un equipo que puede pasar la prueba de Turing pueden hacer exactamente una cosa muy bien: hablar con la gente como un individuo. Lo que significa que la prueba de Turing sólo puede ser reemplazado por una cuestión diferente, que no es menos difícil de responder. "Podemos imitar a una persona", dice Brian cristiana. "Pero, ¿cuál?"

0 comentarios:

Publicar un comentario