En 1950, Alan Turing - el padre
de la informática - sugirió una prueba sencilla. Primer paso: diseñar un
programa de computadora que puede simular la conversación humana. (Lo cual era
una hazaña, teniendo en cuenta lo primitivo fueron los equipos de la segunda
mitad del siglo XX.) Pasó dos: colocarlo detrás de una pantalla o de otra
manera ocultar de la vista. Pasó tres: invitar a un ser humano para conversar
con el equipo en la forma de mensajes de texto. Paso cuatro: Pregúntele a la
persona si su interlocutor no se ve es un ser humano o una máquina.
Si él o ella se confunde la
conversación generada por ordenador para un ser humano, entonces voila: el
equipo, de acuerdo con Turing, se puede decir "pensar".
Suena más como un juego de salón
que un experimento mental, y muchos en el campo consideran como eso. Sin
embargo, esta "prueba de Turing" pasó a conducir décadas de
investigación en inteligencia artificial. Incluso dio lugar a un concurso anual
desde 1991 llamado el Premio Loebner , donde los jueces sostienen
conversaciones breves con los programas y los seres humanos de inteligencia
artificial ocultos y, a continuación, tendrá que decidir cuál es cuál. (En la
ausencia de cualquier programa de pasar la prueba, un premio más pequeño se le
da a la más "parecidos a los humanos".)
Turing predijo que una
computadora podría cumplir con éxito su experimento mental antes del año 2000,
pero hasta la fecha, ningún programa de ordenador ha pasado la prueba - ni
siquiera el ganador de ayer del Premio 2012 Loebner , Vivant chip . Esto se
debe a los parámetros blandos de la prueba en sí en parte - por ejemplo,
¿cuánto tiempo es necesario que el equipo participar en la conversación
despreocupada ante el ser humano pasa juicio sobre su identidad? Cinco minutos?
Tres horas? Turing nunca dice - sino también porque imitando perfectamente la
conversación humana resulta ser más complicado de lo que se esperaba. Entonces,
¿qué haría falta para construir una máquina que pueda pasar la prueba de Turing
infame?
Cuidado con la lengua
Una cosa es segura: la lógica de
la fuerza bruta no va a hacer el truco. En los primeros días de la
investigación de la inteligencia artificial, "pensamiento" se supone
que es simple cuestión de conectar símbolos junto con las reglas discretas.
"Había una idea en la década de 1960 de reducir el mundo hasta en objetos
y acciones que se pueden nombrar: libro, tabla, hablar, correr," dice
Robert French, un científico cognitivo en el Centro Nacional Francés para la
Investigación Científica. "Todas las palabras en el diccionario son
símbolos que hacen referencia al mundo. Así que si pones a todos juntos de una
manera cuidadosa, la inteligencia debe emerger, más o menos."
Excepto que no lo hace. Este
enfoque, llamado "AI simbólico" encaje como una ramita cuando se
somete a la más mínima ambigüedad. Después de todo, hay una regla diccionario
puede decirle a una computadora cómo responder adecuadamente a la pregunta
casual, "¿Qué pasa?" (Si su respuesta es "Up es lo contrario de
abajo", que acaba fallado la prueba de Turing.) Una base de datos
densamente interconectado puede contener información "inteligente",
pero no es inteligente en sí. Como Brian cristiano, autor de The Human más
humano: ¿Qué nos dice la Inteligencia Artificial de estar vivo , lo expresa así:
"Cuando leemos un libro, no creo que el libro tiene las ideas."
Una mejor manera de simular la
conversación humana es dejar de lado la lógica y el objetivo de una calidad
llamado "apátrida". En una conversación sin estado, cada respuesta
sólo tiene que referirse vagamente el que se produjo inmediatamente antes de
ella. Este comportamiento es mucho más fácil de programar en una computadora,
por lo que los llamados "robots charlatanes" se han vuelto tan
frecuentes en línea.
A mediados de la década de 1960,
ELIZA , uno de los primeros robots charlatanes del mundo, personificó
efectivamente un psicoterapeuta por repitiendo lenguaje nuevo de los usuarios a
ellos. En la década de 2000, un chatbot más sofisticado llamado ALICE ganó el
Premio Loebner tres veces utilizando esencialmente la misma técnica. Sin
embargo, estas interacciones apátridas son apenas lo que cualquiera llamaría
"inteligente" - irónicamente, es su vacuidad casi total que hace
parecer tan humano. Pero no lo suficientemente humano, lo que parece: ALICE
podría haber superado a otros robots charlatanes, pero aún así no podía engañar
a los jueces humanos consistentemente lo suficiente para pasar la prueba de
Turing.
Así que si saber un montón de
hechos y hacer una pequeña charla hueca no son habilidades que permiten a una
computadora para pasar el test de Turing, ¿qué aspecto de la "inteligencia
humana" se queda afuera? Lo único que tenemos que los programas
informáticos no: cuerpos.
Total recall
Según French, inteligencia flota
en realidad en un "inmenso mar de cosas por debajo de la cognición" -
y la mayor parte se compone de experiencias sensoriales asociativas, el
"lo que es"-presas construidas por un cuerpo físico, la interacción
con un mundo físico. Esta información "subcognitive" podría incluir
la memoria de caerse de una bicicleta y el despellejamiento de la rodilla, o
morder un bocadillo en la playa y la sensación crujiente arena entre los
dientes. Pero también incluye nociones más abstractas, como la respuesta a la siguiente
pregunta: "¿Es 'Flugly' un mejor nombre para una actriz glamorosa, o un
oso de peluche?"
A pesar de que "flugly"
es una palabra sin sentido, casi todos los humanos de habla Inglés escogería el
oso de peluche, dice French. ¿Por qué? "Un equipo que no tiene un
historial de experiencia encarnada encontrar osos de peluche suave, actrices
bonitas, o incluso los sonidos del idioma Inglés", dice el francés.
"Todas estas cosas permiten a los seres humanos para responder a estas
preguntas de una manera coherente, que un ordenador no tiene acceso." Lo
que significa que cualquier programa sin cuerpo tiene un talón de Aquiles
cuando se trata de pasar la prueba de Turing.
Pero eso podría cambiar pronto.
Francés cita experimentos "vida-captura", al igual que los esfuerzos
en curso de investigador del MIT Deb Roy para grabar cada segundo de vigilia de
la vida de su hijo pequeño , como una posible solución al problema de
realización. "¿Qué pasaría si un equipo se expuso a todos los mismos de
las vistas y sonidos y experiencias sensoriales que una persona fue, durante
años y años?" Dice francés. "Ahora podemos recoger estos datos. Si el
equipo puede analizar y correlacionar correctamente, es razonable imaginar que
pudiera contestar las preguntas de tipo Flugly' al igual que lo haría un
humano?"
Francés no piensa en la marcha de
análisis de un conjunto de datos tan grande será posible en el corto plazo.
"Pero en algún momento en el tiempo, vamos a llegar allí", dice.
Momento en el que - suponiendo que funciona, y un programa de computadora pasa
la prueba de Turing - ¿qué significa esto en términos prácticos? ¿Vamos a
considerar que el dispositivo inteligente? ¿O simplemente añadir "tener
una conversación convincente" a la lista cada vez mayor de las cosas
interesantes que las computadoras pueden hacer, como "seres humanos
golpearon en el ajedrez" (como hizo Deep Blue de IBM en un partido con
Garry Kasparov en 1997 ) o "jugar Jeopardy! en la televisión "(como
Watson hizo en 2011 )?
El científico
de la computación conocido Edsger Dijkstra dijo que "la cuestión de si las
máquinas pueden pensar que es tan relevante como la cuestión de si los
submarinos podrán nadar". Semántica y la filosofía de la
"inteligencia" a un lado, un equipo que puede pasar la prueba de
Turing pueden hacer exactamente una cosa muy bien: hablar con la gente como un
individuo. Lo que significa que la prueba de Turing sólo puede ser reemplazado
por una cuestión diferente, que no es menos difícil de responder. "Podemos
imitar a una persona", dice Brian cristiana. "Pero, ¿cuál?"
0 comentarios:
Publicar un comentario