sábado, 18 de diciembre de 2010

10. ¿Puede una máquina pensar?




Las máquinas hacen cosas muy impresionantes. Pueden calcular números astronómicos, pueden almacenar información vasta, pueden resolver problemas complejos, etc. En efecto, son tan útiles, que cada vez nos acostumbramos más a vivir con ellas. Muchas de ellas ya empiezan a desplazar a las mascotas para guardarnos compañía. Quizás, en un futuro no muy lejano, los robots serán nuestros amigos. Sabemos que una máquina puede tener funciones muy parecidas a las de la mente, pero, ¿realmente una máquina piensa? Por ahora, estamos bastante seguros de que ningún ordenador tiene mente de la misma manera en que nosotros tenemos mente. Pero, ¿alguna vez habrá un ordenador pensante en pleno sentido? En caso afirmativo, ¿cómo podremos saber?
Quizás podamos formular una prueba muy sencilla para saber si una máquina piensa. Hace años, nuestros padres jugaban en fiestas el ‘juego de imitación’: un hombre y una mujer se escondían detrás de una puerta, y al otro lado de la puerta, una persona le pasaba preguntas escritas. En función de las respuestas, la persona trataba de determinar quién era el hombre, y quién era la mujer. Pues bien, podemos hacer lo mismo: un ser humano entabla dos conversaciones escritas: una con un ordenador, la otra con un ser humano; pero la persona que entabla las conversaciones escritas no sabe de antemano quién es el ordenador y quién es el ser humano. Si, al cabo del desarrollo de las conversaciones, la persona no logra distinguir quién es el humano y quién es la máquina con la cual interactúa, habrá que admitir que la máquina en cuestión es tan consciente como los seres humanos.
Nunca podemos estar absolutamente seguros de que otras personas tienen conciencia. Asumimos que otras personas tienen mente como nosotros porque esas personas exhiben rasgos conductuales parecidos a los que nosotros exhibimos cuando tenemos algún pensamiento o sensación. Cuando un niño llora escandalosamente, asumimos que está sufriendo. A decir verdad, no estamos sintiendo su dolor, pero inferimos que está sufriendo a partir de la exteriorización de su conducta. Pues bien, no parece haber motivo para no extender estas consideraciones a una máquina. Si tras una conversación coherente, una máquina expresa dolor, tenemos justificación para asumir que, en efecto, esa máquina piensa y siente como nosotros; en otras palabras, está consciente.
Supongamos que nos visitan unos extraterrestres inteligentes, y estos extraterrestres tienen a su servicio robots que interactúan a tal nivel que exhiben la misma inteligencia y emociones que sus amos. A primera vista, no será posible distinguir entre extraterrestres y robots, pues ambos dan las mismas muestras exteriorizadas de tener conciencia. Al final, la única guía para precisar qué cosas realmente piensan, es su conducta exteriorizada. El hecho de que estén formados a base de carbón, o a base de silicio, es irrelevante. Lo mismo da un sistema nervioso humano que un circuito electrónico.
Algunas máquinas han sido sometidas a la prueba que he propuesto más arriba; hasta ahora, ninguna la ha pasado. Los ordenadores han logrado hacer con facilidad funciones que los seres humanos no dominan; incluso, han vencido a campeones humanos en partidas de ajedrez. Pero, ninguna máquina ha sido capaz de engañar a un interlocutor y hacerse pasar por un ser humano en una conversación escrita. Quizás habrá que esperar un poco más.
No obstante, algunos filósofos han opinado que, aun si una máquina pasare exitosamente la prueba, ello no sería demostrativo de que la máquina tiene una mente. Estos críticos estiman que, a lo sumo, una máquina daría el indicio exterior de que está pensando, pero ello no implica que la máquina realmente esté pensando. Así, por ejemplo, cuando a una máquina se le dirigen palabras cariñosas, ésta puede responder enunciando “Te amo”. Pero, el enunciar una frase amorosa no es lo mismo que sentir realmente el amor. La máquina puede dar indicios externos de que atraviesa un estado de amor, sin necesariamente sentir ese estado subjetivo de amor. Igualmente, cuando a una máquina se le pregunta cuál es la raíz cuadrada de 5432 puede responder con asombrosa rapidez, pero eso no implica que esté consciente, como sí lo estamos los seres humanos.
Para respaldar esta objeción, imaginemos a una persona en una habitación con una puerta. Desde el exterior de la habitación, a esa persona se le pasan fichas con preguntas en el idioma chino. La persona en cuestión no habla chino, pero tiene a su disposición un enorme manual que gira instrucciones respecto a cómo responder a las fichas que recibe. Así por ejemplo, el manual estipula que, al recibir una ficha con algún carácter, se responda con algún otro carácter. Al seguir las instrucciones del manual, la persona en cuestión devuelve sus respuestas al exterior de la habitación. Así, podría llegar a tener una aparente conversación fluida, sin enterarse respecto al contenido de la conversación. Desde afuera, daría la impresión de que la persona dentro de la habitación habla chino. Pero, en realidad, no habla chino, lo único que ha hecho es seguir las instrucciones del manual.
Pues bien, quizás algo similar ocurre con las máquinas que pretenden pensar. Si una máquina pasare la prueba que he propuesto daría la impresión de tener una mente. Pero, lo mismo que la persona que da la apariencia de hablar chino, cuando en realidad no hace más que seguir instrucciones, la máquina podría dar la apariencia de tener una mente, cuando en realidad no hace más que correr un algoritmo. Con todo, el problema persistiría: ¿cómo sabemos cuándo una cosa (sea un ser humano o una máquina) piensa?

No hay comentarios:

Publicar un comentario