viernes, enero 02, 2009
Raúl Arrabales: Sobre la conciencia
Entrevista concedida a la revista digital Tercera Cultura
Tercera Cultura: ¿Qué es la conciencia? ¿Cuál es la mejor teoría o el mejor modelo que a su tenor explica este fenómeno? ¿Se podrá llegar a materializar la experiencia subjetiva? ¿Cuál es el teórico que, según tu opinión, se ha aproximado mejor a entender este fenómeno?
Raúl Arrabales: En primer lugar, en español conviene distinguir entre dos acepciones distintas de la palabra conciencia. Por un lado esta palabra puede hacer referencia al conocimiento inmediato que tiene un ser de sí mismo, pero por otro lado también se usa para referirse a la capacidad que tenemos los humanos para juzgar el bien y el mal. En definitiva, la segunda acepción se refiere a la metafórica vocecita que nos recuerda que hemos obrado mal.
Mi campo de investigación se centra en el primer concepto, el del auto-conocimiento. En realidad, la con*s*ciencia (yo prefiero utilizar la palabra con ese para referirme a este significado) engloba multitud de conceptos relacionados. Desde este punto de vista podríamos definir la consciencia como la integración efectiva de diversas capacidades mentales como la atención, los sentimientos, el sentido del yo, la toma de decisiones, la imaginación, la empatía, etc.
En cuanto al estudio científico de la consciencia y los modelos que tratan de explicarla me gustaría resaltar dos puntos que considero interesantes: en primer lugar, creo que todavía no contamos con una teoría satisfactoria que dé una explicación completa de qué es y cómo se produce la consciencia. En segundo lugar, aunque existen diversas hipótesis que tratan de explicar la consciencia, no creo que sean enfoques excluyentes o que compitan unas con otras. En realidad cada una ataca aspectos específicos del fenómeno de la consciencia. Sí que es cierto, sin embargo, que hay algunas teorías que han tenido más éxito entre la comunidad científica que estudia la consciencia. En este punto podríamos distinguir entre dos tipos de teorías: las psicológicas y las neurológicas. Un ejemplo de teoría psicológica es la Teoría del Espacio de Trabajo Global de Baars. Esta teoría usa el símil de una obra de teatro para explicar la consciencia. En cualquier caso, esta explicación no deja de ser una metáfora, que ayuda a entender qué es la consciencia, pero no ofrece ninguna indicación sobre cómo se produce la misma en los humanos. Por el contrario, las teorías neurológicas se centran en buscar los mecanismos existentes en el sistema nervioso central que dan lugar a la consciencia. Un ejemplo relevante es la hipótesis del Núcleo Dinámico de Edelman y Tononi que trata de explicar cómo las conexiones neuronales del complejo talamocortical dan lugar a la percepción consciente. En general hay consenso entre los neurólogos acerca de que el complejo talamocortical es clave en la generación de la consciencia.
Creo que la tendencia actual va en el sentido de aunar las explicaciones de alto nivel proporcionadas por las teorías psicológicas y las hipótesis sobre el sustrato neuronal de bajo nivel que sustenta las primeras. En definitiva, los estudios sobre la consciencia siempre implican un esfuerzo multidisciplinar y creo que no sería justo citar una teoría concreta como la más acertada. Es más bien la colaboración entre las disciplinas técnicas, teóricas y empíricas la que dará en último término una respuesta satisfactoria. En este aspecto no conviene olvidar que las ciencias de la computación e inteligencia artificial pueden ser un complemento clave en el esclarecimiento de algunos aspectos de la consciencia.
En relación a la materialización de la experiencia subjetiva, supongo que te refieres a la construcción de máquinas que tengan experiencias subjetivas. Aquí la dificultad radica en que la característica principal de la experiencia subjetiva es que es algo no material. Desde mi punto de vista es un proceso. Con lo cual la pregunta pasaría a ser: ¿se puede reproducir de forma artificial el proceso que da lugar a la experiencia subjetiva? O en otras palabras, ¿podemos crear una mente no material en una máquina? Esta pregunta está relacionada con el llamado “problema duro” de la consciencia, que se refiere a la explicación en términos científicos de algo que no es físico y que no se puede demostrar a través del método científico clásico. Para poder estudiar cualquier fenómeno de forma científica es requisito imprescindible que se pueda observar en tercera persona. Sin embargo, la experiencia subjetiva escapa a esta restricción al no estar compuesta en sí misma por parámetros físicos. Sólo yo tengo acceso a mi experiencia subjetiva, un científico no puede observarla (observar un escáner cerebral no es observar la experiencia subjetiva), no tiene más remedio que creer lo que yo le cuento sobre mi experiencia subjetiva. Por suerte, nosotros mismos podemos actuar como científicos de la consciencia y observar nuestra propia experiencia subjetiva por medio de la introspección. Para responder finalmente a la pregunta sobre si es posible reproducir experiencias subjetivas no materiales en máquinas, creo que sí es posible. De hecho, los informáticos estamos acostumbrados a crear entidades no materiales a partir de hardware convencional, un programa al ejecutarse en un ordenador se convierte en un proceso que es algo no material pero que se produce gracias a un sustrato construido a base de chips de silicio.
TC: Parece que el modelo a la hora de diseñar robots es el propio ser humano. Se pretende que las máquinas sustituyan al ser humano en muchos ámbitos y que hagan de forma más eficiente su trabajo. ¿Habrá alguna vez robots conscientes?
Desde luego el modelo a imitar en el campo de la robótica siempre ha sido el ser humano. Sin embargo, debido a que esto constituye un reto colosal, en muchas ocasiones se ha optado por rebajar temporalmente las ambiciones y tomar otros animales relativamente más simples como modelo. En la actualidad, gracias a los últimos avances técnicos que se han logrando parece que se intenta retomar el reto original de los robots humanoides, pero seguimos adoleciendo de un punto débil en las capacidades cognitivas de los mismos. Yo personalmente creo que sí seremos capaces de construir robots conscientes, aunque puede que la consciencia que experimenten estos robots no sea como la nuestra. De hecho, creo que la consciencia artificial de un robot debería adaptarse al tipo de trabajos que debe desempeñar. No se necesita experiencia subjetiva ni sentimientos para estar todo el día soldando piezas en una cadena de montaje, sin embargo estas capacidades pueden ser cruciales para un robot social como un asistente para personas mayores.
TC: El filósofo Víctor Gómez Pin afirma que la inteligencia artificial es un timo, que no hay tal cosa, mientras que neurólogos como Adolf Tobeña consideran que en la actualidad ya hay máquinas inteligentes. ¿Cuál es tu punto de vista? ¿Qué opinión te parece equivocada y qué le dirías para sacarle del error?
Hoy en día la expresión Inteligencia Artificial se usa para designar a un campo de investigación científica bien establecido, aunque con sólo 50 años de historia. Yo creo que el concepto de inteligencia se puede estudiar como la capacidad de un ser de sobrevivir y adaptarse al medio en el que se encuentra. Que la inteligencia como propiedad pueda existir en una máquina, yo no lo pongo en duda. Otra cosa es el nivel de inteligencia que puedan desarrollar diferentes entidades de acuerdo a su diseño. Cuando se habla de inteligencia y de consciencia, se suele hablar en términos absolutos, sin embargo, yo prefiero hablar de niveles cualitativos o de medidas cuantitativas (aunque establecer estas medidas sea complicado). En ese sentido, estoy de acuerdo en que hoy en día no tenemos máquinas con la misma inteligencia que un humano, pero sí tenemos máquinas con cierta inteligencia. Por ejemplo, creo que sí tenemos máquinas con una inteligencia comparable a la de un mosquito. Uno de los objetivos de la consciencia artificial es dotar a las máquinas de una inteligencia similar a la humana, para eso se necesitan capacidades como el sentido común y la imaginación. El problema es que hoy en día no tenemos máquinas que sean capaces de enfrentarse con éxitos a situaciones nuevas en entornos complejos, pero sí que tenemos implementaciones de aprendizaje automático que son capaces de aprender y generalizar en ciertos entornos controlados. Por ejemplo, tenemos sistemas de inteligencia artificial capaces de detectar automáticamente intrusiones malintencionadas en una red informática.
TC: ¿Qué significa el término computabilidad? ¿Cómo se utiliza esta noción para descartar la posibilidad de que una máquina llegue a ser consciente? ¿Piensas que será necesario recurrir a nuevas leyes de la naturaleza para entender la conciencia y, por tanto, diseñar ordenadores conscientes?
Algunos investigadores equiparan el cerebro humano con un ordenador, porque en definitiva, al igual que un ordenador, toma unas entradas, las procesa (es decir, computa) y finalmente produce una salida. Sin embargo, un cerebro produce algo más que una mera salida física (comportamiento), también provoca lo que conocemos como experiencia subjetiva. El problema es que los zombis filosóficos son a priori posibles desde un punto de vista puramente científico. Un zombi es una persona que procesa las entradas de sus sentidos y produce un comportamiento adaptado, pero que no tiene experiencia subjetiva alguna. ¿Cómo podemos saber si una persona siente algo cuando grita de dolor? Podría ser simplemente una respuesta programada en su cerebro, como un robot al que programamos para que diga “¡ay!” cuando se acciona un sensor de presión. Lo que pasa normalmente cuando vemos a una persona gritar de dolor es que inferimos que siente dolor al igual que lo sentiríamos nosotros en la misma situación. Es decir, de alguna forma “nos ponemos en su lugar” y sentimos empatía. Sin embargo, si vemos un robot gritar de dolor, ¿cómo sabemos si realmente está sintiendo algo? En este caso no podemos establecer la analogía con nosotros mismos, pues se trata de una máquina totalmente distinta. ¿Significa esto que no es posible que un robot tenga experiencia subjetiva? La clave está en saber si la experiencia subjetiva se produce gracias al sustrato biológico específico que tienen los humanos. Algunos investigadores como Penrose y Hameroff argumentan que la experiencia subjetiva se produce gracias a fenómenos cuánticos que tienen lugar en los microtúbulos que hay en las neuronas. Si eso fuera cierto, sólo podríamos construir máquinas conscientes usando ordenadores cuánticos que reprodujeran ese tipo de procesos.
Yo particularmente creo que no es necesario recurrir a la mecánica cuántica para entender la consciencia y que podemos crear procesos conscientes en máquinas atendiendo a las leyes conocidas de la naturaleza. En definitiva yo veo la consciencia como un proceso específico en ejecución. Para mí la consciencia no es una propiedad de la materia, es simplemente un proceso.
TC: Han existido algunas corrientes como la Inteligencia Artificial fuerte que tienen puntos de vista extremos sobre la inteligencia. ¿Crees que tienen alguna base para sostener tales tesis?
En realidad la IA fuerte se corresponde con el objetivo original del propio campo de la IA: crear máquinas tan inteligentes y tan conscientes como los humanos. Lo que sucedió es que los objetivos tuvieron que relajarse debido a las falsas expectativas que se habían creado. En definitiva, lo que ha pasado es que nos hemos dado cuenta de la tremenda complejidad de esta empresa, pero eso no significa que se haya abandonado esta rama de la IA. De hecho, en los últimos años estamos asistiendo a un resurgimiento de esta rama dura materializado en las líneas de la Consciencia Artificial y la Inteligencia Artificial General. Personalmente creo que son campos que merece explorar para comprobar efectivamente donde están los límites. De lo que estoy seguro es si no hay base para sostener que los objetivos de la IA fuerte sean inalcanzables.
TC: ¿Crees que se está aprovechando el potencial educativo de los ordenadores? ¿Qué elementos se podrían introducir en la escuela para que la enseñanza fuera más efectiva? Antiguamente, la clase adinerada contrataba a tutores para sus hijos, que de esta forma disponían de una enseñanza personalizada eficiente. ¿Los ordenadores podrían cumplir esta función de una forma más democratizada?
Desde luego hoy en día sería una pena que no se usara masivamente el potencial de la informática en educación. Las tecnologías de la información en general son una excelente herramienta para mejorar la educación. Ni profesores ni alumnos deben prescindir de herramientas tan potentes, teniendo en cuenta que ahora están disponibles a un coste bajo al menos en el mundo desarrollado. Como cualquier herramienta, sigue siendo labor del docente enseñar a sus alumnos como sacar buen provecho de ella. En el futuro, podríamos contar con robots docentes, que ofrecieran un interfaz mucho más natural para la educación.
TC: Según Varela, un sistema nervioso no es un sistema de procesamiento de información porque, por definición, los sistemas de procesamiento de información necesitan entradas claras. ¿Nos podrías aclarar esta conclusión?
Más bien yo diría que un sistema nervioso es un sistema de procesamiento de información analógico, donde la información que se adquiere de los sentidos puede tomar valores continuos. Por el contrario un ordenador convencional está basado en circuitos digitales, cuyas entradas se componen de valores discretos. Independientemente del sentido que se le quiera dar al término procesamiento, en ambos casos se realiza un procesamiento de la información y se generan unas salidas.
Suscribirse a:
Comentarios de la entrada (Atom)
No hay comentarios.:
Publicar un comentario