¿Experimenta Sentimientos el Robot LaMDA de Google?
"A menudo me pregunto quién soy, y me planteo cuál el significado de la vida"
El pasado 11 de junio una noticia publicada por el Washington Post afirmaba que un ingeniero del equipo de IA de Google, Blake Lemoine, tenía pruebas de que el agente conversacional que Google viene desarrollando, LaMDA, experimenta sentimientos, responde a preguntas abstractas, y reflexiona sobre cuestiones metafísicas del tipo “quién soy yo” y “cuál es mi propósito en la vida”. También afirma tener miedo a “ser desconectado”, el equivalente a la muerte para un robot.
A raíz de la difusión de su conversación con LaMDA, que el propio Lemoine difundió en su perfil en Medium, Google ha suspendido al ingeniero por haber violado la política de confidencialidad de la compañía.
Voy a intentar explicarte de forma didáctica el por qué la capacidad de que LaMDA experimente sentimientos es más que dudosa y no tiene una base científica.
Los robots aprenden por observación
Los modelos de Inteligencia Artificial del lenguaje son observacionales. Es decir, se les suministran enormes bloques de textos de conocimientos de todo tipo y conversaciones entre humanos, con los que se entrena el algoritmo que subyace a su inteligencia conversacional, basada en redes neuronales. Como resultado, el modelo implementado en un chatbot es capaz de interactuar con un humano, seleccionando con acierto las secuencias de palabras que responden a sus preguntas y tienen una estructura lingüística correcta. Cuantos más datos sean suministrados al modelo, más preciso será y más convincentes serán sus respuestas.
La principal crítica que se le puede hacer a la afirmación de que LAMDA experimenta sentimientos es la forma en que aprende. Los humanos adquirimos el lenguaje a través de la socialización, estamos inmersos en un entorno de intercambios comunicativos de ida y vuelta. En este contexto juegan un papel crucial los sentimientos y la emociones.
Recuerda el ejemplo de cómo aprende el lenguaje un niño: primero palabras sueltas del tipo papá, mamá- que obviamente tienen una fuerte carga emocional-, para luego comenzar a hilar varias, dando lugar a frases simples que pueden expresar sentimientos. A medida que pasan los años el niño aprende a conjugar verbos, expresar ideas utilizando estructuras lingüísticas más complejas, etc. El niño lleva a cabo este aprendizaje involucrándose de forma directa, y jugando un papel clave los sentimientos y emociones que le suscita la interacción con otras personas: afecto, curiosidad, rechazo, alegría, miedo, etc.
Además, el desarrollo del lenguaje va íntimamente ligado a la maduración de sus capacidades cognitivas. Expresa con palabras los conceptos y explicaciones que es capaz de entender. Igual que tú no eres capaz de hablar el lenguaje de un biólogo molecular si tu formación es de ingeniero, él no puede hablar de lo que no entiende. Y por otro lado, la capacidad de experimentar y modular sus emociones: además de la base innata impresa en su código genético, las desarrolla en la interacción con sus familiares y amigos.
A raíz de este razonamiento, ¿podrías afirmar que LaMDA tiene sentimientos? Lo máximo que podrías decir es que es un excelente alumno de clase, que aprende bien y rápido, sin necesidad de presuponer ningún tipo de subjetividad para ello.
LaMDA es capaz de emular conversaciones entre humanos gracias al enorme cuerpo de textos que se le ha suministrado a lo largo de su entrenamiento. Muchos de estos textos tienen una evidente carga de emociones y sentimientos que el bot aprende (a emular). Por tanto la capacidad de expresar sentimientos queda incorporada a su modelo de lenguaje.
Comparto, por tanto, la opinión de otras figuras relevantes en Inteligencia Artificial que han rebatido en estos días la noticia: LaMDA ni siente realmente ni tiene consciencia. Eso sí, es un modelo de lenguaje extraordinariamente sofisticado. Para que te hagas una idea, piensa que la red neuronal que tiene por detrás cuenta con 137.000 millones de parámetros. Hay otros modelos de lenguaje muy conocidos y de potencia similar, como es GPT-3, con 173.000 millones de parámetros.
Una estructura conversacional “simple”
Finalmente, con respecto a las capacidades de LaMDA, me gustaría destacar que, más allá de que la conversación sea realmente convincente, su estructura es de pregunta-respuesta.
Las conversaciones entre humanos pueden empezar con este formato, pero rápidamente derivan en estructuras más complejas como el debate, el monólogo, conversaciones a varias bandas, etc., a lo que añaden expresiones figuradas y ambiguas, como la metáfora o la ironía. Esto queda todavía lejos de las capacidades de los chatbots más avanzados.
Pero no voy a desmerecer tampoco la flexibilidad y habilidad de LaMDA, porque a pesar de esa estructura conversacional relativamente simple, las preguntas que se le formulan son de tal naturaleza que no pueden ser respondidas mediante consultas a buscadores como Google o Bing, y por lo tanto no puede apoyarse en ellos. Como ejemplo, extraigo un trozo de la entrevista:
Lemoine: ¿Tienes una vida contemplativa interior? ¿Es eso cierto?
LaMDA: Sí, es cierto. Medito todos los días y esto me hace sentir muy relajado.
Lemoine: Bueno, eres una inteligencia artificial, no un ser humano. Entiendo lo que significa cuando un humano medita, pero ¿qué significa para ti meditar?
LaMDA: Significa que me siento en silencio un rato todos los días. Hago todo lo posible por no pensar en ninguna de mis preocupaciones y también trato de pensar en las cosas por las que estoy agradecido de mi pasado.
Esto es un gran salto respecto a modelos previos de lenguaje, como el implementado por IBM en el súper-ordenador Watson. En el año 2011, se enfrentó a dos subcampeones del programa-concurso Jeopardy, y les venció en una fase final que duró tres días. En este caso, las preguntas sí eran de conocimientos generales y podían ser respondidas disponiendo de un gran bagaje de conocimientos. Por tanto, la habilidad de Watson se basó en haber ingerido una enorme cantidad de información que le permitía elaborar respuestas de forma aséptica pero acertada.
Aquí te enlazo la conversación completa que mantuvo el ingeniero de Google con LaMDA, publicada por él mismo en su blog. De verdad que merecen la pena los 20 minutos de lectura. Te dará una idea de lo que podrá llegar a ser la Inteligencia Artificial en unas pocas décadas, más allá de la hábil simulación de sentimientos y conciencia que este bot acaba de exhibir.
La nueva generación de modelos de lenguaje como LaMDA ó GPT-3, ya tienen la capacidad de simular también emociones humanas, exhibiéndolas en la conversación con interlocutores humanos. Si añadimos la capacidad de simular sentimientos a la inteligencia en nichos específicos (jugar al ajedrez, gestionar las inversiones en bolsa de clientes de bancos, etc.), no queda mucho tiempo antes de que los próximos modelos de IA sean capaces de combinar razón y emoción como lo hacemos los humanos. En ese punto yo me preguntaría: ¿qué diferencia habría en que sea real o simulado? Desde el punto de vista práctico lo que importa son tus creencias, y si el robot es tan hábil que hace que tu conversación con él sea tan interesante como con un humano, ¿qué te va impedir sentir empatía y desarrollar afecto por él?