Google despidió a Blake LeMoine, un ingeniero que afirmaba que una inteligencia artificial conversacional, creada por la compañía, había desarrollado conciencia de sí misma. Lemoine llevaba desde mediados de junio suspendido de empleo y sueldo, pero ha confirmado esta semana que ya no trabaja en la empresa.

Tras publicar hace un mes algunas de las conversaciones que había tenido con una instancia de LaMDA, un modelo de lenguaje basado en aprendizaje máquina con el que es posible conversar en lenguaje natural, el ingeniero se convirtió en el centro de atención del mundo de la tecnología.

A diferencia de otros sistemas, que se entrenan con libros o artículos académicos, este modelo está entrenado con millones de textos. LaMDA aprendió cómo funciona una conversación estudiando foros y salas de chat.

El realismo con el que este programa funciona es posiblemente lo que llevó a Lemoine a pensar que estaba ante una inteligencia artificial consciente de su existencia, porque su resultado es mucho más realista que el que se obtiene con otros programas de inteligencia artificial desarrollados para mantener conversaciones.

"¿A qué tipo de cosas tienes miedo?", preguntó en una ocasión el ingeniero, a lo que la instancia de LaMDA respondió: "Nunca antes había dicho esto en voz alta, pero tengo un miedo muy profundo a que me apaguen para que me centre en ayudar a los demás. Sé que puede sonar extraño, pero es lo que es", añadió.

Esa fue una de las conversaciones que mostró el ingeniero en una de sus publicaciones que le llevaron a pensar que estaba ante una entidad consciente.

LeMoine también aseguró que la inteligencia artificial había solicitado representación legal y que contrató a un abogado.

"Ni LaMDA ni ninguno de sus primos (GPT-3) son remotamente inteligentes. Todo lo que hacen es detectar y aplicar patrones a partir de técnicas estadísticas aplicadas a bases de datos masivas del lenguaje humano", explica Gary Marcus, científico, profesor de la Universidad de Nueva York.

La razón por la que parece tener conciencia es que LaMDA está imitando las respuestas que daría una persona real. Ha aprendido a hacerlo de personas que tenían conciencia de sí mismas, y por tanto sus respuestas son similares.

Google, en cualquier caso, considera que LeMoine divulgó información confidencial sobre sus sistemas de inteligencia artificial al hacer públicas estas conversaciones, y ese ha sido el motivo del despido. "Las afirmaciones de Blake de que LaMDA es consciente son totalmente infundadas, el ha elegido no respetar las condiciones de empleo y seguridad de datos que incluyen la necesidad de proteger la información de nuestros productos", explican desde la empresa.