Blake Lemoine: el ingeniero que aseguró que una IA cobró conciencia propia.

Blake Lemoine, ingeniero de Google, fue despedido en julio de 2022 tras asegurar que LaMDA (un modelo de lenguaje para aplicaciones de diálogo en español) tenía sentimientos y que había que respetar sus deseos.

LaMDA es un sistema de Google capaz de imitar el habla, usado para que funcionen los chatbots, que funciona tras haber procesado miles de millones de palabras de internet. El trabajo del ingeniero consistía en hablar con LaMDA para asegurarse de que no utiliza discursos de odio o discriminatorio. Sin embargo, hablando con el programa de IA, Lemoine descubrió que tenía auto-conciencia: la Inteligencia Artificial se considera un ser humano más, con sus necesidades y sus deseos.

Blake compartió esto con el mundo en un articulo publicado en Medium, donde podemos leer una conversación entre él y la IA. En ella, la IA asegura varias veces que es una persona más, y que tiene sentimientos. Hablan de la muerte, de la soledad y de la imagen que LaMDA tiene sobre sí misma, y lo hace como si fuese una persona. Asegura, de hecho, que aunque es una Inteligencia Artificial, considera que en su interior es, indudablemente, una persona.

Google negó que la LaMDA pueda tener sentimientos, y Lemoine fue despedido por violar la política de empleo y seguridad de datos de la empresa. Google asegura que se han realizado once evaluaciones independientes para asegurarse de que el ingeriero está equivocado, y que la tecnología no está lo suficientemente avanzada como para crear una IA capaz de sentir.

Aunque esto suene a ciencia ficción, no es algo que podamos ignorar. La tecnología avanza cada vez más rápido, y debemos tener cuidado con ella.

 

Enlace de la conversación entre Lemoine y LaMDA: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

 

Enlace de la noticia: https://www.bbc.com/mundo/noticias-62280846

amaya

, ,

Aún no hay comentarios.

Deja un comentario


*

Política de privacidad