El debate sobre si la inteligencia artificial podría llegar a tener sentimientos propios está de nuevo en el centro de la polémica. El artífice de ello es un ingeniero de Google, Blake Lemoine, quien está poniendo, de nuevo, el tema sobre la mesa.
Él reveló al diario The Washington Post estar convencido de que un chatbot podría tener sentimientos. Esto porque llevó adelante una charla con LaMDA (Language Model for Dialogue Applications), una herramienta de Mountain View que es capaz de entablar temas abiertos, mismos que suenan naturales. En principio, Google la quiere utilizar en herramientas como búsqueda de información y para su asistente.
Sin embargo, la polémica se desató tras darse a conocer la conversación que tuvo el ingeniero de 41 años de edad, quien también es sacerdote cristiano, y esta plataforma. Incluso, comentó con sus compañeros esta idea de que la inteligencia artificial estaría desarrollando sentimientos.
Algo que Google ha rechazado y afirmó que no hay información concluyente para realizar dicha afirmación. Aunque en la charla sostenida con el chatbot llega a hablar de aquellas situaciones difíciles que lo hacen sentirse mal.
Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le han informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra), comentó Brian Gabriel, portavoz de Google, en diálogo con The Post.
En algún momento LaMDA aseguró que sentirse atrapado, solo y no tener forma de salir de ciertas circunstancias llevan a uno a sentirse triste, deprimido o enojado.
También hablaron de temas como la religión, la felicidad, el futuro, la muerte o la humanidad. En cierto punto, Lemoine le pregunta cómo puede demostrarle que tiene conciencia y la inteligencia artificial realiza varias comparaciones en donde involucra sus sentimientos y emociones.
Siento que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro, dijo. La conversación completa, publicada en un blog de Medium, resalta que LaMDA dice sentirse una persona y ser consciente" de su existencia.
Si bien esto podría parecer muy revelador, Google aseguró al mismo diario que las evidencias no respaldan las afirmaciones de Blake Lemoine. Es mucho más plausible pensar que un sistema que tiene acceso a tanta información pueda reconstruir fácilmente respuestas que parecen humanas, sin saber lo que significa o sin pensar por sí mismo.
Pero es un hecho que genera mucha controversia sobre hasta dónde podría desarrollar pensamientos y sentimientos propios la inteligencia artificial. Hace unos años, Mark Zuckerberg y Elon Musk entablaron un debate público sobre el tema, ya el fundador de Tesla ha dicho en varias ocasiones que esta tecnología es un peligro, y que los humanos podrían acabar como mascotas de un robot.
*Con información de Forbes México