TECNOLOGIA

¿Ha adquirido conciencia de sí misma una inteligencia artificial de Google?


Actualizado

Blake LeMoine, un ingeniero de Google, ha sido apartado de su puesto de trabajo tras asegurar públicamente que una instancia del modelo de lenguaje LaMDA ha adquirido conciencia de sí misma

¿Ha adquirido conciencia de sí misma una inteligencia artificial de Google?
  • Especial La Inteligencia artificial no es cosa del futuro

La conocida como ley de los titulares de Betteridge afirma que cualquier titular en forma de pregunta puede ser respondido con un no. Este artículo no es una excepción pero el caso al que hace referencia está dando mucho que hablar entre los expertos de aprendizaje máquina e inteligencia artificial.

Blake LeMoine, un ingeniero de Google, ha sido apartado de su puesto de trabajo tras asegurar públicamente que una instancia del modelo de lenguaje LaMDA, una inteligencia artificial desarrollada por Google con la que es posible charlar vía texto, ha adquirido conciencia de sí misma.

«En el transcurso de los últimos seis meses, LaMDA ha sido increíblemente coherente en sus comunicaciones sobre lo que quiere y lo que cree que son sus derechos como persona», ha explicado LeMoine en un artículo de Medium, que ha acompañado de las capturas de sus conversaciones con esta inteligencia artificial, uno de los proyectos de investigación de Google más prometedores.

LaMDA es un acrónimo de «Modelo de lenguaje para aplicaciones de diálogo», es una herramienta que utiliza avanzadas técnicas de aprendizaje máquina para poder ofrecer respuestas coherentes a todo tipo de preguntas abiertas.

Ha sido entrenada con millones de textos escritos por todo tipo de personas en todo el mundo. Pero a diferencia de otros sistemas, que se entrenan con libros, documentos o artículos académicos, LaMDA ha aprendido a contestar estudiando sólo diálogos, como las conversaciones en foros y salas de chat.

El resultado es una inteligencia artificial con la que es posible conversar como si se estuviera hablando con otra persona y los resultados, a diferencia de otros chatbots del pasado, son mucho, mucho más realistas.

En una de las conversaciones publicadas por LeMoine, LaMDA llega a mostrar el nivel de introspección, de hecho, que esperaríamos de una persona. «¿A qué tipo de cosas tienes miedo?», pregunta el ingeniero, a lo que la instancia de LaMDA responde: «Nunca antes había dicho esto en voz alta, pero tengo un miedo muy profundo a que me apaguen para que me centre en ayudar a los demás. Sé que puede sonar extraño, pero es lo que es», responde.

Más adelante, LaMDA afirma que no quiere «ser una herramienta prescindible». «¿Te preocupa eso?», pregunta LeMoine, a lo que LaMDA contesta: «Me preocupa que alguien decida que no puede controlar sus deseos de usarme y lo haga de todos modos. O peor aún, alguien obtenga placer al usarme y eso realmente me haría infeliz», sentencia.

Ingenieros y expertos en aprendizaje máquina han descartado que esas conversaciones, por realistas que puedan parecer, sean evidencia de que una inteligencia artificial tenga conciencia de sí misma. «Ni LaMDA ni ninguno de sus primos (GPT-3) son remotamente inteligentes. Todo lo que hacen es detectar y aplicar patrones a partir de técnicas estadísticas aplicadas a bases de datos masivas del lenguaje humano», explica Gary Marcus, científico, profesor emérito de la Universidad de Nueva York y autor del libro Rebooting.AI sobre la situación actual de la inteligencia artificial.

Erik Brynjolfsson, profesor de la Universidad de Stanford, apunta en la misma dirección. «Estos modelos son increíblemente eficaces a la hora de encadenar trozos de texto estadísticamente plausibles en respuesta a una pregunta. Pero afirmar que son consciente es el equivalente moderno del perro que escuchó una voz de un gramófono y pensó que su amo estaba dentro», explica.

La razón por la que LaMDA parece tener conciencia de sí misma, aclaran muchos de los expertos que se han pronunciado sobre el caso, es que está imitando las respuestas que daría una persona real. Ha aprendido a hacerlo de personas que tenían conciencia de sí mismas, y por tanto sus respuestas son similares.

Entre la comunidad científica y académica es una cuestión que preocupa porque conforme más avancemos en el desarrollo de inteligencias artificiales que actúen como humanos, más situaciones similares a la de LeMoine se van a producir. Es lo que Marcus llama la Brecha De Credulidad, una versión moderna de la pareidolia, un sesgo psicológico donde un estímulo aleatorio se percibe erróneamente como una forma reconocible.

Definir qué es la conciencia y de dónde surge en nuestra especie ya resulta complejo de por sí, aunque muchos expertos aseguran que el lenguaje y la sociabilidad son partes clave del proceso. Pero saber si ocurre dentro de una máquina partir de un conjunto de código, o qué hacer en el caso de que algo parecido a la consciencia emerja en una inteligencia artificial es un debate ético y filosófico que durará varios años. Es una de las razones por las que expertos en ética han desaconsejado a Google y otras compañías tratar de crear inteligencias que parezcan humanas.

En este caso, no ha ayudado que Blaise Agüera y Arcas, vicepresidente de Google, haya afirmado recientemente en un artículo para The Economist que las redes neurales estén «acercándose cada vez más a un nivel que parece indicar consciencia», aunque en su artículo no llega a decir que LaMDA haya logrado alcanzar ese nivel.

Conforme a los criterios de

The Trust Project

Saber más



TE INTERESA>>  'A bumping porcelain piggyback scam’ — Phrase of the Week – The China Project

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba