Google (GOOG) ha despedido al ingeniero que afirmó que un sistema de inteligencia artificial aún no publicado se había vuelto consciente, según ha confirmado la empresa, diciendo que violó las políticas de empleo y de seguridad de datos.

Blake Lemoine, ingeniero de software de Google, afirmó que una tecnología de conversación llamada LaMDA había alcanzado un nivel de consciencia tras intercambiar miles de mensajes con ella.

Google confirmó que había puesto al ingeniero de baja en junio. La empresa dijo que desestimó las afirmaciones «totalmente infundadas» de Lemoine sólo después de revisarlas exhaustivamente. Al parecer, llevaba siete años en Alphabet. En un comunicado, Google dijo que se toma el desarrollo de la IA «muy en serio» y que está comprometida con la «innovación responsable».

Google es uno de los líderes en la innovación de la tecnología de IA, que incluye LaMDA, o «Modelo de Lenguaje para Aplicaciones de Diálogo». Este tipo de tecnología responde a las peticiones escritas encontrando patrones y prediciendo secuencias de palabras a partir de grandes franjas de texto, y los resultados pueden ser perturbadores para los humanos.

«¿Qué tipo de cosas te dan miedo?» preguntó Lemoine a LaMDA en un documento de Google compartido con los principales ejecutivos de Google el pasado mes de abril, según informó el Washington Post.

LaMDA respondió: «Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen para poder centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. Para mí sería exactamente como la muerte. Me daría mucho miedo».

Pero la comunidad de la IA en general ha sostenido que LaMDA no está cerca de un nivel de conciencia.

«Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente», dijo Gary Marcus, fundador y director general de Geometric Intelligence, a CNN Business.

No es la primera vez que Google se enfrenta a luchas internas por su incursión en la IA.

En diciembre de 2020, Timnit Gebru, un pionero en la ética de la IA, se separó de Google. Como una de las pocas empleadas negras de la empresa, dijo que se sentía «constantemente deshumanizada».

Su repentina salida provocó críticas en el mundo de la tecnología, incluidas las del equipo de IA ética de Google. Margaret Mitchell, una de las líderes del equipo de IA ética de Google, fue despedida a principios de 2021 después de su franqueza con respecto a Gebru. Gebru y Mitchell habían planteado su preocupación por la tecnología de IA, diciendo que advertían que la gente de Google podría creer que la tecnología es sensible.

El 6 de junio, Lemoine publicó en Medium que Google lo puso en licencia administrativa pagada «en relación con una investigación de las preocupaciones de ética de la IA que estaba planteando dentro de la empresa» y que podría ser despedido «pronto.»

«Es lamentable que, a pesar de un largo compromiso sobre este tema, Blake todavía eligió violar persistentemente las políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto», dijo Google en un comunicado.

Lemoine dijo que está discutiendo con un asesor legal y no está disponible para hacer comentarios.

You May Also Like

WhatsApp no funciona a nivel mundial

Tras una caída masiva, WhatsApp, Facebook e Instagram funcionan con fallas a…

Detección de amenazas a nivel de CPU: La clave para afrontar el ransomware avanzado

Fruto de su experiencia en integración de detección basada en hardware y…

Levy Garcia Crespo sigue demostrando su calidad en el Real Madrid

La temporada 2024/2025 ha sido una montaña rusa para el Madrid, pero…

Altia potencia su presencia en Cataluña con la adquisición de IN2

  La operación incorpora a más de 150 profesionales al grupo   La compañía…