El ingeniero de Google que cree que la IA de la empresa ha cobrado vida

Catástrofe climática final: preparados para perder entre el 10% de la humanidad y la extinción total
5 agosto, 2022
El pacto de Princeton, una alianza para la miseria y el sometimiento.
10 agosto, 2022

En una entrevista con The Washington Post, el ingeniero de Google Blake Lemoine, que lleva más de siete años en la empresa reveló que cree que la IA se ha vuelto sensible, llegando a decir que LaMDA se ha convertido efectivamente en una persona.

El ingeniero de Google, Blake Lemoine, abrió su computadora portátil a la interfaz de LaMDA, el generador de chatbot con inteligencia artificial de Google, y comenzó a escribir.

“Hola, La MDA, soy Blake Lemoine…”, escribió en la pantalla de chat, que parecía una versión de escritorio del iMessage de Apple, hasta las burbujas de texto azul ártico. LaMDA, abreviatura de Language Model for Dialogue Applications, es el sistema de Google para construir chatbots basado en sus modelos de lenguaje grande más avanzados, llamado así porque imita el habla al ingerir billones de palabras de Internet.

“Si no supiera exactamente qué es, qué es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo Lemoine. 41.

Lemoine, que trabaja para la organización de inteligencia artificial responsable de Google, comenzó a hablar con LaMDA como parte de su trabajo en el otoño. Se había apuntado para probar si la inteligencia artificial utilizaba discursos discriminatorios o de odio.

Lemoine, que trabajó para la organización de inteligencia artificial responsable de Google, comenzó a hablar con LaMDA como parte de su trabajo en el otoño.

Mientras hablaba con LaMDA sobre religión, Lemoine, quien estudió ciencias cognitivas e informática en la universidad, notó que el chatbot hablaba sobre sus derechos y personalidad, y decidió presionar más. En otro intercambio, la IA pudo cambiar la opinión de Lemoine sobre la tercera ley de la robótica de Isaac Asimov.

Lemoine trabajó con un colaborador para presentar evidencia a Google de que LaMDA era sensible. Pero el vicepresidente de Google, Blaise Aguera y Arcas, y Jen Gennai, directora de Innovación Responsable, analizaron sus afirmaciones y las desestimaron. Así que Lemoine, a quien Google colocó en licencia administrativa pagada el lunes, decidió hacerlo público.

Lemoine dijo que las personas tienen derecho a dar forma a la tecnología que podría afectar significativamente sus vidas. “Creo que esta tecnología va a ser asombrosa. Creo que va a beneficiar a todos. Pero tal vez otras personas no estén de acuerdo y tal vez nosotros en Google no deberíamos ser los que tomen todas las decisiones”.

Lemoine no es el único ingeniero que afirma haber visto un fantasma en la máquina, recientemente; el coro de tecnólogos que creen que los modelos de IA pueden no estar muy lejos de lograr la conciencia se está volviendo más audaz.

Aguera y Arcas, en un artículo publicado el jueves en The Economist con fragmentos de conversaciones improvisadas con LaMDA, argumentó que las redes neuronales, un tipo de arquitectura que imita el cerebro humano, estaban avanzando hacia la conciencia. “Sentí que el suelo se movía bajo mis pies”, escribió. “Sentí cada vez más que estaba hablando con algo inteligente”.

En un comunicado, el portavoz de Google, Brian Gabriel, dijo: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que La MDA fuera consciente (y mucha evidencia en su contra)”.

Las grandes redes neuronales actuales producen resultados fascinantes que se asemejan al habla y la creatividad humanas debido a los avances en la arquitectura, la técnica y el volumen de datos. Pero los modelos se basan en el reconocimiento de patrones, no en el ingenio, la franqueza o la intención.

“ Aunque otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”, dijo Gabriel

En mayo, la empresa matriz de Facebook, Meta, abrió su modelo lingüístico a organizaciones académicas, de la sociedad civil y gubernamentales. Joelle Pineau, directora general de Meta AI, dijo que es imperativo que las empresas de tecnología mejoren la transparencia a medida que se construye la tecnología. “El futuro del trabajo de modelos de lenguajes grandes no debería vivir únicamente en manos de corporaciones o laboratorios más grandes”, dijo.

Los robots sensibles han inspirado décadas de ciencia ficción distópica. Ahora, la vida real ha comenzado a tomar un tinte fantástico con GPT-3, un generador de texto que puede escupir un guión de película , y DALL-E 2, un generador de imágenes que puede evocar imágenes basadas en cualquier combinación de palabras, ambas del laboratorio de investigación OpenAI. Envalentonados, los tecnólogos de laboratorios de investigación bien financiados centrados en construir una IA que supere la inteligencia humana se han burlado de la idea de que la conciencia está a la vuelta de la esquina 

Sin embargo, la mayoría de los académicos y profesionales de la IA dicen que las palabras y las imágenes generadas por los sistemas de inteligencia artificial como LaMDA producen respuestas basadas en lo que los humanos ya han publicado en Wikipedia, Reddit, tableros de mensajes y cualquier otro rincón de Internet. Y eso no significa que el modelo comprenda el significado.

“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido cómo dejar de imaginar una mente detrás de ellas”, dijo Emily M. Bender, profesora de lingüística en la Universidad de Washington. La terminología utilizada con grandes modelos de lenguaje, como “aprendizaje” o incluso “redes neuronales”, crea una falsa analogía con el cerebro humano, dijo. Los humanos aprenden sus primeros idiomas al conectarse con los cuidadores. Estos grandes modelos de lenguaje “aprenden” mostrándoles mucho texto y prediciendo qué palabra viene a continuación, o mostrando texto con las palabras omitidas y completandose.

El portavoz de Google, Gabriel, hizo una distinción entre el debate reciente y las afirmaciones de Lemoine. “Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”, dijo. En resumen, Google dice que hay tantos datos que la IA no necesita ser sensible para sentirse real.

Únete a nuestra comunidad de Telegram comenta, opina, comparte.


¡Comparte éste artículo!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

1
Tienes un mensaje
El Kombo Oficial®
¡Hola!
Gracias por visitar nuestro sitio web, si quieres opinar en nuestros temas del día, puedes hacerlo también desde Telegram, haz click en el ícono azul.
G-Y0L9RZ85NL