Lemoine no es el único ingeniero que afirma haber visto un fantasma en la máquina, recientemente; el coro de tecnólogos que creen que los modelos de IA pueden no estar muy lejos de lograr la conciencia se está volviendo más audaz.
Las grandes redes neuronales actuales producen resultados fascinantes que se asemejan al habla y la creatividad humanas debido a los avances en la arquitectura, la técnica y el volumen de datos. Pero los modelos se basan en el reconocimiento de patrones, no en el ingenio, la franqueza o la intención.
“ Aunque otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”, dijo Gabriel
En mayo, la empresa matriz de Facebook, Meta, abrió su modelo lingüístico a organizaciones académicas, de la sociedad civil y gubernamentales. Joelle Pineau, directora general de Meta AI, dijo que es imperativo que las empresas de tecnología mejoren la transparencia a medida que se construye la tecnología. “El futuro del trabajo de modelos de lenguajes grandes no debería vivir únicamente en manos de corporaciones o laboratorios más grandes”, dijo.
Los robots sensibles han inspirado décadas de ciencia ficción distópica. Ahora, la vida real ha comenzado a tomar un tinte fantástico con GPT-3, un generador de texto que puede escupir un guión de película , y DALL-E 2, un generador de imágenes que puede evocar imágenes basadas en cualquier combinación de palabras, ambas del laboratorio de investigación OpenAI. Envalentonados, los tecnólogos de laboratorios de investigación bien financiados centrados en construir una IA que supere la inteligencia humana se han burlado de la idea de que la conciencia está a la vuelta de la esquina
Sin embargo, la mayoría de los académicos y profesionales de la IA dicen que las palabras y las imágenes generadas por los sistemas de inteligencia artificial como LaMDA producen respuestas basadas en lo que los humanos ya han publicado en Wikipedia, Reddit, tableros de mensajes y cualquier otro rincón de Internet. Y eso no significa que el modelo comprenda el significado.
“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido cómo dejar de imaginar una mente detrás de ellas”, dijo Emily M. Bender, profesora de lingüística en la Universidad de Washington. La terminología utilizada con grandes modelos de lenguaje, como “aprendizaje” o incluso “redes neuronales”, crea una falsa analogía con el cerebro humano, dijo. Los humanos aprenden sus primeros idiomas al conectarse con los cuidadores. Estos grandes modelos de lenguaje “aprenden” mostrándoles mucho texto y prediciendo qué palabra viene a continuación, o mostrando texto con las palabras omitidas y completandose.
El portavoz de Google, Gabriel, hizo una distinción entre el debate reciente y las afirmaciones de Lemoine. “Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”, dijo. En resumen, Google dice que hay tantos datos que la IA no necesita ser sensible para sentirse real.