Únete a nuestra comunidad de Telegram comenta, opina, comparte.
El científico británico Geoffrey Hinton (75 años) y considerado el “padrino” de la IA (Inteligencia Artificial) ha dejado su trabajo en Google para alertar de los peligros que entrañan esta tecnología si no es usada correctamente y con control.
“No creo que deban ampliar y progresar en esto ( IA ) hasta que hayan entendido si pueden controlarlo”, ha afirmado el científico en una entrevista al New York Times.
Galardonado con prestigiosos premios como el Turing o el Princesa de Asturias, afirma que ya avisó a su ex compañía Google de que se marchaba para poder “hablar de los peligros de la IA” con total libertad. Al menos así lo dijo en su cuenta de Twitter.
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
Su salida se produce en un momento clave en el que las grandes empresas están desarrollando tecnologías vinculadas a la IA, como el ChatGPT cuyas consecuencias son difíciles de evaluar, no sólo a nivel laboral sino a nivel de desinformación. “Ya no sabemos qué es verdad”, ha afirmado el propio Hinton.
Hasta ahora, el prestigioso informático no se había sumado al manifiesto al que más de 1.200 expertos firmaron en marzo de 2023, en el que pedían un tiempo de seis meses para reflexionar sobre la IA ya que “puede plantear profundos riesgos para la sociedad y la Humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA”, tal y como decía la carta.
Hace una década Hinton y dos alumnos suyos de la Universidad de Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una especie de red neuronal artificial que lograba reconocer objetos y analizar miles de fotos, formándose una especie de conciencia. Crearon una empresa que Google compró por 44 millones de dólares, y que ha sido la base del ChatGPT y sistemas similares.
Hinton tiene un sentimiento agridulce. No siente que haya creado un monstruo. Se escuda en que si no hubiera sido él, habría sido otro el que lo hubiera logrado. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho”.
“Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso” Geoffrey Hinton
Además Hinton cree que el fenómeno de la IA está avanzando de una manera acelerada. ” Algunas personas creían que estas cosas podrían volverse más inteligentes que las personas”, afirmó. “Yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, sostiene el prestigioso científico.
A Hinton le preocupa “la verdad”, que la mayor parte de la mayor parte de la población “ya no sea capaz de saber qué es verdad”. Algo que se va a complicar mucho más con la aceleración de la IA. Las llamadas deepfakes, fotos, imágenes, vídeos o textos falsos que nos engañarán sin posibilidad de saber qué es real o no.
Alerta de que estos sistemas pueden quitar mucho más que los puestos de trabajo. “Es difícil ver cómo se puede evitar que los ‘malos’ lo usen para cosas malas”, aseguró Hinton. Por ejemplo le asusta que la IA pueda no solo programarse a sí misma, sino ejecutar esos programas y por ejemplo terminar teniendo y usando armas autónomas como el accionar de armas nucleares. Por eso pide tiempo para pensar y reflexionar.
A pesar de las garantías de Google, otros han criticado los métodos de la empresa.
En una entrevista reciente con Fox News, el director ejecutivo de Tesla, Elon Musk —que también cofundó OpenAI— dijo que le parecía que Larry Page, cofundador de Google, no se estaba tomando en serio los riesgos de la IA.
“Realmente parecía querer una superinteligencia digital, básicamente un Dios digital, lo antes posible”, dijo Musk, refiriéndose a las conversaciones que ha mantenido con Page sobre el asunto.
“Ha hecho muchas declaraciones públicas a lo largo de los años diciendo que el objetivo de Google es lo que se llama AGI, inteligencia general artificial, o superinteligencia artificial”, señaló. “Estoy de acuerdo con él en que hay un gran potencial para lo bueno, pero también para lo malo”.
Musk, que firmó la carta de Future of Life Institute, ha manifestado abiertamente su preocupación por la IA en general, sosteniendo que supone un grave riesgo para la civilización humana.
“La IA es quizá más peligrosa que, por ejemplo, un diseño de avión mal gestionado, o el mantenimiento de la producción, o una mala producción de coches, en el sentido de que tiene el potencial —por pequeña que sea la probabilidad que se considere, pero no es trivial— de destruir la civilización”, declaró a Fox News.
Otro temor que Musk reveló, es la preocupación de que la IA esté siendo entrenada en la corrección política, que según él no es más que una forma de engaño y de “decir cosas falsas”.
Únete a nuestra comunidad de Telegram comenta, opina, comparte.