El pionero de la IA deja Google para alertar de los riesgos de esa tecnología: “No sabemos qué es real”

Crean la primera “piel electrónica” para que los robots sientan como humanos.
30 abril, 2023
“Que viva la Primera Línea”, la frase de Francia Márquez que desató polémica en el país
2 mayo, 2023

Únete a nuestra comunidad de Telegram comenta, opina, comparte.


  • Geoffrey Hinton, de 71 años, ha sido uno de los padres de la IA. Ahora alerta del enorme peligro que tiene no controlarla

  • Ha dejado su cargo para pedir que se ponga freno a la carrera sin control que se está haciendo con la Inteligencia Artificial

  • Es contrario a aplicarla a gran escala si antes no se controle y se pruebe, tal y como ha asegurado al ‘New York Times”

El científico británico Geoffrey Hinton (75 años) y considerado el “padrino” de la IA (Inteligencia Artificial) ha dejado su trabajo en Google para alertar de los peligros que entrañan esta tecnología si no es usada correctamente y con control.

“No creo que deban ampliar y progresar en esto ( IA ) hasta que hayan entendido si pueden controlarlo”, ha afirmado el científico en una entrevista al New York Times.

Galardonado con prestigiosos premios como el Turing o el Princesa de Asturias, afirma que ya avisó a su ex compañía Google de que se marchaba para poder “hablar de los peligros de la IA” con total libertad. Al menos así lo dijo en su cuenta de Twitter.

Su salida se produce en un momento clave en el que las grandes empresas están desarrollando tecnologías vinculadas a la IA, como el ChatGPT cuyas consecuencias son difíciles de evaluar, no sólo a nivel laboral sino a nivel de desinformación. “Ya no sabemos qué es verdad”, ha afirmado el propio Hinton.

Hasta ahora, el prestigioso informático no se había sumado al manifiesto al que más de 1.200 expertos firmaron en marzo de 2023, en el que pedían un tiempo de seis meses para reflexionar sobre la IA ya que “puede plantear profundos riesgos para la sociedad y la Humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA”, tal y como decía la carta.

Preocupado por que puedan ser más inteligentes que las personas

Hace una década Hinton y dos alumnos suyos de la Universidad de Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una especie de red neuronal artificial que lograba reconocer objetos y analizar miles de fotos, formándose una especie de conciencia. Crearon una empresa que Google compró por 44 millones de dólares, y que ha sido la base del ChatGPT y sistemas similares.

Hinton tiene un sentimiento agridulce. No siente que haya creado un monstruo. Se escuda en que si no hubiera sido él, habría sido otro el que lo hubiera logrado. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho”.

“Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso” Geoffrey Hinton

Además Hinton cree que el fenómeno de la IA está avanzando de una manera acelerada. ” Algunas personas creían que estas cosas podrían volverse más inteligentes que las personas”, afirmó. “Yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, sostiene el prestigioso científico.

La desinformación, el gran peligro

A Hinton le preocupa “la verdad”, que la mayor parte de la mayor parte de la población “ya no sea capaz de saber qué es verdad”. Algo que se va a complicar mucho más con la aceleración de la IA. Las llamadas deepfakes, fotos, imágenes, vídeos o textos falsos que nos engañarán sin posibilidad de saber qué es real o no.

Alerta de que estos sistemas pueden quitar mucho más que los puestos de trabajo. “Es difícil ver cómo se puede evitar que los ‘malos’ lo usen para cosas malas”, aseguró Hinton. Por ejemplo le asusta que la IA pueda no solo programarse a sí misma, sino ejecutar esos programas y por ejemplo terminar teniendo y usando armas autónomas como el accionar de armas nucleares. Por eso pide tiempo para pensar y reflexionar.

“Dios digital”

A pesar de las garantías de Google, otros han criticado los métodos de la empresa.

En una entrevista reciente con Fox News, el director ejecutivo de Tesla, Elon Musk —que también cofundó OpenAI— dijo que le parecía que Larry Page, cofundador de Google, no se estaba tomando en serio los riesgos de la IA.

“Realmente parecía querer una superinteligencia digital, básicamente un Dios digital, lo antes posible”, dijo Musk, refiriéndose a las conversaciones que ha mantenido con Page sobre el asunto.

“Ha hecho muchas declaraciones públicas a lo largo de los años diciendo que el objetivo de Google es lo que se llama AGI, inteligencia general artificial, o superinteligencia artificial”, señaló. “Estoy de acuerdo con él en que hay un gran potencial para lo bueno, pero también para lo malo”.

Musk, que firmó la carta de Future of Life Institute, ha manifestado abiertamente su preocupación por la IA en general, sosteniendo que supone un grave riesgo para la civilización humana.

“La IA es quizá más peligrosa que, por ejemplo, un diseño de avión mal gestionado, o el mantenimiento de la producción, o una mala producción de coches, en el sentido de que tiene el potencial —por pequeña que sea la probabilidad que se considere, pero no es trivial— de destruir la civilización”, declaró a Fox News.

Otro temor que Musk reveló, es la preocupación de que la IA esté siendo entrenada en la corrección política, que según él no es más que una forma de engaño y de “decir cosas falsas”.

¿Qué opinas respecto a la AI, estás de acuerdo o en contra?

Únete a nuestra comunidad de Telegram comenta, opina, comparte.


¡Comparte éste artículo!

Comments are closed.

1
Tienes un mensaje
El Kombo Oficial®
¡Hola!
Gracias por visitar nuestro sitio web, si quieres opinar en nuestros temas del día, puedes hacerlo también desde Telegram, haz click en el ícono azul.
G-Y0L9RZ85NL