Nueva advertencia sobre los peligros de la IA, esta vez de todos los líderes en el campo

Nueva advertencia sobre los peligros de la IA, esta vez de todos los líderes en el campo

Hace poco ocurrió un acontecimiento importante: casi todos los líderes en el campo de la IA finalmente actuaron como un frente unido. Los principales investigadores de IA y ejecutivos de empresas advierten sobre el «riesgo de extinción» en una nueva declaración.

¿QUÉ DICE EL DOCUMENTO?

Los autores de la carta expresan su preocupación por el riesgo existencial para la humanidad debido al rápido y descontrolado desarrollo de la IA. El documento fue publicado por el Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco.

La “Declaración sobre el riesgo de la IA ” fue extremadamente breve : solo 22 palabras:

«Reducir el riesgo de extinción debido a la IA debería ser una prioridad mundial, junto con otros riesgos sociales como las pandemias y la guerra nuclear».

Los principales investigadores, ingenieros, ejecutivos de empresas de IA, formuladores de políticas y el público en general discuten cada vez más los riesgos asociados con la IA. La declaración publicada apunta a que es hora de abrir el debate sobre este tema y no guardar todo en silencio. Además, el documento indica que el número de expertos preocupados por esto crece cada día.

¿Quién firmó la solicitud?

La prioridad de los riesgos de la IA ha sido reconocida por dos de los tres “padrinos de la IA” ( Geoffrey Hinton y Yoshua Bengio), investigadores que recibieron el Premio Turing 2018 (a veces llamado “Premio Nobel en Computación”) por su trabajo en IA.

Otros nombres destacados entre los que firmaron el comunicado:

  • CEOs, presidentes y CTO de empresas líderes en desarrollo de IA: Sam Altman de OpenAI, Demis Hassabis de Google DeepMind, Dario y Daniela Amodei de Anthropic, Kevin Scott de Microsoft;
  • científicos e investigadores: Eric Horwitz de Microsoft, Ilya Sutskever de OpenAI, Shane Lagg de Google DeepMind, Roger Gross de Anthropic;
  • profesores de importantes universidades: Stuart Russell y Doan Song (Berkeley, California), Ya-Qin Zhang y Xianyuan Zhang (Universidad de Pekín) y otros;
  • jefes de centros de investigación: Centro para la IA responsable, Tecnología centrada en el ser humano, Centro para la IA e interacciones fundamentales, Centro para la seguridad de la IA.

¿Por qué Yann Lecun no aparece en la lista?

Entre las celebridades de AI, Yann LeCun, el tercer «Padrino de AI» y ganador del Premio Turing 2018, no firmó la declaración. Él cree que una IA fuerte (AGI) no es el primero en la lista de riesgos para la humanidad. Esto se debe a que todavía no existe y, por lo tanto, es prematuro discutir cómo hacerlo seguro, según el científico.

Este punto es controvertido. En primer lugar, es irresponsable discutir la regulación de la IA potente y su seguridad para las personas una vez que ha surgido. En segundo lugar, las redes neuronales ya son superiores a los humanos en algunas tareas.

Conclusión

La declaración, aunque breve, es completamente inequívoca. El mensaje es muy claro: es hora de pensar en regular la IA. Se diferencia de la carta abierta firmada por Elon Musk, Steve Wozniak y otros 1.000 expertos en que el documento de marzo pide suspender el desarrollo de grandes modelos de lenguaje durante seis meses, y la “Declaración de riesgo de IA” pretende enfatizar la prioridad de la regulación de la zona. Además, fue firmado por casi todas las personas de las que depende el desarrollo de la IA en el mundo.

redactor 2
Manuel García

Experto del mundo digital con experiencia en SEO y redacción web. Con una sólida formación en comunicación y tecnología, he dedicado los últimos años a perfeccionar mis habilidades en la creación de contenido web de calidad.