Fundado en 1910

23 de julio de 2024

Elon Musk se ha planteado si debe dejar Twitter

Elon Musk se ha planteado si debe dejar TwitterAFP

Seis meses

Musk, Wozniak y cientos de expertos firman una histórica petición para frenar la inteligencia artificial

Aseguran que «representa un cambio profundo en la historia de la vida en la Tierra»

Elon Musk y cientos de expertos mundiales firmaron una carta para hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir de «grandes riesgos para la humanidad».

En la petición publicada en el sitio futureoflife.org, piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que causará la IA».

Temores

La firman personalidades que han expresados sus temores sobre una IA incontrolable que supere a los humanos, como Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Hariri.

El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener «un poco de miedo» de que su creación se utilice para «desinformación a gran escala o ciberataques».

«La empresa necesita tiempo para adaptarse», declaró recientemente a ABCNews.

Piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras

«En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable», afirman.

Máquinas

«¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos», concluyeron.

Entre los firmantes figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

Comentarios
tracking