El CEO de OpenAI no descarta que acabemos viendo una inteligencia artificial que "dé miedo". Y da la clave para evitarlo
By Marcos Merino
Ante la avalancha de avances, hasta hace nada impensables, que hemos experimentado en los últimos meses en el campo de la inteligencia artificial, es más que comprensible que mucha gente empiece a preocuparse por el potencial destructivo que esta tecnología pueda alcanzar en un futuro cercano. Y no hace falta que pensemos en topicazos de ciencia ficción como Skynet o las máquinas de Matrix para justificar esa preocupación.
De hecho, no hace falta ni siquiera desconfiar de la tecnología para ello. La prueba de eso está en que el propio Sam Altman, CEO (y fundador, justo a Elon Musk) de OpenAI, la empresa desarrolladora de DALL-E 2 y ChatGPT, también se ha mostrado preocupado en estos días en Twitter.
El pasado domingo, de hecho, publicó un breve hilo en dicha red social en el que reflexionaba sobre cómo se adaptará la sociedad a la evolución de la IA a corto/medio plazo. La compara explícitamente con la transición al mundo post-smartphone y afirma que:
"La adaptación a un mundo profundamente integrado con herramientas de IA probablemente ocurrirá con bastante rapidez; los beneficios (¡y la diversión!) son demasiados".
Entre dichos beneficios, Altman menciona que nos ayudarán a ser más productivos ("¡no puedo esperar para pasar menos tiempo con el correo electrónico!"), más saludables ("asesores médicos de IA para personas que no pueden pagar la atención [sanitaria]"), más inteligentes ("estudiantes que usan ChatGPT para aprender") o más "entretenidos".
"El nivel de empoderamiento individual que se avecina es maravilloso, pero no exento de serios desafíos". Y es que Altman advierte contra la tentación de ir "demasiado rápido" que considera "aterradora", pues "la sociedad necesita tiempo para adaptarse a algo tan grande".
Desde ese punto de vista, Altman defiende la importancia de hacer lo que está haciendo OpenAI: "mostrar estas herramientas al mundo desde el principio, aunque todavía estén un poco rotas" (en referencia a problemas como los sesgos políticos -"estamos trabajando en ello ahora"- o las respuestas inquietantes de los chatbots).
Los peligros de exagerar
Curiosamente, el punto de vista de OpenAI era radicalmente el contrario hace sólo cuatro años, cuando presentaron GPT-2 (un antecesor del modelo de lenguaje en que se basa ChatGPT), y decidieron lanzar sólo una versión 'censurada' ante el supuesto peligro que representaba en términos de creación masiva de 'fake news'.
Ya entonces Anima Anandkumar, directora de investigación de Nvidia, consideraba "lamentable" que OpenAI "exagere, propague el miedo y desbarate la reproducibilidad de resultados".
Dejando de lado esa pasada polémica, lo más relevante del hilo de Altman llega al final del mismo;
"También necesitamos suficiente tiempo para que nuestras instituciones averigüen qué hacer: la regulación será algo fundamental y llevará tiempo averiguar [cómo plantearla]; aunque las herramientas de IA de la generación actual no dan mucho miedo, creo que potencialmente no estamos tan lejos de presenciar alguna que pueda resultar atemorizante".
"Tener tiempo para comprender lo que está sucediendo, cómo la gente quiere usar estas herramientas y cómo la sociedad puede coevolucionar es fundamental", esa es la conclusión final del CEO de OpenAI. Aunque, para sorpresa de nadie, muchos usuarios y medios parecen haberse quedado sólo con la previsión de que Skynet está por llegar.
-
La noticia El CEO de OpenAI no descarta que acabemos viendo una inteligencia artificial que "dé miedo". Y da la clave para evitarlo fue publicada originalmente en Genbeta por Marcos Merino .
February 22, 2023 at 08:40AM
SIGUENOS EN FACEBOOK: https://ift.tt/F5UAfk8
SIGUENOS EN TWITTER: https://twitter.com/Techinford
via Genbeta https://ift.tt/u3ZFedJ
Comentarios
Publicar un comentario