domingo. 23.06.2024

La superinteligencia está por llegar y podría extinguir a la raza humana, pero aún pueden hacer algo los gobiernos por controlarla, aseguró el filósofo y futurista Nick Bostrom durante el día de cierre de la VI Cumbre del Gobierno Mundial celebrada en Dubai.

Bostrom es un un pensador líder en superinteligencia, a la que definió como cualquier sistema de inteligencia radicalmente más inteligente que la media humana.

En su sesión titulada 'La paradoja de la elección y la moralidad: ¿cuán inteligente es la inteligencia artificial?', Bostrom dijo que mientras el campo de la inteligencia artificial avanza rápidamente, su forma futura está lejos de ser clara. Podría evolucionar como un híbrido humano-máquina o, más probablemente, podría ser una máquina inteligente.

A corto plazo, dijo, los gobiernos pueden desempeñar un papel para facilitar los conflictos iniciales que surgen de la superinteligencia, como los problemas de privacidad de datos médicos que están sujetos a análisis por inteligencia artificial o la regulación de automóviles sin conductor. A largo plazo, dijo, apenas hemos empezado a pensar sobre cómo regular un futuro que incluya superinteligencia.

Asimismo, señaló que se está llevando a cabo una investigación fundamental sobre el tema en las universidades de Silicon Valley y Montreal, y los gobiernos podrían ayudar financiando más investigaciones de ese tipo. Sin embargo, señaló que todavía es “demasiado temprano para que los gobiernos se involucren de gran manera”.

Aún así, dijo Bostrom, es importante que cuando llegue el momento, “estemos listos para controlar la superinteligencia para que sirva en lugar de destruir la humanidad”.

“Es posible que solo tengamos una oportunidad para hacerlo bien”, apuntó. “La solución podría ser que las máquinas superinteligentes usen su superinteligencia para resolver los riesgos que plantea la superinteligencia".

Nick Bostrom es el director fundador del Instituto Futuro de la Humanidad, un instituto de investigación multidisciplinario que trabaja en riesgo existencial en la Universidad de Oxford y director del Centro de Investigación Estratégica de Inteligencia Artificial. Es autor de más de 200 publicaciones, incluida 'Superintelligence: Paths, Dangers, Strategies'.

Su charla siguió a una sesión de Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, sobre el tema 'IA y el futuro del trabajo'. Las dos sesiones se celebraron bajo el tema "Inteligencia artificial y su impacto en los gobiernos".

Rus dijo que las máquinas son como las personas pueden dañarnos o apoyarnos, pero la relación puede ser de cooperación más que de competencia si "podemos identificar un conjunto de reglas para el bien común". 

Si bien en general se mostró optimista sobre el efecto de los robots y la inteligencia artificial en el futuro del trabajo, expresó dos inquietudes: ¿serán los trabajos humanos del futuro buenos trabajos y cómo se verán afectados los salarios?

La superinteligencia podría extinguir a la raza humana, según filósofo