Elon Musk alertó que en unos “cinco o seis años” surgirá una “superinteligencia” artificial, la cual será capaz de superar a cualquier ser humano en cualquier disciplina.
“Eso no significa necesariamente que sea más inteligente que la suma de todos los humanos”, dijo el magnate durante un evento en Twitter junto a dos congresistas estadounidenses, el representante demócrata por California Ro Khanna y el representante republicano por Wisconsin Mike Gallagher.
Este evento, el cual fue realizado a través de la función “Spaces” de la plataforma, tenía el fin de buscar mantener una conversación sobre el futuro y los peligros de la inteligencia artificial (IA).
Sobre la discusión de la importancia de regular el desarrollo de las tecnologías de la Inteligencia Artificial, los tres participantes estuvieron de acuerdo, sin embargo, cada uno tuvo diferencias en el enfoque.
El representante demócrata Khanna habló a favor de la creación de una agencia al estilo de la Administración de Alimentos y Fármacos (FDA), con especialistas que aseguran la seguridad de los productos en el mercado.
Elon Musk lanza xAI, nueva empresa basada en inteligencia artificial
El pasado miércoles, Elon Musk anunció el lanzamiento de xAI, una nueva empresa centrada en la inteligencia artificial (IA), cuyos detalles se espera sean desvelados el viernes.
“El objetivo de xAI es comprender la verdadera naturaleza del universo”, afirma la start-up en su página web, sin dar más detalles.
El propio Musk explicó en Twitter que la ambición de xAI era “entender la realidad”. La web anuncia una sesión de preguntas y respuestas el viernes en Twitter para hablar de esta recién llegada a la IA.
La compañía se estableció formalmente en Nevada en marzo, según el registro corporativo del estado, pero dice que su equipo técnico está basado en el área de San Francisco, California. En el momento de su registro, Musk figuraba como el director de xAI.
Hace varios meses, el multimillonario reconoció que había comprado una gran cantidad de unidades de procesamiento gráfico (GPU), esenciales para el desarrollo de software de IA, sin revelar qué pensaba hacer con ellas.
En una entrevista con el presentador de Fox Tucker Carlson en abril, Musk dijo que planeaba “crear una tercera opción” entre los pesos pesados de la IA, además de Microsoft/OpenAI y Google.
Los dos gigantes tecnológicos han creado las interfaces más avanzadas para la llamada IA generativa.
Según el magnate, un modelo de inteligencia artificial “que se interesara por el universo probablemente no destruiría la especie humana, porque somos una parte interesante del universo. Esperemos que piense así”.
¿La Inteligencia Artificial podría acabar con la humanidad?
Las alarmas han surgido por todas partes: la inteligencia artificial (IA) representa un riesgo existencial para la humanidad y debe ser controlada antes de que sea demasiado tarde.
Pero, ¿cuáles son estos escenarios apocalípticos y cómo se supone que las máquinas acabarán con la humanidad?
“Una vez que tengamos máquinas que tengan como objetivo la autopreservación, tendremos un buen problema”, dijo el académico especialista en IA Yoshua Bengio durante una conferencia este mes.
Pero debido a que estas máquinas aún no existen, imaginar cómo podrían condenar a la humanidad es tarea a menudo de la filosofía y la ciencia ficción.
El filósofo sueco Nick Bostrom ha mencionado una “explosión de inteligencia”, que ocurrirá cuando las máquinas superinteligentes comiencen a diseñar a su vez otras máquinas.
Las ideas de Bostrom han sido descartadas por muchos como ciencia ficción, sobre todo porque una vez argumentó que la humanidad es una simulación por computadora y apoyó teorías cercanas a la eugenesia.
Sin embargo, sus pensamientos sobre la IA han tenido una gran influencia, inspirando tanto a Elon Musk como al profesor Stephen Hawking.
*Con información de AFP*