Lo que hay que saber sobre la nueva empresa de IA de Elon Musk, xAI
Elon Musk quiere "comprender la verdadera naturaleza del universo". Al menos eso es lo que decía su nueva empresa de IA, xAI, en su página web al anunciar su creación a mediados de julio. Musk constituyó xAI en Nevada en marzo de este año y, al parecer, compró "unas 10.000 unidades de procesamiento gráfico", el hardware necesario para desarrollar y ejecutar sistemas de IA de última generación. La empresa no ha dicho cómo se financia, pero el Financial Times informó en abril de que Musk estaba discutiendo obtener financiación de los inversores de SpaceX y Tesla, dos empresas que dirige.
La empresa no ha dado muchos detalles sobre sus intenciones sin embargo trabajará en estrecha colaboración con Twitter, ahora llamada X Corp., y Tesla, así como con otras empresas "para avanzar hacia nuestra misión", dijo xAI en su sitio web.
xAI y la historia de Musk con la inteligencia artificial
El equipo de xAI, dirigido por Musk, incluye a antiguos empleados de destacadas empresas de IA OpenAI y DeepMind, así como de Microsoft y Tesla. Dan Hendrycks, director del Centro para la Seguridad de la IA, figura como asesor. El Centro para la Seguridad de la Inteligencia Artificial se ha hecho eco de los problemas de seguridad. La organización publicó en mayo una declaración firmada por cientos de científicos y expertos en IA, así como por los directores ejecutivos de algunas de las principales empresas de IA, en la que se afirmaba que "mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear." Demis Hassabis, consejero delegado de DeepMind, Sam Altman, consejero delegado de OpenAI, y Dario Amodei, consejero delegado de Anthropic, se encontraban entre los firmantes.
Musk no firmó la declaración del Centro para la Seguridad de la IA, pero sí una carta abierta publicada en marzo por el Future of Life Institute, que pedía a las empresas de IA "pausar inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4."
Musk fue uno de los presidentes fundadores de OpenAI, junto con Altman, CEO de OpenAI. Musk formaba parte de un grupo de inversores, entre los que se encontraban Altman, Greg Brockman, Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys e YC Research, que se comprometieron a aportar 1.000 millones de dólares para financiar OpenAI en 2015. Musk ha dicho que aportó 100 millones de dólares de estos 1.000 millones, pero también ha cifrado la cifra en la mitad.
Las circunstancias de la salida de Musk no están del todo claras. Según una entrada del blog de OpenAI y tuits posteriores de Musk, dejó OpenAI en 2018 para evitar conflictos de intereses a medida que Tesla se centraba más en la IA. Semafor informó en marzo que Musk había propuesto que asumiera el liderazgo de OpenAI, y se alejó después de que su propuesta fuera rechazada. El Financial Times informó en abril que la salida de Musk también se debió a enfrentamientos con otros miembros de la junta y el personal sobre el enfoque de OpenAI con respecto a la seguridad de la IA.
Desde que se fue en 2018, Musk ha criticado la dirección que ha tomado OpenAI. En una entrevista con Tucker Carlson en Fox News en abril, Musk dijo de la compañía que "ahora son de código cerrado, y obviamente tienen fines de lucro, y están estrechamente aliados con Microsoft." Microsoft y OpenAI mantienen una asociación multimillonaria, que concede a OpenAI el uso de la capacidad de computación en nube de Microsoft a cambio de que los sistemas de inteligencia artificial de OpenAI impulsen los productos de Microsoft.
En marzo, Musk tuiteó: "Sigo confundido sobre cómo una organización sin ánimo de lucro a la que doné 100 millones de dólares se convirtió en una empresa con ánimo de lucro de 30.000 millones de dólares de capitalización bursátil. Si esto es legal, ¿por qué no lo hace todo el mundo?". OpenAI ha dicho anteriormente que pasó de ser una organización sin ánimo de lucro a un "híbrido entre una organización con ánimo de lucro y una sin ánimo de lucro" porque las exigencias computacionales de la formación de sistemas de IA de última generación implican que OpenAI necesitaría recaudar más fondos de los que dispondría una organización sin ánimo de lucro estándar.
En la entrevista de abril con Carlson, Musk también dijo que le preocupaba que los modelos de IA se entrenaran para ser "políticamente correctos", y se comprometió a crear un "GPT de la verdad", que, según dijo, sería una "IA de máxima búsqueda de la verdad".
Musk, que en el pasado ha hablado con frecuencia de los riesgos que plantean los sistemas avanzados de IA, también dijo en la entrevista que estaba fundando una nueva organización de IA para evitar la "distopía de la IA." Sin embargo, expertos e investigadores, entre ellos Hendrycks, asesor de xAI, han expresado su preocupación por que la incorporación de otra empresa con grandes recursos al ecosistema de la IA pueda alimentar aún más la carrera por desarrollar potentes sistemas de IA, a expensas de los esfuerzos por hacerlos seguros.
En abril, en respuesta a los informes de que Musk probablemente fundaría una nueva empresa de IA, Hendrycks escribió que la "aparición de un nuevo gran desarrollador de IA probablemente aumentará las presiones competitivas", y que las "presiones para adelantarse pueden hacer que los actores hagan sacrificios, especialmente cuando hay compensaciones entre la seguridad y la competitividad".
En un debate en Twitter Spaces con los congresistas Ro Khanna y Mike Gallagher, Musk reafirmó que su enfoque para crear una IA segura se basaría en que la IA buscara la verdad. Desde el punto de vista de la seguridad de la IA, una IA muy curiosa, que intente comprender el universo, estará a favor de la humanidad", afirmó Musk. "Desde el punto de vista de que la humanidad es mucho más interesante que la no humanidad".
Jess Whittlestone, responsable de política de IA en el Centre for Long-Term Resilience, un think tank con sede en el Reino Unido, dijo a TIME en un correo electrónico que este es "un enfoque bastante poco ortodoxo (y creo que bastante ingenuo) de la seguridad de la IA. No estoy seguro de que podamos decir claramente lo que significaría que una IA fuera "maximalmente curiosa" y es un gran salto asumir que esto significa que una IA estará a favor de la humanidad. Todo el desafío en este momento es que no podemos entender completamente estos modelos de IA o predecir su comportamiento, y no veo nada en el enfoque de Musk que sugiera que resolverá eso".
Fuente: Time