xAI de Elon Musk lanza Grok 3 para competir con OpenAI
Introducción a xAI y Grok 3
Elon Musk ha presentado xAI, la startup que posee la plataforma de medios sociales X (anteriormente Twitter) y desarrolla modelos de inteligencia artificial (IA). La última innovación de xAI es Grok 3, un modelo de IA que desafía a los mejores modelos de OpenAI en razonamiento y otras tareas.
El contexto de la presentación de Grok 3
La presentación de Grok 3 sigue a la oferta hostil de Musk por OpenAI, Inc., la organización sin fines de lucro que controla OpenAI. Musk ha expresado su preocupación por la transparencia y la seguridad en el desarrollo de la IA, y ha acusado a OpenAI y a su CEO, Sam Altman, de abandonar la visión fundadora de mantener la IA para el bien público.
La cuestión de la transparencia en xAI
Se plantea la pregunta de por qué Musk no ha comprometido a xAI a abrir el código fuente de Grok para todos sus modelos, comenzando desde ahora y de manera perpetua. Hasta la fecha, xAI solo ha publicado una versión de código abierto de Grok, la primera versión, Grok 1, que está disponible en los repositorios de xAI en GitHub y HuggingFace. Desde entonces, se han lanzado Grok 1.5, Grok 2 y ahora Grok 3, pero ninguno de estos modelos ha sido lanzado como código abierto.
La definición de modelos de IA de código abierto
Los investigadores y programadores debaten el término «modelos de IA de código abierto«. Históricamente, el término «código abierto» se ha referido a la liberación del código fuente de un programa. En el caso de los modelos de IA de código abierto, incluyendo Grok 1 y Llama AI de Meta, no se libera el código fuente. En su lugar, las empresas liberan solo los «parámetros» o «pesos» del modelo. Debido a que se puede reconstruir mucho a partir de tener acceso a los pesos, el campo de la IA ha estado dispuesto a flexibilizar la definición de código abierto. Sin embargo, este uso no está exento de controversia.
La postura de xAI y Musk
No se recibió una respuesta a la solicitud de comentarios de xAI o a un tuit en X dirigido a Musk, preguntando por qué no se comprometía a abrir el código fuente de todos los modelos de xAI. La primera versión de Grok se lanzó en noviembre de 2023 y se hizo de código abierto en marzo del año siguiente, con un retraso de cuatro meses. La empresa siguió rápidamente con Grok 1.5 el mismo mes, luego Grok 2 en agosto y ahora Grok 3. Esto sugiere que ha habido suficiente tiempo para hacer que Grok 1.5 y Grok 2 sean de código abierto si la empresa hubiera seguido el mismo ritmo.
El futuro de los modelos de IA
La falta de un compromiso firme por parte de Musk es extraña, dado su profeso interés por la transparencia en la IA por el bien de la humanidad. Al hacer una oferta hostil por OpenAI, Musk parece haber trasladado la responsabilidad de proteger a la humanidad fuera de sus propios intereses corporativos. Mientras Altman trabaja para recaudar posiblemente $44 mil millones para las necesidades de cómputo masivo de OpenAI, xAI anunció en diciembre que había recaudado $6 mil millones de dólares de capitalistas de riesgo en un acuerdo que valoró la empresa en $45 mil millones. Con el repentino aumento del interés en el modelo DeepSeek de China el mes pasado, es probable que la escritura esté en la pared para todos los modelos de código cerrado, incluyendo la familia GPT de OpenAI y Grok de Musk. En última instancia, más y más innovación en IA, al menos de la variedad de lenguaje grande, se volverá de código abierto, de la misma manera que el movimiento Linux ha llegado a dominar los sistemas operativos, los marcos de programación y más.
Conclusión
En resumen, la presentación de Grok 3 por xAI y Elon Musk plantea preguntas importantes sobre la transparencia y la seguridad en el desarrollo de la IA. Aunque Musk ha expresado su preocupación por la transparencia y la seguridad, su falta de compromiso para abrir el código fuente de todos los modelos de xAI es extraña. El futuro de los modelos de IA probablemente se inclinará hacia el código abierto, siguiendo el ejemplo del movimiento Linux. Es importante que las empresas y los desarrolladores de IA consideren las implicaciones de sus acciones y prioricen la transparencia y la seguridad en el desarrollo de la IA. Al hacerlo, pueden garantizar que la IA se desarrolle de manera responsable y beneficie a la humanidad en su conjunto.