
El fundador de Ola, Bhavish Aggarwal, está invirtiendo $230 millones en una startup de IA que fundó a medida que el país se esfuerza por establecerse en un campo dominado por empresas de EE. UU. y China.
Aggarwal está financiando la inversión en Krutrim —que ha estado construyendo LLM para idiomas indios— principalmente a través de su oficina familiar, según una fuente familiarizada con el asunto informó a TechCrunch. En una publicación en X el martes, Aggarwal dijo que Krutrim busca atraer una inversión de $1.15 mil millones para el próximo año. Buscará recaudar el resto del capital de inversores externos, dijo la fuente.
El anuncio de financiamiento coincide con la startup unicornio Krutrim haciendo sus modelos de IA de código abierto y revelando planes de construir lo que afirma será el supercomputador más grande de la India en asociación con Nvidia.
El laboratorio lanzó Krutrim-2, un modelo de lenguaje de 12 mil millones de parámetros que ha demostrado un gran rendimiento en el procesamiento de idiomas indios. En pruebas de análisis de sentimientos que Krutrim compartió el martes, obtuvo una puntuación de 0.95 en comparación con 0.70 para modelos competidores, y logró una tasa de éxito del 80% en tareas de generación de código.
El laboratorio ha puesto en código abierto varios modelos especializados, incluidos sistemas para procesar imágenes, traducción de voz y búsqueda de texto, todos optimizados para idiomas indios.
“Todavía no estamos cerca de los estándares globales, pero hemos avanzado mucho en un año”, escribió Aggarwal, cuyas otras empresas han sido respaldadas por SoftBank, en X. "Al abrir el código de nuestros modelos, esperamos que toda la comunidad de IA india colabore para crear un ecosistema de IA indio de clase mundial".
La iniciativa llega en un momento en que India busca establecerse en un panorama de inteligencia artificial dominado por empresas estadounidenses y chinas. El reciente lanzamiento del modelo de “razonamiento” R1 de DeepSeek, construido con un presupuesto supuestamente modesto, ha enviado ondas de choque a través de la industria tecnológica.
India elogió la progresión de DeepSeek la semana pasada y dijo que el país albergará los grandes modelos de idioma del laboratorio de IA chino en servidores domésticos. El brazo en la nube de Krutrim comenzó a ofrecer DeepSeek en servidores indios la semana pasada.
Krutrim también ha desarrollado su propio marco de evaluación, BharatBench, para evaluar la competencia de los modelos de IA en idiomas indios, abordando una brecha en los benchmarks existentes que se centran principalmente en el inglés y el chino.
El enfoque técnico del laboratorio incluye el uso de una ventana de contexto de 128,000 tokens, lo que permite que sus sistemas manejen textos más largos y conversaciones más complejas. Las métricas de rendimiento publicadas por la startup mostraron que Krutrim-2 logró altas puntuaciones en corrección gramatical (0.98) y conversaciones de múltiples turnos (0.91).
La inversión sigue al lanzamiento en enero de Krutrim-1, un sistema de 7 mil millones de parámetros que sirvió como el primer gran modelo de lenguaje de la India. La implementación del supercomputador con Nvidia está programada para entrar en funcionamiento en marzo, con planes de expansión a lo largo del año.