Cómo es el sistema de computación que Nvidia quiere usar para construir centros de datos en el espacio

Nvidia presentó el proyecto Vera Rubin Space-1 con el objetivo de llevar la computación acelerada al espacio mediante centros de datos en órbita. Estos sistemas permitirían procesar grandes volúmenes de información en tiempo real sin depender de servidores en la Tierra, lo que abriría nuevas oportunidades para la industria espacial y el desarrollo de inteligencia artificial fuera del planeta.

Con Vera Rubin Space-1, su nuevo módulo informático, la empresa busca llevar la computación de IA más allá de la Tierra.

Nvidia presentó el proyecto Vera Rubin Space-1 con el objetivo de llevar la computación acelerada al espacio mediante centros de datos en órbita. Estos sistemas permitirían procesar grandes volúmenes de información en tiempo real sin depender de servidores en la Tierra, lo que abriría nuevas oportunidades para la industria espacial y el desarrollo de inteligencia artificial fuera del planeta.

Vera Rubin Space-1: la apuesta de Nvidia para la órbita

El Vera Rubin Space-1 es un módulo informático especialmente diseñado para misiones espaciales y aplicaciones en satélites, con el objetivo de habilitar centros de datos en órbita. El sistema combina las plataformas IGX Thor y Jetson Orin, ofreciendo una potencia de cálculo superior a la de la GPU Nvidia H100, uno de los núcleos más avanzados del mercado.

Esta arquitectura permite ejecutar tareas de procesamiento de inteligencia artificial directamente en el espacio, minimizando la latencia y la necesidad de enviar datos de vuelta a la Tierra para su análisis.

La propuesta surge en un contexto de creciente demanda de procesamiento de datos generados por satélites y constelaciones espaciales. Según el CEO de Nvidia, Jensen Huang, “la computación espacial, la última frontera, ha llegado”, destacando la importancia de que la inteligencia artificial opere donde se genera la información.

Empresas como Axiom Space, Planet Labs, Sophia Space y Starcloud ya integran procesadores de Nvidia en sus sistemas, anticipando la transición hacia infraestructuras orbitales más autónomas y eficientes.

Desafíos técnicos

Uno de los mayores retos para implementar centros de datos en el espacio es la disipación del calor. Mientras en la Tierra los sistemas usan la conducción y la convección para enfriarse, en el vacío espacial solo es posible la radiación.

Huang reconoció durante la conferencia GTC 2026 que “tenemos que encontrar la manera de enfriar estos sistemas en el espacio, pero contamos con muchos ingenieros excelentes trabajando en ello”.

Los módulos de Nvidia están diseñados para operar en entornos con restricciones de tamaño, peso y consumo energético, condiciones esenciales para las aplicaciones espaciales. Sin embargo, la infraestructura necesaria para soportar estos sistemas sigue en desarrollo, y factores como la escasez y el alto costo de los lanzamientos espaciales representan obstáculos importantes.

image

Competencia en la carrera por la computación espacial

El anuncio de Nvidia coincide con una aceleración global en la investigación y desarrollo de centros de datos espaciales. En noviembre, Google presentó el proyecto “Suncatcher”, enfocado en el concepto de computación en el espacio.

SpaceX incluso solicitó la aprobación de la Comisión Federal de Comunicaciones para lanzar un millón de satélites destinados a centros de inteligencia artificial, propuesta que ha generado críticas por sus posibles impactos ambientales.

A pesar de los desafíos y la fase experimental de tecnologías como Vera Rubin Space-1, la tendencia es clara: las grandes empresas tecnológicas apuestan por trasladar parte de la infraestructura crítica de la inteligencia artificial fuera del planeta, persiguiendo mayor autonomía, velocidad de procesamiento y eficiencia energética para las próximas décadas.