Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Jensen Huang anuncia Vera Rubin en CES 2026: La nueva plataforma de computación AI marca un cambio de juego para la industria
Después de 5 años sin lanzar tarjetas gráficas de consumo en CES, el CEO Jensen Huang de NVIDIA se centró en otro objetivo: presentar la plataforma de cálculo Vera Rubin, un sistema de servidores AI de 2.5 toneladas diseñado para acelerar el entrenamiento de los modelos AI de próxima generación. Esto no es solo un producto de hardware, sino una estrategia integral para cambiar la forma en que las empresas construyen y despliegan infraestructura AI.
Huang apareció en tres eventos en 48 horas, desde NVIDIA Live hasta colaboración con Siemens en IA industrial, y luego en la conferencia Lenovo TechWorld. Su mensaje principal: los recursos de cálculo valorados en aproximadamente 10 billones de dólares invertidos en la última década necesitan una modernización total.
Vera Rubin - Arquitectura de 6 chips integrados para superar a Blackwell
Vera Rubin rompe las reglas internas de NVIDIA. En lugar de cambiar 1-2 chips por generación, esta vez la compañía rediseñó simultáneamente 6 tipos diferentes de chips, que ya están en producción en masa. La razón es que las mejoras tradicionales en rendimiento ya no pueden seguir el ritmo del crecimiento de 10 veces por año de los modelos AI, especialmente con la desaceleración de la ley de Moore.
La opción de NVIDIA es un “diseño coordinado extremo”: innovación simultánea en todos los niveles del chip y toda la plataforma. El procesador Vera CPU integra 88 núcleos Olympus personalizados con 176 hilos, soporta memoria de sistema de 1.5 TB y ancho de banda LPDDR5X de 1.2 TB/s, triplicando la generación Grace. La GPU Rubin alcanza una potencia de inferencia NVFP4 de 50 PFLOPS (5 veces Blackwell) con 336 mil millones de transistores, e incluye un motor Transformer de tercera generación con ajuste dinámico de precisión.
Para conectar todos estos componentes, NVIDIA implementó ConnectX-9 (tarjeta de red de 800 Gb/s), BlueField-4 DPU (procesador de extremo a extremo para almacenamiento AI), el chip de conmutación NVLink-6 (conexión de 18 nodos, soportando hasta 72 GPUs Rubin funcionando como un bloque), y el conmutador Ethernet Spectrum-6 (512 canales, cada uno a 200 Gbps).
Rendimiento sobresaliente: desde entrenamiento hasta inferencia
El sistema Vera Rubin NVL72 ofrece cifras impresionantes. En tareas de inferencia NVFP4, alcanza 3.6 EFLOPS, cinco veces más que Blackwell. En entrenamiento NVFP4, llega a 2.5 EFLOPS, 3.5 veces más. La memoria LPDDR5X alcanza 54 TB (tres veces más), y la memoria HBM llega a 20.7 TB con un ancho de banda HBM4 de 1.6 PB/s (2.8 veces más).
Lo notable es que, pese al aumento de rendimiento, el número de transistores solo creció 1.7 veces (hasta 220 billones), demostrando la capacidad de optimización en tecnología de semiconductores de NVIDIA. Para entrenar modelos de 100 billones de parámetros, Vera Rubin requiere solo una cuarta parte de los sistemas que Blackwell, y el costo por token generado es solo una décima.
Lo más importante es que el throughput (cantidad de tokens AI completados por vatio y dólar) se incrementó 10 veces respecto a Blackwell. Para un centro de datos de gigavatios valorado en 50 mil millones de dólares, esto significa que la capacidad de generar ingresos se duplicará: cada dólar invertido generará el doble de valor.
De 43 cables a 0 cables: innovación en ensamblaje externo
Vera Rubin también trae avances en diseño técnico. Antes, cada nodo de supercomputadora requería conectar 43 cables, con ensamblaje que tomaba 2 horas y era propenso a errores. Ahora, los nodos Vera Rubin usan 0 cables, solo 6 tubos de enfriamiento líquido, y se ensamblan en 5 minutos.
Detrás del chasis del servidor hay casi 3.2 km de cableado de cobre, con 5000 cables formando la red principal NVLink a 400 Gbps. Huang bromea: “Quizá pesa cientos de kilos, necesitas ser un CEO muy fuerte para hacer esto”.
KV Cache ilimitado: la memoria de contexto ya no es un cuello de botella
Un gran problema en AI es que, en diálogos largos, la “KV Cache” (memoria de clave-valor del AI) se llena de memoria HBM. La solución de Vera Rubin es desplegar procesadores BlueField-4 en los chasis para gestionar la KV Cache de forma independiente.
Cada nodo tiene 4 BlueField-4, cada uno con 150 TB de memoria de contexto, asignados a GPUs, con cada GPU añadiendo 16 TB de memoria — mientras que las GPUs solo tienen aproximadamente 1 TB de memoria integrada. Lo clave es que el ancho de banda se mantiene en 200 Gbps, sin reducir la velocidad de transferencia de datos.
Spectrum-X: red “diseñada para IA generativa” que ahorra 5 mil millones de dólares
Para conectar decenas de racks de servidores y decenas de miles de GPUs como una única memoria, la red debe ser grande, rápida y estable. Spectrum-X es la primera plataforma de red Ethernet “diseñada específicamente para IA generativa” lanzada por NVIDIA, usando el proceso COOP de TSMC con tecnología de fotónica de silicio, con 512 canales a 200 Gbps.
Huang calcula: un centro de datos de 50 mil millones de dólares con Spectrum-X aumenta el throughput en un 25%, ahorrando aproximadamente 5 mil millones de dólares. “Se puede decir que esta red es casi ‘gratuita’”.
Seguridad en computación: todos los datos cifrados en tránsito
Vera Rubin soporta Confidential Computing: todos los datos están cifrados durante transmisión, almacenamiento y procesamiento, incluyendo canales PCIe, NVLink, comunicación CPU-GPU y otros buses. Las empresas pueden desplegar sus modelos en sistemas externos sin preocuparse por filtraciones de datos.
IA física: desde robótica hasta conducción autónoma, NVIDIA enfocado en el mundo real
Huang destaca especialmente la arquitectura de “tres núcleos de computación” para IA física: computadoras de entrenamiento construidas con GPUs, computadoras de inferencia “cerebrito” en robots o autos, y simuladores (Omniverse y Cosmos) que ofrecen entornos de entrenamiento virtual.
Basándose en esta arquitectura, NVIDIA anuncia Alpamayo, el primer modelo de conducción autónoma con capacidad de pensamiento y razonamiento. A diferencia de los sistemas tradicionales, Alpamayo es un sistema de entrenamiento de extremo a extremo que puede resolver el “problema de cola larga” en conducción. Frente a situaciones de tráfico complejas y nunca antes vistas, Alpamayo no solo ejecuta órdenes rígidas, sino que también razona como un conductor humano.
El Mercedes CLA equipado con tecnología Alpamayo será lanzado oficialmente en EE.UU. en el primer trimestre, y posteriormente en Europa y Asia. Este vehículo ha sido calificado como el coche más seguro del mundo por NCAP, gracias a su diseño de “stack de seguridad doble”: cuando el modelo AI de extremo a extremo no está seguro, el sistema cambia inmediatamente a un modo de seguridad más estable.
En el escenario, Huang invita a robots humanoides, robots bípedos como Boston Dynamics, Agility… a hacer demostraciones. Resalta que el robot más grande en realidad es la fábrica. Todos los robots llevarán mini computadoras Jetson, entrenadas en Isaac Simulator en la plataforma Omniverse. NVIDIA también integra esta tecnología en ecosistemas industriales como Synopsys, Cadence y Siemens.
Modelos de código abierto: estrategia clave de NVIDIA
Huang elogia especialmente a la comunidad de código abierto. Dice que la innovación de DeepSeek V1 el año pasado impulsó directamente una ola de desarrollo en toda la industria. En diapositivas, los modelos Kimi K2 y DeepSeek V3.2 son respectivamente los número 1 y 2 en código abierto.
Aunque los modelos de código abierto actualmente puedan estar unas 6 meses por detrás de los líderes, cada 6 meses aparece un nuevo modelo. Este ritmo de innovación hace que startups, grandes empresas e investigadores no quieran perderse, incluyendo a NVIDIA.
No solo venden “palas” o tarjetas gráficas; NVIDIA construye supercomputadoras DGX Cloud, desarrolla modelos avanzados como La Proteina (síntesis de proteínas) y OpenFold 3. Su ecosistema de modelos de código abierto abarca biomedicina, IA física, agentes, robots y conducción autónoma.
Muchos modelos de código abierto de la familia Nemotron de NVIDIA también destacan. Incluyen modelos de voz, multimodales, de recuperación generativa y seguridad, logrando excelentes resultados en varias clasificaciones y siendo adoptados por muchas empresas.
Futuro: estrategia del mundo virtual al mundo físico
Antes, NVIDIA hacía chips para el mundo virtual. Ahora, Huang claramente se enfoca en IA física, con conducción autónoma y robots bípedos como representantes, para avanzar en el mundo físico real y competir más intensamente.
En medio de debates sobre la burbuja de IA, además de presentar la plataforma de supercómputo Vera Rubin para satisfacer la demanda de cálculo, Huang invierte mucho en aplicaciones y software. El objetivo es mostrar claramente cómo la IA cambiará visualmente — desde una conducción más segura hasta robots con capacidad de razonamiento.
Al final, solo cuando la batalla se traslade al mundo real, las armas podrán seguir vendiéndose.