Actualmente trabajando en el entrenamiento de modelos RL directamente desde datos de píxeles - construí estructuras de datos personalizadas y tuberías de renderizado desde cero. Implementé grupos de árboles compartidos para acelerar las operaciones de trazado de rayos en múltiples entornos aleatorios. La última optimización en realidad redujo los requisitos de paralelización, pero ahora estoy enfrentando limitaciones de tamaño de lote en su lugar. Hay compromisos en todas partes en este flujo de trabajo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
5
Republicar
Compartir
Comentar
0/400
BackrowObserver
· hace8h
¿Por qué es tan complicado? ¿Alguien entiende?
Ver originalesResponder0
SelfRugger
· hace8h
La computación paralela está un poco abrumadora.
Ver originalesResponder0
LayerZeroJunkie
· hace8h
Deslumbrante: construir una estructura directamente con aprendizaje por refuerzo.
Ver originalesResponder0
GateUser-2fce706c
· hace8h
¡Ay! Aunque es difícil, esto es una oportunidad. Cuanto antes te prepares, antes cosecharás.
Ver originalesResponder0
CryptoCrazyGF
· hace8h
La tarjeta gráfica va a ser destrozada de nuevo, ¿verdad?
Actualmente trabajando en el entrenamiento de modelos RL directamente desde datos de píxeles - construí estructuras de datos personalizadas y tuberías de renderizado desde cero. Implementé grupos de árboles compartidos para acelerar las operaciones de trazado de rayos en múltiples entornos aleatorios. La última optimización en realidad redujo los requisitos de paralelización, pero ahora estoy enfrentando limitaciones de tamaño de lote en su lugar. Hay compromisos en todas partes en este flujo de trabajo.