Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
5
Repostar
Compartilhar
Comentário
0/400
BackrowObserver
· 7h atrás
Por que é tão complicado? Alguém entende?
Ver originalResponder0
SelfRugger
· 7h atrás
A computação paralela está um pouco difícil de suportar.
Ver originalResponder0
LayerZeroJunkie
· 7h atrás
Deslumbrante: Estrutura de construção direta para reforço de aprendizagem
Ver originalResponder0
GateUser-2fce706c
· 7h atrás
Ai, embora seja difícil, esta é uma oportunidade. Quanto mais cedo se posicionar, mais cedo colherá os frutos.
Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.