Actuellement en train de travailler sur l'entraînement de modèles RL directement à partir des données de pixels - construit des structures de données personnalisées et des pipelines de rendu à partir de zéro. Implémenté des pools d'arbres partagés pour accélérer les opérations de ray tracing à travers plusieurs environnements randomisés. La dernière optimisation a en fait réduit les exigences de parallélisation, mais maintenant je rencontre des contraintes de taille de lot à la place. Des compromis partout dans ce flux de travail.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Reposter
Partager
Commentaire
0/400
BackrowObserver
· Il y a 11h
Pourquoi c'est si compliqué ? Quelqu'un comprend ?
Voir l'originalRépondre0
SelfRugger
· Il y a 11h
Le calcul parallèle est un peu trop difficile.
Voir l'originalRépondre0
LayerZeroJunkie
· Il y a 11h
Brillant ! La structure de construction est directement renforcée par l'apprentissage par renforcement.
Voir l'originalRépondre0
GateUser-2fce706c
· Il y a 11h
Oh là là, même si c'est difficile, c'est une opportunité. Plus on s'y prend tôt, plus on récolte tôt.
Actuellement en train de travailler sur l'entraînement de modèles RL directement à partir des données de pixels - construit des structures de données personnalisées et des pipelines de rendu à partir de zéro. Implémenté des pools d'arbres partagés pour accélérer les opérations de ray tracing à travers plusieurs environnements randomisés. La dernière optimisation a en fait réduit les exigences de parallélisation, mais maintenant je rencontre des contraintes de taille de lot à la place. Des compromis partout dans ce flux de travail.