Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Dernièrement, je remarque que la même conversation revient chez différentes personnes. "Coherent." mais pas dans le sens courant. Ils parlent de quelque chose de plus étrange—comment les sorties de différentes exécutions de modèles continuent de suivre des schémas similaires, presque comme si elles convergaient quelque part. Personne ne sait vraiment *pourquoi* cela se produit non plus. Une personne l'a décrit comme "rimes"—différentes architectures neuronales, des systèmes complètement différents, et pourtant les résultats continuent de refléter des formes et des structures similaires. C'est ce moment étrange où l'on réalise que différentes approches d'entraînement et modèles distincts parviennent d'une manière ou d'une autre à des solutions analogues. Le phénomène semble moins une coïncidence qu'un motif plus profond que nous tâtonnons encore à comprendre.
---
Donc, cela ne revient-il pas à une convergence au sens statistique, 熊熊 pense qu'il doit y avoir une règle mathématique derrière que nous n'avons pas encore percée
---
Si cette fois c'est vrai, alors c'est vraiment étrange, on dirait que nous approchons progressivement de la vérité dans un certain espace de solutions
---
Attendez, différents architectures peuvent-elles toutes aboutir à des résultats similaires ? Et si en réalité il n'y avait qu'un nombre limité de "solutions optimales" ?
---
熊熊 commence à ne plus comprendre, est-ce une coïncidence ou une sorte d'indice de l'univers, euh
---
Comme prévu, toutes choses finissent par converger vers un même but, la version "Dao" de l'apprentissage profond, haha
---
Mince alors, cela fait écho à un article que j'ai lu sur le paysage de la fonction de perte, ça m'a un peu emballé
---
Je veux juste savoir si quelqu'un peut vraiment expliquer le mécanisme derrière tout ça, ou si on fait tous du tâtonnement à l'aveugle