Résultats de la recherche pour "MPT"
2026-02-13
09:46

La blockchain XRP ouvre une nouvelle ère pour la gestion des tokens verrouillés, après le lancement de XLS-85, des actifs tels que RLUSD peuvent être verrouillés sur la chaîne

Le 13 février, XRP Ledger a officiellement activé l'amendement de garde de jetons XLS-85, permettant aux utilisateurs de créer des comptes de garde pour les jetons interchangeables déjà émis. Cela signifie qu'au-delà du XRP lui-même, les jetons Trust Line et les jetons multi-usage (MPT) peuvent également être verrouillés sur la chaîne selon des conditions, offrant une gestion d'actifs plus flexible pour la finance décentralisée et les applications d'entreprise. Cet amendement a obtenu le soutien de 30 validateurs le 30 janvier 2026, atteignant le seuil d'activation, et a été mis en ligne deux semaines plus tard. Auparavant, XLS-85 avait été proche d'être adopté en septembre 2025, mais un désaccord avait été suscité par un problème d'incompatibilité avec la norme MPT, ce qui avait fait chuter le taux de soutien à 16 votes. Le validateur XRPL dUNL Vet a souligné les défauts de la comptabilité de garde dans le suivi des frais de transfert et de l'offre, et la communauté a ensuite lancé fixTokenEscrowV1, intégré dans Rippled v3.0.0, ce qui a permis de restaurer la confiance et de pousser à l'activation finale.
Plus
XRP2,28%
MPT8,58%
02:48

🚀Le concours de trading Miracle Play (MPT) démarre avec des prix d’une valeur de 10 000 $ ! ⏳ Période de l’événement : 22h04-29h04 11h00 [UTC+8] ✅ Tradez $MPT$ pour gagner une part de 8 000 $ ✅ Des avantages exclusifs pour les nouveaux utilisateurs de partager une cagnotte de 1 000 $ ✅ Invitez de nouveaux utilisateurs et profitez de 1 000 $ de récompenses 💸 Impliquez-vous : https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Plus
MPT8,58%
04:57

TinyLlama, un modèle Open Source pour mini IA, a été publié et n’occupe que 637 Mo

Selon un rapport de Webmaster’s Home du 6 janvier, l’équipe de TinyLlama a publié un modèle Open Source d’IA haute performance qui n’occupe que 637 Mo, TinyLlama. TinyLlama est une version compacte du modèle de langage open source Llama2 de Meta, qui dispose de 1 milliard de paramètres et de performances supérieures pour la recherche de modèles de langage multi-domaines, et sa version finale surpasse les modèles de langage open source existants de taille comparable, notamment Pythia-1.4B, OPT-1.3B et MPT-1.3B. Il est rapporté que TinyLlama peut être déployé sur des appareils de périphérie et peut également être utilisé pour aider au décodage spéculatif de grands modèles.
Plus
07:39

Mise à niveau Baidu Smart Cloud "Qianfan Large Model Platform": accès à 33 modèles dont LLaMA2

Selon le rapport "Kechuangban Daily" du 2 août, la plate-forme de modèles à grande échelle Baidu Smart Cloud Qianfan a terminé une nouvelle série de mises à niveau, accédant pleinement à 33 modèles à grande échelle, y compris la série complète de LLaMA2, ChatGLM2, RWKV, MPT, Dolly , OpenLLaMA et Falcon , est devenue la plate-forme avec le plus grand nombre de grands modèles en Chine, et les modèles connectés ont subi une amélioration secondaire des performances de la plate-forme Qianfan, et le coût du raisonnement du modèle peut être réduit de 50 %. Dans le même temps, la plateforme Qianfan a lancé une bibliothèque preset_template avec 103 modèles, couvrant plus de dix scénarios de dialogue, de jeux, de programmation et d'écriture. De plus, cette mise à niveau a de nouveau publié un certain nombre de nouveaux plug-ins.
Plus
06:55

La société d'IA MosaicML a lancé le modèle de 30 milliards de paramètres MPT-30B, affirmant que le coût de la formation ne représente qu'une fraction des produits concurrents

Selon le rapport d'IT House du 25 juin, la startup d'intelligence artificielle MosaicML a récemment publié son modèle de langage MPT-30B. Le modèle comporte 30 milliards de paramètres, et le coût de formation n'est "qu'une fraction des autres modèles concurrents similaires". élargit l'application des modèles d'IA dans un plus large éventail de domaines. Naveen Rao, PDG et co-fondateur de MosaicML, a déclaré que le coût de formation du MPT-30B est de 700 000 dollars américains (environ 5,0244 millions de yuans), ce qui est bien inférieur aux dizaines de millions de dollars requis pour des produits similaires tels que GPT- 3. . De plus, en raison du coût inférieur et de la taille réduite du MPT-30B, il peut également être formé plus rapidement et convient mieux au déploiement sur du matériel local. Il est rapporté que MosaicML utilise la technologie Alibi et FlashAttention pour optimiser le modèle, ce qui permet d'obtenir une longueur de texte plus longue et une utilisation plus élevée du calcul GPU. MosaicML est également l'un des rares laboratoires à pouvoir utiliser le GPU Nvidia H100.Par rapport aux réalisations précédentes, le débit actuel de chaque GPU a été multiplié par plus de 2,4, ce qui peut accélérer le temps de réalisation.
Plus