Результаты поиска для "MPT"
2026-02-13
09:46

XRP Ledger открывает новую эру в управлении разблокировкой токенов, после запуска XLS-85 активы такие как RLUSD могут быть заблокированы на блокчейне

13 февраля стало известно, что XRP Ledger официально активировал исправление по управлению токенами XLS-85, позволяющее пользователям создавать управляющие аккаунты для выпущенных взаимозаменяемых токенов. Это означает, что помимо XRP, токены Trust Line и многоцелевые токены (MPT) также могут быть заблокированы на блокчейне по условиям, предоставляя более гибкие способы управления активами для децентрализованных финансов и корпоративных приложений. Это исправление было повторно поддержано 30 валидаторами 30 января 2026 года, достигнув порога активации, и было запущено через две недели. Ранее XLS-85 почти прошел в сентябре 2025 года, но из-за несовместимости с стандартом MPT возникли разногласия, и уровень поддержки снизился до 16 голосов. Валидатор XRPL dUNL Vet указал на недостатки в управлении учетом при переводах и отслеживании предложения, после чего сообщество выпустило fixTokenEscrowV1 и включило его в Rippled v3.0.0, что восстановило доверие и способствовало окончательной активации.
Больше
XRP4,38%
MPT5,48%
02:48

🚀Торговый конкурс Miracle Play (MPT) стартует с призами в размере 10 000 долларов США! ⏳ Период события: 04.22-04.29 11:00 [UTC+8] ✅ Торгуйте $MPT$, чтобы выиграть долю от $8,000 ✅ Эксклюзивные привилегии для новых пользователей, которые разделят призовой фонд в размере $1 000 ✅ Приглашайте новых пользователей и получайте вознаграждение в размере $1 000 💸 Принимайте участие: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Больше
MPT5,48%
04:57

TinyLlama, модель с открытым исходным кодом для мини-ИИ, была выпущена и занимает всего 637 МБ

Согласно отчету Webmaster's Home от 6 января, команда TinyLlama выпустила высокопроизводительную модель искусственного интеллекта с открытым исходным кодом, которая занимает всего 637 МБ, TinyLlama. TinyLlama — это компактная версия языковой модели Meta с открытым исходным кодом Llama2, которая имеет 1 миллиард параметров и превосходит превосходную производительность для исследования многодоменных языковых моделей, а ее окончательная версия превосходит существующие языковые модели с открытым исходным кодом сопоставимого размера, включая Pythia-1.4B, OPT-1.3B и MPT-1.3B. Сообщается, что TinyLlama может быть развернута на периферийных устройствах, а также может быть использована для помощи в спекулятивном декодировании больших моделей.
Больше
07:39

Обновление Baidu Smart Cloud «Qianfan Large Model Platform»: доступ к 33 моделям, включая LLaMA2

Согласно отчету Kechuangban Daily от 2 августа, крупномасштабная модельная платформа Baidu Smart Cloud Qianfan завершила новый раунд обновлений, получив полный доступ к 33 крупномасштабным моделям, включая полную серию LLaMA2, ChatGLM2, RWKV, MPT, Dolly. , OpenLLaMA и Falcon стали платформой с наибольшим количеством крупных моделей в Китае, а подключенные модели подверглись вторичному повышению производительности по сравнению с платформой Qianfan, а стоимость обоснования модели может быть снижена на 50%. В то же время платформа Qianfan запустила библиотеку preset_template со 103 шаблонами, охватывающими более десяти сценариев диалогов, игр, программирования и письма. Кроме того, это обновление снова выпустило ряд новых плагинов.
Больше
06:55

ИИ-компания MosaicML запустила модель MPT-30B с 30 миллиардами параметров, заявив, что стоимость обучения составляет лишь часть конкурирующих продуктов.

Согласно отчету IT House от 25 июня, ИИ-стартап MosaicML недавно выпустил свою языковую модель MPT-30B, которая имеет 30 миллиардов параметров, а стоимость обучения составляет «лишь часть других аналогичных конкурирующих моделей». расширяет применение моделей ИИ в более широком диапазоне областей. Навин Рао, генеральный директор и соучредитель MosaicML, сказал, что стоимость обучения MPT-30B составляет 700 000 долларов США (около 5,0244 млн юаней), что намного ниже десятков миллионов долларов, необходимых для аналогичных продуктов, таких как GPT- 3. . Кроме того, из-за более низкой стоимости и меньшего размера MPT-30B также может быстрее обучаться и больше подходит для развертывания на локальном оборудовании. Сообщается, что MosaicML использует технологии Alibi и FlashAttention для оптимизации модели, что позволяет увеличить длину текста и более эффективно использовать вычисления на GPU. MosaicML также является одной из немногих лабораторий, которые могут использовать графический процессор Nvidia H100.По сравнению с предыдущими достижениями текущая пропускная способность каждого графического процессора увеличилась более чем в 2,4 раза, что может сократить время завершения.
Больше