Пока Ethereum и Solana борются за пропускную способность, а неактивные GPU потребляют энергию в дата-центрах Amazon, Павел Дуров тихо создает нечто иное. Cocoon — децентрализованная сеть AI-вычислений — только запущена на TON, и это не еще один форк Layer 2.
Вот как это работает: ваше игровое или рабочее устройство становится узлом вычислений. Пользователи арендуют GPU-емкость для конфиденциальных задач AI-инференции. TON становится слоем расчетов. Telegram обеспечивает пользовательский интерфейс. Вдруг свободная вычислительная мощность устройств 500 миллионов пользователей Telegram становится экономически ценным ресурсом.
Цифры на данный момент:
TON торгуется выше $1.90, стабилизируется
Консенсус аналитиков: более $5 к концу 2025 года, если рост adoption Cocoon продолжится
Уровень использования GPU в тестовой сети: 70%+ (по сравнению с типичными 15-30% простаивания)
Что отличает это от других сетей вычислений:
Встроенная интеграция с Telegram (минимальные барьеры UX)
Гарантии окончательности TON (блоки примерно за 5 секунд)
Архитектура, ориентированная на приватность (отсутствие раскрытия данных)
Тезис: если даже 5% активной базы Telegram монетизируют свободную вычислительную мощность, мы получим крупнейший в мире распределенный кластер GPU. Без AWS, без GCP — только криптографически проверенное пиринговое вычисление.
Риск: регуляторная неопределенность в области распределенных вычислений. Но Дуров справлялся с худшим.
Настоящий вопрос не в технической реализации. Вопрос в том, заинтересуют ли пользователей включить это. Первые сигналы говорят «да».
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Когда мощность GPU встречается с Telegram: следующий крупный ход TON с Cocoon
Пока Ethereum и Solana борются за пропускную способность, а неактивные GPU потребляют энергию в дата-центрах Amazon, Павел Дуров тихо создает нечто иное. Cocoon — децентрализованная сеть AI-вычислений — только запущена на TON, и это не еще один форк Layer 2.
Вот как это работает: ваше игровое или рабочее устройство становится узлом вычислений. Пользователи арендуют GPU-емкость для конфиденциальных задач AI-инференции. TON становится слоем расчетов. Telegram обеспечивает пользовательский интерфейс. Вдруг свободная вычислительная мощность устройств 500 миллионов пользователей Telegram становится экономически ценным ресурсом.
Цифры на данный момент:
Что отличает это от других сетей вычислений:
Тезис: если даже 5% активной базы Telegram монетизируют свободную вычислительную мощность, мы получим крупнейший в мире распределенный кластер GPU. Без AWS, без GCP — только криптографически проверенное пиринговое вычисление.
Риск: регуляторная неопределенность в области распределенных вычислений. Но Дуров справлялся с худшим.
Настоящий вопрос не в технической реализации. Вопрос в том, заинтересуют ли пользователей включить это. Первые сигналы говорят «да».