Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Китайські компанії з штучного інтелекту загрожують національній безпеці через незаконне вилучення даних з американських компаній: Anthropic
(MENAFN- IANS) Нью-Делі, 25 березня (IANS) Американська компанія з розробки штучного інтелекту Anthropic звинуватила трьох китайських юнікорнів — DeepSeek, Minimax і Moonshot AI — у незаконному вилученні можливостей з її моделі Claude для просування своїх власних систем, йдеться в новому звіті.
Звіт CNN Business повідомляє, що американська компанія стверджує, що крадіжка через процес, відомий як дистиляція, підняла питання національної безпеки.
Механізм, який використовувався для нібито крадіжки, передбачав створення близько 24 000 фальшивих облікових записів для навчання китайських моделей, використовуючи понад 16 мільйонів обмінів з Claude.
Компанія попередила, що моделі, створені таким чином, можуть не мати тих заходів безпеки, які впроваджують такі компанії, як вона сама, і тому можуть бути використані для кібератак і біологічної зброї.
Ці моделі можуть призвести до того, що “авторитарні уряди використовуватимуть передовий ШІ для агресивних кібероперацій, кампаній дезінформації та масового спостереження”, йдеться у повідомленні, попереджаючи, що “вікно для дій вузьке”.
CNN звернулася до DeepSeek, MiniMax і Moonshot AI за коментарями, йдеться у звіті.
Раптовий підйом DeepSeek у Китаї, який називають “AI-тиграми”, призвів до відчуття, що експортні контролі США зазнали невдачі.
Три юнікорни наразі займають місця серед 15 найкращих моделей на помітному лідерборді Artificial Analysis, додає звіт.
Однак Anthropic заявила, що спроби дистиляції довели ефективність експортних контролів і що розробка передових моделей не може бути підтримана без доступу до сучасних чіпів.
Схожі заяви раніше зробила OpenAI, яка звинуватила DeepSeek у “безкоштовному використанні можливостей, розроблених OpenAI та іншими американськими передовими лабораторіями”.
Anthropic PBC нещодавно була формально визнана “Ризиком ланцюга постачання (SCR)” урядом США, а генеральний директор компанії також вибачився за критику президента США Дональда Трампа.
Компанія уточнила, що це визнання стосуватиметься лише використання моделей Claude від Anthropic у контрактах Міністерства війни і не стосуватиметься “всіх використань Claude клієнтами, які мають такі контракти”.
-IANS
aar/
MENAFN25032026000231011071ID1110904509