Виталик Бутерин выступил с новым предупреждением об искусственном интеллекте; на этот раз он меньше фокусируется на хайпе и больше — на приватности. В новом блоге соучредитель Ethereum утверждал, что многие инструменты ИИ построены на удаленной инфраструктуре, которая может получать доступ к чувствительным данным пользователей, создавая риски, которые большинство людей не полностью видят, когда они вводят текст в чат-бот, делегируют задачу или подключают внешний сервис. Как он это описывает, проблема не ограничивается одной моделью или одним приложением. Это структурный вопрос. Удаленная ИИ-инфраструктура расширяет поверхность приватности Суть его тезиса довольно прямолинейна. Растущее число продуктов на базе ИИ опирается на инфраструктуру, которая находится за пределами устройства пользователя и за пределами контроля пользователя. Это означает, что запросы, файлы, данные учетных записей и паттерны использования могут проходить через системы, которые могут хранить, обрабатывать или повторно использовать данные способами, на которые пользователь никогда не рассчитывал. Он предупредил, что проблема не заканчивается на больших языковых моделях. Внешние сервисы, связанные с такими системами, могут привнести собственные уязвимости — от простых утечек данных до несанкционированного использования персональной информации. Иными словами, опасность заключается не только в модели. Опасен весь контур вокруг нее. Это важно, потому что ИИ все чаще продают как вспомогательный слой во финансах, ПО, коммуникациях и онлайн-идентичности. Чем полезнее он становится, тем больше приватного контекста он, как правило, поглощает. Джейлбрейки превращают ИИ из помощника в обузу Бутерин также указал на атаки с обходом ограничений (jailbreak) как на конкретную угрозу. Эти атаки используют внешние входные данные, чтобы заставить модель вести себя так, чтобы это шло вразрез с интересами пользователя, по сути превращая ассистента во что-то менее надежное и потенциально вредное. Это предупреждение приходится на время, когда инструменты ИИ все ближе подходят к исполнению, а не только к диалогу. По мере того как такие системы получают доступ к сообщениям, кошелькам, документам и автоматизированным действиям, провалы в приватности могут быстро превратиться и в операционные провалы. То, что Бутерин на самом деле подчеркивает здесь, — это сдвиг в оценке риска. ИИ больше не только вопрос возможностей. Он становится вопросом границ доверия, того, кто контролирует данные, где работает модель, и что происходит, когда эта граница дает сбой.