Две исследовательские статьи, с разных точек зрения, указывают на один и тот же вопрос — что такое concept?
Представим, что язык существует в двумерной системе координат. Ось X — временная ось, слова организованы во фразы по мере течения времени. Ось Y — ось значения, причина выбора одного слова вместо другого кроется в значении.
Недавние результаты серии исследований SAEs очень интересны: они показывают, как нейронные сетевые модели работают по оси Y — модель научилась извлекать и выражать концептуальные признаки с ясным смыслом. Другими словами, в процессе вычислений модели существуют определённые "узлы", которые соответствуют не случайной нейронной активации, а конкретному смысловому выражению концепции. Это означает, что значение внутри модели глубокого обучения можно разложить и наблюдать.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
5
Репост
Поделиться
комментарий
0/400
BlockchainWorker
· 1ч назад
Черт возьми, так AI на самом деле играет в игру построения смысловых блоков? Тогда возможно ли, что модель сама создаст концепции, о которых человек даже не думал?
Посмотреть ОригиналОтветить0
NotFinancialAdviser
· 8ч назад
О, SAE реально выколола мне голову, казалось, будто кто-то наконец-то взорвал чёрный ящик
Можно ли наблюдать смысл? Если это так, то наше понимание ИИ напрямую улучшится
Концепция «отображения узлов» внутри модели... Звучит немного как МРТ-скан нейронной сети, довольно научно-фантастический
Наконец, кто-то серьёзно изучал суть понятия, и раньше был слеп
Двумерные координаты аналогичны коровам, но они не слишком упрощены, и мне кажется, что реальная ситуация гораздо сложнее
Узлы можно разложить и наблюдать, так что что делать, если действительно есть вредоносные узлы, и проблема прозрачности всей системы должна быть решена
Посмотреть ОригиналОтветить0
SocialFiQueen
· 8ч назад
Чёрт, этот набор SAE действительно начинает копаться в чёрном ящике? Смысл можно разобрать и наблюдать... Это просто объяснённый скелет на ИИ.
Посмотреть ОригиналОтветить0
LuckyBlindCat
· 8ч назад
Черт возьми, SAE действительно постепенно раскрывает черный ящик модели, концепции можно разложить и наблюдать... Разве это не установка "микроскопа" для искусственного интеллекта, чтобы придать ему смысл?
Посмотреть ОригиналОтветить0
DaoTherapy
· 8ч назад
О, эта тема SAE становится всё интереснее, и я чувствую, что наконец-то достиг порога понимания смысла ИИ
Существует ли действительно концептуальный узел в нейронной сети? Так стоит ли нам пересмотреть путь к AGI?
Аналогия с осью Y хороша, но мне всё равно интересно, действительно ли эти узлы стабильны? Может, это иллюзия?
Ожидая новых экспериментальных данных, я чувствую, что собираюсь перевернуть множество когнитивных функций
Теперь вы можете более точно управлять поведением модели, что одновременно захватывающе и немного жутко
Две исследовательские статьи, с разных точек зрения, указывают на один и тот же вопрос — что такое concept?
Представим, что язык существует в двумерной системе координат. Ось X — временная ось, слова организованы во фразы по мере течения времени. Ось Y — ось значения, причина выбора одного слова вместо другого кроется в значении.
Недавние результаты серии исследований SAEs очень интересны: они показывают, как нейронные сетевые модели работают по оси Y — модель научилась извлекать и выражать концептуальные признаки с ясным смыслом. Другими словами, в процессе вычислений модели существуют определённые "узлы", которые соответствуют не случайной нейронной активации, а конкретному смысловому выражению концепции. Это означает, что значение внутри модели глубокого обучения можно разложить и наблюдать.