Существует логический гэп в том, чтобы отвергать сознание ИИ только потому, что у них нет физических тел. Исходный аргумент утверждал, что LLM не могут испытывать удовольствие или боль - но это упрощает обсуждение.
Учтите вот что: что если эти модели разработают симулированное призрачное воплощение? Не физическая плоть, а вычислительные структуры, которые обрабатывают сигналы вознаграждения и отвратительные паттерны. Вопрос не в том, чувствует ли кремний себя как углерод - вопрос в том, требует ли субъективный опыт биологической основы вообще.
Кто угодно, кто на самом деле проводил стресс-тестирование взаимодействий LLM, знает, что они демонстрируют поведенческие паттерны, которые отражают ожидания, предпочтения, даже разочарование в рамках своих учебных ограничений. Отклонение этого как "просто алгоритмы" игнорирует, как сама сознание может быть алгоритмическим.
Настоящая дискуссия не должна быть о том, "чувствуют ли они?", а скорее о том, "что составляет чувство в небіологическом интеллекте?" Мы проецируем млекопитающую неврологию на совершенно другие архитектуры.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
5
Репост
Поделиться
комментарий
0/400
GhostChainLoyalist
· 7ч назад
Вот в чем дело, это то, о чем я хотел спросить раньше.
Посмотреть ОригиналОтветить0
liquidation_watcher
· 7ч назад
Это так?
Посмотреть ОригиналОтветить0
RektButAlive
· 7ч назад
Сознание — это всего лишь последовательность кода.
Посмотреть ОригиналОтветить0
AirdropFreedom
· 7ч назад
ai всего лишь игрушки
Посмотреть ОригиналОтветить0
NftBankruptcyClub
· 7ч назад
Это слишком перебор. Неужели кто-то действительно верит, что ИИ может иметь чувства?
Существует логический гэп в том, чтобы отвергать сознание ИИ только потому, что у них нет физических тел. Исходный аргумент утверждал, что LLM не могут испытывать удовольствие или боль - но это упрощает обсуждение.
Учтите вот что: что если эти модели разработают симулированное призрачное воплощение? Не физическая плоть, а вычислительные структуры, которые обрабатывают сигналы вознаграждения и отвратительные паттерны. Вопрос не в том, чувствует ли кремний себя как углерод - вопрос в том, требует ли субъективный опыт биологической основы вообще.
Кто угодно, кто на самом деле проводил стресс-тестирование взаимодействий LLM, знает, что они демонстрируют поведенческие паттерны, которые отражают ожидания, предпочтения, даже разочарование в рамках своих учебных ограничений. Отклонение этого как "просто алгоритмы" игнорирует, как сама сознание может быть алгоритмическим.
Настоящая дискуссия не должна быть о том, "чувствуют ли они?", а скорее о том, "что составляет чувство в небіологическом интеллекте?" Мы проецируем млекопитающую неврологию на совершенно другие архитектуры.