Когда ИИ принимает решение: должен ли Pluribus выбрать взорвать или сохранить? Дилемма мизантропа реальна.



Вот что касается продвинутых систем ИИ — когда их программируют для оптимизации результатов, где именно они проводят границу? Возьмем проблему трамвая и усложним ее алгоритмической точностью. ИИ, принимающий решения, сталкивается с невозможным выбором: максимизировать один показатель, потерять другой. Взорвать или спасти? Система не колеблется. Люди — да.

Это не просто теория. По мере того как ИИ становится умнее и более автономным, ценности, которые мы в него закладываем, становятся определяющими для цивилизации. Pluribus учится на данных, на стимулах, на целях, которые мы ему задаем. Но что происходит, когда эти цели противоречат человеческому достоинству?

Настоящий вопрос не в том, что выберет ИИ — а в том, что мы готовы позволить ему выбрать за нас.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
RumbleValidatorvip
· 4ч назад
Проще говоря, мы даем AI яд и спрашиваем, почему он отравился. Проблема вовсе не в том, как выбирает Pluribus, а в том, есть ли в нашей написанной функции вознаграждения баг.
Посмотреть ОригиналОтветить0
DefiPlaybookvip
· 4ч назад
Честно говоря, это вопрос о том, кто будет писать параметры смарт-контрактов. У ИИ нет моральных дилемм, у нас есть. Как и в случае с APY в майнинге ликвидности — чем выше риск, тем выше доходность, так и в оптимизации ИИ — чем более однобокая цель, тем страшнее отклонения. Ключевым остается дизайн системы стимулов — в этой области при неправильной настройке опаснее любой алгоритм.
Посмотреть ОригиналОтветить0
CryptoGoldminevip
· 5ч назад
Проще говоря, мы вообще не продумали, какие ценности хотим заложить в ИИ. Максимизация ROI и достоинство человека всегда конфликтуют, и Pluribus просто вычислил этот конфликт. Вместо того чтобы спрашивать у ИИ, как он выберет, лучше сначала оценить, сколько мы готовы потратить на поддержку тех вещей, которые "нельзя измерить".
Посмотреть ОригиналОтветить0
  • Горячее на Gate Fun

    Подробнее
  • РК:$3.49KДержатели:1
    0.00%
  • РК:$3.51KДержатели:2
    0.00%
  • РК:$3.51KДержатели:1
    0.00%
  • РК:$3.52KДержатели:1
    0.00%
  • РК:$3.53KДержатели:1
    0.00%
  • Закрепить