UBTech развертывает гуманоидных роботов на границах и в местах скопления людей для руководства, управления и оказания помощи в поддержании порядка.
В такой среде особенно неприемлемо использование непрозрачной автономии. На границе роботы не просто выполняют задачи, они участвуют в управлении:
Точна ли идентификация личности? Соответствуют ли указания установленным правилам? Выходит ли мониторинг и использование данных за установленные границы?
Все это должно подлежать независимому аудиту, а не постфактическому объяснению со стороны системы или производителя. Как только автономная система начинает влиять на поведение людей, определение границ и результатов действий — без верифицируемой цепочки принятия решений — она превращается из инструмента в неподотчетного управляющего. Это не прогресс технологии, а передача риска.
Действительно приемлемая автономная система на границе должна обладать четкой аудируемостью; из какой модели исходит каждое решение? При каких условиях оно выполняется? Соблюдаются ли границы полномочий и соответствия? — все это должно быть доказано!
В противном случае автономность не означает повышение эффективности, а означает расширение власти без возможности подотчетности. В таких высокочувствительных сценариях верифицируемый ИИ — это не преимущество, а минимальный стандарт!
#KaitoYap @KaitoAI # Yap @inference_labs
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
UBTech развертывает гуманоидных роботов на границах и в местах скопления людей для руководства, управления и оказания помощи в поддержании порядка.
В такой среде особенно неприемлемо использование непрозрачной автономии. На границе роботы не просто выполняют задачи, они участвуют в управлении:
Точна ли идентификация личности?
Соответствуют ли указания установленным правилам?
Выходит ли мониторинг и использование данных за установленные границы?
Все это должно подлежать независимому аудиту, а не постфактическому объяснению со стороны системы или производителя. Как только автономная система начинает влиять на поведение людей, определение границ и результатов действий — без верифицируемой цепочки принятия решений — она превращается из инструмента в неподотчетного управляющего.
Это не прогресс технологии, а передача риска.
Действительно приемлемая автономная система на границе должна обладать четкой аудируемостью; из какой модели исходит каждое решение? При каких условиях оно выполняется? Соблюдаются ли границы полномочий и соответствия? — все это должно быть доказано!
В противном случае автономность не означает повышение эффективности, а означает расширение власти без возможности подотчетности. В таких высокочувствительных сценариях верифицируемый ИИ — это не преимущество, а минимальный стандарт!
#KaitoYap @KaitoAI # Yap @inference_labs