Исследователи из Уорикского университета, Имперского колледжа Лондона, ЕПФЛ (Лозанна) и Sciteb Лтд нашли математические способы помощи регуляторов и бизнес-управления и полиции, системы искусственного интеллекта’ уклоны в сторону принятия неэтичных и потенциально очень дорогостоящим и повреждения коммерческий выбор-этической глаз на АИ.

Искусственный интеллект (ИИ) чаще используется в коммерческих ситуациях. Рассмотрим, например, использование и. для установки цен на страховые товары должны быть проданы для конкретного заказчика. Есть законные основания для установления различных цен для разных людей, но это может также быть выгодно для «игры» у них психология или желания ходить по магазинам вокруг.

ИИ имеет огромное количество возможных стратегий, чтобы выбрать из, Но некоторые неэтичные и понесет не только моральных затрат, но значительный потенциал экономического казнь в качестве заинтересованных лиц будет взиматься штраф какой-то, если они считают, что такая стратегия была использована — регуляторы могут взимать значительные штрафы в миллиарды долларов, фунтов или евро, и клиенты могут бойкотировать вы … или оба.

Поэтому в среде, где решения все в большей степени производится без вмешательства человека, поэтому это очень сильный стимул, чтобы знать, при каких обстоятельствах систем ИИ могут принять неэтичной стратегию и снизить риск или полностью устранить, если это возможно.

Математиков и статистиков из Университета Уорика, Империал, ЕПФЛ и Sciteb Лтд собрались вместе, чтобы помочь бизнеса и регуляторов создании нового «неэтично принцип оптимизации» и предложить простую формулу для оценки ее воздействия. Они выложили всю информацию в документ, носящий название «неэтичным принцип оптимизации», изданной в царской Открытое общество науки в среду 1-го июля 2020 года.

Четырех авторов документа Николай бил из Sciteb Лтд; Хизер батарея кафедры математики, Имперский колледж Лондона; Энтони Дэвисон с. Института математики, Высшая политехническая школа Лозанны; и профессор Роберт Маккей из Математического института Уорикского университета.

Профессор Роберт Маккей из Математического института Уорикского университета заявили:

«Наш предложил ‘неэтично принцип оптимизации могут быть использованы, чтобы помочь регуляторам, соответствия персонала и другие найти проблематично стратегий, которые могут быть скрыты в большой космической стратегии. Оптимизация может быть как ожидается, выбрать непропорционально много неэтичных стратегий, проверки, которые должны показать, где проблемы могут возникнуть и при этом подскажет, как алгоритм поиска ИИ должен быть изменен, чтобы избежать их в будущем.

«Этот принцип также предполагает, что это может быть необходимо повторно думаю, что AI действует в очень большой стратегии пространств, так что неэтично результатов не производится в/оптимизация процесса обучения».

почувствуйте разницу: спонсорские возможности

0 ответы

Ответить

Хотите присоединиться к обсуждению?
Не стесняйтесь вносить свой вклад!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *