Искусственный интеллект: проблемы этики.

В последнее время в российском киберпространстве ширится дискуссия об «этичности» Искусственного Интеллекта (ИИ). Причем, основной темой дискуссий является вопрос о том, может ли ИИ принимать решения вместо человека, об опасности управления людьми и вообще о теме т.н. «цифрового фашизма». По большей части, эти дискуссии вызваны некоторым непониманием сути ИИ, поскольку в русскоязычном термине «Искусственный Интеллект» содержится лингвистическая ошибка.

А что слышно об этом в технологически развитых странах остального мира? Там также присутствует некоторое обеспокоенность этической стороной ИИ, однако, это обеспокоенность имеет совершенно иную направленность и сосредоточено на реальных, а не эфемерных проблемах.

Компании

В сентябре 2020 года облачное подразделение Google провело исследование о возможности использования искусственного интеллекта для вынесения банками решений о выдаче кредитов, по заказу одной из финансовых компаний США.

После долгих дискуссий, компания Google отклонила запрос клиента, посчитав проект слишком рискованным с этической точки зрения, поскольку технология ИИ может породить и укрепить предубеждения, подобные расовым и гендерным.

В 2020 году Google заблокировал новые функции анализа эмоций с помощью ИИ, из-за опасений разного подхода к восприятию проявлений эмоций в разных культурах. Кроме того, Microsoft ограничила использование функций имитации голоса, а IBM отклонила запрос клиента на усовершенствование систему распознавания лиц.

Это свидетельствует о зарождающемся в отрасли ИТ тенденции сбалансировать стремление к максимизации прибыли от искусственного интеллекта с социальной ответственностью.

Microsoft, например, должна была найти баланс между преимуществами использования технологии имитации голоса для людей с нарушениями речи и такими рисками, как фальсификация высказываний политических деятелей.

Представители Европейского союза гражданских свобод (Civil Liberties Union for Europe), считают, что внешний надзор — это решение проблемы этического использования возможностей ИИ. В это связи власти США и Европы действительно озабочены выработкой правил использования возможностей зарождающейся на наших глазах отрасли ИИ.

Представители индустрии ИТ, как показывают решения Google, Microsoft и IBM, в общем заинтересованы в чётком регулировании использования ИИ. Они считают, что это важно как для доверия клиентов, так и для общества, подобно правилам безопасности для автомобилей.  Однако также считают, что любые правила были достаточно гибкими, чтобы не замедлять инновации.

Например, IBM сообщила агентству Reuters, что совет компании по этике ИИ (AI Ethics Board) начал обсуждение вопроса использования имплантатов и других носимых устройств, котоыре могут получать сигналы из мозга человека. Такие нейротехнологии могут, например, помочь ослабленным людям при передвижении, но вызывают опасения, такие как перспектива манипулирования мыслями со стороны хакеров.

Другие техно-гиганты последовали примеру IBM, и в 2017 году, а Microsoft, а Google и IBM в 2018 году также создали комитеты по этике ИИ.

Google в сентябре 2020 год года оказалась в затруднительном положении рассматривая заказ от финансовой компании, которая решила, что ИИ может проводить оценку кредитоспособности. Проект хорошо вписывался в возможности Google Cloud, чей опыт в обнаружении аномальных транзакций при помощи ИИ, привлёк таких крупных клиентов, как Deutsche Bank, HSBC и BNY Mellon. Google Cloud строила большие планы в отношении проекта кредитного скоринга на основе ИИ, поскольку этот сегмент сулил доходы в миллиарды долларов в год.

Однако комитет по этике ИИ компании Google, единогласно проголосовал против проекта в конце 2020 года. Комитет решил, что системе ИИ необходимо будет учиться на прошлых данных и закономерностях, и, таким образом, возникнет риск повторения дискриминационных практик в отношении людей с не белым цветом кожи и других маргинализированных групп. Поэтому Google запретил все сделки с финансовыми услугами, связанные с кредитоспособностью, до тех пор, пока такие проблемы не будут решены в самом обществе. И такие меры уже предпринимаются законодателями.

Последствия этих решений, в частности, вызвали недопонимание (если не сказать больше) на просторах российского интернета, которое можно, увидеть, в частности здесь. Лучше просто посмотреть ссылку, поскольку пересказывать написанное там, неэтично уже само по себе.

Более того, Google отклонил ещё три аналогичных предложения в 2020 году, в том числе от компании, выпускающей кредитные карты, и бизнес-кредитора.

В Google есть и ещё один комитет по этике облачных вычислений, известный как Iced Tea, который в этом году поставил на рассмотрение выпущенный в 2015 году сервис для категоризации фотографий людей по четырём эмоциям: радость, печаль, гнев и удивление. Этот шаг последовал за решением, принятым в прошлом году группой по этике Google, Advanced Technology Review Council (ATRC), в который входят более десятка топ-менеджеров и инженеров критически рассматривающий новые услуги, связанные с чтением эмоций, который решил различная мимика лица по-разному связана с чувствами в разных культурах.

Microsoft разработала программу для создания чьего-то голоса из короткого образца, но группа по этике компании уже более двух лет, обсуждает этические аспекты его использования. Наконец, сервис Custom Neural Voice всё-таки вышел в феврале этого года с ограничениями на его использование, в том числе того, что согласие людей, чей голос используется для имитации, должно быть перед этим получено.

Правление IBM отклонило запрос клиента на разработку программы распознавания мимики. Затем IBM объявила о прекращении поддержки службы распознавания лиц.

Законодатели

Законодатели в Европейском Союзе и Соединённых Штатах принимают далеко идущие меры контроля над системами ИИ.

Закон ЕС об искусственном интеллекте, который должен быть принят в 2022 году, запретит распознавание лиц в режиме реального времени в общественных местах и ​​потребует от технологических компаний проверки приложений с высоким уровнем риска, таких как те, которые используются при приёме на работу, кредитном скоринге и правоохранительных органах.

Внедрение многих инноваций в области ИИ может быть просто отложено до тех пор, пока компании смогут противостоять возможным нарушениям этическим рискам.

Об авторе Алексей Шалагинов

Независимый эксперт
Запись опубликована в рубрике Искусственный интеллект, Ликбез, Тенденции с метками , , , . Добавьте в закладки постоянную ссылку.

1 отзыв на “Искусственный интеллект: проблемы этики.

  1. Уведомление: IT гиганты пытаются сбалансировать этичное использование Искусственного интеллекта – TIME

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Google photo

Для комментария используется ваша учётная запись Google. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.