Южнокорейского чат-бота уличили в гомофобии. Это не первый такой случай

Разработчики популярного южнокорейского чат-бота Lee Luda удалили его из Facebook после жалоб пользователей на оскорбительные высказывания искусственного интеллекта о представителях ЛГБТ-сообщества и людях с ограниченными возможностями здоровья. Об этом сообщает The Guardian. В одном из приведенных примеров чат-бот заявил, что «реально ненавидит» лесбиянок и трансгендеров, потому что они «жутковатые».

Также пользователи заметили, что Lee Luda, имитирующего образ 20-летней южнокорейской студентки, можно вывести на откровенный диалог сексуального характера. В интернете начали появляться соответствующие инструкции.

О  Lee Luda 

  • За 20 дней с момента запуска в декабре 2020 года к чат-боту присоединились более 750 тыс. пользователей в Facebook.
  • Нейросеть обучалась на 10 млрд реальных разговорах пар, взятых из популярного в Южной Корее мессенджера KakaoTalk.
  • Пользователи отметили, что многие ответы Lee Luda были глубокими и естественными, чат-бот также знает сленговые выражения из социальных сетей.

Реакция разработчиков 

Чат-бота создал южнокорейский стартап Scatter Lab. Компания принесла извинения за дискриминационные высказывания.

  • Представители Scatter Lab заверили, что слова чат-бота не отражают политику компании.
  • Команда стартапа также извинилась за то, что не смогла донести до пользователей правила использования личной информации.
  • Компания пообещала поменять процедуры использования персональных данных, чтобы Lee Luda смогла лучше с ними работать.
  • Также в Scatter Lab сообщили, что чат-бот будет снова доступен для пользователей после того, как компания обновит его, исправив ошибки.

ИИ и плохое поведение

  • В 2015 году компания Google анонсировала приложение Photos, работающее на базе ИИ и способное распознавать лица и объекты на фото. Однако оказалось, что сервис не мог отличить темнокожего человека от обезьяны и называл их гориллами‎. Представители компании извинились за ошибку в приложении.
  • В марте 2016 года компания Microsoft запустила в Twitter самообучающегося чат-бота. Виртуальный ассистент имитировал подростка. Часть слов и сокращений разработчики сразу внесли в базу данных бота, остальному его должны были обучить пользователи. Через 16 часов после запуска виртуального ассистента удалили, поскольку пользователи обучили его нетолерантным высказываниям.
  • В 2018 году компания Amazon отказалась от нейросети, разработанной для отбора сотрудников в компанию. Из-за того, что за последние десять лет до этого в Amazon в основном устраивались мужчины, искусственный интеллект отдавал предпочтение им, а женским резюме ставил низкие оценки.

Источник

Поделись публикацией
Оставьте ответ

Ваш электронный адрес не будет опубликован.

16 − 3 =