Южнокорейского чат-бота уличили в гомофобии. Это не первый такой случай
Разработчики популярного южнокорейского чат-бота Lee Luda удалили его из Facebook после жалоб пользователей на оскорбительные высказывания искусственного интеллекта о представителях ЛГБТ-сообщества и людях с ограниченными возможностями здоровья. Об этом
Также пользователи заметили, что Lee Luda, имитирующего образ 20-летней южнокорейской студентки, можно вывести на откровенный диалог сексуального характера. В интернете начали появляться соответствующие инструкции.
О Lee Luda
- За 20 дней с момента запуска в декабре 2020 года к чат-боту присоединились более 750 тыс. пользователей в Facebook.
- Нейросеть обучалась на 10 млрд реальных разговорах пар, взятых из популярного в Южной Корее мессенджера KakaoTalk.
- Пользователи отметили, что многие ответы Lee Luda были глубокими и естественными, чат-бот также знает сленговые выражения из социальных сетей.
Реакция разработчиков
Чат-бота создал южнокорейский стартап Scatter Lab. Компания принесла извинения за дискриминационные высказывания.
- Представители Scatter Lab заверили, что слова чат-бота не отражают политику компании.
- Команда стартапа также извинилась за то, что не смогла донести до пользователей правила использования личной информации.
- Компания пообещала поменять процедуры использования персональных данных, чтобы Lee Luda смогла лучше с ними работать.
- Также в Scatter Lab сообщили, что чат-бот будет снова доступен для пользователей после того, как компания обновит его, исправив ошибки.
ИИ и плохое поведение
- В 2015 году компания Google анонсировала приложение Photos, работающее на базе ИИ и способное распознавать лица и объекты на фото. Однако оказалось, что сервис не мог отличить темнокожего человека от обезьяны и называл их гориллами. Представители компании извинились за ошибку в приложении.
- В марте 2016 года компания Microsoft запустила в Twitter самообучающегося чат-бота. Виртуальный ассистент имитировал подростка. Часть слов и сокращений разработчики сразу внесли в базу данных бота, остальному его должны были обучить пользователи. Через 16 часов после запуска виртуального ассистента удалили, поскольку пользователи обучили его нетолерантным высказываниям.
- В 2018 году компания Amazon отказалась от нейросети, разработанной для отбора сотрудников в компанию. Из-за того, что за последние десять лет до этого в Amazon в основном устраивались мужчины, искусственный интеллект отдавал предпочтение им, а женским резюме ставил низкие оценки.