Мова ворожнечі проти квір-людей на конвеєрі? Amnesty International застерігає від штучного інтелекту

Таке програмне забезпечення, як ChatGPT, що створює тексти, може створювати і поширювати мову ненависті до жінок і ЛГБТ на конвеєрі, попереджає Amnesty International у своєму новому щорічному звіті.

Amnesty International попереджає про зростання порушень прав людини через використання штучного інтелекту (ШІ). «ШІ може бути використаний для дискримінації, дезінформації та розколу», – заявила Лена Рорбах, експертка з прав людини в цифрову епоху, на презентації щорічного звіту правозахисної організації в Берліні, який був опублікований в середу. Таке програмне забезпечення, як ChatGPT, яке створює тексти, може виробляти і поширювати мову ненависті проти жінок і ЛГБТ на конвеєрі.

Amnesty особливо розкритикувала використання розпізнавання облич. За словами Рорбахера, німецький уряд досі не виконав свою обіцянку заборонити розпізнавання облич у громадських місцях. Використання штучного інтелекту наразі обговорюється як на чемпіонаті Європи з футболу в Німеччині, так і на Олімпійських іграх у Парижі. «Є побоювання, що це буде постійно розширюватися», – сказала Рорбахер.

Розпізнаванням облич зловживають для стеження

У росії камери з функцією розпізнавання облич вже використовуються, наприклад, для ідентифікації учасників антиурядових демонстрацій, пояснила вона. Минулого року влада Ірану оголосила, що буде використовувати таке програмне забезпечення для ідентифікації жінок, які відмовляються носити чадру. А в 2023 році поліція Нью-Йорка зізналася, що використовувала розпізнавання облич для моніторингу протестів Black Lives Matter після скарги Amnesty International.

За словами Рорбаха, штучний інтелект також використовується для створення фальшивої порнографії. В основному від цього страждають жінки. Вона навела приклад 17-річної єгиптянки, яка наклала на себе руки після поширення фальшивих фотографій з її оголеною натурою. Amnesty також розкритикувала інтернет-платформи, які обмежують інформацію про аборти, наприклад.

Особливо проблематичним є використання шпигунського програмного забезпечення, такого як Pegasus або Predator. «Вони уможливлюють абсолютно новий рівень транснаціональних репресій», – сказала Рорбах. Минулого року Вірменія, Індія та Сербія, наприклад, використовували програмне забезпечення Pegasus для моніторингу ЗМІ та громадянського суспільства. Програмне забезпечення Predator, яке виробляється європейським консорціумом, використовувалося, наприклад, для кібератаки на в’єтнамського журналіста, який проживав у Берліні.

Помилкове порушення прав людини

Існують також випадкові порушення прав людини, спричинені штучним інтелектом, наприклад, коли органи влади використовують алгоритми. У Сербії впровадження автоматизованої системи призвело до того, що тисячі сімей помилково втратили доступ до соціальної допомоги. «Насправді існує період, протягом якого люди повинні переглядати судові рішення (…), але де-факто рішення приймає алгоритм», – пояснив Рорбах.

Amnesty International закликає як до заборони особливо інвазивного шпигунського програмного забезпечення, так і до мораторію на торгівлю іншими технологіями стеження, поки не будуть встановлені міжнародні правила. Європейське регулювання ШІ є кроком у правильному напрямку, але водночас відкриває «ворота для порушень прав людини у сферах міграції та безпеки, які є особливо чутливими до фундаментальних прав». Уряд Німеччини повинен «посилити національне законодавство» в цих сферах, сказав Рорбахер. (AFP/cw)

Джерело

Сподобалось? Знайди хвилинку, щоб підтримати нас на Patreon!
Become a patron at Patreon!
Поділись публікацією
Залишити коментар