Искусственный “гей-радар”: стоит ли ЛГБТ бояться компьютерных технологий?

Майкл Косински, исследователь из Стэнфордского университета, несколько лет назад заявил, что использовал искусственный интеллект для определения сексуальной ориентации пользователей по их фотографиям в социальных сетях и на сайтах знакомств. Тогда публикация наделала много шума: правозащитные ЛГБТ-организации сразу же осудили исследование, заявив, что оно, опираясь на сомнительные научные основания, вроде физиогномики, кроме прочего, несет опасность для представителей ЛГБТ-сообщества по всему миру.

Впрочем, сам Майкл Косински настаивает, что не планировал подвергать кого-либо аутингу. Напротив, он хотел предупредить нас о том, как технологии лишают нас приватности. И сексуальная ориентация, говорит он, – это начало.

Брайан Резник, корреспондент американского издания Vox.Сom поговорил с ученым, а сайт СПИД.Центр перевел их беседу на русский. Чтобы выяснить: насколько обоснованы противоречивые утверждения ученого, что “в будущем не будет тайны личности”, а главное – чем такое будущее может обернуться для каждого из нас.

Косински, польский психолог, изучающий поведение человека по его “цифровым следам”, не впервые удивляет научный мир своими работами. В 2013 году он стал соавтором статьи, в которой рассказывалось, как по “лайкам” людей в Facebook можно установить тип личности. Считается, что именно это открытие вдохновило технологическую компанию Cambridge Analitica на ее проекты, в итоге обернувшиеся грандиозным скандалом и существенными репутационными потерями для владеющего названной сетью Марка Цукерберга.

Для той статьи Косински вместе с соавтором Илуном Вонгом, используя искусственный интеллект, изучил более 30 000 фотографий, загруженных на неназванный сайт знакомств его пользователями. В итоге алгоритм, по словам исследователя, научился угадывать гомосексуальность мужчины с точностью в 81 % и гомосексуальность женщины – в 71%. В публикации содержится утверждение, что программа опиралась в своем решении на различия в структуре лиц: у гомосексуальных мужчин они якобы более женственные, а у лесбиянок, наоборот, более мужественные.

Ученые убеждены, что их открытие согласуется с теорией пренатального воздействия гормонов на сексуальную ориентацию, согласно которой, наша сексуальность, отчасти, определяется тем, какие гормоны влияют на нас в утробе матери. Стоит отметить, что алгоритм проверялся на анализе пар фотографий: одна фотография гетеросексуального человека и одна – гомосексуального. Компьютер должен был отгадать, кто гей. Однако если он правильно справился в 81 % случаев, это совсем не то же самое, что вычислить 7 гомосексуальных мужчин из сотни на улице.

– Вы стали довольно известны в последние несколько лет. Впервые я узнал о вас, читая вашу работу о составлении личных досье с помощью Facebook. Это та самая статья, которая вдохновила Cambridge Analitica. Но история про “гей-радар” – это совсем другое дело.

– Нет, это точно то же самое.

– Правда? Почему?

– Моя задача – попытаться лучше понять людей, социальные процессы и поведение через призму “цифровых следов”. На самом деле, исследовать человеческое поведение и психологию, используя большие массивы данных, – довольно сложно. Но это очень перспективное направление.

Самое интересное здесь – это крошечные детали, которые реально можно выявить в массиве, и то незаметное воздействие, которое они могут оказывать. Вы можете легко создать “черный ящик”, который возьмет часть информации и создаст очень точное предсказание будущего поведения человека, точное описание психологического профиля. Изучая то, что находится внутри этого черного ящика, мы сможем лучше понять поведение. Впрочем, даже не изучая его, мы уже знаем, что компьютер – на свой компьютерный манер – понимает, в чем заключаются определенные связи.

– Под “черным ящиком” вы имеете в виду искусственный интеллект и нейронные сети. Именно так компьютеры учатся делать предсказания на основе данных, но вы, исследователь, не знаете, как они это делают. Предсказания, наверное, интересны, но они не всегда помогают вам выдвигать гипотезы о том, что реально происходит.

– Именно. Машины оказываются пугающе точными в своих предсказаниях. Мы знаем, что компании уже собирают эти данные и используют подобные черные ящики, чтобы предсказывать будущее поведение пользователей. Это делают и Google, и Facebook, и Netflix. По сути, большая часть современных платформ изначально основаны на отслеживании цифровых следов своих пользователей и предсказании их поведения.

– В вашем проекте таким цифровым следом были фотографии из личных профилей – 35 с чем-то тысяч фотографий, полученных с сайта знакомств. Почему вы решили изучать именно лица?

– По ряду причин. Во-первых, только около пяти, наверное, лет назад компьютерные технологии достигли стадии, на которой стало возможно провести подобный анализ на своем компьютере или ноутбуке. Вам не нужен для этого суперкомпьютер. Раньше мы просто не могли этого сделать. Мы могли изучать лица, но нам бы пришлось использовать очень неточный метод. Нам пришлось бы давать оценивать лица людям…

– Ладно. Но почему вы считаете, что компьютер может связать черты лиц с личными характеристиками?

– Люди способны определять некоторые качества других людей по их лицам. Например, гендер, эмоции, возраст, синдром Дауна, дефекты развития. Есть большой набор параметров, которые мы можем вычислить визуально, по лицам. Кто-то в ответ на мою недавнюю статью уже сказал, что “невероятные заявления требуют невероятных доказательств”. А мне кажется невероятным заявление, что по лицу невозможно определить сексуальную ориентацию.

Огромное количество других особенностей – гендер, возраст и так далее – оставляют свои признаки на лицах. Психологи говорят: “Это просто лженаука”. И тогда я спрашиваю: “Но погодите. Вы соглашаетесь, что можно определить 57 качеств, а когда я спрашиваю, как насчет 58-го, вы утверждаете, что это совершенно ненаучно. Как вам это только в голову пришло?”.

– Люди не очень хорошо определяют сексуальную ориентацию, глядя на чужие лица. Почему нейронная сеть должна справляться лучше?

– Каждый раз, когда мы пытаемся настроить нейронные сети, дабы они делали что-то, что уже делают люди, достаточно очень небольшой наладки, чтобы добиться результата лучше, чем у людей. Вот, например, в случае с беспилотными автомобилями – они уже безопаснее, чем под управлением людей. Самолеты садятся сами. Вокруг нас уже есть основанные на искусственном интеллекте инструменты, которые делают нашу жизнь лучше.

Годы исследований показывают, что люди определяют личные черты, степень интеллекта и политические взгляды по лицам других людей с низкой точностью. Почему? Возможно, потому что люди не могут эффективно выделять эти черты. Например, мы фокусируемся на морщинках в уголках глаз, потому что это полезно при оценке эмоций. Но мы не фокусируемся на морщинах в других местах. На лице могут быть признаки сексуальности или личных черт, которым мы просто не уделяем внимания.

Вторая причина заключается в том, что люди, даже если и замечают их, не умеют правильно интерпретировать. То есть, даже если мы видим на лице человека признаки его сексуальной ориентации, мы неспособны сложить два и два. Но нейронные сети можно натренировать делать такие выводы.

– Почему из всех личных особенностей и качеств вы выбрали для исследования именно сексуальную ориентацию? Было же очевидно, что это вызовет споры.

– Потому что это наиболее неотложный вопрос. Я уже проводил исследования политических взглядов, черт личности, IQ и ряда других вещей. Эти качества тоже потенциально важны. Но когда доходит до сексуальной ориентации, это вопрос, не терпящий отлагательств.

Если бы вы сказали мне: “Эй, Майкл, почему бы тебе не стать ученым, чтобы создать взрывчатку и сделать новую большую бомбу?”, я бы ответил: “Я не думаю, что людям стоит этим заниматься”. Но если бы вы сказали мне: “У нас уже есть такая бомба. У нас есть эти алгоритмы. Не можешь ли ты проверить, насколько они опасны?” – это было бы именно то, чем я и занимаюсь.

Это очень важный момент, потому что, по-моему, опасность уже существует. Риск уже актуален, и мы пытаемся просто найти способы его нейтрализовать. Сообразительный человек с компьютером и доступом к интернету может оценить сексуальную ориентацию кого угодно в мире или миллионов людей одновременно без особых усилий… Что немного облегчает жизнь гомофобов и деспотичных режимов.

– Вы утверждаете, что ваше исследование отчасти является предупреждением об утрате приватности. Но разве вы не предлагаете миру технологию, способствующую вмешательству в личную жизнь?

– Я беру уже существующее оружие – искусственный интеллект, распознавание лиц – и говорю о том, что оно уже используется.

– Кто его использует?

– Правительства уже им пользуются. (Существует стартап под названием Faception, создатели которого утверждают, что могут вычислить по лицам террористов или педофилов и что сотрудничают с правительствами. СМИ ранее сообщали, что Косински являлся консультантом Faception. Сам он говорит, что это не совсем так, поскольку он консультировал разработчиков, но не брал у них денег: “Рад дать совет” – примечание автора).

– Существует подозрение, связанное с искусственным интеллектом, что эти сети просто учатся стереотипам. Если говорить о фотографиях людей с разной сексуальной ориентацией из вашей работы, то, как вы отметили, это фотографии, которые выбрали сами люди. Вы не пригласили 30 000 человек и не привели их в лабораторию, чтобы сделать совершенно нейтральные фото. Так что ваша программа могла вычислять другие вещи, помимо формы лица, например, использование макияжа или средств для ухода. Тогда дело не в каких-то биологических особенностях, как утверждает ваша статья, а в личных предпочтениях.

– В этом и есть суть статьи – нам не нужно приводить людей в лабораторию. Вы можете просто взять их фотографии с Facebook или сайта знакомств и делать выводы. Вся идея машинного обучения состоит в том, что вы можете натренировать машину на исходной выборке, и потом – по мере работы программы – она просто начнет сопоставлять закономерности, замечать их и обогащать модель.

Я предполагаю, что, если вы возьмете модель, натренированную на сайтах знакомств, и примените к базе данных фотографий на водительские права из Управления автомобильным транспортом, то для начала, с первой парой тысяч фото, модель, скорее всего, будет ошибаться. Тут другие особенности освещения или еще что-то… Но в том и состоит идея машинного обучения и нейронных сетей, что модель, с которой работает сеть, умеет автоматически приспосабливаться к меняющимся условиям. Даже без дополнительных данных постепенно она повысит свою точность, изучив закономерности в новых фотографиях.

– В Китае была опубликована статья, авторы которой писали, что использовали распознавание лиц, дабы изучать фотографии водителей и предсказывать, кто из них преступник. Сообщается, что точность предсказаний достигла 89,5 %. Я обсуждал это с некоторыми экспертами, и самые большие сомнения были вот в чем: на что именно полагается программа? Что если дело не в чертах лица, а в чертах определенной этнической группы, которая дискриминирована в этой стране юридической системой?

– Может быть, но стереотипы также могут быть точными. Есть стереотип, что гомосексуальные люди… ну, не знаю, говорят иначе. Возможно, они и правда до какой-то степени говорят иначе. Мы не можем сказать точно. У людей существуют проблемы с оценкой такой вероятности. Прелесть компьютера заключается в том, что он может выйти за пределы стереотипа. Использовать стереотип правильно. То есть стереотип, разработанный компьютером, будет точным. Он опирается на данные.

Я хочу сказать, что, даже если предсказание получается не очень точное, вы можете рассортировать людей от самых подходящих к наименее подходящим и просто сфокусировать свои усилия на вершине. Когда речь идет о поиске преступников, например, людей, которые хотят взорвать себя или убить вашу бабушку, я думаю, с использованием подобных технологий все еще есть проблемы, но я допускаю такую возможность.

– Предположим, вы проводите эксперимент с машинным обучением, используя фотографии задержанных полицией США. Что если программа обучится расовым предрассудкам нашей юридической системы? Она не будет знать, что это предрассудки, – она просто начнет ассоциировать более темную кожу с преступным поведением, и все. Если вы используете эту машину, чтобы определять, кто преступник, все, что вы делаете, – это закрепляете стереотип.

– Если вы по-дурацки настроите модель, то, конечно, да. Вы можете сделать алгоритм таким расистским, каким даже люди никогда в истории не были. Нет вопросов, настроить программу можно как угодно тупо. Но вы можете обучить алгоритм и так, чтобы он не был расистским. Минимизировать эти искажения, и, в отличие от людей, вы можете контролировать эти искажения. Потому что мы можем изучить, как работает алгоритм.

Кроме того, нужно сопоставлять алгоритмы с теми данными, которые у нас уже есть. Люди говорят: “О, но если будете использовать алгоритмы, чтобы брать людей на работу или чтобы судить их, они будут руководствоваться стереотипами” – и я не спорю. Будут искажения.

Искусственный интеллект неидеален. Нам всегда нужно сравнивать его со статус-кво. Но какова альтернатива? Альтернатива – это использование людей. Люди – расисты, сексисты, эйджисты, люди коррумпированы, несправедливы, люди устают, и мы об этом знаем. Мы прекрасно это знаем… Люди думают, что мораль находится вне рамок науки. Что у ученых нет принципов. Глупо так считать.

– Но вы понимаете, почему люди этого боятся?

– Я понимаю, что это инстинктивные сомнения. Я писал эту статью без удовольствия. Меня тоже пугает то, что это возможно. Я бы предпочел, чтобы результаты нельзя было воспроизвести. Это означало бы просто, что у нас как у человечества одной проблемой меньше. Но дайте мне шанс сесть и поговорить с людьми, реально показать им статью. Если они прочитают ее, они перестанут меня ненавидеть. У меня уже был такой опыт, в том числе с людьми, которые присылали мне угрозы.

– Что самое важное? Каков главный вывод?

– Главный вывод в том, что личное пространство нам вернут нескоро. Я всецело выступаю за законы и технологии, обеспечивающие охрану личных данных, но люди забывают о том, что эти попытки обречены на провал. У Equifax были отличные технологии защиты информации. Если большие компании и правительства не могут защитить свои данные, то как вы или ваши читатели, или я можем защитить наши данные?

Желающие уже пытаются их получить. Они получат данные, сколько их не зашифровывай. К тому же, даже если мы магически получим полный контроль над нашими данными, мы все равно будем хотеть делиться ими. Мы хотим писать твитты. Мы хотим писать в Facebook. Мы хотим ходить по улицам, не закрывая лиц и не искажая наших голосов. Этого уже достаточно, чтобы сделать очень точные предположения о моих личных характеристиках. Одним словом, в будущем не будет никакой тайны личности.

– И мы ничего не можем сделать?

– Да. Мы почти ничего не можем сделать. Нам нужно сесть и успокоиться, и как можно скорее задуматься над тем, как сделать этот мир пост-приватности – вернее, мир некоторых людей, например, бедных, не привилегированных людей, живущих в нелиберальных, не западных странах, – безопасным и приемлемым для жизни, если он внезапно станет миром пост-приватности.

Источник

Сподобалось? Знайди хвилинку, щоб підтримати нас на Patreon!
Become a patron at Patreon!
Поділись публікацією