Ученые из США разработали алгоритм, способный в 9 из 10 случаев определить сексуальную ориентацию по фотографии

Ученые из Стэнфордского университета разработали специальный алгоритм, определяющий гомосексуальность по изображению человеческого лица. Программа работает с помощью искусственного интеллекта, сообщает The Economist.

По данным издания, исследование было основано на выборке более чем из 35 тысяч фотографий мужчин и женщин европеоидной расы с американских сайтов знакомств. У каждого из них в описании профиля была указана сексуальная ориентация. Авторы технологии Майкл Косински и Юлун Ванг отбирали фотографии по нескольким общим признакам и анализировали черты лица каждого человека с помощью «глубинных нейронных сетей».

Результаты исследования показали, что гомосексуалы склонны иметь «гендерно-нетипичные» черты лица, в частности узкую челюсть, длинный нос и широкий лоб. Представительницы ЛГБТ, наоборот, зачастую имеют более мощные челюсти и узкие лбы, чем гетеросексуальные женщины.

Согласно подсчетам ученых, программа способна распознать представителей ЛГБТ-сообщества намного точнее, чем это может сделать человек. В программу загружали изображения двух людей: гетеро- и гомосексуальных. После демонстрации пяти фотографий алгоритму удалось определить гомосексуальность мужчин в 91% случаев и женщин в 83% случаев. При этом, по словам исследователей, человеческий глаз способен распознать сексуальную ориентацию только по фотографии лишь в 61% случаев для мужчин и в 54% случаев для женщин.

Авторы работы считают, что их исследование подтверждает теорию о том, что человек уже рождается с определенной сексуальной ориентацией, на формирование которой влияет гормональный статус в период внутриутробного развития.

Ученые предположили, что алгоритм может быть использован для выявления сексуальной ориентации людей без их согласия. Сейчас миллиарды фотографий мужчин и женщин со всего мира хранятся в соцсетях и государственных базах данных.

Как пишет The Guardian, можно легко представить супругов, использующих технологию на своих партнерах, или подростков, которые решат проверить себя или своих сверстников. Однако, по мнению многих активистов, более пугающим является тот факт, что алгоритм может быть гипотетически использован властями, преследующими представителей ЛГБТ.

«Как и любой новый инструмент, если он попадет в плохие руки, может быть использован для вредных целей. Если кто-то может начать профилирование людей на основе их внешнего вида, а затем распознать их и причинить им вред, то это очень плохо», подчеркнул профессор психологии университета Торонто Ник Рул.

Кроме того, как отметил Брайан Брэккин, глава компании Kairos, специализирующейся на распознавании лиц, в связи с развитием технологий искусственного интеллекта обществу стоит уделить внимание конфиденциальности и инструментам, которые предотвратят использование машинного обучения в корыстных целях.

Все новости

Новости

Текст
0 из 0

Подпишитесь на субботнюю рассылку лучших материалов «Таких дел»

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: