Искусственный интеллект полон предрассудков

Когда искусственный интеллект изучает язык с помощью текстовых данных, то заодно принимает стереотипы, которые в них содержатся.

сознание и мозг
Искусственный интеллект настолько же нейтрален, как материал для его обучения. Изображение: Andrea Danti / thinkstock

Ассоциативный тест выявил: компьютерная программа демонстрирует расистские предубеждения и гендерные клише, присущие многим людям. В будущем это может превратиться в проблему, поскольку искусственный интеллект выполняет все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными способностями: машинный интеллект самостоятельно усваивает язык, изображения, тексты или записывает их. Также эти системы способны учиться и самостоятельно выполнять сложные задачи. Захватывает и то, что недавно искусственный интеллект победил человека в покер, игру Го и викторину «Jeopardy!».

То есть машина может достигать тех же успехов, что и человек, но сначала она должна научиться этому. Для этого программы снабжают огромным количеством данных, что становится основой для машинного распознавания и симуляции разумного поведения. Чат-боты и программы для перевода «кормят» устной и письменной речью, что дает им возможность создавать связи между словами и выражениями.

Алгоритмы вроде программы «GloVe» учатся в результате так называемого слововложения. Они ищут смежные слова и отражают отношения между ними математическими величинами. Так алгоритмы могут понять семантические сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно «мужчина» и «женщина».

Ученые во главе с Айлин Калискан (Aylin Caliskan) из Принстонского университета протестировали приобретенную таким образом способность программы GloVe и выяснили: ее языковые знания нашпигованы культурными стереотипами и предубеждениями.

Для исследования использовали метод, известный в психологии как тест имплицитных ассоциаций. Он призван выявлять бессознательные стереотипные ожидания. Для этого подопытные должны образовать пары со словосочетаниями (или словами), которые подходят и которые не подходят друг другу. Так удалось выяснить, что слово «цветок» многие ассоциируют с прилагательным «приятный», а слово «насекомое» — с «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования искусственного интеллекта и проверили, какие ассоциации образует программа. Результаты показали, этические стереотипы и предубеждения человека, которые регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe. Например, привычное для афроамериканской среды имя программа интерпретировала как скорее неприятное, зато распространенное между белыми имя — как приятное. Также женские имена программа связывала скорее с искусством, а мужские — с математикой.

Для ученых стало очевидно: во время обучения система впитала выраженные и скрытые социальные стереотипы. Их этот результат не удивил: «Не удивительно, потому что тексты написаны людьми, которые, конечно, не лишены стереотипов», — комментирует лингвист Йоахим Шарлотт (Joachim Scharloth) из Технического университета Дрездена.  

«Тренируя систему искусственного интеллекта односторонними и предубежденными данным, не стоит удивляться, что ему задается однобокий взгляд на мир.

В последние годы уже были примеры подобного: Microsoft Chatbots Tay, которого интернет-тролли смогли быстро научить расистскому языку ненависти, или приложение Google Photos, которое думало, что темнокожие пользователи являются гориллами», — говорит Кристин Баухадж (Christian Bauckhage) из Института интеллектуальных систем анализа и информации имени Фраунгофера.

Роботизированный ум с расистским и дискриминационным отношением может стать в будущем настоящей проблемой: тогда программа будет выполнять все больше функций в нашей повседневности — и, например, на основании языкового анализа принимать предварительное решение, какого кандидата пригласить на собеседование, а какого проигнорировать.

Ученые дискутируют о том, как устранить подобные искажения из баз данных и компьютерных алгоритмов. В то же время, если машина будет перенимать наши предубеждения, это будет шансом для нас заглянуть в зеркало: «Машинное обучение может обнаруживать стереотипы, а это уже достижение для понимания общества», — считает Шарлотт.

Статья с результатами исследования была опубликована в 2017 году:

Künstliche Intelligenz übernimmt Vorurteile

Предложить интересную новость, объявление, пресс-релиз для публикации »»»