Над автопоиском Google и раньше посмеивались, но всерьез обвинять этот сервис в попустительстве дискриминации стали только недавно. Сегодня правозащитные организации печатают постеры с подборкой поисковых запросов, оскорбляющих женщин и геев, а лингвисты занимаются анализом стереотипных расистских подсказок автостроки. «Теории и практики» публикуют самое интересное из статьи из журнала Critical Discourse Studies «Почему у белых тонкие губы» — исследователей Пола Бэйкера и Аманды Поттс из Университета Ланкастера.

Интернет впервые позволил человечеству взаимодействовать в условиях анонимности. Предполагалось, что на этой основе возможно создание виртуального общества, в котором раса, сексуальность и возраст различных представителей не будет поводом для их дискриминации. Отчасти эта утопия не была реализована, потому что доступ к интернету так и остался привилегией для слишком многих людей. Но есть и другие причины.

Информацию в интернете сегодня можно разделить на два вида: доступную и очень доступную. Пользователям, которые хотят найти какую-либо критическую информацию, часто приходится противостоять многочисленным интернет-фильтрам. Как известно, самую мощную фильтрацию устраивает поисковый ресурс Google. По мнению исследователя и активиста Эли Паризера, опасность фильтров состоит не только в том, что в них без нашего согласия используются наши личные данные, а в том, что машина возвращает нас по кругу на одни и те же сайты. Это затрудняет процесс обучения — если под обучением понимать столкновение с чем-то новым, неожиданным, пробивающим дыру в нашем миропонимании. А пока в поисковике снова и снова высвечиваются ссылки на наши любимые сайты, этого не происходит.

Запустив осенью 2010 года алгоритм с автострокой в поисковом окне, Google сделал очевидный шаг в стремлении стандартизировать запросы пользователей. Исполнительный директор компании Эрик Шмидт с энтузиазмом говорил о том, что ему всегда хотелось создать машину, которая могла бы догадаться, какое слово хотел бы напечатать пользователь. Разработчики уверяют, что машина «догадывается», опираясь только на статистику, а не на рекламу. Но набрав на английской клавиатуре букву A, вам предложат заглянуть в первую очередь почему-то на сайт компаний Amazon и Apple.

«Конечно, нельзя утверждать, что одно то, что люди видят эти стереотипные запросы, способствует распространению расизма и других видов дискриминации в обществе. Но нужно понимать, что какая-то часть пользователей может не отдавать себе отчет в том, что это стереотипы, и воспроизводить их впоследствии в другом контексте».

В официальной презентации нового сервиса было сказано, что автострока не только бережет время, но и помогает пользователям искать информацию «на новом уровне, вступая в диалог с поисковой машиной». С точки зрения социологии, как раз очень интересно проследить, чем же эта машина отвечает. Время набора букв, безусловно, сокращается, но при этом пользователям выдается несколько поисковых опций, которые могут быть никак не связаны с оригинальным запросом. Если мы захотим узнать на английском что-то о черной дыре, то в поисковой строке нам, вполне возможно, предложат почитать, почему у афроамериканцев большие губы. А набрав слова «почему геи», в предлагаемых запросах высветится: «почему геи говорят странным голосом», «почему геи болеют спидом», «почему геи существуют». Все это стереотипные конструкции в чистом виде — группе людей приписываются какие-то качества только на основе их принадлежности к этой группе. Стереотипизация сужает наши представления о людях, ограничивая их в нашем сознании до пары — как правило, сильно преувеличенных — характерных черт. Все это хорошо известно из литературы: на протяжении веков афроамериканцы описывались на страницах книг исключительно как «кроткие» и «ленивые».

Естественно, стереотипные запросы появляются не из ниоткуда. Скорее всего, какие-то пользователи действительно часто забивают их в поисковике. Вероятно также, что чем популярнее становятся эти запросы, тем больше других пользователей будет кликать на них в дальнейшем, с легкого позволения автостроки. Конечно, нельзя утверждать, что одно то, что люди видят эти стереотипные запросы, способствует распространению расизма и других видов дискриминации в обществе. Но нужно понимать, что какая-то часть пользователей может не отдавать себе отчет в том, что это стереотипы, и воспроизводить их впоследствии в другом контексте. А часть пользователей, увидев подобные запросы, может еще больше укрепиться в своих стереотипных суждениях — ведь они подтверждаются таким уважаемым ресурсом, как Google. Однако пока что сама компания явно не собирается прибегать к регуляции дискриминирующих запросов. Хотя однажды она уже была представлена в судебном порядке к ответственности и вынуждена изменить алгоритм автопоиска. Правда, речь шла не о расистских запросах, а о личном иске — рядом с фамилией одного итальянца в поисковике устойчиво высвечивалось слово «мошенник».