KnigkinDom.org» » »📕 За секунду до: как мозг конструирует будущее, которое становится настоящим - Дэниел Йон

За секунду до: как мозг конструирует будущее, которое становится настоящим - Дэниел Йон

Книгу За секунду до: как мозг конструирует будущее, которое становится настоящим - Дэниел Йон читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 ... 27 28 29 30 31 32 33 34 35 ... 73
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
ознакомились с данными об уровне гендерного неравенства в разных странах — в частности, в работе, образовании, здоровье и политике. По этим метрикам сравнительно хорошие оценки получают такие страны, как Исландия, Финляндия и Ирландия, а вот, скажем, в Саудовской Аравии, Турции и Японии дела обстоят хуже.

Затем ученые задались вопросом: будет ли Google более сексистским в странах, где уровень сексизма выше? Ученые запустили поиск Google Images по ключевому слову «человек» в большом количестве стран. Этот тест был вдохновлен одним из самых печальных (и достоверных) открытий в области психологии половых предрассудков: гендерно-нейтральные слова вроде «человек», «персона» или «кто-то» по умолчанию чаще всего считаются обозначающими мужчину[98].

Власчану и Амодио обнаружили, что алгоритмы поиска Google склонны к такой же предвзятости, как и люди, но ее степень зависит от уровня неравенства в обществе. В странах с самым высоким уровнем неравенства предвзятость алгоритма была выражена в наибольшей степени — а если просто спросить Google, как выглядит человек, мужчины будут появляться в подборке намного чаще женщин.

Эта закономерность выглядит логичной, если алгоритмы действительно усваивают паттерны общества, ведь там, где неравенство выражено сильнее всего, модели «скармливают» самые искаженные паттерны. Но влияет ли контакт с подобными закономерностями и на наше мышление?

Чтобы разобраться в этом вопросе, ученые не просто рассмотрели существующие стереотипы (например, что медсестры — чаще всего женщины), но и узнали, как человеческий разум формирует новые ожидания по поводу возможных гендерных ролей.

В следующем эксперименте ученые пригласили группу добровольцев и предложили им оценить четыре старинных английских слова, обозначающие профессии: chandler, draper, peruker и lapidary. Все это — настоящие названия профессий, но большинство людей не знают, что они означают[99], поэтому участники эксперимента почти наверняка не могли заранее знать, чем занимаются эти люди и какого они обычно пола.

В рамках эксперимента участникам предложили угадать занятия каждого из этих профессионалов, а также возрастной диапазон, доходы, интеллектуальный уровень и дружелюбие среднестатистического представителя — и, что важнее всего, преобладающий пол. После ответа участникам показывали подборку найденных в Google изображений по запросу с названием профессии (например, продавцов свечей) и снова задавали те же вопросы.

Главная хитрость эксперимента состояла в том, что разным группам участников показывали в результатах поиска разные уровни гендерного паритета. Кому-то выдавали результаты запроса «chandler» с равной пропорцией полов: 50% продавцов свечей были мужчинами, 50% женщинами. Другие же видели сильно перекошенную выдачу — например, 90% продавцов свечей были мужчинами и лишь 10% женщинами (примерно такую пропорцию ученые обнаружили, введя в Google слово «человек» в странах с выраженным половым неравенством).

Исследование показало, что различные паттерны контакта с информацией могут влиять на принимаемые нами решения — вплоть до гипотетического выбора, кого нанять на работу. Участники эксперимента, которые видели в выдаче в основном мужчин, с большей вероятностью предполагали, что эту работу выполняли мужчины, а когда их заставляли сделать выбор, чаще отвечали, что возьмут на воображаемую открывшуюся вакансию мужчину. Напротив, участники, которые видели одинаковое число мужчин и женщин, с большей вероятностью отвечали, что эту работу выполняли и мужчины, и женщины, а в вопросе о воображаемой вакансии не отдавали однозначного предпочтения мужчине. Эти результаты говорят, что и для алгоритмов, и для нас репрезентация действительно важна.

Как избавиться от своей программы

Я всегда скептически отношусь к нейробиологам, которые говорят, что существует «один-единственный факт» о нашем мозге, полностью объясняющий причины такого сложного явления, как предрассудки. И вам тоже стоит проявлять скептицизм. Обсуждение биологических процессов в наших головах не может и не должно замещать полноценный исторический, политический или экономический анализ происхождения неравенства и угнетения, а также условий и идеологий, благодаря которым они существуют до сих пор.

Но если всерьез принять аналогию между искусственными алгоритмами и нашим биологическим мозгом, то мы откроем новое окно, через которое сможем по-новому взглянуть на то, как вредные предрассудки влияют на наши гипотезы об окружающем мире. Если наши умы «посадить на диету» из необъективных данных, прогностические процессы в мозге будут формировать ожидания на основе этих предрассудков.

Подобный образ мыслей отнюдь не оправдывает ни шовинистических мыслей, ни тем более действий, выражающих нетерпимость. Вы не можете утверждать, что не отвечаете за свои предрассудки, поскольку ваш мозг много лет назад обучался на плохих массивах данных.

Но пусть этот подход и не оправдывает предрассудков, он, по крайней мере, может их частично объяснить — хотя бы те неявные, но широко распространенные виды бессознательной предвзятости, которые прячутся в дальних уголках любого разума.

Если мы усваиваем предрассудки так же, как и алгоритмы, то главный способ избавления от них тоже лежит в изучении алгоритмов.

Один из способов избавить машины от предрассудков — тщательный отбор данных, используемых в обучении. Ученые обнаружили, что если убрать из тренировочных наборов нежелательный шум — например, убедиться, что алгоритм компьютерного зрения видит фотографии мужчин на кухне так же часто, как и женщин, — это может отчасти смягчить нежелательные предрассудки, которым могут научиться алгоритмы.

А это значит, что нам, наверное, стоит задуматься и о тщательном отборе данных, которые мы скармливаем мозгу. Если мы можем сделать алгоритм беспристрастнее, дав ему более разнообразные тренировочные данные, то, возможно, мы избавимся и от собственных предрассудков, сделав более разнообразным наш жизненный опыт. Результаты вроде тех, что получили Власчану и Амодио, показывают, что постоянные контакты с неравенством поддерживают неравенство, а более сбалансированная «информационная диета» отчасти смягчает этот эффект.

Проницательный читатель наверняка подумает, что это на самом деле вовсе не решение: достаточно избавиться от неравенства в окружающем мире, и тогда мозги сами подтянутся! Дать алгоритму набор картинок, где половина людей, готовящих дома, будут мужчинами, а половина — женщинами, безусловно, легко. Куда сложнее создать социальные, экономические и политические условия, при которых на самом деле в половине случаев готовить дома будут мужчины.

Но если печать, которую оставляет неравенство на внутренних алгоритмах нашего мозга, отчасти способствует поддержанию неравенства в реальности, то диверсификация данных, которые мы даем нашим моделям, должна нам помочь. И она может проходить в разных формах. Выдающийся пример — сознательные усилия в различных областях (политике, бизнесе, развлечениях, спорте, искусстве, науке и т. д.), чтобы усилить голос и повысить видимость групп, которые были недостаточно представлены ранее (впрочем, и сейчас ситуация не сильно улучшилась).

Критику может показаться, что это звучит слишком похоже на социальную инженерию. Но, будучи предсказательными машинами, мы в любом случае подвергаемся ей. Наши текущие предрассудки и предубеждения не отражают определенного важного состояния природы. Наши ожидания и прогнозы о настоящем — уже продукт той

1 ... 27 28 29 30 31 32 33 34 35 ... 73
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Дора Дора22 январь 19:16 Не дочитала. Осилила 11 страниц, динамики сюжета нет, может дальше и станет и по интереснее, но совсем не интересно прочитанное.... Женаты против воли - Татьяна Серганова
  2. Борис Борис22 январь 18:57 Прочел Хоссбаха, спасибо за возможность полной версии.... Пехота вермахта на Восточном фронте. 31-я пехотная дивизия в боях от Бреста до Москвы. 1941-1942 - Фридрих Хоссбах
  3. Гость Лиса Гость Лиса22 январь 18:25 Ну не должно так все печально закончиться. Продолжение обязательно должно быть. И хэппи энд!!!... Ты - наша - Мария Зайцева
Все комметарии
Новое в блоге