Власть и прогресс - Саймон Джонсон
Книгу Власть и прогресс - Саймон Джонсон читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!
Шрифт:
Интервал:
Закладка:
С самого начала на фейсбуке пышным цветом расцвел язык вражды и подстрекательские призывы. 1 июня 2012 года высокопоставленный чиновник, близкий к президенту страны Тейн Сейну, опубликовал на своей странице в фейсбуке такой пост:
«Ходит слух, что террористы-рохинджа из так называемой Организации солидарности рохинджа сейчас переходят границу и вторгаются с оружием на нашу территорию. Рохинджа из иных стран вторгаются к нам! Поскольку первыми эту информацию получили военные, не сомневаюсь, что они выкорчуют эту угрозу под корень! Думаю, уже сейчас они этим заняты».
И дальше: «Мы не хотим слушать из чужих уст разговоры о правах человека и о гуманитарных ценностях». Пост, как видим, не только разжигал ненависть против мусульманского меньшинства, но и поддерживал ложный нарратив о том, что рохинджа «вторгаются» в Мьянму откуда-то со стороны.
В 2013 году буддистский монах Ашин Виратху, в том же году названный журналом «Тайм» «лицом буддистского террора», публиковал в фейсбуке буквально сотни постов в час, в которых называл рохинджа иноземными агрессорами, убийцами, опасностью для страны. «Звание экстремиста я принимаю с гордостью», – говорил он.
От активистов и международных организаций все громче раздавались призывы к Facebook закрыть возможность для публикации ложной информации и «разжигающих» постов. На словах руководство компании соглашалось: «Мы признаем, что можем и должны делать больше». Однако, что бы ни делал Facebook в Мьянме, от мониторинга «хейтспича» это было очень далеко. К августу 2017 года платформа стала основной посредницей в организации того, что организация Human Rights Watch уже назвала геноцидом.
Популярность языка вражды, распространяемого в Мьянме через Facebook, не должна нас удивлять. Бизнес-модель Facebook построена на максимизации вовлечения пользователей, так что любые сообщения, вызывающие сильные эмоции – в том числе, разумеется, хейтспич и дезинформацию провокационного толка, – алгоритмы платформы поощряют и активно распространяют, ведь они вызывают активный отклик у тысяч, возможно, сотен тысяч пользователей.
Активисты и защитники прав человека высказывали руководству Facebook свои опасения по этому поводу еще в 2014 году, но тогда к ним никто не прислушался. Поначалу проблему просто игнорировали, активистам отвечали молчанием; а тем временем объем лживой информации и поджигательских призывов против рохинджа раздувался как воздушный шар. Росло и число свидетельств о преступлениях ненависти против рохинджа, в том числе об убийствах, организованных на этой платформе. Компания не желала с этим бороться – и вовсе не потому, что ей было плевать на Мьянму. Напротив, когда власти страны закрыли доступ к Сети, руководство отреагировало на это очень бурно, испугавшись потерять 22 млн мьянманских пользователей.
Кроме того, в 2019 году Facebook последовала распоряжению правительства и закрыла доступ к платформе четырем этническим организациям, объявленным «опасными». На сайтах этих организаций, хоть и действительно связанных с этническими сепаратистами – такими как «Армия Аракана», «Качинская армия освобождения» и «Национально-демократический альянс Мьянмы», – находились основные хранилища фотографий и других свидетельств об убийствах и иных зверствах, совершаемых армией и радикальными буддистскими монахами.
Еще год потребовался Facebook, чтобы наконец начать реагировать. Их решением было создать «стикеры», маркирующие потенциальный хейтспич. Стикеры не мешали пользователям публиковать сообщения, в которых обнаруживался вредоносный или сомнительный контент, однако предупреждали их: «Думайте, прежде чем поделиться» или «Не становитесь причиной насилия». Однако выяснилось, что алгоритм платформы, превыше всего озабоченный максимизацией вовлечения пользователей, сработал здесь как пресловутый ИИ со скрепками: вредоносные посты начал регистрировать как более популярные, поскольку пользователи, помечая их как вредоносные, тем самым с ними взаимодействовали. В результате алгоритм начал активнее рекомендовать этот контент в Мьянме, чем только усилил распространение языка вражды.
Уроки Мьянмы, по-видимому, Facebook так и не усвоила. В 2018 году аналогичные процессы начались на Шри-Ланке, где посты также разжигали ненависть против мусульман. Группы по защите прав человека сообщали об этой проблеме, но безрезультатно. По оценке одного исследователя и активиста: «Разжигается ненависть против целых народов, а Facebook заявляет, что это не нарушает стандарты сообщества!»
Два года спустя, в 2020 году, настал черед Индии. Теперь руководство Facebook отвергло призывы собственных сотрудников и отказалось удалять страницу индийского политика Т. Раджи Сингха, который утверждал, что иммигрантов-рохинджа следует «перестрелять», и призывал разрушать мечети. К сожалению, именно это и произошло в том же году в ходе антиисламских беспорядков в Дели, где были сожжены несколько мечетей и убиты более 50 человек.
Машина дезинформации
Проблемы языка вражды и дезинформации в Мьянме во многом параллельны тому, как фейсбук используется в США, и по той же причине: хейтспич, радикальные высказывания, дезинформация порождают сильные эмоции, а следовательно, повышают вовлеченность и время, проводимое на платформе. А это помогает компании продавать индивидуализированную цифровую рекламу.
К 2016 году социальные сети стали основным источником новостей для 14 % американцев, и 70 % сообщали, что как минимум время от времени узнают новости из фейсбука и иных соцсетей. В период выборов президента США, проходивших в том же году, в соцсетях заметно увеличилось количество постов с вводящей в заблуждение или даже откровенно лживой информацией.
И это была не просто пена на волнах оживленных политических дебатов. Исследователи дезинформации на платформе Facebook пришли к выводу, что «во всех категориях информации ложь распространялась быстрее, дальше, глубже и шире правды».
Многие откровенно лживые посты становились вирусными: их начинали распространять и пересылать друг другу. А алгоритмы платформы максимизировали показ этих сенсационных постов сравнительно и с другими постами, не связанными с политикой, и с новостями из проверенных медийных источников.
Во время президентских выборов 2016 года фейсбук превратился в основной канал распространения дезинформации, в первую очередь предназначенной для пользователей с правыми симпатиями. Зачастую именно через фейсбук симпатизанты Трампа попадали на сайты, распространяющие дезинформацию. Поток переходов из соцсети на сайты традиционных СМИ был ниже. Хуже того: как показало недавнее исследование, люди склонны верить дезинформации, поскольку плохо запоминают, где увидели ту или иную новость. Особенно верно это для соцсетей, где ненадежную или даже откровенно ложную информацию пользователи часто получают от своих друзей и знакомых-единомышленников. В таком окружении, напоминающем эхокамеру, они вряд ли станут прислушиваться к голосам, говорящим что-то другое.
Быть может, такие «эхокамеры» – неизбежный побочный продукт социальных сетей, дающих людям возможность находить в Интернете сообщества единомышленников. Но уже более десяти лет известно, что алгоритмы Facebook усугубляют этот эффект. На конференции TED2010 года Илай Пэрайзер, интернет-активист и исполнительный директор MoveOn.org, рассказал, что, хотя читал достаточно много новостных сайтов, как либеральных, так и консервативных, через некоторое время заметил, что Facebook все чаще направляет его на либеральные сайты, поскольку алгоритм заметил, что он немного чаще переходит по этим ссылкам. Пэрайзер первым употребил
Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.
Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.
- 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
- 2. Просьба отказаться от оскорблений, угроз и запугиваний.
- 3. Просьба отказаться от нецензурной лексики.
- 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.
Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.
Оставить комментарий
-
Гость Юлия13 ноябрь 05:15
Милый роман с адекватными героями...
Больше чем друзья - Джулиана Морис
-
Гость Юлия12 ноябрь 19:36
Милый, добрый, немного наивный .. читать приятно)...
Обмануть судьбу - Джулия Тиммон
-
Гость Юлия11 ноябрь 09:30
О, роман что надо! ...
Не отпускай моей руки - Люси Эллис
