Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани
Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!
Шрифт:
Интервал:
Закладка:
Разоблачение от NewsGuard. Трометамин – распространенный стабилизирующий ингредиент, используемый для увеличения срока годности вакцин. То, что это вещество присутствует в вакцине Pfizer против COVID‐19, не является секретом, и его действие никак не направлено на сокрытие серьезных побочных эффектов вакцины. Хотя трометамин назначается определенной группе пациентов при инфаркте, для терапии требуется гораздо большая доза, чем та, которая содержится в вакцине. Более того, по данным Центра по контролю и профилактике заболеваний, осложнения на сердце после введения вакцины против COVID‐19 встречаются крайне редко.
Как обсуждалось в главе 4, злоумышленники вовсю используют генеративные модели для распространения дезинформации онлайн: дипфейки появляются в интернете уже несколько лет. Существует бесчисленное множество примеров дипфейков, которые циркулируют онлайн, например пародийный аккаунт TikTok с дипфейками Тома Круза (см. http://mng.bz/Xqwp). В одном твите есть аудио-дипфейк, на котором президент Джо Байден говорит, что предпочитает марихуану[64] низкого качества (см: http://mng.bz/M9Ro). Дипфейки, безусловно, применяются в политике как оружие: в 2023 году было зафиксировано несколько случаев использования дипфейков в преддверии президентских выборов в США 2024 года, включая рекламу для предвыборной кампании кандидата Рона Десантиса, ролик о президенте Джо Байдене, выпущенный Национальным комитетом Республиканской партии, и многое другое (см. http://mng.bz/amNo). Жертвами вербальных дипфейков, опубликованных в постах на 4chan, также стали некоторые знаменитости, например, Эмма Уотсон, которая читает отрывок из «Майн кампф» Адольфа Гитлера[65], и Бен Шапиро, который делает расистские замечания в адрес Александрии Окасио-Кортес, американского политика и общественной активистки (см. http://mng.bz/g7rx).
В статье «Это видео может быть не настоящим», опубликованной в New York Times в 2019 году, автор Клэр Уордл, эксперт по онлайн-манипуляциям, рассказала, что шумиха вокруг дипфейков может быть опаснее, чем сама технология31. Она привела известные случаи подделок (shallowfakes), созданных с помощью Photoshop или программ для редактирования видео, – например вирусный клип Нэнси Пелоси, в котором она говорит невнятно, а видео просто замедлено на 75 % (см. http://mng.bz/eEwP), – подчеркивая, что «вам не нужны дипфейки или ИИ, чтобы манипулировать эмоциями и распространять ложную информацию». А помните ли вы про «дивиденды лжеца», о которых мы говорили в главе 4? Уордл утверждает, что реальная опасность заключается в возникновении мира, где люди будут извлекать выгоду из широко распространенного скептицизма.
Кампании по манипуляции мнениями – это игра в кошки-мышки между заинтересованными лицами и теми, кто пытается разоблачить их. По мере усовершенствования мер защиты злоумышленники внедряют новые и интересные способы. В декабре 2019 года Facebook [66] заблокировал первую сеть, связанную с Epoch Media Group [67], которая массово использовала фотографии профиля, созданные с помощью искусственного интеллекта32. С тех пор мы не раз наблюдали манипуляционные кампании, в которых использовались ИИ-сгенерированные фотографии профиля, например кампании Коммунистической партии Кубы, нацеленные на кубинскую общественность33. Ранее исследователи могли использовать инструменты поиска по изображению для идентификации фотографий, которые были украдены из профилей, а сейчас инициаторы манипуляционных кампаний могут обойти эту стратегию, используя ИИ-сгенерированные фотографии несуществующих людей34.
Хотя платформы социальных сетей уже начали устанавливать ограничения на использование ИИ-сгенерированных изображений и видео, влияние искуственного контента на манипуляционные кампании остается недостаточно изученным. Первые исследования оценивали риск распространения дезинформации, сгенерированной с помощью ИИ, и показали, что языковые модели могут эффективно и убедительно генерировать ложные сведения35, 36. Исследование «Генеративные языковые модели и автоматизированные операции влияния: новые угрозы и потенциальные меры по их устранению» (Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations), опубликованное в январе 2023 года, ставило своей целью оценить, как LLM влияют на манипуляционные кампании и какие шаги можно предпринять для снижения рисков. На основе структуры поэтапной кибератаки (kill-chain framework) [68] авторы выделили четыре возможных этапа вмешательства: проектирование и разработка модели, доступ к модели, распространение контента, формирование убеждений (см. рис. 5.7)26. Исследователи из Центра безопасности и новых технологий Джорджтаунского университета, OpenAI и интернет-обсерватория Стэнфордского университета (Stanford Internet Observatory) пришли к выводу, что языковые модели могут оказать существенное влияние на будущее манипуляционных кампаний, поскольку позволят автоматизировать создание убедительного враждебного контента в большем масштабе при одновременном снижении затрат на производство. Хотя злоумышленникам не обязательно использовать искусственный интеллект или генеративные модели для проведения таких кампаний, эти инструменты позволяют им выполнить задачу легче и эффективнее. Как видно из известных случаев обхода запретов в социальных сетях, мы можем ожидать, что заинтересованные лица будут по-новому и неожиданными способами использовать LLM в ответ на стратегии защиты и меры противодействия. Кроме того, стоит отметить, что увеличение количества контента, созданного с помощью ИИ, приведет к загрязнению информационной экосистемы, что в свою очередь скажется на обучающих данных для LLM. То есть если злоумышленники генерируют все больше дезинформации с помощью ИИ, то в будущем LLM будут обучаться на огромном количестве потенциально опасного контента.
Как и в случае дипфейков, о чем мы говорили в главе 4, не существует универсального решения для обнаружения или минимизации рисков, связанных с появлением дезинформации, сгенерированной с помощью ИИ. В вышеупомянутом отчете исследователи иллюстрируют этапы запуска и проведения манипуляционных кампаний, в которых используется ИИ, и приводят примеры мер противодействия на каждом этапе (см. рис. 5.7). К таким мерам относится создание «прозрачных» моделей с легко объяснимыми ответами, наложение правительствами и поставщиками ИИ ограничений на широкое внедрение стандартов цифровой подлинности, а также повышение медиаграмотности.
Рис. 5.7. Этапы проведения манипуляционных кампаний с помощью ИИ и примеры мер противодействия 26
Коалиция по вопросам происхождения и подлинности контента (C2PA), созданная силами Adobe, Arm, Intel, Microsoft и Truepic, установила набор технических стандартов для сертификации происхождения (или источника и истории) контента (см. https://c2pa.org/). Технические требования C2PA направлены на устранение недостоверной информации путем проверки фактов об истории создания фрагмента цифровой информации, например: кто создал контент, как, когда, где, а в некоторых случаях, когда и как фрагмент контента редактировался за время его существования. Использование маркеров происхождения на фрагменте контента может предоставить пользователям различные сведения, в том числе о дате создания, авторе и возможном редактировании. Однако использование маркеров происхождения на практике сопряжено с рядом трудностей, включая то, что в программное обеспечение необходимо вносить значительные изменения: создателям контента необходимо отслеживать и демонстрировать такую информацию, социальным сетям, браузерам и подобным приложениям необходимо обнаруживать и считывать маркеры, когда пользователи взаимодействуют с фрагментом контента. К другим проблемам относятся: невозможность использовать сведения о происхождении для уже существующего контента, невозможность использовать
Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.
Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.
- 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
- 2. Просьба отказаться от оскорблений, угроз и запугиваний.
- 3. Просьба отказаться от нецензурной лексики.
- 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.
Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.
Оставить комментарий
-
Гость Екатерина24 март 10:12
Книга читается ужасно. Такого тяжелого слога ещё не встречала. С трудом дочитала до середины и с удовольствием бросила. ...
Невеста напрокат, или Любовь и тортики - Анна Нест
-
Гость Любовь24 март 07:01
Книга понравилась) хотя главный герой, конечно, не фонтан, но достаточно интересно. Единственное, с середины книги очень...
Мама для подкидышей, или Ненужная истинная дракона - Анна Солейн
-
Гость Читатель23 март 22:10
Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо...
Маринка, хозяйка корчмы - Ульяна Гринь
