KnigkinDom.org» » »📕 Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 ... 19 20 21 22 23 24 25 26 27 ... 91
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
чат-боты требованиям Общего регламента ЕС по защите персональных данных?

Как уже говорилось в предыдущем разделе, Общий регламент ЕС по защите персональных данных регулирует порядок сбора, хранения и использования организациями персональных данных людей. Регламент существует как основа для законов по всему континенту и включает в себя семь принципов: законность, справедливость и прозрачность; ограничение целей; минимизация объема данных; точность; ограничение хранения; целостность и конфиденциальность, а также подотчетность29. Согласно этому регламенту, физические лица имеют право на получение информации, право на доступ, право на исправление, право на удаление, право на ограничение обработки, право на обеспечение переносимости данных, право на возражение, а также права, связанные с автоматизированным принятием решений и профилированием30.

В отличие от законов о конфиденциальности в Соединенных Штатах, Общий регламент распространяется на физических лиц даже в том случае, когда их личная информация находится в открытом доступе в интернете. По данным итальянского регулирующего органа в области защиты персональных данных Garante per la Protezione dei Dati Personali, у ChatGPT есть четыре несоответствия Общему регламенту, из-за чего он был временно запрещен в марте 2023 года. Во-первых, у инструмента нет никаких ограничений по возрасту, которые не позволяли бы людям младше 13 лет пользоваться им. Во-вторых, ChatGPT может предоставлять неточную информацию о людях. Кроме того, OpenAI не сообщает людям о том, что их данные собираются. И наконец, для сбора персональных данных людей в целях обучения ChatGPT «нет законных оснований»31. Италия дала компании OpenAI один месяц на приведение ChatGPT в соответствие требованиям Общего регламента, и это означало, что OpenAI должна была либо спрашивать у людей разрешение на сбор данных, либо доказать, что у компании есть «законный интерес» в сборе персональных данных для разработки своей модели, как указано в их не вызывающей доверия политике конфиденциальности. Если они не смогут доказать, что их практики использования данных являются законными, ChatGPT может быть запрещен в определенных европейских странах или во всем Европейском союзе. Кроме того, OpenAI может столкнуться с наложением существенных штрафов и будет вынуждена удалить модель или данные, которые использовались для ее обучения32. Чтобы соответствовать правилам ЕС, OpenAI добавила на свой сайт информацию о том, как собираются и используются данные, предоставила пользователям из ЕС возможность отказаться от того, чтобы их данные использовались для обучения модели, и добавила инструмент проверки возраста пользователя при регистрации. Чат-бот снова стал доступным в Италии, но регулятор призвал компанию соблюдать и другие стандарты защиты данных. Стороны продолжают переговоры о том, что требуется от сервиса для полного соответствия33.

Итальянский регулятор в области данных также издал приказ для Replika – сервиса чат-ботов для виртуальной дружбы (Сан-Франциско) – прекратить обработку данных итальянцев на основании отсутствия законных оснований для обработки данных детей в соответствии с Общим регламентом34. Кроме расследований, проведенных в нескольких европейских странах, Европейский совет по защите данных (European Data Protection Board, EDPB) в апреле 2023 года создал специальную целевую группу по возможным правоприменительным мерам в отношении OpenAI из-за ChatGPT35.

Мы уже обсуждали, как модели обучаются на огромных массивах недокументированных и неразмеченных данных. Стоит также отметить, что для OpenAI было бы чрезвычайно сложно найти в обучающих наборах все данные по итальянцам или любым конкретным людям, чтобы затем удалить их. Они даже могут не знать наверняка, какие источники использовались и что именно содержится в их наборах данных. Несмотря на то, что Общий регламент ЕС предоставляет людям право требовать удаления их данных, остается непонятным, может ли эта система гарантировать права людей в отношении LLM. Как отмечала Реньерис, «трудно провести четкую границу между субъектом данных, контролером и обработчиком»36. Как мы подробно обсудим в главе 8, выявленные недостатки как раз и являются причиной того, что ЕС ввел Закон об искусственном интеллекте, который призван дополнить Общий регламент.

3.3.3. Правила конфиденциальности в области образования

Конфиденциальность учащихся защищена Законом о неприкосновенности частной жизни в сфере образования (Family Educational Rights and Privacy Act, FERPA) (см. http://mng.bz/W1jw). Этот закон защищает информацию, позволяющую идентифицировать личность, в документах об образовании и дает родителям и учащимся больше возможностей контролировать эти записи. Эксперты по образовательным технологиям призывают к осторожности: передача любых личных и конфиденциальных данных в чат-боты будет рассматриваться как нарушение закона FERPA или любого другого федерального закона или закона штата.

Во время конференции Консорциума по созданию школьных сетей (Consortium for School Networking) в марте 2023 года председатель-учредитель Совета технических директоров штата Индиана призвал школьные округи позаботиться о защите персональных данных учащихся в случае использования ChatGPT на школьных устройствах37. Некоторые из школ решили запретить чат-бот из-за дополнительных опасений мошенничества, но при этом учащиеся могли пользоваться этим инструментом дома. В главе 6 мы обсудим использование чат-ботов в образовании и более подробно рассмотрим преимущества и риски таких инструментов, как ChatGPT, в академической среде.

3.3.4. Корпоративные политики

Корпоративные политики в отношении искусственного интеллекта и технологий машинного обучения имеют два аспекта. Первый касается того, как сами компании пытаются минимизировать риски нарушения безопасности и конфиденциальности в системах, которые они создают. Второй аспект касается того, как они реагируют на проблемы, связанные с внедрением подобных инструментов в рабочие процессы.

Беспокоясь о конфиденциальности, крупные технологические компании все чаще внедряют методы повышения конфиденциальности для анонимизации, деидентификации, псевдонимизации и обфускации данных. Однако, как мы уже обсуждали, эксперты по защите конфиденциальности уже давно утверждают, что эти методы вряд ли могут полностью предотвратить реидентификацию [39] и не избавляют от рисков нарушения конфиденциальности и безопасности38. В своем подходе к обеспечению безопасности OpenAI заявляет, что они «работают над удалением персональной информации из обучающего набора данных там, где это возможно, тонко настраивают модель для отклонения запросов о предоставлении личной информации частных лиц и реагируют на просьбы людей удалить их персональные данные из системы»39. Тем временем Google заявила, что у Bard есть «защитные механизмы», которые не позволяют ей включать какие-либо данные, идентифицирующие личность, в свои ответы40. У Google есть также дополнительная политика конфиденциальности для генеративного ИИ, которая гласит: «Вы не должны вводить какую-либо персональную или секретную информацию, включая имена, номера телефонов, адреса, email или даты рождения»41.

С другой стороны, несколько компаний ограничили или полностью запретили использование ChatGPT и аналогичных инструментов на рабочем месте, ссылаясь на соображения о конфиденциальности и безопасности. Как и в случае с Samsung, корпоративный юрист Amazon призвал компанию не делиться с ChatGPT какой-либо конфиденциальной информацией, включая код. Эта инструкция появилась после того, как компания уже столкнулась с ситуацией, когда ChatGPT сгенерировал ответы, копирующие

1 ... 19 20 21 22 23 24 25 26 27 ... 91
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Гость Читатель Гость Читатель23 март 22:10 Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо... Маринка, хозяйка корчмы - Ульяна Гринь
  2. Гость Читатель Гость Читатель23 март 20:10 Книга понравилась, хотя я не любитель зоологии...... но в книге все вполне прилично и порядочно, не то что в других противно... Кухарка для дракона - Ада Нэрис
  3. Гость Галина Гость Галина22 март 07:37 Очень интересная книга, тема затронута актуальная для нашего времени. ... Перекресток трех дорог - Татьяна Степанова
Все комметарии
Новое в блоге