Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани
Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!
Шрифт:
Интервал:
Закладка:
8.4.4. Корпоративное самоуправление
Как обсуждалось в разделе 8.4.1, в июле 2023 года администрация Байдена – Харрис заручилась добровольными обязательствами семи ведущих компаний, занимающихся искусственным интеллектом, – Amazon, Antrophic, Google, Inflection, Meta [116], Microsoft и OpenAI, – чтобы способствовать безопасной, защищенной и прозрачной разработке ИИ-технологий. Однако это соглашение было встречено как с одобрением, так и с критикой – является ли оно шагом вперед или пустым обещанием?
На первый взгляд, добровольные обязательства выглядят многообещающими, но формулировки условий довольно расплывчаты и в основном фиксируют то, что эти семь компаний делают и так: работают над безопасностью ИИ-систем, инвестируют средства в кибербезопасность и стремятся к прозрачности. Соглашение также является добровольным, что не возлагает на компании ответственность за соблюдение условий и не привлекает их к ответу при нарушениях. Однако стоит отметить, что компании, скорее всего, были вынуждены участвовать в соглашении, поскольку перед ними могла стоять угроза жесткого регулирования.
Но у добровольных обязательств есть и положительная сторона: они помогают администрации избегать принятия жестких и трудных для соблюдения правил, которые могут препятствовать развитию инноваций в Соединенных Штатах, как это происходит в Европейском союзе43. Известно, что осуществление надзора за финансовым сектором началось с самоуправления в этой отрасли. В XVII веке коллективы торговцев встречались в конкурирующих кофейнях, соревнуясь в эффективности этических правил, которые должны были соблюдать их члены44. Эти правила были призваны убедить публику торговать с какой-либо конкурирующей стороной. Если кто-либо из состава сообщества нарушал этические нормы, портилась его репутация в целом. Следовательно, все участники были заинтересованы в том, чтобы отслеживать неэтичное поведение, и, если кто-то вел себя неподобающим образом, его исключали из группы. В конце концов все коллективы приняли в качестве стандарта правила, которые лучше всего защищали общественность. Эти коллективы – первые биржевые трейдеры на лондонской Ломбард-стрит – прекрасный пример отраслевого самоуправления в секторе, который в настоящее время жестко регулируется. Как только коллективы смогли установить лучшие стандарты, мониторинг и обеспечение соблюдения правил были переданы третьей стороне, такой как правительство, при этом члены коллективов и третья сторона работали вместе над внесением изменений и разработкой новых стандартов45.
Похожим образом добровольные обязательства перед администрацией Байдена – Харрис дают ИИ-компаниям свободу устанавливать свои собственные правила, благодаря чему могут появиться меры, которые будут наилучшим образом защищать общественность, как это было в финансовом секторе. Как мы уже говорили, добровольные обязательства просто формализуют стремление компаний, занимающихся ИИ, внедрять лучшие практики. Например, OpenAI не разрешает использовать свои модели для незаконной или любой другой деятельности, которая сопряжена с высоким риском физического или экономического ущерба, а также для других недопустимых целей (см. http://mng.bz/5w9q). Google также опубликовала для генеративного ИИ дополнительные условия с похожей политикой, предписывающей блокировать любой контент, подпадающий под критерии запрещенного использования, что включает (но не ограничивается) в себя любой контент, применяемый для выполнения опасных, незаконных, злонамеренных действий или для содействия им (см. http://mng.bz/6DW5). В то же время компания Inflection AI заявляет, что «безопасность лежит в основе нашей миссии», а «внутренняя команда по безопасности постоянно тестирует наши модели на предмет рисков и работает с внешними экспертами над всесторонней проверкой наших технологий методом „красных команд“» (см. http://mng.bz/o1Xj). Даже в Llama 2, свободно доступной для исследований и коммерческого применения, действует политика допустимого использования, запрещающая определенные виды действий, чтобы гарантировать ответственное использование моделей (см. http://mng.bz/nW48).
В Соединенных Штатах более чем вероятно, что в итоге именно рынок будет определять практики управления. Компании будут активно работать над тем, чтобы их LLM вели себя адекватно. Возможно, такая мотивация обусловлена сообщениями о злонамеренном использовании LLM, или тем, что широкая общественность считает их методы обработки данных ненадежными, или просто они пытаются избежать неприятных (и дорогостоящих) происшествий, как в истории с публичным выпуском Bard от Google. Конечно, коммерческим компаниям может быть проблематично разрабатывать свои собственные системы регуляции, особенно когда они больше заинтересованы в успешном развитии бизнеса, нежели в защите пользователей, но стоит отметить, что американская администрация действительно делает упор на привлечение широкого круга заинтересованных сторон (о чем расскажем далее в разделе 8.5). Во всяком случае, добровольные обязательства подкрепляют представление о том, что компании несут ответственность за свои обязательства ответственно разрабатывать ИИ с учетом их потенциального влияния на общество. Поощрение корпоративного самоуправления могло бы дополнить существующие или будущие усилия по регулированию, а также восполнить критический пробел в разработке более комплексного подхода к управлению ИИ-системами или любой новой технологией, особенно на ранних стадиях развития.
8.5. На пути к системе регулирования в области ИИ
В этой книге мы описали гонку в области искусственного интеллекта, проиллюстрировав потенциал технологии генеративного ИИ и попытавшись вникнуть в ее недостатки. Энтузиасты ожидают, что генеративный ИИ изменит привычные способы работы, ведения личных дел и бизнеса, а также создания материальных благ. С другой стороны, все большее число экспертов в этой технологии разделяют серьезные опасения по поводу экзистенциальных опасностей делегирования задач и принятия решений компьютерам при ограниченном в ближайшем будущем участии людей. Эта обеспокоенность усугубляется существующим дисбалансом власти и богатства, из-за которого критики ИИ опасаются, что выгода от этой технологии будет диспропорционально распределяться среди 1 % самых состоятельных людей. В главе 6 мы написали, что считаем технологию генеративного ИИ эволюционной, а не революционной, но при условии, что мы ответственно используем и регулируем ее.
На протяжении всей книги мы заостряли внимание на практических перспективах генеративного ИИ, от прироста производительности до агентных систем. Но в то же время мы подчеркивали, что у технологии генеративного ИИ есть риски и ограничения, ее могут случайно или преднамеренно использовать ненадлежащим образом. По мере того как растет осведомленность о рисках, связанных с ИИ, появляются стандарты и рекомендации по их снижению. Мы прошли долгий путь, но впереди нас ждет еще больший. Мы надеемся и верим, что найдем баланс между сторонниками идеи о приостановке создания ИИ-систем и теми, кто утверждает, что ChatGPT – это чудо. Независимо от того, как будут разворачиваться глобальные изменения в связи с ИИ, мир не станет более приятным местом для жизни, работы или участия в демократических процессах, пока не будут приняты меры по регулированию развития ИИ, его воздействия и мер безопасности при его применении.
Как мы обсуждали в разделе 8.4, усилия по регулированию предпринимаются в основном добровольно; они охватывают многочисленные протоколы и принципы, которые поддерживают добросовестное проектирование и контролируемое поведение. Это особенно актуально в Северной Америке, где общие цели крупных технологических компаний включают в себя приведение ИИ в соответствие к потребностям человека и
Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.
Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.
- 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
- 2. Просьба отказаться от оскорблений, угроз и запугиваний.
- 3. Просьба отказаться от нецензурной лексики.
- 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.
Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.
Оставить комментарий
-
Гость Читатель23 март 22:10
Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо...
Маринка, хозяйка корчмы - Ульяна Гринь
-
Гость Читатель23 март 20:10
Книга понравилась, хотя я не любитель зоологии...... но в книге все вполне прилично и порядочно, не то что в других противно...
Кухарка для дракона - Ада Нэрис
-
Гость Галина22 март 07:37
Очень интересная книга, тема затронута актуальная для нашего времени. ...
Перекресток трех дорог - Татьяна Степанова
