KnigkinDom.org» » »📕 Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 ... 65 66 67 68 69 70 71 72 73 ... 91
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
оценил, насколько серьезными были обязательства. Основная критика Руза была направлена на то, что перечисленные принципы являются расплывчатыми и не уточняют, какие виды тестирования и отчетности должны проводиться, что оставляет много места для свободной интерпретации. Он заключил:

«В целом договоренность Белого дома с компаниями, занимающимися разработкой ИИ, носит скорее символический, нежели практический характер. Не существует механизма обеспечения соблюдения компаниями этих обязательств, и многие из них отражают меры предосторожности, которые компании, занимающиеся ИИ, уже используют в работе. Но все же это разумный первый шаг. И готовность следовать подобным правилам говорит о том, что ИИ-компании уже извлекли уроки из неудач более ранних технологических корпораций, которые начали взаимодействовать с правительством только после того, как попали в беду»29.

Действительно, некоторые из обязательств, судя по всему, продиктованы непосредственно событиями прошлого. Второй принцип – создание систем, где защита ставится на первое место, – конкретно касается защиты «проприетарных и неопубликованных весов модели». Как описано в главе 1, весовые коэффициенты (веса) в LLM – конечный продукт ее обучения. Доступ к весам позволяет успешно воспроизвести всю модель. Всего через несколько дней после выпуска LLaMA произошла утечка, и веса модели были опубликованы на 4chan, после чего пользователи сайта смогли быстро создать высококачественную LLM на базе LLaMA. Заметим, что соглашение не регулирует модели с открытым исходным кодом.

Рис. 8.5. Три основных принципа добровольных обязательств, которые взяли на себя ведущие ИИ-компании перед Белым домом

Эти принципы касаются именно генеративного ИИ, но другие государственные органы уже давно обеспокоены потенциальными негативными последствиями работы более ранних систем ИИ, особенно тех проблем, которые связаны с предвзятостью и прозрачностью. Например, Комиссия по равным возможностям трудоустройства (Equal Employment Opportunity Commission, EEOC) выпустила руководство о том, как Закон о гражданских правах 1964 года следует применять к автоматизированным системам на основе ИИ, которые используются в работе кадровых служб, таким как просмотр резюме, отбор кандидатов и мониторинг эффективности работы. По сути, ведомство заявило, что бремя соблюдения требований ляжет на работодателей, которые используют эти инструменты, и порекомендовало проверять, что модели не приводят к «существенно более низкому коэффициенту отбора для лиц с характеристиками, защищенными разделом VII», такими как лица определенной расы или пола30. Федеральная торговая комиссия (Federal Trade Commission, FTC) также показала стремление к надзору за автоматизированным процессом принятия решений, написав в своем блоге от 2021 года, что Закон FTC, который запрещает «недобросовестную или вводящую в заблуждение практику», будет однозначно применяться к продаже или использованию алгоритмов с расовой предвзятостью. Не только модели для кадровых служб, но и модели для принятия решений по жилью, кредитам и страхованию должны стать предметом проверки в соответствии с Законом о добросовестной кредитной отчетности (см. http://mng.bz/JgKQ). В 2019 году правительство Канады выпустило Директиву об автоматизированном принятии решений, в которой также была приведена оценка негативных последствий работы автоматизированных систем (см. http://mng.bz/mVn0). Хотя модели генеративного ИИ не были предметом этих документов, они бы тоже подверглись тщательной проверке, если бы использовались в любой из вышеперечисленных областей.

Вслед за закреплением добровольных обязательств в октябре 2023 года Белый дом выпустил предписывающее постановление по ИИ, требующее от ИИ-компаний делиться оценками безопасности и прочей информацией с правительством и принять меры предосторожности против использования LLM для создания «опасных биологических материалов» и проведения «мошенничества и дезинформации» (см. http://mng.bz/6nM5). Администрация Байдена также опубликовала абстрактные правила разработки искусственного интеллекта. Возможно, знаковым документом по этой теме является Проект билля о правах в области ИИ, который был составлен Управлением научно-технической политики Белого дома (White House Office of Science and Technology Policy, OSTP) (см. http://mng.bz/wv8g). Как показано на рис. 8.6, в основе этого документа лежат пять принципов: «безопасные и эффективные системы» – здесь излагаются стандарты оценки и меры снижения рисков; «защита от дискриминации в алгоритмах» – выявление потенциальной предвзятости в модели или системе; «конфиденциальность данных» – право пользователей знать, как собираются данные о них, и иметь свободу выбора в отношении этого; «уведомления и разъяснения» об использовании автоматизированных систем; «альтернативы, связанные с человеком, и резервные меры» для случаев, когда приходится отказываться от автоматизированных систем или нужно исправить ошибки, допущенные системой. Поскольку эти принципы по работе с ИИ более современны, они относительно непротиворечивы, но все же достаточно расплывчаты, чтобы оставить некоторую неопределенность в отношении того, как каждый из них может применяться на практике. Билль о правах в области ИИ – скорее задающий ориентиры документ, чем директива, а OSTP – орган, формирующий общую политику. Детали реализации такого принципа, как «разъяснения» («автоматизированные системы должны снабжаться пояснениями, которые являются технически обоснованными, значимыми и полезными для вас и любых операторов или тех, кто должен разобраться в работе системы и учитывать возможные риски в зависимости от контекста»), предстоит еще доработать. Наиболее удачной среди регулирующих инициатив государственных ведомств США оказалась Система управления рисками (AI Risk Management Framework, AI RMF), разработанная Национальным институтом стандартов и технологий, которая была опубликована 26 января 2023 года, но даже эта система является довольно общей и пространной, поэтому может служить только в качестве отправной точки. В документе AI RMF подробно описывается, что ИИ-системы должны быть «достоверными и надежными», «безопасными», «защищенными и устойчивыми к атакам», «контролируемыми и прозрачными», «объяснимыми и интерпретируемыми», «справедливыми, без вредных предубеждений», но как всего это добиться – читатели должны догадаться сами31.

Рис. 8.6. Пять принципов, перечисленные в Проекте билля о правах в области ИИ (см. http://mng. bz/wv8g)

В последние годы политики проявляли двойственное отношение к регулированию деятельности ИИ-компаний. С одной стороны, такие представители власти, как конгрессмен-республиканец из Висконсина Майк Галлахер, надеялись избежать подавления инноваций технологических компаний. «Сложность заключается в том, что мы не хотим чрезмерным регулированием свести на нет наше преимущество в гонке ИИ», – сказал Галлахер, выступая за «точечный, целенаправленный» подход, а не за всеобъемлющий. «Конгресс редко добивается успеха во всеобъемлющих мерах»32. С другой стороны, как свидетельствует слушание cудебного подкомитета Сената, о котором мы говорили в главе 5, изрядное количество его членов обеспокоены тем, что текущее состояние саморегуляции будет недостаточным, а некоторые выразили готовность принять всеобъемлющее законодательство в области ИИ. Представитель Калифорнии Ро Ханна сказала:

«В широком смысле нам нужно обеспечить участие человека в какой-то форме в процессах принятия решений. Нам требуется некоторая степень прозрачности в вопросах понимания того, для чего используется ИИ и какие датасеты применяются. Также необходимо проведение оценки безопасности… Но я думаю, что эти детали должны проработать люди, хорошо разбирающиеся в таких вопросах»32.

Возможно, что некоторые меры управления, предложенные в соответствии с принципами Билля о

1 ... 65 66 67 68 69 70 71 72 73 ... 91
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Гость Читатель Гость Читатель23 март 22:10 Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо... Маринка, хозяйка корчмы - Ульяна Гринь
  2. Гость Читатель Гость Читатель23 март 20:10 Книга понравилась, хотя я не любитель зоологии...... но в книге все вполне прилично и порядочно, не то что в других противно... Кухарка для дракона - Ада Нэрис
  3. Гость Галина Гость Галина22 март 07:37 Очень интересная книга, тема затронута актуальная для нашего времени. ... Перекресток трех дорог - Татьяна Степанова
Все комметарии
Новое в блоге