Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани
Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!
Шрифт:
Интервал:
Закладка:
ГАЛЛЮЦИНАЦИИ – это ложная информация или выдуманные, но весьма правдоподобные неверные объяснения, которые может выдавать LLM.
Генерация галлюцинаций общепризнанно считается одной из самых серьезных проблем, связанных в настоящее время с LLM. Галлюцинации могут появиться из-за проблем с обучающим набором (например, если кто-то в интернете ошибочно написал, что первые снимки экзопланет сделал JWST), но также они могут возникать в контекстах, которых нет ни в одном из ранее известных модели текстов, и она должна сама создавать свои знания. Янн Ле Кун, светило в области машинного обучения и главный специалист по искусственному интеллекту в Meta [20], утверждает, что LLM не могут обеспечить 100 % точности ни в каких пределах вероятности, поскольку, по мере того как ответы, генерируемые моделью, становятся длиннее, количество возможных вариантов ответа множится, становясь почти бесконечным, и лишь небольшая доля из них может быть верна по смыслу27. Конечно, польза от работы LLM во многом зависит от того, можно ли улучшить их точность. Позже в этой книге мы обсудим подходы, которые используют разработчики LLM, пытаясь уменьшить количество галлюцинаций и других нежелательных ответов.
1.5.3. Вопросы устойчивого развития больших языковых моделей
Как намекает название и как подчеркивалось ранее, большие языковые модели являются действительно большими. Они используют огромные массивы данных, имеют сотни миллионов или триллионы параметров и требуют огромных вычислительных ресурсов, которые измеряются количеством используемых чипов и затраченного компьютерного времени. LLM обычно обучаются на графических (GPU) или тензорных (TPU) процессорах [21]– специализированных чипах, которые могут осуществлять масштабные вычисления, требующиеся для обучения нейронных сетей. Для этого может потребоваться арендовать на несколько недель тысячи графических процессоров у поставщика облачных вычислений, такого как Microsoft Azure (партнер OpenAI), Google Cloud Platform или Amazon Web Services. OpenAI еще не публиковала подобную отчетность, но, исходя только из расходов на вычислительные ресурсы, стоимость такой модели, как GPT‐3, могла бы составить около 4,6 миллиона долларов28.
К менее очевидным издержкам построения LLM относится их воздействие на окружающую среду, которое было предметом изучения и критики. В одной статье авторы попытались оценить энергопотребление и углеродный след LLM на основе опубликованной информации о процедуре обучения GPT‐3 и подсчитали, что только из-за потребления электроэнергии во время ее обучения выбросы составили 500 тонн углекислого газа29. Для сравнения, на долю среднестатистического американца приходится около 18 тонн выбросов углекислого газа в год; среднемировой показатель составляет всего 7,4 тонны в год (см. https://worldemissions.io/). В другой статье было показано, что модели потребляют еще больше электроэнергии уже после обучения в процессе генерации ответов30. Точные показатели выбросов для большинства LLM неизвестны, поскольку на них влияет множество других факторов, включая использование центра обработки данных, количество и тип чипов, размер модели и архитектуру.
Кроме того, приобрести так много графических процессоров непросто, даже если у вас на это есть миллионы долларов. Крупнейшие компании технологического сектора, включая Microsoft и Google, имеют неоспоримое конкурентное преимущество в разработке LLM благодаря имеющимся у них ресурсам. Некоторые наблюдатели опасаются, что мелкие игроки в такой ситуации не смогут удержаться на плаву, в результате чего создавать технологии LLM и получать прибыли от них смогут только транснациональные компании или страны, которые уже начали собирать ресурсы на национальном уровне для обучения LLM. С другой стороны, в настоящее время проводится много исследований, которые помогают сделать эти модели более доступными и сократить время или затраты на обучение, иногда путем создания версий с открытым исходным кодом на основе существующих LLM или попыток сократить уже обученную LLM до версии меньшего размера, которая могла бы поддерживать ту же производительность при меньших затратах. Некоторые успехи выглядят многообещающе, но еще требуют проверки. Наиболее значимые из таких моделей были выпущены в конце 2022 и начале 2023 годов компаниями OpenAI, Google, Microsoft и Meta [22].
1.6. Революция в общении: LLM говорят с людьми
В этой главе мы обсудили, не вдаваясь в подробности, как работают большие языковые модели, а также рассмотрели их применение и ограничения. Их перспективность заключается в способности свободно генерировать текст по широкому спектру тем, что делает их идеальными кандидатами для выполнения определенных задач, требующих общения с людьми. Чат-боты, например ChatGPT, – это LLM, которые были разработаны для ведения диалога. В этом разделе мы более подробно рассмотрим историю известных диалоговых моделей, которые были выпущены в конце 2022 – начале 2023 года: ChatGPT от OpenAI, Bard от Google, Bing AI от Microsoft и LLaMa от Meta*.
1.6.1. ChatGPT от OpenAI
OpenAI, компания по исследованиям и разработкам в области искусственного интеллекта, расположенная в Сан-Франциско, 30 ноября 2022 года выпустила ChatGPT. Это произошло всего через десять месяцев после выхода ее предшественника, модели InstructGPT31, – первой попытки компании настроить большую языковую модель для выполнения задач на естественном языке, которые пользователь мог бы формулировать через специальные текстовые промпты. Используя ранее разработанную методику обучения с подкреплением в виде обратной связи от человека (reinforcement learning from human feedback, RLHF), компания OpenAI обучила модель следовать инструкциям, опираясь на обратную связь от человека. Взяв за основу промпты, полученные через OpenAI Playground [23], люди выполнили дополнительную разметку, отметив удачные ответы, которые хотели бы получать от модели. Затем эти данные использовались для ее точной настройки. Это помогло сделать модель InstructGPT более приспособленной к намерениям человека, или, другими словами, более адаптированную (alignment) к предпочтениям человека. Это был первый случай, когда OpenAI изучала вопросы адаптации применительно к своему продукту и объявила, что продолжит двигаться в этом направлении. Они также утверждали, что тонкая настройка языковых моделей с участием в этом процессе человека может стать эффективным инструментом для повышения безопасности и надежности моделей32.
Вскоре после этого OpenAI представила Chat Generative Pretrained Transformer, или более ласково (и известный как) ChatGPT (см. https://openai.com/blog/chatgpt), который был доработан на основе модели GPT‐3.5, содержащей 175 миллиардов обучаемых параметров. Она была обучена на 570 гигабайтах текста, что в 100 раз больше, чем у ее предшественника GPT‐233. Для сравнения, это в 164 129 раз превышает количество слов во всем цикле «Властелин колец», включая «Хоббита»34. OpenAI также предупредила о некоторых ограничениях,
Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.
Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.
- 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
- 2. Просьба отказаться от оскорблений, угроз и запугиваний.
- 3. Просьба отказаться от нецензурной лексики.
- 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.
Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.
Оставить комментарий
-
Гость Читатель23 март 22:10
Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо...
Маринка, хозяйка корчмы - Ульяна Гринь
-
Гость Читатель23 март 20:10
Книга понравилась, хотя я не любитель зоологии...... но в книге все вполне прилично и порядочно, не то что в других противно...
Кухарка для дракона - Ада Нэрис
-
Гость Галина22 март 07:37
Очень интересная книга, тема затронута актуальная для нашего времени. ...
Перекресток трех дорог - Татьяна Степанова
