KnigkinDom.org» » »📕 Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 ... 11 12 13 14 15 16 17 18 19 ... 91
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
использования соответствующих обучающих примеров (мы можем с уверенностью предположить, что модель не обучалась этому напрямую), никогда не наблюдались в предыдущих языковых моделях, а вот LLM может показать впечатляющие результаты при выполнении многих таких задач без обучающих примеров, то есть никогда раньше не сталкиваясь ни с чем подобным.

ОБУЧЕНИЕ БЕЗ ОБУЧАЮЩИХ ПРИМЕРОВ (zero-shot learning) или на нескольких примерах (few-shot learning) – это термины, описывающие количество обучающих примеров, которые даются модели перед выполнением задачи.

В случае обучения на нескольких примерах модели дается несколько примеров решения задачи в промпте, и на их основе она определяет, какой ответ должна сгенерировать. В предыдущем случае, когда модели не дают обучающие примеры, промпт состоит полностью или почти полностью из самого вопроса пользователя (иногда модели выпускаются с шаблонным промптом, в котором могут быть записаны типичные инструкции о том, как реагировать на ввод, но это не имеет отношения к нашему обсуждению). Допустим, другой пользователь хотел бы, чтобы модель выполнила более сложную задачу. Например, писатель-фрилансер работает над тремя разными статьями: о разведении собак, об экзопланетах и о городе Питтсбурге. У него есть список статей, и он хотел бы классифицировать их по темам. В этом случае он мог бы написать следующее:

«Каждая из этих статей посвящена или „разведению собак“, или „экзопланетам“, или „Питтсбургу“. Напиши для каждой статьи наиболее подходящую тему из этих трех».

Это можно считать задачей без обучающих примеров. Однако для повышения качества ответа имеет смысл предоставить модели несколько примеров. Итак, если она сгенерирует не совсем тот ответ, который ожидает писатель, можно попытаться дать дополнительные подсказки:

«Пример. „Последние открытия космических телескопов“: экзопланеты. Пример. „Почему у мопсов проблемы с дыханием“: разведение собак»; и так далее.

На рис. 2.2 показано, как работа с моделью через промпты без примеров или с несколькими обучающими примерами отличается от точной настройки модели для конкретной задачи. Если вы использовали LLM для выполнения одной из подобных задач, вы, не задумываясь и не осознавая, могли уже пробовать обучение без обучающих примеров или на нескольких примерах. Это одна из самых сильных сторон LLM, поскольку взаимодействие с этими чат-ботами происходит с помощью простого естественного языка, и во многих случаях мы можем интуитивно откорректировать свой запрос (настроить входные данные) для получения желаемых результатов.

Рис. 2.2. Сравнение тонкой настройки, обучения без обучающих примеров и обучения на нескольких примерах в задаче с машинным переводом

Также некоторые другие изменения в промпте помогли открыть дополнительные эмерджентные возможности моделей. Было показано, что метод под названием «подсказка цепочки рассуждений» (chain-of-thought prompting), при котором мы направляем модель к разбиению сложных задач на несколько этапов, улучшает качество ответа (в простейшем варианте мы предваряем промпт фразой «Давай думать пошагово», и это делает ответы, сгенерированные моделью, более точными при решении логической задачи). Пользователи тестировали введение подробных инструкций для задач без обучающих примеров, а также спрашивали модель об ее уровне уверенности в своем ответе, и все это помогало улучшать ответы при определенных условиях.

В ранее упомянутом исследовании, посвященном эмерджентным способностям LLM, авторы изучали качество работы LLM различного размера при выполнении заданий с несколькими обучающими примерами. В частности, исследователи искали задачи, при решении которых ответы «маленьких» LLM были случайными [34], а затем качество ответов резко возрастало при переходе на модели большего размера. Они обнаружили, что способность языковых моделей выполнять сложение, вычитание и умножение была эмерджентной: GPT‐3 не выдавала практически ни одного правильного ответа, пока не достигла размера в 13 миллиардов параметров. Аналогично было обнаружено, что GPT‐3 и другие модели после достижения 70 миллиардов параметров значительно лучше начинали отвечать на разнообразные вопросы по академическим темам, включая математику, историю и право. Поскольку эти эмерджентные свойства не подчиняются эмпирическому закону масштабирования, трудно с уверенностью ответить на вопросы: будет ли увеличение размера способствовать появлению еще более важных способностей; при достижении какого размера мы больше не увидим новых улучшений; как рассуждать об этих задачах по сравнению с теми, где точность предсказуемо зависит от размера модели.

Искра общего искусственного интеллекта?

Согласно оценкам команды Microsoft, «кроме мастерства в использовании языка, GPT‐4 может решать новые и сложные задачи, включая математику, программирование, компьютерное зрение, медицину, юриспруденцию, психологию и многое другое, не нуждаясь в каких-либо специальных промптах»2. Именно из-за этих эмерджентных свойств появился провокационный заголовок статьи «Искра общего искусственного интеллекта», в которой было написано: «Учитывая глубину и широту способностей GPT‐4, мы полагаем, что его обоснованно можно рассматривать как начальную (но еще неполную) версию системы общего искусственного интеллекта (artificial general intelligence, AGI)». AGI – это давняя цель многих ученых, которые занимаются ИИ; под ним понимается интеллект, способный обучаться так же хорошо, как и люди, которые пока намного лучше обобщают знания и адаптируются к неизвестным задачам. Вопрос общего искусственного интеллекта – и обладают ли им какие-либо большие языковые модели – выходит за рамки этой главы, но мы еще обсудим его и смежные вопросы в главе 9.

2.2.2. Эмерджентность – это иллюзия?

Хотя эмерджентные способности были задокументированы в нескольких исследованиях, в сообществе машинного обучения пока нет единого мнения по этому вопросу. Команда ученых-информатиков из Стэнфордского университета утверждает, что эти так называемые эмерджентные способности проявляются не столько из-за неких качественных изменений в поведении моделей при достижении определенных размеров, сколько из-за методов, которыми исследователи оценивают модели2. В частности, резкое повышение качества работы в некоторых задачах, приписываемое эмерджентности, может быть, по крайней мере частично, обусловлено выбором показателя оценки качества, объемом тестовых данных, используемых для оценки (поскольку тестирование на меньшем количестве данных даст более искаженную оценку), а также количеством больших моделей, которые подвергаются оценке (поскольку больших моделей существует меньше, чем маленьких). Другими словами, авторы не оспаривают превосходство LLM во всех этих задачах, но они подвергают сомнению идею о том, что LLM в тех случаях, когда эмерджентные способности наблюдались, представляют собой фундаментальное отличие от предыдущих версий. Эмерджентное поведение зависит от выбранного показателя для оценки, и пока не ясно, какие показатели лучше, следует относиться с осторожностью к заявлениям, что при использовании более масштабных моделей, большего объема данных или изменения их типа мы можем наблюдать другие возможности.

2.3. Что попадает в обучающие данные?

Как мы уже обсуждали ранее, большие языковые модели обучаются на огромных объемах необработанных данных из интернета. Сколько информации уже скормили этим LLM? Довольно много. Большая языковая модель общего

1 ... 11 12 13 14 15 16 17 18 19 ... 91
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Гость Читатель Гость Читатель23 март 22:10 Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо... Маринка, хозяйка корчмы - Ульяна Гринь
  2. Гость Читатель Гость Читатель23 март 20:10 Книга понравилась, хотя я не любитель зоологии...... но в книге все вполне прилично и порядочно, не то что в других противно... Кухарка для дракона - Ада Нэрис
  3. Гость Галина Гость Галина22 март 07:37 Очень интересная книга, тема затронута актуальная для нашего времени. ... Перекресток трех дорог - Татьяна Степанова
Все комметарии
Новое в блоге