KnigkinDom.org» » »📕 Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 2 3 ... 91
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
в 2018 году представила основанную на трансформере большую языковую модель Generative Pre-training (GPT), которая была предобучена на огромных объемах неразмеченных данных из интернета и допускала тонкую настройку [8] для выполнения конкретных задач, таких как анализ сентимента [9] текста, машинный перевод, классификация текста и так далее11. До этого большинство моделей NLP обучались для решения конкретной задачи, и это было их главным узким местом, поскольку им требовалось огромное количество размеченных данных, создание которых является трудоемким и дорогостоящим. Для решения этой проблемы и были разработаны универсальные большие языковые модели, которые способны создавать информативные внутренние представления слов и понятий самостоятельно, используя неразмеченные данные. А пока специалисты спорили, какой размер модели стоит считать «большим», Google разработал еще одну из первых больших языковых моделей, работающую на архитектуре трансформера, – BERT (Bidirectional Encoder Representations from Transformers), которая была обучена на миллиарде слов и имела более 100 миллионов параметров или выученных весов12. На рис. 1.3 приведена хронология основных событий в NLP.

1.3. Бурное развитие больших языковых моделей

В предыдущем разделе мы обсудили, как языковые модели могут научиться решать конкретные задачи, изучая закономерности в данных. Например, для перевода можно использовать набор данных с документами, продублированными на нескольких языках; для задач обобщения – набор данных в виде документов с краткими выводами, подготовленными человеком и так далее. Однако, в отличие от таких ранних систем, большие языковые модели не ограничены решением конкретных задач. Наоборот, они обучены решать задачу, которая состоит в том, чтобы для последовательности с пропущенным токеном (например, пропущенное слово в предложении) предсказать, какой токен лучше всего подходит на место пропущенного, учитывая весь контекст последовательности. Прелесть этой задачи в том, что она является обучением без учителя: модель самостоятельно обучается предсказывать недостающую часть входных данных по имеющейся, поэтому разметка не требуется. Это также называют предиктивным обучением или pretext learning.

Поскольку LLM применяются в различных областях, они становятся неотъемлемой частью нашей повседневной жизни. Обработка естественного языка используется такими виртуальными собеседниками, как Apple Siri, Amazon Alexa и Google Home, которые прослушивают запросы пользователей, преобразуют звук в текст, а затем выполняют поставленные им задачи или находят ответы. Мы встречаем чат-ботов для обслуживания клиентов в розничной торговле, а в следующем разделе обсудим более сложные диалоговые агенты, такие как ChatGPT. Технология NLP используется в медицине для обработки электронных медицинских карт, а также для решения повседневных задач в юриспруденции, таких как поиск соответствующих прецедентов в судебной практике или определенной информации в документах. Обработка естественного языка также используется на платформах социальных сетей, таких как Facebook [10], X (Twitter) и Reddit, в том числе для того, чтобы сделать онлайн-общение более позитивным путем выявления разжигающих ненависть высказываний или оскорбительных комментариев.

Позже мы поговорим о том, как проводится тонкая настройка LLM, после которой они могут хорошо выполнять определенный тип задач; однако структура первого этапа обучения означает, что большие языковые модели могут свободно генерировать текст в самых разных контекстах. Это свойство делает их не только идеальными кандидатами в диалоговые агенты, но и дает им некоторые неожиданные способности в выполнении задач, для которых они не были специально обучены.

1.4. Где примененяются LLM?

Благодаря своей универсальности и многофункциональности большие языковые модели имеют широкий спектр применения и могут использоваться в разных областях. Они способны решать самые разные задачи на естественном языке, включая общение с пользователями, ответы на вопросы, классификацию или обобщение текста. В этом разделе мы обсудим несколько распространенных случаев применения LLM, поставленные перед ними проблемы, а также перспективы в решении ими новых задач, например помощь в программировании и логическом рассуждении, где языковые модели ранее не применялись.

1.4.1. Моделирование языка

Моделирование языка – это наиболее естественное применение языковых моделей. Одним из таких применений является продолжение текста – это задача прогнозирования следующего слова или символа в документе. Модель изучает особенности и характеристики естественного языка и генерирует следующее наиболее вероятное слово или символ. Эту технологию можно применять также для обучения больших языковых моделей, которые затем используются для широкого спектра задач на естественном языке, и некоторые из них мы обсудим в последующих разделах.

Выполнение задач моделирования языка часто оценивается по различным наборам данных. Это могут быть, например, задачи по моделированию отдаленных зависимостей, когда модель просят предсказать следующее слово в предложении, учитывая контекст всего предшествующего абзаца. Давайте рассмотрим пример задачи с отдаленной зависимостью13. Модели дается такой контекст:

«Он покачал головой, сделал шаг назад, поднял руки вверх и попытался улыбнуться. „Ты сможешь“, – ободряюще сказала Джулия. – „Я уже навела фокус на своего друга. Тебе нужно просто нажать кнопку затвора, вот здесь, сверху“».

А предложение, в котором модель должна предсказать последнее слово, звучит так: «Он с опаской кивнул и взял __________». Правильный ответ – слово «фотоаппарат».

Еще одной задачей, по которой можно оценить эффективность модели, является выбор наилучшего завершения рассказа, набора инструкций14 или выбор правильной финальной фразы в истории длиной в пару предложений. Давайте рассмотрим еще один пример со следующим рассказом15: «В комнату Карен заселили соседку-первокурсницу. Соседка пригласила ее поехать на концерт в соседний город. Карен с радостью согласилась. Шоу было поистине захватывающим». Наиболее вероятной концовкой и правильным ответом, ожидаемым от модели, было предложение: «Карен подружилась со своей соседкой по комнате», а наименее вероятной – «Карен ненавидела свою соседку по комнате».

Поскольку эти модели обучены создавать текст, напоминающий написанный человеком, они используются для генерации текста или генерации естественного языка (natural language generation, NLG). Они особенно полезны для диалоговых чат-ботов и автозаполнения [11], а также их можно тонко настроить для написания текстов в разных стилях и форматах, включая сообщения в социальных сетях, новостные статьи и даже программный код. Генерация текста выполнялась с использованием BERT, GPT и других моделей.

1.4.2. Генерация ответов на вопросы

Популярным применением больших языковых моделей является генерация ответов на вопросы (Q&A), где им приходится отвечать на вопросы людей на естественном языке. В целом существует два типа задач в этой области: выбор наилучшего ответа и свободный ответ. Для первой из этих задач цель обучения модели заключается в поиске правильного ответа из набора возможных вариантов, в то время как в задаче со свободным ответом модель дает ответ на вопрос на естественном языке без каких-либо предварительно подготовленных вариантов.

В зависимости от входных и выходных данных существуют три основные разновидности Q&A-моделей. Первая – это извлекающая Q&A-модель; она ищет

1 2 3 ... 91
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Гость Читатель Гость Читатель23 март 22:10 Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо... Маринка, хозяйка корчмы - Ульяна Гринь
  2. Гость Читатель Гость Читатель23 март 20:10 Книга понравилась, хотя я не любитель зоологии...... но в книге все вполне прилично и порядочно, не то что в других противно... Кухарка для дракона - Ада Нэрис
  3. Гость Галина Гость Галина22 март 07:37 Очень интересная книга, тема затронута актуальная для нашего времени. ... Перекресток трех дорог - Татьяна Степанова
Все комметарии
Новое в блоге