KnigkinDom.org» » »📕 Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 ... 37 38 39 40 41 42 43 44 45 ... 91
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
дохода и дорогостоящим медицинским расходам. В феврале 2022 года Мата подал иск против Avianca за халатность64. После различных судебных разбирательств авиакомпания попросила суд закрыть дело, в то время как адвокат Маты предоставил в ответ записку по делу на десяти страницах, в котором ссылался на несколько случаев в качестве прецедентов для продолжения судебного разбирательства.

Но здесь была одна проблема: ни одно из дел, перечисленных в документе, включая «дело Мартинеса против Delta Air Lines», «дело Цикермана против Korean Air Lines» и «дело Варгезе против China Southern Airlines», в реальности никогда не рассматривалось. Стивен Шварц, адвокат Маты, попросил ChatGPT составить записку по делу, и модель с готовностью это выполнила, но при этом полностью выдумала подтверждающие аргументы, опираясь на судебные иски, которых никогда не существовало. Выступая перед судом, Шварц открыто признался, что для составления записки использовал этот инструмент, и добавил, что не намеревался вводить суд в заблуждение, но поскольку он никогда раньше не пользовался ChatGPT, то не подозревал, что ответы чат-бота могут быть ложными65.

Ситуация с делом «Мата против Avianca» показывает, что может потребоваться больше времени, чем предполагалось, чтобы большие языковые модели смогли отобрать работу у работников умственного труда. Хотя LLM очень хорошо могут обобщать информацию и генерировать текст, который выглядит как написанный человеком, эти модели по большому счету не могут гарантировать точность и достоверность. Кроме того, компании, создающие LLM, должны формировать адекватные ожидания пользователей. Из-за новизны технологии и правдоподобности результатов модели многие люди, такие как Стивен Шварц, не утруждают себя проверкой ответов в надежных источниках информации. Эта проблема существует не только в юридической сфере, но и в других областях, которые часто требуют специальных знаний, например в медицине и финансах.

ChatGPT с его доступным интерфейсом остается одной из наиболее популярных больших языковых моделей в 2023 году. Судя по объему онлайн-диалогов, одной из популярных тем – и, прямо скажем, не самой шокирующей – являются советы от ChatGPT о том, как можно быстро заработать деньги. Поиск в Google показывает десятки статей о том, как заработать деньги с помощью ChatGPT. В декабре 2022 года один из пользователей Reddit опубликовал рекомендации модели о том, как можно стать богатым при минимальном начальном капитале; модель дала десять советов, таких как: купить и продать товар на онлайн-площадках, например на eBay или Etsy, инвестировать в недвижимость, купить арендуемою недвижимость или перепродавать дома66. Другие продолжили эксперименты и стали использовать ChatGPT в написании сценариев для социальных сетей и email-маркетинга. Оказалось, что тренд под названием HustleGPT [73] продемонстрировал более высокую эффективность в создании шума и привлечении внимания аудитории и подписчиков, чем в построении солидного бизнеса, что вполне объяснимо. LLM будут использовать общие, вероятностные стратегии, усвоенные во время обучения. Профессор Уортонской школы бизнеса Итан Моллик сказал, что, хотя ChatGPT не может сгенерировать «идеи на миллиард долларов», это отличный ресурс для людей, у которых есть идеи, но мало опыта в решении конкретных задач, таких как написание бизнес-планов или создание финансовых документов, шаблоны которых ChatGPT может изучить и воспроизвести67.

Хотя получение финансовых консультаций от чат-бота, безусловно, несет в себе некоторые риски, остается неясным, является ли это более опасным, чем получение советов на любом онлайн-форуме или даже от друга или знакомого, которые не являются сертифицированными финансовыми специалистами. Проблема чат-ботов, работающих на базе ИИ, заключается в кажущейся компетентности. И такая кажущаяся компетентность – классическое поведение больших языковых моделей – может быть опасной во многих других областях. Можно представить чат-бота, который ставит неверный диагноз или назначает лечение, которое серьезно сказывается на здоровье пациента. В исследовании, опубликованном на веб-сайте журнала Американской медицинской ассоциации, был собран набор вопросов от пациентов на медицинских онлайн-форумах, которые задали ChatGPT и квалифицированным врачам, а затем сравнили их ответы. Ответы чат-бота были оценены как более качественные и более чуткие (возможно, из-за того, что ответы модели были значительно длиннее ответов врачей). Авторы пришли к выводу, что «дальнейшее исследование этой технологии оправдано в клинических условиях, когда чат-боты могут писать ответы, а врачи потом будут их редактировать»68. Учитывая результаты, примечательно, но неудивительно, что авторы предлагают использовать чат-ботов не для самостоятельного написания ответов, а совместно с врачами в роли редакторов. Даже когда ИИ-системы превосходят человека, есть несколько аргументов в пользу того, что ИИ следует использовать как инструмент, а не средство замены, несмотря на экономические выгоды.

Ученые из медицинской школы Мичиганского университета провели еще одно исследование работы ChatGPT, используя модель GPT‐3.5, и предложили модели набор из 25 вопросов, связанных с диагностикой на рак молочной железы. Три радиолога, которые прошли подготовку в области маммографии, проверили ответы и определили, что они были правильными примерно в 88 % случаев, причем один ответ оказался неверным, поскольку рекомендации по таким случаям были пересмотрены и опубликованы уже после обучения модели69. Модель GPT‐4 действительно сдала письменную часть экзамена по радиологии, и, что особенно стоит отметить, она не проходила тонкую настройку по этой теме70. Но в неправильных ответах на экзамене GPT‐4 демонстрировала всю ту же кажущуюся компетентность, что и в правильных. Модель знала многое, но критично то, что она не знала, чего именно она не знает. Даже если точность ответов модели в области медицины приблизится к точности специалиста-человека или превзойдет ее, появление галлюцинаций серьезно ограничивает применение LLM в медицине, а также в других областях с высоким риском. Вот почему так важно научиться моделировать неопределенность. LLM, которая дает правильные ответы в 99 % случаев и галлюцинации в 1 %, все равно в конечном счете менее полезна, чем врач, который может правильно ответить на 95 % из того же набора вопросов и признает недостаток знаний по остальным 5 %. В руках начинающего практика, который слепо доверяет модели, этот 1 % может обернуться катастрофой. Другое исследование показало, что, когда модели использовались для обобщения медицинских наблюдений, их результаты не давали полной картины, поскольку даже при отсутствии галлюцинаций они не всегда могли выделить наиболее важные компоненты в наблюдениях, что могло привести к точным, но вводящим в заблуждение результатам71. Когда модели обращают внимание на неверную информацию или обучаются на предвзятых данных – что, как мы знаем, существует во многих медицинских областях72, – то они могут давать некачественные диагнозы или ответы, а из-за непрозрачности процесса генерации неспециалистам будет очень сложно выявить эти ошибки.

Рассмотрим случай с финансовым консультантом. Финансовый консультант, который просто обещает определенный процент прибыли от инвестиций, вызывает меньше доверия, чем тот, кто описывает ряд возможных сценариев, а затем дает рекомендации, которые уравновешивают процент прибыли с толерантностью клиента к риску. Чат-бот вроде ChatGPT будет

1 ... 37 38 39 40 41 42 43 44 45 ... 91
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Гость Екатерина Гость Екатерина24 март 10:12 Книга читается ужасно. Такого тяжелого слога ещё не встречала. С трудом дочитала до середины и с удовольствием бросила. ... Невеста напрокат, или Любовь и тортики - Анна Нест
  2. Гость Любовь Гость Любовь24 март 07:01 Книга понравилась) хотя главный герой, конечно, не фонтан, но достаточно интересно. Единственное, с середины книги очень... Мама для подкидышей, или Ненужная истинная дракона - Анна Солейн
  3. Гость Читатель Гость Читатель23 март 22:10 Адмну, модератору....мне понравился ваш сайт у вас очень порядочные книги про попаданцев....... спасибо... Маринка, хозяйка корчмы - Ульяна Гринь
Все комметарии
Новое в блоге