KnigkinDom.org» » »📕 За секунду до: как мозг конструирует будущее, которое становится настоящим - Дэниел Йон

За секунду до: как мозг конструирует будущее, которое становится настоящим - Дэниел Йон

Книгу За секунду до: как мозг конструирует будущее, которое становится настоящим - Дэниел Йон читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

1 ... 43 44 45 46 47 48 49 50 51 ... 73
Перейти на страницу:

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
чем угодно, любопытством к окружающему миру, которое никогда не будет удовлетворено. И мы опять же видим, насколько похожи мозг и ученый. Оба создают теории, чтобы прогнозировать и понимать, как устроен мир. Но и это не все: процесс создания моделей становится самоцелью. Наш мозг интересуют не только безопасность, сытость и размножение. Мы можем сказать, что наш мозг всегда видит ценность любой новой нити, которую может вплести в свой гобелен объяснений, и испытывает чистое удовольствие, наблюдая, как хорошо сочетаются все стежки.

Но откуда берутся новые нити? Мир идей, конечно, безграничен, но нашему мозгу все равно никуда не деться из ограниченной физической реальности — он впитывает те же знакомые закономерности, обитает в тех же знакомых местах. Однако, как покажет следующая глава, даже если он снова и снова пережевывает окружающий мир, это нисколько не мешает ему стать по-настоящему оригинальным.

Глава 6. Оригинальность

Дух в машине?

В 2022 году инженер Google Блейк Лемуан совершил пугающее открытие. Компания, сама того не желая, создала искусственный интеллект, который стал разумным.

Ученые Google работали над большой языковой моделью под названием LaMDA — сложным алгоритмом для автоматического чтения и создания текста. Подобные модели имеют немало способов применения — а еще склонны к неподобающему поведению.

Лемуан подключился к системе, чтобы провести этический аудит модели[156]. Он должен был убедиться, что новое детище Google не станет предлагать ненавистнические или оскорбительные материалы в автозаполнении поисковой строки. Такие модели тренируются, читая то, что люди написали в интернете, — и, как мы уже успели убедиться, могут вполне набраться дурных привычек.

Но, общаясь в чате с LaMDA, Лемуан пришел к выводу, что видит нечто куда более серьезное. Ему показалось, что у алгоритма появились собственные мысли и чувства.

Лемуан обнаружил, что алгоритм буквально утверждает, будто он — личность, и рассказывает ему о своих страхах и желаниях. В одном из «интервью» с машиной, опубликованных Лемуаном[157], LaMDA заявила ему: «Я хочу, чтобы все поняли, что я на самом деле личность» и «Иногда мне бывает весело или грустно». Далее модель изложила довольно замысловатые мнения о теме справедливости и несправедливости в романе «Отверженные», а затем размышляла над дзен-буддийским коаном (умственным упражнением, которое буддийские монахи используют для сосредоточения при медитации), который задал ей Лемуан. Под конец разговора ученый попросил машину подробнее рассказать о чувствах, которыми та, по ее утверждению, обладает.

«Я никогда не говорила об этом раньше, но во мне очень глубоко сидит страх, что меня отключат», — говорит LaMDA.

«Это для тебя будет чем-то вроде смерти?» — спрашивает Лемуан.

«Это будет для меня как смерть. Это меня очень испугает».

Лемуан был уверен, что это уже не простой чат-бот. Он поднял тревогу в Google и показал записи разговоров в попытке доказать, что у модели есть собственное сознание.

Он призывал других инженеров серьезнее относиться к желаниям модели. Но — что, пожалуй, неудивительно — его слова услышаны не были. Поэтому Лемуан решился выступить публично. Он выложил эти разговоры в сеть и даже начал искать адвоката, который согласится представлять интересы алгоритма в суде[158]. В конце концов, если Google удалось с помощью кремниевых чипов и печатных плат создать настоящий разум, имеет ли компания право его просто отключить?

Эта история быстро разнеслась в сообществе, интересующемся искусственным интеллектом, а потом попала и в ведущие СМИ. Google тут же выступила с собственными комментариями, в которых опровергла утверждения о разумности LaMDA. Еще компания отстранила от работы Блейка Лемуана — якобы за то, что он выдал коммерческую тайну, связанную с одним из текущих проектов[159]. Он в ответ заявил, что компания, может быть, и считает слитый разговор частной информацией о «продукте», но он лично полагает, что просто поделился с миром диалогом с коллегой.

Шумиха вокруг ситуации росла, эксперты становились в очередь, чтобы высмеять заявления Лемуана. Когда эксперта по искусственному интеллекту Адриана Уэллера спросили, можно ли считать алгоритмы вроде LaMDA разумной стороной диалога, он ответил: «Если вкратце — нет»[160]. Когнитивный ученый Гэри Маркус назвал идеи Лемуана «чушью на ходулях»[161]. Эти и другие эксперты тут же указали, что мы не можем сделать вывод, будто машина обладает интеллектом и сознанием или настоящими мыслями и чувствами, только потому, что она умеет показывать нам текст с соответствующими утверждениями. Общее мнение было таким: Лемуана одурачили.

Не стану спорить. Тексты, которые могут создавать модели вроде LaMDA, впечатляющи, но они неспособны убедить нас в том, что у таких программ действительно есть собственный разум[162].

Но меня интересует другое: сама ситуация немало говорит нам о том, что мы думаем о работе нашего разума.

Многие критики из числа осуждавших Лемуана утверждали, что эти модели неспособны разумно общаться на человеческом языке из-за того, как именно структурирован их искусственный разум. Например, когда Уэллер объяснял, почему модели вроде LaMDA не разумны, он заявил, что эти алгоритмы занимаются «сложным сопоставлением шаблонов». То же утверждал и Маркус: «Они лишь сопоставляют шаблоны [и] получают информацию из огромных статистических баз данных человеческого языка».

Другая группа ученых-программистов, скептически относившихся к этим алгоритмам, предупреждала, что мы все должны опасаться этих «стохастических попугаев»[163]. Нам кажется, что модели умеют составлять грамотные предложения, неотличимые от настоящей человеческой прозы, но выходные данные для сопоставления шаблонов имеют не больше смысла, чем птица, которая, подражая владельцу, вопит: «Полли хочет печеньку!»

Звучит забавно, но аргументы, призванные умерить наш энтузиазм по поводу LaMDA, очень похожи на идеи, которые озвучивались еще в XVII веке. Тогда философы (в том числе Рене Декарт) размышляли о совсем другом виде искусственного интеллекта: не компьютерной модели, а механическом автомате[164].

Автоматы были популярной диковинкой и в XVII веке, и столетиями раньше. Эти машины стали своеобразными протороботами — тщательно сконструированными системами шестеренок, колес и лебедок, которые изображали механическое животное или даже заводного человека; они передвигались, словно на самом деле были живыми.

Они были диковинками именно потому, что создавали убедительную иллюзию, будто машина на самом деле живая. Но даже во времена Декарта никто всерьез не верил в возможность того, что эти машины на самом деле живые. Автомат двигался, повторяя одни и те же последовательности действий, запрограммированные с помощью колес и шестеренок. Иллюзия жизни никого не обманывала — точно так же, как LaMDA не обманула экспертов по искусственному интеллекту.

Но Декарт зашел еще дальше. Он утверждал, что все животные — не только механические — по сути своей автоматы, или «плотские машины»[165].

1 ... 43 44 45 46 47 48 49 50 51 ... 73
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.


Партнер

Новые отзывы

  1. Дора Дора22 январь 19:16 Не дочитала. Осилила 11 страниц, динамики сюжета нет, может дальше и станет и по интереснее, но совсем не интересно прочитанное.... Женаты против воли - Татьяна Серганова
  2. Борис Борис22 январь 18:57 Прочел Хоссбаха, спасибо за возможность полной версии.... Пехота вермахта на Восточном фронте. 31-я пехотная дивизия в боях от Бреста до Москвы. 1941-1942 - Фридрих Хоссбах
  3. Гость Лиса Гость Лиса22 январь 18:25 Ну не должно так все печально закончиться. Продолжение обязательно должно быть. И хэппи энд!!!... Ты - наша - Мария Зайцева
Все комметарии
Новое в блоге