Искусственный интеллект в здравоохранении - Коллектив авторов
Книгу Искусственный интеллект в здравоохранении - Коллектив авторов читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!
Шрифт:
Интервал:
Закладка:
Первый проблемный вопрос в регулировании ИИ – это все повторяющиеся попытки придания ему правосубъектности, то есть возможности вступать в правоотношения от своего лица, иметь права и нести юридические обязанности. Таким образом, серьезной задачей для ученых будет определить возможность ИИ выступать в роли субъекта, а не объекта. Интересен первый случай признания за роботом с технологией ИИ свойств субъектов права в Саудовской Аравии, где человекоподобному роботу официально дали гражданство[21].
Подобно тому, как у юридического лица есть признаки правосубъектности, ИИ имеет регистрацию как объект интеллектуальной собственности, обладает хозяйственной компетенцией (это его функционал) и материальной базой (в роли которой выступает материальный носитель ИИ, например робот), его можно привлечь к ответственности (выключить). С первого взгляда можно подумать, что ИИ действительно можно отнести к субъектам правоотношений. Однако, если детальнее изучить вопрос и комплексно подойти к оценке ИИ как правового явления в системе российского права, можно заметить следующее. ИИ был создан как умный ассистент для человека в социально полезных целях. При этом, хотя и обладает отдельными признаками субъекта, он не может похвастаться полнотой мышления и скоростью принятия решений, характерных для человека. В полном смысле возложение ответственности за действия ИИ на него самого представляется неправильным.
В настоящее время отмечаются случаи совершения ИИ ошибок в медицинской деятельности, поэтому вопрос распределения ответственности между человеком и автоматом особенно актуален. Так, в научной литературе приводится пример, когда в медицинское учреждение поступил ребенок с высокой температурой и слабостью. Диагноз «грипп» был поставлен на основе вывода системы ИИ. В соответствии с диагнозом было назначено лечение. Однако через несколько часов ребенок скончался, а вскрытие показало ошибочность поставленного диагноза [Hallevy, 2013]. ИИ непредсказуем в силу того, что его потенциальное поведение запрограммировано в цифровом коде, для которого не чужды сбои и внешнее воздействие (взлом). Поэтому ответственность за него пока по классическому методу возлагают на человека – создателя и владельца.
Большинство ученых склоняется к тому, что в ближайшее время ИИ будет восприниматься исключительно как объект права с позиции статьи 128 ГК РФ. Весьма вероятно, что его можно описать как источник повышенной опасности. Под источником повышенной опасности понимается любая деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами (пункт 18 Постановления Пленума Верховного суда России от 26.01.2010 № 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина»). При этом отнесение объекта к источникам повышенной опасности находится в дискреции суда. Соответственно, за этим будут следовать предусмотренные законом правовые последствия. Таким образом, возможно, российское законодательство на данный момент уже предусматривает необходимое регулирование, которое предполагает, что ответственность за работу ИИ по общему правилу несет лицо, владеющее им. В противном случае оно должно доказать, что на момент причинения вреда источник повышенной опасности выбыл из его владения, а вина будет лежать на фактическом причинителе вреда.
Пользуясь уже сформированными гражданско-правовыми механизмами, можно возложить ответственность за вред, причиненный ИИ, на его создателя. Причиной могут служить существенные недостатки в товаре (системе ИИ). В силу статьи 1095 ГК РФ вред, причиненный жизни, здоровью или имуществу гражданина либо имуществу юридического лица вследствие конструктивных, рецептурных или иных недостатков технологии ИИ, а также вследствие недостоверной или недостаточной информации о нем, подлежит возмещению продавцом или изготовителем, независимо от их вины и от того, состоял потерпевший с ними в договорных отношениях или нет. Выбор ответственного лица остается за потерпевшим (п. 1 ст. 1096 ГК РФ, п. 35 Постановления Пленума Верховного суда РФ от 28.06.2012 № 17 «О рассмотрении судами гражданских дел по спорам о защите прав потребителей»).
Предлагаются следующие принципиальные подходы: производители ИИ несут ответственность только в случае целенаправленного его создания в целях совершения правонарушения. Само по себе создание ИИ, способного совершать негативные действия, не влечет за собой юридической ответственности его создателя (когда этими технологиями пользуются в оборонной сфере) [Лаптев, 2019, с. 95].
Что касается уголовной ответственности, в правоприменительной практике и в правовой доктрине практически консолидировалось мнение о применимости к общественно опасным деяниям с использованием ИИ норм 28 главы Уголовного кодекса РФ, предусматривающих уголовную ответственность за преступления в сфере компьютерной информации. Квалификация деяния по нормам, предусматривающим ответственность за совершение преступлений в сфере компьютерной информации, не исключает наступление ответственности за преступления против жизни и здоровья человека. Так, в случае неправомерного доступа с целью причинения вреда жизни или здоровью человека будет иметь место совокупность преступлений: преступление в сфере компьютерной безопасности и преступление против личности. При этом звучат идеи, что в недалеком будущем ИИ может быть наделен признаками субъекта правоотношений. Следовательно, он самостоятельно (но в обязательной взаимосвязи со своим материальным носителем) сможет нести юридическую ответственность за совершенные действия.
Если размышлять над оптимальными видами ответственности для «робота», то неизбежен вопрос о том, какое наказание будет эффективным. Вся правовая система исторически ориентирована на человека как на субъекта, актора, причину и результат всех правовых процессов. Поэтому юридическая ответственность для него должна нести цель исправления, профилактики, а также неблагоприятные последствия, которые возможно ощутить на себе.
Согласно такой логике, что может быть эффективным для робота? Исправления можно добиться путем корректировки настроек, но это скорее нормальная практика повышения качества ИИ. Высказывается идея о том, что самое суровое наказание для робота – отключение. Но так как у ИИ нет эмоций, совести, чувств, то за отключением, изменением настроек, дополнительными работами или даже лишением свободы не будет стоять никакого смысла.
В медицинской сфере можно обнаружить другие подходы. Возложение ответственности будет зависеть от того, какой объем контроля за ИИ имеет врач и кто принимает окончательное решение в процессе лечения пациента. С одной стороны, можно вспомнить про автономные системы, которые самостоятельно принимают решение по курсу лечения, и тогда не вполне разумно привлекать к ответственности за ошибку врача. С другой стороны, большинство внедренных в медицину систем ИИ выполняют функции ассистента врача, основная масса решений приходится именно на медицинского работника. Если определяющим в тактике
Прочитали книгу? Предлагаем вам поделится своим отзывом от прочитанного(прослушанного)! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.
Уважаемые читатели, слушатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.
- 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
- 2. Просьба отказаться от оскорблений, угроз и запугиваний.
- 3. Просьба отказаться от нецензурной лексики.
- 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.
Надеемся на Ваше понимание и благоразумие. С уважением, администратор knigkindom.ru.
Оставить комментарий
-
Гость Гость04 ноябрь 15:58
Мне во всех романах не нравится,что автор лицо мордой называет,руки лапками,это странно звучит...
Приличной женщине нельзя... - Ашира Хаан
-
Гость Наталья04 ноябрь 04:18
Благодарю ...
Таежная кровь - Владимир Топилин
-
Гость Наталья03 ноябрь 04:49
Здравствуйте. Потрясающий финал великолепной трилогии! Очередной шедевр! Даже не замечаешь, как погружается в произведение, сюжет...
Месяц за Рубиконом - Сергей Лукьяненко
