Ответственность в связи с использованием технологий ИИ
Большие перспективы новых технологий неизбежно порождают запрос на четкую юридическую регламентацию отношений в новых реалиях.

С развитием технологий ИИ в актуальной повестке оказываются риски, связанные с их применением. Помимо сугубо этических вопросов, и граждан, и бизнес волнуют возможность и порядок возмещения убытков, которые могут быть вызваны использованием ИИ.

Работа над созданием и совершенствованием механизма регулирования ИИ ведется как в России, так и за рубежом. В январе 2024 г. Президент РФ поручил российскому парламенту и Правительству РФ обеспечить внесение в законодательство изменений, устанавливающих ответственность за причинение вреда гражданам и их имуществу в результате тестирования и использования технологий ИИ, о чем мы писали в одном из наших дайджестов.

Вопрос механизма ответственности за вред, причиненный ИИ, был также затронут в принятой в марте  резолюции Генассамблеи ООН, содержащей среди прочего рекомендации по обеспечению «эффективных процедур возмещения ущерба и привлечения к ответственности в интересах тех, на кого негативно повлияли автоматизированные решения, принятые системами ИИ». Это положение резолюции мы также упоминали в предыдущих публикациях.

Самые важные НПА, законопроекты, судебная практика, новости и тенденции, связанные с ответственностью за вред, причиненный использованием ИИ – в нашем сегодняшнем обзоре.

Обязательное страхование ответственности

Одним из способов преодоления возможных рисков является обязательное страхование гражданской ответственности за вред, причиненный при применении технологий ИИ. В России уже ведется работа по реализации такой системы в рамках экспериментальных правовых режимов. Законопроект № 512628-8, внесенный в Госдуму в декабре 2023 г., предусматривает обязательное включение в программу экспериментального правового режима (ЭПР) положения о страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц при осуществлении деятельности в рамках ЭПР, в том числе при работе в сфере ИИ.

Соблюдению интересов потенциальных потерпевших от деятельности с использованием ИИ служит также обязанность субъекта ЭПР вести реестр всех лиц, вступающих с ним в отношения в рамках ЭПР, с указанием страховой суммы по договору страхования, заключенному в предусмотренном законом порядке. Оценкой каждого инцидента и отнесением его к страховому случаю займется специально созданная комиссия.

Строгая ответственность за вред, причиненный ИИ

Другой подход к особенностям регулирования ответственности за вред, причиненный использованием ИИ, существует в ЕС. Проектом директивы Европарламента и Европейского совета предлагается установить так называемую «строгую ответственность» (независимо от вины) для производителя некачественной продукции (в частности, программного обеспечения), в которой применяются технологии ИИ. Соответствующие изменения предложено внести в директиву ЕС об ответственности за некачественную продукцию (“Product liability directive”).

В пояснениях к проекту директивы указывается, что общее правило ответственности за виновное причинение вреда в случае с ИИ создает слишком тяжелое бремя доказывания для потерпевших, поскольку механизмы его работы остаются пока неизвестными большинству пользователей. В свою очередь, суды в странах-членах ЕС, стремясь защитить слабую сторону отношений, прибегают к толкованию норм закона “case by case”, что приводит к правовой неопределенности, мешает разработчикам в сфере ИИ развивать перспективные технологии и выводить их на рынок.

В этих условиях принятие директивы ЕС, по мнению разработчиков, позволит создать общеевропейское правовое поле для отношений из причинения вреда от использования ИИ, что позволит внести ясность и единообразие в правоприменительную практику.

Подготовка документа к чтению на пленарном заседании продолжается в комиссиях Европарламента.

Возмещение вреда от ИИ на практике

Одним из первых случаев возмещения вреда, причиненного ИИ, стало дело по иску, инициированному против корпорации Tesla.

Автомобиль Tesla Model 3 с установленной на борту системой автопилот на основе ИИ неожиданно свернул с трассы и врезался в дерево, в результате чего погиб водитель, а пассажиры, среди которых были несовершеннолетние, получили серьезные травмы.

По мнению истца, корпорация продала автомобиль с автопилотом, будучи осведомленной о его недостатках и ошибках в работе, которые привели к катастрофе. Сумма иска составила более 400 млн долларов.

Осенью 2023 г. СМИ сообщили, что суд присяжных вынес решение в пользу корпорации Tesla. Представители компании указывали в ходе разбирательства на недоказанность факта управления автомобилем автопилотом во время аварии. Кроме того, в суде представители Tesla апеллировали к тому, что водитель находился за рулем в состоянии алкогольного опьянения.

Хотя суд отказал в иске по формальным основаниям, не исследуя особенности ответственности за использование ИИ, дело Tesla продемонстрировало, что вред, причиненный использованием ИИ, уже не укладывается в существующие правовые рамки, требуя принципиально нового подхода.

Помимо непосредственного причинения вреда ИИ создает риски и для авторских прав. Ранее мы уже писали о материале американской газеты The New York Times (NYT) с обвинениями в адрес корпораций Google, OpenAI и Meta*. По мнению журналистов, компании массово используют для машинного обучения материалы, защищенные авторским правом, без согласия правообладателей.

До этого NYT предъявила иск по аналогичному основанию к корпорации Microsoft и OpenAI. Позднее судебный процесс против этих компаний инициировали 8 других крупных газет (в том числе New York Daily News, Chicago Tribune, Orlando Sentinel и другие).

Исход этих дел может создать важный прецедент, который определит, окажется ли в приоритете развитие ИИ, невозможное без большого массива материалов для машинного обучения, или строгая защита авторских прав. Например, как мы писали ранее, использование защищенных авторским правом материалов для машинного обучения в американском праве может быть оправдано с позиций известной доктрины “fair use”, позволяющей в определенных случаях использовать контент без разрешения правообладателя. Машинное обучение потенциально может быть признано одним из таких случаев.

Несмотря на известный консерватизм права, стремительное развитие новых технологий, особенно в сфере ИИ, требует от законодателя и правоприменения гибкости и политической воли к адаптации правовой системы к новым условиям.

Мы продолжим следить за всеми трендами, связанными с правовыми аспектами развития ИИ.

* Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская.

Читайте также
12/28/2024
ККМП рады объявить о стратегически значимом событии: к фирме присоединяется одна из самых ярких команд российского юридического рынка - партнер Александр Аничкин, старший юрист Ольга Захарова, старший юрист Екатерина Шарапова и юрист Дамир Шакиров. Столь масштабный переход опытной команды юристов призван усилить ключевые практики фирмы и стимулировать развитие новых направлений работы, утвердив ККМП в статусе ведущих юридических консультантов полного цикла.
12/27/2024
Дмитрий Раев и Алексей Толстых подготовили обзор дела общества «Красноярскпромстрой».