С развитием технологий ИИ в актуальной повестке оказываются риски, связанные с их применением. Помимо сугубо этических вопросов, и граждан, и бизнес волнуют возможность и порядок возмещения убытков, которые могут быть вызваны использованием ИИ.
Работа над созданием и совершенствованием механизма регулирования ИИ ведется как в России, так и за рубежом. В январе 2024 г. Президент РФ поручил российскому парламенту и Правительству РФ обеспечить внесение в законодательство изменений, устанавливающих ответственность за причинение вреда гражданам и их имуществу в результате тестирования и использования технологий ИИ, о чем мы писали в одном из наших дайджестов.
Вопрос механизма ответственности за вред, причиненный ИИ, был также затронут в принятой в марте резолюции Генассамблеи ООН, содержащей среди прочего рекомендации по обеспечению «эффективных процедур возмещения ущерба и привлечения к ответственности в интересах тех, на кого негативно повлияли автоматизированные решения, принятые системами ИИ». Это положение резолюции мы также упоминали в предыдущих публикациях.
Самые важные НПА, законопроекты, судебная практика, новости и тенденции, связанные с ответственностью за вред, причиненный использованием ИИ – в нашем сегодняшнем обзоре.
Одним из способов преодоления возможных рисков является обязательное страхование гражданской ответственности за вред, причиненный при применении технологий ИИ. В России уже ведется работа по реализации такой системы в рамках экспериментальных правовых режимов. Законопроект № 512628-8, внесенный в Госдуму в декабре 2023 г., предусматривает обязательное включение в программу экспериментального правового режима (ЭПР) положения о страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц при осуществлении деятельности в рамках ЭПР, в том числе при работе в сфере ИИ.
Соблюдению интересов потенциальных потерпевших от деятельности с использованием ИИ служит также обязанность субъекта ЭПР вести реестр всех лиц, вступающих с ним в отношения в рамках ЭПР, с указанием страховой суммы по договору страхования, заключенному в предусмотренном законом порядке. Оценкой каждого инцидента и отнесением его к страховому случаю займется специально созданная комиссия.
Другой подход к особенностям регулирования ответственности за вред, причиненный использованием ИИ, существует в ЕС. Проектом директивы Европарламента и Европейского совета предлагается установить так называемую «строгую ответственность» (независимо от вины) для производителя некачественной продукции (в частности, программного обеспечения), в которой применяются технологии ИИ. Соответствующие изменения предложено внести в директиву ЕС об ответственности за некачественную продукцию (“Product liability directive”).
В пояснениях к проекту директивы указывается, что общее правило ответственности за виновное причинение вреда в случае с ИИ создает слишком тяжелое бремя доказывания для потерпевших, поскольку механизмы его работы остаются пока неизвестными большинству пользователей. В свою очередь, суды в странах-членах ЕС, стремясь защитить слабую сторону отношений, прибегают к толкованию норм закона “case by case”, что приводит к правовой неопределенности, мешает разработчикам в сфере ИИ развивать перспективные технологии и выводить их на рынок.
В этих условиях принятие директивы ЕС, по мнению разработчиков, позволит создать общеевропейское правовое поле для отношений из причинения вреда от использования ИИ, что позволит внести ясность и единообразие в правоприменительную практику.
Подготовка документа к чтению на пленарном заседании продолжается в комиссиях Европарламента.
Одним из первых случаев возмещения вреда, причиненного ИИ, стало дело по иску, инициированному против корпорации Tesla.
Автомобиль Tesla Model 3 с установленной на борту системой автопилот на основе ИИ неожиданно свернул с трассы и врезался в дерево, в результате чего погиб водитель, а пассажиры, среди которых были несовершеннолетние, получили серьезные травмы.
По мнению истца, корпорация продала автомобиль с автопилотом, будучи осведомленной о его недостатках и ошибках в работе, которые привели к катастрофе. Сумма иска составила более 400 млн долларов.
Осенью 2023 г. СМИ сообщили, что суд присяжных вынес решение в пользу корпорации Tesla. Представители компании указывали в ходе разбирательства на недоказанность факта управления автомобилем автопилотом во время аварии. Кроме того, в суде представители Tesla апеллировали к тому, что водитель находился за рулем в состоянии алкогольного опьянения.
Хотя суд отказал в иске по формальным основаниям, не исследуя особенности ответственности за использование ИИ, дело Tesla продемонстрировало, что вред, причиненный использованием ИИ, уже не укладывается в существующие правовые рамки, требуя принципиально нового подхода.
Помимо непосредственного причинения вреда ИИ создает риски и для авторских прав. Ранее мы уже писали о материале американской газеты The New York Times (NYT) с обвинениями в адрес корпораций Google, OpenAI и Meta*. По мнению журналистов, компании массово используют для машинного обучения материалы, защищенные авторским правом, без согласия правообладателей.
До этого NYT предъявила иск по аналогичному основанию к корпорации Microsoft и OpenAI. Позднее судебный процесс против этих компаний инициировали 8 других крупных газет (в том числе New York Daily News, Chicago Tribune, Orlando Sentinel и другие).
Исход этих дел может создать важный прецедент, который определит, окажется ли в приоритете развитие ИИ, невозможное без большого массива материалов для машинного обучения, или строгая защита авторских прав. Например, как мы писали ранее, использование защищенных авторским правом материалов для машинного обучения в американском праве может быть оправдано с позиций известной доктрины “fair use”, позволяющей в определенных случаях использовать контент без разрешения правообладателя. Машинное обучение потенциально может быть признано одним из таких случаев.
Несмотря на известный консерватизм права, стремительное развитие новых технологий, особенно в сфере ИИ, требует от законодателя и правоприменения гибкости и политической воли к адаптации правовой системы к новым условиям.
Мы продолжим следить за всеми трендами, связанными с правовыми аспектами развития ИИ.
* Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская.