Изменения в Закон об ЭПР вступают в силу 5 января 2025 г. и предусматривают целый комплекс различных обязанностей субъектов ЭПР, использующих технологии ИИ.
Одним из главных нововведений стало обязательное страхование субъектами ЭПР гражданской ответственности за вред, причиненный использованием ИИ.
Положения о таком страховании, включая требования к его условиям, в том числе минимальному размеру страховой суммы, перечню страховых рисков и страховых случаев теперь в обязательном порядке подлежат включению в программу ЭПР (утверждаемый Правительством РФ акт, определяющий условия ЭПР).
Установлением обстоятельств каждого инцидента с ИИ и отнесением его к страховым случаем будет заниматься специально создаваемая комиссия (далее – «Комиссия»).
В состав Комиссии обязательно входят представители регулирующего органа (Минэкономразвития РФ) и уполномоченного органа (профильное министерство в зависимости от направления разработки, апробации и внедрения цифровых инноваций). В нее также могут входить иные заинтересованные лица, в том числе участники ЭПР, представители организаций предпринимательского сообщества, экспертного сообщества.
С 5 января 2025 г. субъект ЭПР также обязан вести реестры:
лиц, участвующих в использовании решений, разработанных с применением ИИ технологий
результатов интеллектуальной деятельности, создаваемых с помощью ИИ
При необходимости субъект ЭПР будет обязан по запросу Комиссии передавать регулирующему органу информацию из данных реестров.
Ранее мы писали о движении законопроекта.
Об этом на полях ПМЮФ-2024 заявил президент Евразийского патентного ведомства (ЕАПВ) Евразийской патентной организации Григорий Ивлиев.
Президент ЕАПВ также отметил главную проблему патентования технологий ИИ - дискуссию о том, какие объекты подлежат патентованию, в каких случаях должно возникнуть охраняемое законом право.
Заместитель председателя Совета по развитию цифровой экономики сенатор Ирина Рукавишникова обратила внимание на необходимость внедрения риск-ориентированного подхода к регламентации работы с ИИ, систему ограничений использования ИИ в наиболее «чувствительных сферах».
По словам председателя КС РФ Валерия Зорькина, ИИ все чаще используется в работе судов и в сфере частных юридических услуг для решения рутинных задач (подготовка стандартных документов, проверка контрагента, поиск судебной практики).
Валерий Зорькин отметил также и риски, связанные с внедрением ИИ, в том числе неконтролируемые искажения в алгоритмах принятия социально значимых решений, неблагоприятные последствий для рынков труда, неприкосновенности частной жизни, физической неприкосновенности (в частности в связи с угрозами со стороны беспилотных автомобилей, работающих с использованием технологий ИИ), гражданских свобод и даже глобальной безопасности.
По сообщению СМИ, злоумышленники при помощи нейросети записали голосовые сообщения голосом женщины с просьбой одолжить 5 тысяч рублей и отправили ее друзьям.
Уголовное дело возбуждено по статье 272 УК РФ «Неправомерный доступ к компьютерной информации».
«Яндекс» также планирует развивать маркировку ИИ контента в других своих сервисах.
Ранее мы писали о том, что Госдума начала разработку нового законопроекта о маркировке контента, созданного с ИИ.
Ранее китайский мессенджер WeChat также обновил свою политику модерации: теперь авторы обязаны указывать на то, что контент, опубликованный в WeChat создан с помощью ИИ.
AI Act устанавливает различные обязанности для операторов и пользователей ИИ в зависимости от уровня риска, связанного с его использованием.
AI Act подразделяет системы ИИ на несколько уровней риска.
Так, к ИИ системам с «неприемлемым» уровнем риска относятся продукты, противоречащие европейским ценностям, нарушающие базовые права и свободы человека и гражданина. К ИИ с неприемлемым уровнем риска среди прочего отнесены:
системы когнитивно-поведенческое манипулирование людьми или определенными уязвимыми группами (например, игрушки с голосовым управлением, поощряющие опасное поведение детей)
системы социального рейтинга граждан на основе их поведения, социально-экономического статуса или личных характеристик
системы биометрической идентификации в реальном времени и на расстоянии, например, распознавание лиц
Некоторые исключения могут быть предусмотрены для работы правоохранительной системы.
Например, системы «последующей удаленной биометрической идентификации», когда идентификация происходит после значительной задержки, будут разрешены для противодействия серьезным преступлениям и исключительно по разрешению суда.
Системы ИИ, которые негативно влияют на безопасность или основные права, будут считаться «высокорискованными». К ним будут отнесены 2 категории ИИ-продуктов:
Системы ИИ, которые используются в продуктах, подпадающих под законодательство ЕС о безопасности продукции. К ним относятся, например, автомобили, медицинские приборы, лифты, детские игрушки.
Системы ИИ, относящиеся к определенным областям деятельности, которые должны быть зарегистрированы в базе данных ЕС:
управление и эксплуатация критической инфраструктуры
образование и профессиональная подготовка
трудоустройство, управление персоналом
доступ к основным частным услугам и государственным услугам, и льготам и пользование ими
помощь в толковании законодательства и правоприменение
управление миграцией, предоставлением убежища и пограничным контролем
Ранее мы писали о принятии проекта AI Act Европарламентом.
По результатам заседания Совета глав государств-членов ШОС (СГГ) в городе Астане 4 июля 2024 г. члены СГГ подписали совместную декларацию, в которой среди прочего отметили готовность совместно работать над предотвращением рисков в целях постоянного повышения безопасности, подотчетности, надежности, доверенности и справедливости технологий ИИ во благо всего человечества.
Среди подписантов декларации был Президент РФ.
Несколько ведущих звукозаписывающих компаний, включая Sony Music Entertainment, UMG Recordings, Inc., Capitol Records, LLC, Warner Records Inc. подали иски против разработчиков программ генеративного ИИ для создания музыки, Suno, Inc. и Uncharted Labs, Inc., обвиняя их в нарушении авторских прав.
По сообщению Американской ассоциации звукозаписывающих компаний (RIAA) в исках утверждается, что Suno, Inc. и Uncharted Labs, Inc. незаконно используют защищенные авторским правом произведения артистов различных жанров. Истцы стремятся предотвратить дальнейшее использование записей, защищенных авторским правом, и требуют возмещения ущерба.
Ранее мы писали об обвинениях в нарушении авторских прав компаниями OpenAI, Google и Meta* cо стороны американской газеты The New York Times.
* Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская.
Рекомендации адресованы государственным учреждениям, органам, ведомствам и агентствам ЕС, использующим по обработке персональных данных систем генеративного ИИ.
При составлении рекомендаций были также учтены требования Регламента ЕС в части обязательств операторов данных по их защите.
По сообщению СМИ, в их распоряжении оказалось письмо, направленное неназванными осведомителями в Комиссию по ценным бумагам и биржам США (SEC). В письме сообщается, что руководство OpenAI неправомерно запретило сотрудникам информировать федеральных регуляторов о рисках, которые их технологии могут представлять для человечества.
Как следует из документа, компания заключает с сотрудниками трудовые договоры и NDA, устанавливающие для них санкции за сообщение государственным органам подобной информации, а также отказ от компенсации осведомителя (whistleblower compensation) – права на получение от SEC определенной денежной суммы в случае, если полученная информация поможет SEC взыскать с нарушителя штраф в пользу государства.