Как минимизировать риски при создании ПО, генерирующего контент по запросу пользователей?

В последнее время среди пользователей становятся популярными приложения с искусственным интеллектом (ИИ), способным самостоятельно генерировать контент. Особым спросом пользуются ИИ, автоматически создающие новые изображения на основании предоставленных.

В настоящий момент уже существует множество приложений и онлайн-сервисов, приносящих разработчикам доход. Однако при недостаточной правовой и технической поддержке таких приложений, разработчик может нести репутационные и финансовые потери на фоне допущенных ИИ ошибок при выполнении своей функции или из-за невозможности контролировать запросы пользователей.

Одной из главных проблем таких приложений, с которой уже несколько лет борются законодатели ЕС и других стран, является генерация с последующим распространением изображений, аудио или видео, созданных искусственным интеллектом, который использует сходство человека для создания новых материалов без согласия человека (deepfake). Нередко такой контент может иметь запрещенный характер, например, порнографические изображения, изображения, пропагандирующие насилие или связанные с дискриминацией по признакам различным признакам (расовой, этнической или национальной принадлежности, вероисповедания, инвалидности и т.д.).

Какие риски необходимо учитывать разработчику ПО, способного генерировать изображения?

Возможные нарушения правил торговых площадок

App Store

Общие требования от App Store, которые предусматривает его пользовательское соглашение, - приложение не должно содержать порнографический контент или материалы (текст, графику, изображения, фотографии, звуки и т.д.), материалы, которые являются дискредитирующими либо оскорбительными, способствуют насилию, нарушают моральные принципы, рекламируют либо продвигают запрещенные вещества или услуги, находящиеся вне закона (детская, сексуальная эксплуатация) или призывают к нарушению закона.

Google Play Market

Запрещено публиковать приложения, содержащие или продвигающие материалы:

  • сексуального характера (например, изображение сексуальных сцен или вызывающих поз);
  • дискриминационного характера (изображения, пропагандирующие насилие или разжигающие ненависть к каким-либо лицам и социальным группам на почве расовой, этнической или национальной принадлежности, вероисповедания, пола, возраста, инвалидности, статуса ветерана, сексуальной ориентации, гендерной идентичности и других признаков, которые могут быть причиной систематической дискриминации или маргинализации);
  • насильственного характера (например, реалистичные изображения или подробные описания насильственных действий по отношению к человеку или животному);
  • террористического характера (изображения, пропагандирующие террористическую деятельность, призывающие к насилию и прославляющие теракты);
  • в отношении трагических событий (например, изображения демонстрируют отрицание известного трагического события);
  • связанные с издевательствами и угрозами (например, изображения демонстрируют издевательства над жертвами международных или религиозных конфликтов, публично кого-то унижают и т.д.).

У Google Play Market также есть ряд требований к приложениям с создаваемым пользователями контентом (если этот контент становится доступным другим пользователям, например, если у приложения или сервиса есть общая библиотека, в которую выгружаются изображения).

Претензии со стороны лиц, чьи права могут нарушить действия самого ПО или пользователей

Исходя из практики, ИИ-приложения могут столкнуться со следующими категориями претензий:

  • пользователь загрузил фото знаменитости и/или третьего лица без его согласия - в таком случае претензия поступает от третьего лица;
  • приложение осуществляет с изображением действия, каким-либо образом оскорбляющие пользователей (например, увеличивает/уменьшает/добавляет части тела без соответствующего запроса).

Как правило, в подобных ситуациях судебные иски подаются против лиц, непосредственно участвующим в распространении дипфейков, то есть против пользователей таких приложений, а не разработчиков. Вместе с тем, разработчики ИИ, с помощью которых материалы созданы, могут нести репутационными потери.

Какие меры по минимизации рисков можно принять?

Юридические меры

Усиление пользовательского соглашения, например, различными гарантиями, ужесточением ответственности пользователей и послаблением ответственности разработчика;

Установление в приложение возрастного ограничения (самостоятельно или с помощью специальных организаций, например, Entertainment Software Rating Board (ESRB) – для Северной и Южной Америке; Pan-European Game Information (PEGI) – для Европы и Ближнего Востока и другие).

Технические меры

С учетом того, что в последнее время ЕС ужесточает регулирование в отношении ИИ-приложений и возлагает на разработчиков всё больше дополнительных обязанностей по препятствованию распространения запрещенного контента, есть основания уже сейчас предпринимать меры, которые бы это сдерживали, например, детализацию различных уведомлений, согласий и предупреждений, возможность пользователей подавать жалобы и т.д.

 

Читайте нас на vc.ru


Уважаемые журналисты, использование материалов с сайта REVERA в публикациях возможно только после нашего письменного разрешения. 

Для согласования материалов обращайтесь на e-mail: i.antonova@revera.legal или Telegram: https://t.me/PR_revera