Ответственность за ошибки ИИ: кто реально несет риски?
Искусственный интеллект (ИИ) сегодня не просто анализирует данные – он принимает решения, которые напрямую влияют на ключевые бизнес-процессы: от найма сотрудников до кредитования и маркетинга. Ошибки ИИ могут привести к дискриминации, финансовым потерям, нарушению прав потребителей и репутационным рискам. Вопрос «Кто отвечает за эти ошибки?» стал ключевым для компаний.
Кто несет ответственность, если ИИ допустил ошибку?
По общему правилу, ответственность несет компания, предоставляющая конечный сервис, а не разработчик модели или владелец серверной инфраструктуры. Если бизнес интегрировал нейросеть, например, в процесс ценообразования или клиентский чат-бот, именно он отвечает перед пользователем за корректность результата.
Разработчики отвечают за дефекты кода и нарушения требований к качеству системы. Если ошибка вызвана техническим сбоем, претензии могут быть предъявлены разработчику.
Пользователи несут ответственность за неправильное применение ИИ, игнорирование ограничений и отсутствие контроля. Например, сотрудник использовал чат-бот для анализа персональных данных, нарушив внутренние правила, и данные утекли. Ответственность легла на сотрудника, а не на разработчиков.
Законодательство и ответственность
Законодательство пока не закрепило конкретные правила, но новые акты, например EU AI Act, формируют роли и обязанности операторов высокорискованных систем:
- использовать систему строго по инструкции поставщика;
- назначать компетентный человеческий надзор;
- гарантировать качество и релевантность входных данных;
- мониторить работу системы и при любых значимых рисках приостанавливать ее работу;
- сразу же уведомлять поставщика и регуляторы о сбоях;
- сохранять детальные записи работы системы не менее 6 месяцев.
Нарушение этих требований не только считается несоответствием, но и может стать прямым доказательством вины: при инциденте это существенно увеличивает ответственность компании, применившей ИИ без должного контроля.
Судебная практика
- Moffatt v. Air Canada. Клиент использовал чат‑бот авиакомпании для запроса информации о тарифе «bereavement fare». Чат‑бот сообщил, что после поездки можно получить компенсацию – клиент купил билеты, совершил перелет и подал заявку. Она была отклонена, а когда он обратился в суд, Air Canada пытались переложить вину на «чат‑бота». Суд подтвердил, что чат бот является частью сайта компании, и за всю предоставляемую информацию отвечает сама компания. Компания Air Canada была признана ответственной за компенсацию разницы в тарифе.
- Walters v. OpenAI. Радио-ведущий подал иск против OpenAI, утверждая, что ChatGPT назвал его причастным к финансовым злоупотреблениям в организации Second Amendment Foundation. Суд пришел к выводу, что алгоритм предупредил о возможной неточности и не позволяет воспринимать ответы как полностью достоверные. Истец не доказал, что OpenAI действовал с халатностью или злым умыслом. Иск был отклонен.
| Это показывает, что предупреждения, контроль качества и информирование пользователей помогают защитить разработчиков в спорах о неточностях. Однако компании, публикующие ответы ИИ, остаются под риском, если не обеспечивают необходимый и достаточный надзор за их применением. |
Что следует сделать
- Разработать внутреннюю политику по использованию ИИ. Определить допустимые сценарии применения, запретить автономные решения без человеческого контроля.
- Назначить ответственных лиц за управление ИИ и за контроль качества работы систем.
- Проводить регулярное тестирование на точность и отсутствие предвзятости.
- Обеспечить прозрачность. Маркировать контент, созданный ИИ, и информировать пользователей о его происхождении.
- Закрепить распределение ответственности в договорах с поставщиками и интеграторами.
- Проверить клиентские чат-боты и обеспечить их регулярный аудит. Настроить фильтры перевода диалога к сотруднику при сложных или критичных запросах и проверку корректности ответов.
Таким образом, ответственность за ошибки ИИ всегда лежит на людях и организациях, которые его создали, внедрили и используют. Чтобы снизить риски, бизнесу необходимо выстроить систему управления ИИ: от политики и процессов до договоров.
ИИ не освобождает от ответственности; напротив, он требует четкого контроля, прозрачности и выстроенной системы управления рисками.
Защитите свой бизнес от рисков ИИ вместе с REVERA
Ошибки ИИ неизбежны, но риски для компании можно минимизировать, выстроив прозрачные процессы, контроль качества и распределение ответственности. Эксперты REVERA помогут:
- Разработать внутреннюю политику по использованию ИИ.
- Закрепить ответственность в договорах с поставщиками и интеграторами.
- Обеспечить соответствие новым требованиям законодательства, включая EU AI Act.
Не оставляйте риск на волю случая — свяжитесь с REVERA и защитите бизнес от юридических и репутационных угроз, связанных с применением ИИ.
Авторы: Дарья Гордей, Артем Хандрико.
Напишите нашему юристу, чтобы узнать подробности
Написать юристу