Каталог юр. фирм Новости Комментарии Семинары Вакансии Контакты Телеграм-канал
Lawfirm.ru - на главную страницу

  Комментарии


За что судят ИИ? Часть II: Иск The New York Times Company к Microsoft и OpenAI


телеграм: t.me/O2ConsultingTeam

 




19.02.2024 О2 Consulting, o2consult.com

Рассказывает консультант практики ФинТех и IP в O2 Consulting - Алиса Ерёмина.

В прошлый раз мы писали о том, что на компании, разрабатывающие системы ИИ, посыпались множественные и зачастую однотипные иски. Несмотря на то, что иск The New York Times Company (NYT) к Microsoft и OpenAI похож на другие, он оказался громче и масштабнее остальных. Почему? Что же не поделили стороны? Давайте разбираться.

NYT утверждает, что компании создали свои модели ИИ путем «копирования и использования миллионов статей из NYT» и теперь напрямую конкурируют с ними. Основное отличие этого дела в том, что в жалобе газеты приводятся конкретные примеры текстов, которые были воспроизведены ИИ дословно.

Вот, о чем NYT пишет в своем иске:

–Нарушение исключительных прав. По мнению NYT, OpenAI и большие языковые модели Microsoft (LLM), на которых основаны ChatGPT и Copilot, «могут генерировать выходные данные, дословно воспроизводящие контент Times. Они точно резюмируют его и имитируют его выразительный стиль». Выяснили это путём многократных запросов, на которые ИИ в ответ выдает либо статью целиком, либо цитирует её части.

–Недобросовестная конкуренция. Использование статей NYT для обучения ИИ позволило создать продукты, которые не только монетизируются, но и «угрожают высококачественной журналистике», нанося ущерб способности новостных агентств защищать контент и зарабатывать на нём. В иске говорится, что «через Bing Chat от Microsoft («Copilot») и ChatGPT от OpenAI ответчики стремятся воспользоваться огромными инвестициями The Times в журналистику, используя их для создания замещающих продуктов без разрешения или оплаты».

–Репутационные убытки. Нельзя забывать о том, что алгоритмы иногда ошибаются («глючат»). Так, например, было выявлено, что иногда авторам NYT приписываются несуществующие статьи. Это потенциально наносит ущерб репутации издательства.

–Коммерческое использование текстов. По словам NYT, запуск обеих систем ИИ (ChatGPT и Copilot), обученных на основе материалов Times, оказался «чрезвычайно прибыльным» как для Microsoft, так и для OpenAI. Это уже не некоммерческое использование статей, а значит однозначно должно оплачиваться.

–Требования NYT. Издание предъявляет иск к Microsoft и OpenAI за нарушение авторских прав и просит привлечь их к ответственности за «миллиарды долларов законного и реального ущерба». NYT также просит суд запретить OpenAI и Microsoft в дальнейшем обучать модели ИИ, используя их контент, а также удалить статьи издания из уже существующих датасетов.

А что OpenAl?

Компания OpenAI уже ответила на иск в своем блоге: до этого она вела переговоры с NYT и другими новостными организациями о партнерстве. С кем-то из них уже удалось достичь соглашения, но не с NYT. По словам представителей OpenAI, в компании были очень удивлены и разочарованы этим иском. По их словам, использование произведений, защищенных авторским правом, для обучения своих технологий является добросовестным и выполняется в соответствии с законом. Кроме того, иск Times не дает полной информации о том, как работает OpenAI и её технологии.

Итоги. Разбирательство идет, и пока не ясно, чем оно закончится. Результат этого судебного процесса может установить новые границы в законодательстве об авторском праве, особенно в том, как оно применяется к технологиям искусственного интеллекта и машинного обучения.

Решение суда против OpenAI может потребовать переоценки того, как обучать модели ИИ, и разработки новых методов, позволяющих избежать прямого использования материалов, защищенных авторским правом.

Мы будем ждать, чем закончится эта история. Следите за новостями.

 



Телеграм: t.me/O2ConsultingTeam

 

Прочитавших: 729 Версия для печати

Топ-5 самых читаемых Новостей за последние 30 дней:

 

Новости

 

 






Каталог юр. фирм Новости Комментарии Семинары Вакансии Резюме Форум Контакты Политика конфиденциальности