Адвокат, представляющий Anthropic, признался в использовании компанией ошибочной цитаты, созданной чат-ботом Claude AI, в продолжающемся суде с музыкальными издателями в Северной Калифорнии.
Ранее юристы со стороны Universal Music Group и других музыкальных издателей обвинили эксперта-свидетеля Anthropic, а именно одну из ее сотрудниц Оливию Чен (Olivia Chen), в использовании Claude AI для цитирования поддельных статей в своих показаниях.
После этого федеральный судья Сьюзан ван Кеулен (Susan van Keulen) предложила Anthropic ответить на эти обвинения.
В заявлении, поданном в суд в мае текущего года, ИТ-компания отметила, что нейросеть галлюцинировала — «придумала» цитату с «неточным названием и неточными авторами» (Bloomberg).
Юристы Anthropic объясняют, что их «ручная проверка цитат» не обнаружила ошибок, которые были вызваны галлюцинациями Claude AI.
Anthropic принесла официальные извинения, но назвала произошедшее «честной ошибкой цитирования, а не подделкой оригинала».
А на прошлой неделе Дарио Амодеи, генеральный директор Anthropic, выступил с пресс-конференцией, на которой сказал, что видит устойчивый прогресс в развитии моделей искусственного интеллекта (ИИ) в сторону создания AGI (искусственного общего интеллекта), о чем он уже не раз заявлял.
В одной из своих предыдущих статей я рассказывал, что Амодеи относится к экспертам, которые оптимистично рассчитывают, что AGI появится к 2026 году. А компания Anthropic, кстати, предполагает к 2027 году идентифицировать большинство проблем моделей искусственного интеллекта.
На пресс-конференции Дарио Амодеи также посетовал, что современные нейросети часто галлюцинируют, но при этом добавил, что они это делают реже, чем человек.
Однако не все согласны с тем, что движение к созданию безупречных моделей идет ровно и поступательно. Так, буквально пару недель назад генеральный директор Google DeepMind Демис Хассабис отметил, что сегодняшние модели ИИ имеют слишком много «дыр» и неправильно отвечают на большое количество очевидных вопросов.
То, что произошло с юристами Anthropic, — не единичный случай. В январе текущего года австралийский адвокат был пойман на использовании нейросетей — ему чат-бот выдал ошибочные цитаты.
Австралийский юрист был направлен в государственную комиссию по рассмотрению жалоб, где выяснилось, что он использовал ChatGPT для написания судебных заявлений по делу об иммиграции, а платформа искусственного интеллекта сгенерировала несуществующие ссылки на дела (The Guardian).
Кстати, это был уже второй случай в Австралии. Ранее адвокат из Мельбурна признался в использовании ИИ в деле в семейном суде, что привело к выписке ложных повесток в суд.
Однако эти ошибки не мешают сегодня стартапам привлекать огромные инвестиции для автоматизации юридической работы. Например, Harvey AI, быстрорастущий юридический стартап, находится на очередном этапе переговоров о привлечении более $250 млн в новом раунде финансирования при оценке в $5 млрд (Reuters).
Иск музыкальных издателей — не единственный в своем роде, идут другие суды владельцев авторских прав с технологическими компаниями из-за предполагаемого неправомерного использования их работы для создания инструментов генеративного искусственного интеллекта.
Не меньше споров по использованию контента, защищенного авторским правом, возникает у ИТ-компаний с медийными издательствами.
На мой взгляд, подобных инцидентов со временем будет все больше: «развиваются» модели ИИ, их чаще используют в работе в различных сферах деятельности.
Кроме того, в подтверждение этой гипотезы будет то, что для нового поколения сотрудников компаний использование различных гаджетов и ботов становится чем-то обыденным — они активно берут на вооружение цифровые технологии, оптимизируя свою работу, что нередко приводит к вышеприведенным коллизиям.