Традиционно юридическая профессия ассоциируется с кропотливой работой, требующей глубоких знаний и опыта. И хотя юристы давно стремятся автоматизировать как рутинные, так и сложные и трудозатратные процессы, а компании и юридические фирмы вкладывают ресурсы в технологии, которые могли бы выполнять юридическую работу с минимальным участием человека, значительных прорывов в такой автоматизации до недавнего времени не наблюдалось. Ситуация кардинально изменилась с появлением таких моделей искусственного интеллекта, как ChatGPT, которое вызвало настоящую революцию в юридической сфере.
Ошибки являются неотъемлемой частью юридической деятельности. Даже самые опытные юристы подвержены усталости и невнимательности. После долгих часов, проведенных за изучением сложных контрактов, даже самый внимательный юрист может пропустить ключевое условие или неправильно интерпретировать термин. При этом использование искусственного интеллекта в юриспруденции уже демонстрирует впечатляющие результаты в выполнении таких задач как анализ большого объема документов и поиск прецедентов. При правильном обучении ваш ИИ-помощник будет демонстрировать стабильную производительность, независимо от того, является ли это первым или тысячным документом за день.
Нейросети не подвержены человеческим ошибкам, но они сами могут допускать ошибки, например, генерировать некорректную информацию или выдавать предвзятые результаты. Из-за этого возникает недоверие к использованию новой технологии для критически важных задач.
Вопрос о роли ИИ в праве перестал быть теоретическим и стал практическим. Согласно опросу, проведенному в 2024 году Международной ассоциацией юристов и Центром искусственного интеллекта и цифровой политики (The Future is Now: Artificial Intelligence and the Legal Profession, International Bar Association and the Center for AI and Digital Policy, September 2024), 210 из 333 респондентов – юридических фирм сообщили об использовании искусственного интеллекта в своей деятельности. Большинство юридических фирм, использующих ИИ, расположены в Европе (включая Великобританию) и США и работают в нескольких юрисдикциях через дочерние компании в разных странах. Примечательно, что более ста юридических фирм, участвовавших в опросе, сообщили, что искусственный интеллект используется в юридической практике не только для исследований, составления документов, подготовки контрактов, проведения юридической экспертизы, сбора доказательств для судебных разбирательств и анализа судебных решений, но и для написания новостных рассылок, постов в социальных сетях и даже генерации логотипов.
Перед юридической профессией стоит непростая задача: как интегрировать искусственный интеллект в свою работу, сохраняя при этом высокую степень доверия к юридическим услугам?
Можем ли мы быть уверены, что алгоритмы ИИ не будут дискриминировать определенные группы людей? Как защитить интеллектуальную собственность при использовании ИИ? Может ли технология генерировать по-настоящему новые идеи? И, наконец, где проходит граница между полезной автоматизацией и полной заменой человека на машину?
Наряду с новыми перспективами, возникают и новые проблемы. Рассмотрим некоторые из них.
Безопасность данных: юридическая конфиденциальность под угрозой
Юридическая сфера оперирует большими объемами конфиденциальной информации. Персональные данные клиентов, коммерческие тайны, детали судебных процессов, результаты due diligence – все это становится желанной добычей для хакеров. Использование ИИ в юридической практике увеличивает риски кибератак, поскольку алгоритмы и данные, на которых они обучаются, становятся новой мишенью для злоумышленников. Взлом таких систем может привести к серьезным последствиям, включая утечку конфиденциальной информации, финансовые потери и подрыв репутации юридической фирмы. Для защиты данных необходимо использовать современные средства шифрования, регулярно проводить аудиты безопасности и обучать сотрудников правилам информационной безопасности.
Кроме того, при работе с системами искусственного интеллекта юристам необходимо удостоверится в том, что при обучении и использовании модели ИИ были соблюдены все требования применимого законодательства к обработке персональных данных. Для проведения такой оценки может понадобится привлечение специалиста, ответственного за защиту персональных данных в компании.
Дискриминация алгоритмов: тихая угроза для справедливости
Система искусственного интеллекта, которой вы доверяете анализ судебных решений, может начинает выдавать предвзятые результаты, например, систематически указывая на представителей определенных социальных групп или национальностей как на потенциальных правонарушителей. Это вполне реальная угроза, так как алгоритмы обучаются на данных, которые могут отражать существующие в обществе стереотипы и предрассудки. Адвокат, прокурор или судья, полагающиеся на такие алгоритмы, рискуют принять необоснованные решения, что может привести к несправедливым исходам судебных процессов.
С целью минимизировать риск дискриминации юрист, использующий соответствующие сервисы, должен предварительно убедиться в том, что разработчик моделей ИИ тщательно отбирал и очищал данные, используемые для обучения алгоритмов, а также проводит их регулярные аудиты на предмет предвзятости и отсутствия дискриминации алгоритмов.
Интеллектуальная собственность: не чем учится ИИ и кто автор результата его работы?
Обучение моделей ИИ требует анализа больших объемов данных, включая тексты, изображения, аудио и видео. Если эти данные были использованы без согласия правообладателей, юристы, применяющие такую модель в своей работе, могут столкнуться с последствиями нарушения авторских прав, включая судебные разбирательства и репутационный ущерб. Поэтому при приобретении технологий у третьих лиц или самостоятельного создания программ необходимо уделять особое внимание соблюдению законодательства об интеллектуальной собственности при выборе данных для обучения.
А что с результатами работы искусственного интеллекта? Допустим, ваш ИИ-помощник сгенерировал блестящую юридическую стратегию, которая принесла вашей компании огромный успех. Вопрос: кому принадлежит авторское право на эту стратегию? Вам, как пользователю ИИ, разработчику алгоритма или клиенту, для которого она создавалась? Ответ на этот вопрос требует тщательного правового анализа. Для решения вопросов интеллектуальной собственности в сфере ИИ необходимо не только быть в курсе действующих норм, которые определят права и обязанности всех участников процесса создания и использования ИИ, включая разработчиков, владельцев и пользователей, но и уметь правильно сформулировать соответствующие статьи в договорах с третьими лицами.
Ответственность: кто виноват, если ИИ ошибся?
Представьте, что договор, подготовленный с помощью ИИ, содержит критическую ошибку, которая привела к финансовым потерям для клиента. Кто будет нести ответственность за эту ошибку? Юрист, который использовал ИИ, разработчик алгоритма или компания, предоставляющая юридические услуги? Ответы на эти вопросы будут зависеть от применимого законодательства, условий договоров и конкретных факторов каждого отдельного спора.
Избежать или хотя бы минимизировать такие риски возможно, внедрив в организации обязательный контроль человека за результатами работы ИИ. Также необходимо четко сформулировать положения об ответственности в соответствующих договорах с третьими лицами-поставщиками ИИ-решений.
Зависимость от данных: мусор на входе – мусор на выходе
Результат, полученный при помощи искусственного интеллекта, - это отражение тех данных, на которых он обучается. Если данные, используемые для обучения алгоритмов, неполные, искаженные или предвзятые, то и результаты его работы будут некорректными. Для юриста, работающего с ИИ, это означает постоянную необходимость контролировать качество данных и быть готовым к тому, что алгоритм может выдать ошибочные результаты. Для этих целей необходимо, по возможности, принимать участие в составлении требований к данным еще на стадии разработки нового ИИ-решения, или, как минимум, получать от поставщиков технологий ИИ подробную информацию о том, какие данные использовались при обучении ИИ модели.
Прозрачность алгоритмов: черный ящик правосудия
Представьте, что судья, вынося приговор, опирается на мнение загадочного оракула, который не раскрывает своих секретов. Именно так может выглядеть ситуация, когда юрист полагается на решение, принятое искусственным интеллектом. Если мы не понимаем, как алгоритм пришел к определенному выводу, то как можем быть уверены в его справедливости? Отсутствие прозрачности алгоритмов подрывает доверие к системе правосудия и затрудняет выявление и исправление ошибок. Для улучшения ситуации необходимо развивать методы интерпретации машинного обучения, которые позволят понять, как именно алгоритм пришел к определенному выводу. Юристу, использующему соответствующие системы, полезно получить от разработчиков понятное описание работы соответствующих алгоритмов.
При этом из соображений этики юристы должны информировать своих клиентов о том, что они используют ИИ, раскрывая объем такого использования и характеристики алгоритмов. Клиенту также должна быть представлена возможность отказаться от применения технологии искусственного интеллекта при оказании ему услуг. Следует иметь в виду, что такие требования могут существовать не только в качестве этических рекомендаций, но и действовать на законодательном уровне тех стран, где разрабатываются, внедряются и используются системы ИИ, или в ближайшее время появиться в правовом ландшафте.
Социальные последствия: роботы против юристов
Широкое внедрение ИИ в юридическую сферу несет в себе риски для рынка труда. Автоматизация рутинных задач может привести к сокращению рабочих мест для юристов, особенно для тех, кто выполняет простые и повторяющиеся операции.
При этом одним из вызовов может стать риск утраты опыта, необходимого для решения сложных задач, если работа юриста будет ограничена только использованием ИИ и анализом его результатов. Для решения этой проблемы необходимо переосмысление системы юридического образования и разработка специальных программ переквалификации для юристов, чтобы они могли адаптироваться к новым реалиям и освоить новые навыки. Юристам необходимо будет становиться более инновационными, а юридическим отделам потребуется создавать новые роли или менять существующие.
Но давайте будем реалистами: никакая технология не идеальна. Это всего лишь инструмент, эффективность которого зависит от того, как он спроектирован и используется. Поэтому вряд ли стоит бояться захвата рабочих мест юристов роботами. При правильном взаимодействии в перспективе скорее партнерство, сочетающее точность ИИ с юридической экспертизой.
С другой точки зрения, не стоит недооценивать и открывающиеся возможности применения ИИ в юриспруденции, а именно, новую сферу юридического бизнеса по созданию собственных решений на базе ИИ, которые будут адаптированы к конкретным потребностям и рабочим процессам в области права. Такая индивидуальная настройка может привести к более эффективной работе и повышению качества юридических услуг. Создание технологий, разработанных юристами для юристов, могут стать новым самостоятельным видом юридических услуг.
Одновременно могут возникнуть и проблемы, например, связанные с доминированием на рынке тех юридических компаний, у которых окажется достаточно средств для разработки собственных ИИ-технологий или покупки лучших технических решений у третьих лиц.
Этика и регулирование: важность контроля
Искусственный интеллект в юриспруденции – это не замена юриста, а мощный инструмент его руках. Чтобы раскрыть весь потенциал этой технологии, необходимо создать условия для гармоничного сотрудничества человека и машины. Сейчас уже очевидно, что юристы будущего должны не только обладать глубокими знаниями права, но и понимать принципы работы ИИ, включая осознание последствий его использования, этических проблем и рисков. Те, кто готов к переменам, смогут не только адаптироваться, но и занять лидирующие позиции в новой эре цифровой юриспруденции.
Компании, внедряющие ИИ в своих юридических отделах, должны будут соблюдать новые правила, регулирующие разработку и использование искусственного интеллекта. Дополнительным вызовом является быстро меняющийся правовой ландшафт, когда законодатели пытаются угнаться за технологическим прогрессом. Боле того, компании с присутствием в нескольких регионах и странах должны будут создать сложные системы контроля за соответствием законодательству в зависимости от юрисдикций, в которых они работают. Иногда может потребоваться даже соблюдение законодательства тех стран, в которых компания не присутствует напрямую. Например, недавно принятый Закон ЕС об ИИ будет применяться к используемым в ЕС результатам работы систем искусственного интеллекта, даже если разработчики или пользователи таких систем не находятся в ЕС.
В целях безопасного, ответственного и этичного использования искусственного интеллекта юридическим командам рекомендуется разработать и внедрить руководящие принципы управления ИИ, внутренние политики, правила и процедуры, уделяя особое внимание управлению данными, безопасности, интеллектуальной собственности, прозрачности алгоритмов, отсутствию предвзятости и конфиденциальности. При этом во внутренние процессы должен входить постоянный мониторинг корректности работы с искусственным интеллектом и регулярный человеческих контроль ее результатов.
Кроме того, полезно создать и регулярно применять программы обучения грамотности сотрудников в области искусственного интеллекта, специально ориентированные на юридическую профессию. Эти программы должны быть направлены на обучение юристов техническим, этическим и правовым аспектам использования ИИ-технологий и предоставление практических рекомендаций по работе с конкретными инструментами в разных сценариях применения.
Для решения этих задач уже появляется новая междисциплинарная профессиональная область – глобальное управление ИИ (AI Governance), специалисты которой будут отвечать за управление рисками и развитие искусственного интеллекта в соответствии с высокими стандартами этики и безопасности, а также новыми правовыми нормами.
Партнерство между человеческой экспертизой и возможностями ИИ позволит создать более эффективную, точную и надежную юридическую отрасль. Будущее права заключается не в замене людей машинами, а в воспитании нового поколения юристов, способных справляться с любыми задачами при помощи новых технологий. Юридическое сообщество стоит на пороге трансформации, и от того, как мы справимся с новыми вызовами, зависит будущее профессии.
Автор Марина Материк.