• Автор:
    Николай Аверченко

Fotolia 208809084 XS1

С 1990-х годов «цифра» стала осторожно входить в область правоприменения, и мы, юристы, быстро это почувствовали. «Российскую газету» сменил «КонсультантПлюс», а вместо папок с подшитыми документами на столах оказались смартфоны с правовой базой. Мы уже забыли, когда в последний раз бегали на почту подавать иски и получать судебные решения: все документы отправляются в электронном виде, а акты правосудия вывешиваются на специальных сайтах. Но цифровое правоприменение – это совсем другая сфера. Мы вплотную подошли к тому порогу, за которым машина сможет помогать человеку (а с течением времени – страшно подумать – иногда и заменять человека) в исследовании фактов, анализе правовых норм и принятии правовых решений.

Кто из читателей определял из курса школьной ботаники одуванчик полевой лекарственный по книжному определителю растений?

Ремонтировал автомобиль по атласу диагностики неисправностей?

Играл с «Акинатором» в угадывание персонажа по набору вопросов и ответов?

Если да, то, думаю, он согласится, что правоприменение как процесс наложения юридической нормы на факт жизни, в общем, так же алгоритмично. Оно лишь ждет своего часа «оцифровки». И не только личное знакомство с потрясающими разработками сколковских резидентов, но и опыт работы адвоката и юридического консультанта позволяют мне быть чуть большим визионером в этом вопросе, чем многие мои коллеги. В то же время, конечно, часто встречаюсь с опасениями и скепсисом по части цифровизации правоприменения.

Возможно ли это?

Безопасно ли это?

Да и сам, бывает, усомнишься в собственном оптимизме, когда продираешься через статью Налогового кодекса на 18 листах, полную сложных предложений с десятью придаточными. Поймет ли ее компьютер, если и человеку не разобрать сразу?

Давайте обсудим эти вопросы, перерастающие в вызовы и даже в фобии. (Спойлер: машина – не враг и не могильщик юриста, а его помощник и друг.)

Вызов 1. Количество звеньев в алгоритме принятия правового решения (далее – алгоритм) будет пугающе бесконечным, поскольку надо учесть все факторы.

К счастью, не бесконечным, а вполне себе конечным. Любой из юристов, проделывая мыслительную операцию по применению нормы права к конкретным фактам, проходит большую, но всегда конечную цепочку рассуждений. Эта цепочка сейчас нигде не визуализирована, поскольку базируется лишь на уровне образования правоприменителя и его опыте (то, что называется, на кончиках пальцев). Но она – цепочка – способна к формализации в большей степени, чем мы себе представляем. Причем эту формализацию не надо путать с формалином: алгоритм способен к постоянному обновлению с учетом меняющегося законодательства и правовой практики. Для технических специалистов подверженность алгоритма внешним изменениям не только не представляет никакой проблемы, но и является очевидным подтверждением устойчивости системы с точки зрения синергетики.

По моему мнению, основой алгоритма должен быть набор простых фактических вопросов, ответы на которые (бинарные «да» или «нет» или более сложные, однако распознаваемые в контексте чат-ботом) с необходимостью и достаточностью будут способны привести к итоговому правовому решению. Их может быть 10, 100, 10 000, но это число в любом случае конечно.

Вызов 2. Алгоритм должен, среди прочего, учитывать смысл так называемых «каучуковых» юридических понятий.

Право, в первую очередь гражданское, оперирует рядом понятий с неопределенным содержанием: «справедливость», «добросовестность», «основы правопорядка и нравственности», «разумность», «соразмерность», «злоупотребление», «обход закона». Эти термины отражают самые общие нормы – принципы, которые применяются судом, как правило, исходя из собственного внутреннего убеждения. Иногда на уровне постановлений пленума Верховного Суда или конкретных прецедентов делаются попытки упорядочить употребление данных понятий.

Оставлю в стороне вопрос о полезности или вредности таких размытых категорий. Это отдельная сложная дискуссия. Скажу лишь, что всегда испытывал недоверие к слишком красивым словам, поскольку ими часто выстилается дорога к произволу. Так, существует расхожее мнение, что суд, у которого кончаются формальные аргументы, всегда может вынуть джокера – ссылку на десятую статью Гражданского кодекса РФ о недопустимости злоупотреблений правом – и сломать любую сделку. Возможно, это еще одна грань вопроса «А судьи кто?».

В рамках данной статьи я хотел бы ответить на другой вопрос – можно ли в принципе «поверить» алгеброй (алгоритмом) гармонию? Не станет ли такая поверка «прокрустовым ложем»? Думаю, нет. Судья, как и любой человек, не живет в безвоздушном пространстве. Он основывает свои суждения о разумности и добросовестности, впитав их с детства в качестве принятого в обществе на данном этапе истории модуса поведения.

Этот модус складывался на протяжении длительного периода из многих тысяч ситуаций ad hoc (с разными людьми в разных обстоятельствах). Он сформирован в нашем мышлении как некое облако общественной оценки поведения конкретных людей. Облако, как известно, не имеет жестких границ и постепенно меняет форму, однако всегда обособлено, дискретно.

Другими словами, большинство людей в большинстве случаев имеют одинаковые (ну или схожие до степени смешения) представления о том, что такое хорошо и что такое плохо. Эти представления технически способны к обобщению в исходной базе (онтологии) правового алгоритма (в виде облаков, графов, множеств и т.п.).

Три закона роботехники — обязательные правила поведения для роботов, сформулированные Айзеком Азимовым в 1942 году:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Вызов 3. Онтология алгоритма должна быть способна к самообновлению.

Этот вызов основывается на предыдущем и развивает его. Представим, что в 2017 году наша машина под названием «Тыжеюрист» накопила некий опыт представлений о хорошем и плохом, о разумном и неразумном, о справедливом и несправедливом, обработала его и законсервировала облако всех когда-либо принятых правовых решений.

Далее с учетом иерархии правоприменительных актов, исторических условий их принятия и их частотности алгоритм довольно быстро сформирует некие звенья, по которым будет оцениваться та или иная спорная ситуация – даже с использованием «каучуковых» юридических понятий, о которых шла речь выше.

Подойдет ли нам такая машина? Нет, она быстро устареет.

Придав системе исходных данных свойство жесткости, алгоритм со временем потеряет устойчивость, перестанет быть актуальным. Эта метаморфоза не будет молниеносной, однако довольно скоро она станет очевидной. Как спертый воздух в непроветриваемой комнате, она приведет к угнетению сознания, которое будет по замкнутому кругу воспроизводить должное из сущего вместо расширения границ сущего.

Система каждый раз будет реинкарнировать ранее принятые правовые решения, не будучи способной предложить новый подход, открыть ту самую комнату и устроить в ней хороший сквозняк.

Особенно плохо было бы, если бы масса правовых решений, которые были «загружены» в онтологию алгоритма, изначально оказалась далека от идеала (представим, что алгоритм создавался бы сразу после мрачного 1937 года).

Заставить алгоритм постоянно выходить из зоны комфорта можно.

Люди должны всегда иметь возможность, прислушавшись к правовому мнению, предлагаемому алгоритмом, решить по-своему. Если говорить о судебной системе, то в ней, следуя трем законам робототехники, должна быть обязательная кнопка «Выкл.», после нажатия которой некий президиум (ареопаг?) пользующихся безусловным уважением судей проверяет законность и обоснованность решения, предложенного алгоритмом.

Решения этого президиума будут тут же включаться в онтологию алгоритма, изменять ее и учитываться при принятии последующих правовых решений.

Вызов 4. Алгоритм не должен противоречить Конституции, в которой главной ценностью объявлен сам человек.

Тут можно сослаться на три закона робототехники, о которых шла речь выше. Конечно, никакой алгоритм не может заменить человека. Это лишь помощник, который экономит время и деньги на рутинных участках работы. Правосудие в любой момент должно быть управляемым людьми. В то же время в 99 случаях из 100, особенно по простым делам, принятие правового решения будет возможно и без суда. Машина как идеальный досудебный медиатор, как третейский арбитр – не об этом ли в последнее время все чаще мечтают инвесторы, сетуя не столько на несправедливость нашего правосудия, сколько на его непрогнозируемость, неопределенность?

Вызов 5. Алгоритм не должен противоречить Конституции, в которой обеспечивается государственный суверенитет.

Возможность обеспечения государственного суверенитета, безусловно, должна обеспечиваться и может быть обеспечена, что доказывается теми же аргументами, что и при рассмотрении вызовов 3 и 4. Данный вызов тесно связан с общими вопросами кибербезопасности, особенно если алгоритм будет уполномочен принимать решения в обязательном досудебном порядке (например, как сейчас это сделано по видеофиксации нарушений ПДД). Насколько я могу судить, особых проблем с кибербезопасностью пока не возникает – все понимают, что это чрезвычайно важно.

Вызов 6. Алгоритм не должен основываться на формальной оценке силы доказательств.

Пожалуй, это один из самых серьезных в практическом плане вызовов. Теория формальной оценки доказательств, апологетом которой был советский юрист Андрей Вышинский, генеральный прокурор СССР в 1935– 1939 годах, состояла в установлении некоей иерархии доказательств, которые можно измерить качественно и количественно и быстро взвесить на весах Фемиды. Отсюда, кстати, и зловещий тезис: «Признание – царица доказательств».

Технические специалисты могут оперативно сконструировать такую «развесовку» доказательств и внедрить их в машину – формальных проблем тут не существует.

Однако эта теория справедливо отринута современной практикой как несовместимая с идеей правового государства. Суд по собственному усмотрению непосредственно исследует доказательства в их совокупности и формирует свое убеждение. В этом (и только в этом!) должно всегда оставаться жреческое, сакральное начало любого правосудия.

Как же довериться в таком тонком деле алгоритму, «цифре»?

По моему мнению, машина может сделать вывод только о том, допустимы и относимы ли доказательства по делу (поскольку правила в этой части формализованы). А вот оценивать совокупность доказательств, исходя из их внутренней иерархии, машине следует принципиально запретить, оставив ей лишь возможность рекомендовать оценку, исходя из накопленной правовой онтологии.

Утилитарный подход «взвешивания» аргументов совершенно недопустим (как недопустимо, например, и решение классической задачи про вагонетку, которая неминуемо наедет на людей и может только выбрать направление – справа или слева, исходя из социальной значимости тех или иных граждан на ее пути).

Вызов 7. Создание алгоритма не должно повлечь отрицания профессии юриста.

Этот вызов всех традиционно беспокоит, но я в этом вопросе не вижу поводов для волнения. Юристов пытаются скинуть с «корабля современности» уже давно. Конечно, нас ожидает серьезное переформатирование профессии. Огромная масса нынешних правоведов может довольно быстро оказаться профнепригодной в новых условиях. (Речь, впрочем, скорее идет о делопроизводителях с дипломом правоведа.)

Но не думаю, что нас ждет массовое восстание юристов-луддитов, громящих алгоритмы, равно как и массовое вымирание профессии юриста. Во-первых, юристы всегда найдут себе место. Во-вторых, общество в целом вступает в неведомую эпоху цифровизации, когда изменятся принципы экономики и социальных связей. И на этом сложном перепутье юристы будут небходимы.

А главное – я верю, что юристы останутся защитниками человечества и будут до скончания века раздвигать границы сущего и стремиться к должному. А потребуется – то и оградят общество от вышедшего из-под контроля алгоритма, если вдруг немыслимым образом реализуется какая-либо из описанных угроз.