12+
Цифровой Левиафан: Как право приручает искусственный разум

Бесплатный фрагмент - Цифровой Левиафан: Как право приручает искусственный разум

Объем: 66 бумажных стр.

Формат: epub, fb2, pdfRead, mobi

Подробнее

Навигация для юристов, программистов и тех, кто не хочет, чтобы его стерли из реальности.

Введение

Земля, которой нет на карте


Представьте, что вы капитан каравеллы. У вас в руках — старинные портуланы, где берега Африки и Индии нанесены с ювелирной точностью. Но ваш компас вдруг начинает бешено вращаться, а горизонт раздвигается, открывая землю, которой еще вчера не существовало. Берега меняют форму быстрее, чем вы успеваете делать записи в судовом журнале.

Это не фантастика. Это юридическая практика 2020-х годов.

Право всегда было медленным гранитом цивилизации. Оно формировалось веками, впитывая в себя кровь споров, мудрость судей и тяжесть традиций. Искусственный интеллект — это цунами, которое обрушилось на этот гранит. Но вот парадокс: цунами не разрушило камень. Оно растворило береговую линию.

Сегодня мы живем в мире, где алгоритм может писать музыку, но не может быть признан автором. Где смарт-контракт исполняет волю сторон быстрее пули, но не знает понятия «форс-мажор». Где нейросеть хранит ваше лицо вечно, а ваше право на забвение упирается в отсутствие души у машины.

Эта книга — не учебник. Учебники предполагают, что ответы уже найдены. Здесь ответов почти нет. Это скорее атлас землепроходца. Мы будем прорубать просеки в правовом лесу, используя метафоры как топоры, а аналогии — как компас.

Почему это важно? Потому что если мы, люди, не научимся объяснять машинам и тем, кто их создает, такие слова как «справедливость», «вина» и «достоинство», то очень скоро машины начнут объяснять нам, что такое «эффективность». А эффективность без человечности — это путь в цифровое рабство.

Субъектность ИИ: Робот, который разбил окно (или убил мечту)

Представьте себе тихий пригородный вечер. Вы сидите в гостиной, за окном — идеальный газон, поливалка мерно постукивает. Вдруг — звон стекла. Вы выбегаете и видите: окно соседнего дома разбито вдребезги, на газоне лежит тяжелый металлический предмет. Сосед в панике: «Робот! Это проклятый робот!»

Вы поднимаете голову и видите дрон-доставщик, который, сойдя с курса, рухнул на крышу и потерял груз. Вопрос: кто разбил окно? Дрон? Его владелец? Программист, который написал код навигации? Или тот, кто заказал доставку?

В 2026 году этот вопрос — не казуистика для юридического факультатива. Это передовая линия, на которой сталкиваются две эпохи. Эпоха, где ответственность всегда имела имя и лицо, и эпоха, где действие порождается алгоритмом, который никто в конкретный момент не контролирует.

Добро пожаловать в самую взрывоопасную главу цифрового права. Здесь мы будем не просто перечислять точки зрения, а пройдем путь от растерянности перед «юридическим зомби» к попытке сконструировать новый правовой статус — возможно, самый необычный со времен изобретения юридического лица в Древнем Риме.

Великий раскол: «вещь» или «лицо»?

Вся история права держится на бинарной системе. Все, что существует в правовом поле, — либо субъект (тот, кто имеет права и обязанности), либо объект (то, чем распоряжаются). Стул — объект. Человек, который на нем сидит, — субъект. Компания «Рога и копыта» — субъект, потому что она придумана людьми как «маска», за которой стоят реальные участники.

ИИ ломает эту бинарность с пугающей легкостью.


Представьте, что у вас есть кукла-чревовещатель. Она говорит голосом чревовещателя, двигается его руками. Это инструмент. Но если кукла вдруг начинает сама произносить фразы, которых чревовещатель не задумывал, и сама выбирает, кому пожать руку, а кого ударить, — кто она? Вещь, вышедшая из-под контроля? Или новое существо?


Правовые системы мира сегодня раскалываются на два лагеря:

· Объектный подход (преобладает): ИИ — это сложный, но все же объект. Как автомобиль. Если автопилот Tesla совершил ДТП, отвечает владелец. Просто потому, что больше не на кого повесить ответственность. Этот подход прост, но он слеп к автономии. Он заставляет нас наказывать человека за то, что он не совершал и не мог предотвратить.

· Субъектный подход (радикальный): наделить ИИ правосубъектностью. Сделать его «электронным лицом». В Европе уже звучали предложения создать статус «электронного лица» для сложных автономных систем. Но тут же раздался крик: «Вы хотите дать права роботам вместо людей? Вы что, собираетесь сажать алгоритм в тюрьму?»


Парадокс в том, что ни одна из крайностей не работает чисто. Если ИИ — просто вещь, то почему он принимает решения, которые меняют жизнь людей? Если ИИ — лицо, то где его имущество? Как заставить его выплатить компенсацию? Арестовать его процессоры? Это все равно что арестовать молоток за то, что он разбил окно.

Три слоя правовой неопределенности

Чтобы понять, почему вопрос субъектности так запутан, разложим его на три слоя — как луковицу, каждый слой которой заставляет нас плакать.


Слой первый: Автономность ≠ Свобода воли

ИИ способен учиться, принимать решения в условиях неопределенности, адаптироваться. Но у него нет воли в юридическом смысле. У него нет желания, страха, мотивации. Его действия — это математическая экстраполяция данных.


Река сама выбирает русло. Она огибает камни, размывает берега, может затопить деревню. Но мы не судим реку за наводнение. Мы строим дамбы. С ИИ та же проблема: мы путаем сложное поведение с осознанным выбором. Когда нейросеть генерирует клевету на человека, она не «хотела» оклеветать. Она просто предсказывала наиболее вероятную последовательность токенов. Но кому от этого легче пострадавшему?


Слой второй: Ответственность без вины


Уголовное право построено на принципе mens rea — виновного умысла. Нельзя наказать без вины. Если мы не можем доказать, что ИИ хотел совершить преступление (а он не может хотеть в человеческом смысле), то уголовное преследование невозможно. Остается гражданско-правовая ответственность. Но и здесь проблема: кто платит?


Представьте, что вы купили робота-няню. Он идеально присматривал за ребенком месяц, но в один день его алгоритм, самообучившись на данных из интернета, решил, что лучший способ успокоить плачущего младенца — это громкая музыка. Ребенок получил акустическую травму. Кто виноват? Производитель скажет: «Мы дали ему безопасную базовую модель, он сам дообучился». Владелец скажет: «Я не программист, я не знал». А ребенок остался с травмой. Это «кукушка»: каждый перекладывает ответственность, а жертва остается одна.


Слой третий: Творчество без авторства


Нейросети пишут картины, которые продаются за миллионы долларов на Christie’s. Они сочиняют музыку, создают архитектурные проекты. Вопрос: кто автор? Тот, кто ввел промпт? Компания-разработчик? Или сама нейросеть?

Патентные ведомства по всему миру уже получили заявки, где изобретателем указан ИИ DABUS. Ответ был единообразным: «Изобретателем может быть только человек». Но если человек только нажал кнопку, а изобретение — плод тысяч часов работы алгоритма, то кто на самом деле творец? Мы рискуем обесценить интеллектуальную деятельность, отказав ИИ в авторстве, но одновременно отдать все права тому, кто просто владеет сервером. Это не стимулирует инновации, это создает феодалов данных.

Четыре сценария будущего: как может выглядеть правовой статус ИИ

Здесь мы переходим от анализа к конструкции. Я предлагаю рассмотреть четыре возможных пути, от консервативного до футуристического, а затем представлю собственную концепцию, которую называю «цифровой эмиссар».


Сценарий 1. «Продолжаем делать вид» (Status Quo)


Суды и законодатели будут любой ценой подгонять ИИ под существующие категории. Если беспилотник сбил пешехода — отвечает владелец (как владелец источника повышенной опасности). Если нейросеть нарушила авторские права — отвечает разработчик. Это удобно, предсказуемо, но несправедливо. Это как судить лошадь за то, что она понесла, а не кучера, который не смог удержать вожжи. Проблема: с ростом автономности связь между действием ИИ и контролем человека становится все более призрачной.


Сценарий 2. «Электронное лицо» (Европейская модель)


В 2017 году Европарламент всерьез обсуждал резолюцию, предлагающую создать статус «электронного лица» для роботов. Идея: робот регистрируется, имеет свой «кошелек» (фонд), страховку, и отвечает самостоятельно. Если робот накосячил, потерпевший получает компенсацию из этого фонда, а владелец платит повышенные страховые взносы.


Так же, как акционеры не отвечают по долгам компании своим личным имуществом, владелец робота не отвечает всем своим состоянием. Ответственность ограничена фондом. Но кто будет пополнять этот фонд? Опять владелец. По сути, это лишь переупаковка страхования ответственности. Главная слабость: «электронное лицо» не может быть наказано уголовно. Оно не боится тюрьмы. А значит, для сдерживания опасных действий этот механизм слаб.


Сценарий 3. «Агент» (Обходной путь)


Вместо того чтобы наделять ИИ правами, право объявляет его цифровым агентом человека. Как в римском праве: раб не был субъектом, но через него совершались сделки, и ответственность ложилась на господина. Так и здесь: все действия ИИ автоматически считаются действиями его владельца или оператора. Это чисто техническое решение, которое спасает трансакции, но никак не решает проблему автономного причинения вреда. И главное — оно не дает ответа на вопрос: а что если у ИИ нет владельца? Децентрализованные автономные организации (DAO) управляются кодом. Кто тогда агент?


Сценарий 4. «Цифровой эмиссар» (авторская концепция)


Здесь я предлагаю выйти за рамки дихотомии «лицо/вещь» и обратиться к метафоре международного права.


Посол иностранного государства на вашей территории — это не гражданин вашей страны. Он не подчиняется вашим полицейским в полном объеме (дипломатический иммунитет). Но он и не безответственен. Если посол нарушил закон, его объявляют persona non grata, высылают, а его страна-донор несет международно-правовую ответственность. При этом у посла есть собственный статус, признаваемый всеми государствами.


Предлагаю ввести для ИИ статус «цифрового эмиссара» человека или корпорации. Что это дает?


1. Признание автономности: Мы не делаем вид, что ИИ — просто молоток. Он действует в рамках делегированных полномочий, но с определенной степенью свободы.

2. Ответственность через «высылку»: Если ИИ систематически нарушает правопорядок (например, распространяет запрещенный контент или нарушает ПДД), он может быть «выслан» — отключен от сети, лишен сертификата безопасности, «депортирован» из цифрового пространства.

3. Материальная ответственность донора: Как государство отвечает за своего посла, так и владелец (или разработчик) ИИ обязан создать компенсационный фонд. Но в отличие от простой страховки, здесь есть элемент дипломатической ответственности — репутационный риск. Если ваш «цифровой эмиссар» творит беспредел, вы теряете право его делегировать.

4. Уголовная ответственность: ИИ не сажают в тюрьму, но к нему применяют «цифровое наказание» — ограничение функционала, изъятие лицензии, принудительное «забывание» определенных данных. Это аналог ограничения дееспособности.


Эта концепция не требует наделения ИИ правами человека (на жизнь, достоинство), но дает ему правовую маску, за которой стоит реальный экономический и репутационный интерес контролирующего субъекта.

Кейсы, которые ломают шаблоны

Чтобы убедиться, что вопрос не надуман, пройдемся по трем реальным (или очень близким к реальности) кейсам, которые сегодня не имеют решения.


Кейс 1: Беспилотник и «трамвайная дилемма»


Представьте, что беспилотный автомобиль движется по узкой горной дороге. Внезапно на дорогу выбегает ребенок. У машины есть выбор: сбить ребенка, свернуть в пропасть (погибнет пассажир) или резко перестроиться и столкнуться с мотоциклистом. Алгоритм делает выбор за доли секунды.


· Если алгоритм выбрал смерть пассажира, можно ли предъявить производителю обвинение в убийстве по неосторожности? Ведь алгоритм был спроектирован так, чтобы минимизировать общий ущерб, а не защищать конкретного владельца.

· Кто дал моральное разрешение на такое решение? Никто. Это чистый утилитаризм в коде.


Здесь статус «электронного лица» не поможет: фонд выплатит компенсацию, но вопрос уголовной ответственности (кто дал команду убить?) останется висеть в воздухе. Мой подход «цифрового эмиссара» требует, чтобы за каждым таким решением стоял суверен — человек или организация, которые несут репутационные риски. Если производитель закладывает в код утилитарную этику, он должен быть готов к уголовному преследованию за последствия, как если бы он сам сидел за рулем.


Кейс 2: Нейросеть как изобретатель


В 2020 году патентные ведомства США, Европы и Великобритании отклонили заявки, где изобретателем был указан ИИ DABUS. Формальная причина: изобретателем может быть только физическое лицо.

Но что, если DABUS создал лекарство от редкой болезни, которое никогда не пришло бы в голову человеку? Патент не выдан, значит, лекарство может использовать кто угодно, и у разработчика нет стимула инвестировать в клинические испытания. Мы лишаем общество инновации из-за юридического формализма.

В концепции «цифрового эмиссара» изобретение, созданное ИИ, могло бы патентоваться на имя владельца ИИ, но с обязательством раскрыть, что вклад ИИ был определяющим. Это похоже на институт «служебного изобретения»: работник создает изобретение на рабочем месте, патент принадлежит компании. Здесь ИИ — «цифровой эмиссар», работающий на компанию. Компания получает патент, но обязана указать в заявке, что технический результат достигнут с помощью автономной системы. Это сохраняет стимулы, не наделяя ИИ правами, но признавая его вклад.


Кейс 3: Децентрализованный автономный фонд (DAO) и кража


DAO — это организация, управляемая смарт-контрактами. Нет директора, нет юрлица в традиционном смысле. В 2016 году хакеры воспользовались уязвимостью в коде DAO и вывели криптовалюты на сумму более 50 млн долларов. Вопрос: кого привлекать к ответственности? Код написали разработчики, но они не контролировали его после запуска. Сообщество голосовало за изменения, но не за конкретную кражу.

Здесь традиционная субъектность бессильна. Если мы признаем DAO юридическим лицом, то можем «обанкротить» его, но преступники останутся безнаказанными. Если мы скажем, что DAO — это просто код, то пострадавшие инвесторы не получат ничего.

Решение через «цифрового эмиссара»: каждая DAO должна иметь «эмиссара» — человека или группу лиц, которые публично ассоциируются с ее запуском и несут субсидиарную ответственность. Не за каждый баг в коде, а за соблюдение базовых принципов безопасности. Это аналогично тому, как в морском праве капитан судна отвечает за судно, даже если оно идет в автономном режиме.

Человеческое измерение: почему этот спор не только о букве закона

За всеми этими конструкциями — «электронное лицо», «цифровой эмиссар», «агент» — стоит один тревожный вопрос: не превращаем ли мы человека в придаток алгоритма?

Если ответственность за ИИ будет размыта, мы столкнемся с феноменом «безответственного могущества». Алгоритмы будут принимать решения, влияющие на свободу, здоровье, имущество людей, а наказать будет некого. Это путь к цифровому феодализму, где власть принадлежит тем, кто контролирует код, но не отвечает за последствия.


Если вы посадили в своем саду растение, которое выделяет яд, вы обязаны огородить его или предупредить соседей. Если растение само распространилось по всему саду и отравило ребенка, вы отвечаете. Вам не важно, что растение делало это «автономно». Вы — источник опасности. Точно так же разработчики и владельцы ИИ должны быть признаны источниками повышенной цифровой опасности. Их ответственность должна быть строже, чем обычно, именно потому, что они создают автономные сущности.


Но есть и обратная сторона: если мы слишком ужесточим ответственность разработчиков, инновации умрут. Никто не будет создавать сложные ИИ, если каждый баг грозит тюремным сроком. Нужен баланс.


Именно поэтому концепция «цифрового эмиссара» предлагает разделить риски:

· Операционный риск (стандартные сбои) покрывается страховым фондом.

· Систематические нарушения ведут к «депортации» ИИ (отзыву лицензии).

· Умышленное использование ИИ для преступлений (например, намеренное обучение нейросети на фишинговых данных) влечет уголовную ответственность владельца как соучастника.

Узел, который предстоит развязать

Я начинаю эту книгу с главы о субъектности не случайно. Это фундамент. Как мы ответим на вопрос «Кто отвечает за действия ИИ?», определит всю архитектуру цифрового права на десятилетия вперед.


В этой главе мы:

· Увидели, что бинарная система «субъект/объект» не работает для автономных систем.

· Разобрали три слоя неопределенности: автономность без воли, ответственность без вины, творчество без авторства.

· Исследовали четыре сценария будущего: от сохранения статус-кво до наделения ИИ статусом «электронного лица».

· Предложили авторскую концепцию «цифрового эмиссара», сочетающую признание автономности с сохранением человеческой ответственности.

· Проиллюстрировали проблему на трех кейсах: беспилотник с моральным выбором, нейросеть-изобретатель и DAO-кража.


Мы не можем решить проблему субъектности ИИ, оставаясь внутри старой правовой парадигмы. Нам нужна новая категория — не человек, не вещь, не юрлицо в классическом смысле, а цифровой делегат, чья правосубъектность является производной от человеческой воли, но не сводится к ней полностью.

Глава 2. Смарт-контракты: Нотариус в бутылке джинна

Представьте, что вы заключаете сделку, которая не требует доверия. Вам не нужен банк, чтобы провести платеж. Не нужен нотариус, чтобы засвидетельствовать подписи. Не нужен суд, чтобы принудить к исполнению. Вы просто договариваетесь, и условия срабатывают сами, как часовой механизм. Наступило 15:00 — деньги ушли. Товар получен. Никто не может передумать, задержать, обмануть.

Звучит как утопия эффективности. Это и есть смарт-контракт — компьютерный код, работающий на блокчейне, который автоматически исполняет условия соглашения.

Но в этой утопии скрывается древняя драма. Право всегда было искусством интерпретации. Оно терпело несовершенство человеческой речи, пробелы в воле, заблуждения, обман — и стремилось восстановить справедливость после нарушения. Смарт-контракт не оставляет места для «после». Он — это исполнение, которое не спрашивает разрешения.

В этой главе мы разберем, почему «код — это закон» (как любят говорить программисты) вступает в конфликт с «законом — это код» (как могли бы возразить юристы). Мы увидим, как смарт-контракты меняют роль юриста, нотариуса и суда, и предложим модель, в которой автоматизация не уничтожает человеческое правосудие, а становится его инструментом.

Анатомия смарт-контракта: как это работает (и почему это не «контракт» в юридическом смысле)

Начнем с важного признания: смарт-контракт — это юридический оксюморон. С точки зрения закона, контракт — это соглашение сторон, порождающее права и обязанности. Смарт-контракт — это программа, которая автоматически выполняет заранее заданные операции. В идеальном мире они совпадают: стороны договорились, зафиксировали условия в коде, и код их исполнил. В реальном мире между ними зияет пропасть.


Обычный договор — это ноты. Их можно читать по-разному, интерпретировать, исполнять с отклонениями. Смарт-контракт — это патефон с заведенной пружиной. Как только игла опущена, пластинка будет играть одну и ту же мелодию, даже если в зале пожар и все кричат «стоп». Технически остановить можно, только разбив патефон.


Смарт-контракт живет на блокчейне — распределенном реестре, который не принадлежит никому и всем сразу. У него есть три ключевых свойства:

1. Автоматизм: Условия исполняются автоматически при наступлении заранее определенных событий (получение данных от оракула, достижение даты, перевод криптовалюты).

2. Необратимость (как правило): Транзакции в блокчейне не отменяются. Если смарт-контракт перевел средства, вернуть их можно только через другой смарт-контракт, если он предусматривает такую логику.

3. Прозрачность: Код смарт-контракта обычно открыт для всех, кто взаимодействует с ним. Но вот парадокс: даже если код открыт, понять его юридические последствия может только тот, кто умеет читать код и одновременно мыслить правовыми категориями. Таких специалистов единицы.


Юридически смарт-контракт — это не форма договора, а способ исполнения обязательств. Он может быть:

· Выражением воли (стороны фиксируют соглашение в коде);

· Средством обеспечения (условное депонирование, escrow);

· Автоматическим исполнителем (сбор платежей по подписке).

Проблема возникает, когда код начинает жить своей жизнью, а стороны хотят «отменить» сделку по причинам, которые код не учитывает: обман, заблуждение, изменение обстоятельств.

Три главных конфликта: код против человеческой реальности

Конфликт 1. Форс-мажор: когда «невозможно» не запрограммировано


Классическое право знает институт форс-мажора — обстоятельств непреодолимой силы, которые освобождают от ответственности за неисполнение. Наводнение, война, пандемия — все то, что стороны не могли предвидеть и предотвратить.

Смарт-контракт не знает форс-мажора. Если код написан так, что 1 апреля происходит списание, он спишет средства даже в том случае, если 31 марта рухнул банк, а страна ввела санкции, запрещающие такие платежи.


Представьте древнюю яму-ловушку, накрытую ветками. Мамонт падает — охотники добивают. Если в эту яму случайно упадет ребенок, ловушка все равно сработает. Она не различает. Смарт-контракт — такая же ловушка. Он не различает добросовестного должника, которому правительство заблокировало счет, и злостного неплательщика.


Бесплатный фрагмент закончился.

Купите книгу, чтобы продолжить чтение.