Почему регулирование AI делает всё хуже, а не лучше

НовостиОпубликовано: 3/21/2026

Компании отказываются от алгоритмов, которые работают лучше людей, потому что юридические риски того не стоят. Экономист Роланд Фрайер объясняет, почему всё регулирование AI построено неправильно и как это исправить.

Самую важную технологию нашей жизни регулируют люди, которые не могут договориться даже о том, что она такое. Несколько штатов и Евросоюз уже приняли масштабные законы об искусственном интеллекте. Иллинойс запретил использовать AI в найме с дискриминационными результатами. Звучит разумно. Но определение AI в законе настолько широкое, что под него попадают практически любые рекомендательные системы, включая статистические методы, которым сотни лет. Нью-Йоркский закон RAISE требует от разработчиков "передовых" систем AI сообщать об инцидентах безопасности в течение 72 часов. Закон ЕС об AI предусматривает штрафы до 7% мировой выручки за нарушения. Регуляторная архитектура огромна, фрагментирована и по большому счёту бессмысленна. Но главный вред может быть не в том, чего эти законы не предотвращают, а в том, что они вызывают. Автор статьи, экономист Роланд Фрайер, пишет, что работает с компаниями, которые отказались от алгоритмов найма, дававших более объективные результаты, чем решения людей. Не потому что алгоритмы были плохими, а потому что юридические риски того не стоили. Регулирование, призванное уменьшить дискриминацию, на практике её увеличивает. Почему регуляторы ошибаются Главная проблема регулирования это асимметрия информации. Регулятор хочет определённого поведения от разработчика AI, полицейского департамента или больницы. Но он не может наблюдать реальные затраты, мотивации или повседневное поведение агента. А агент, зная это, ведёт себя стратегически. Экономисты Дэвид Бэрон и Роджер Майерсон ещё в 1982 году задались вопросом: как устанавливать правила для тех, кто знает больше тебя? Стандартный ответ законодателей: больше надзора, больше проверок, больше инспекторов. Бэрон и Майерсон показали, что эта интуиция полностью неверна. Вместо того чтобы требовать информацию, которую агенты могут подделать, нужно предлагать меню регуляторных опций. Каждая опция спроектирована так, чтобы фирмы, безопасные или рискованные, сами выбирали вариант, предназначенный именно для них. Честное раскрытие информации должно быть рациональным выбором, а обман невыгодным. Как это работает Каждая рискованная фирма хочет выглядеть безопасной. Правильно спроектированное меню убирает этот стимул. Опция А: полная прозрачность перед сертифицированным аудитором, мягкие требования к комплаенсу, никаких штрафов, пока вред не задокументирован. Опция Б: никакой прозрачности не требуется, но строгая ответственность за любую доказанную дискриминацию, со штрафами, рассчитанными на основе реального социального ущерба. Рискованная фирма, притворяющаяся безопасной, выберет опцию А и разорится, когда аудитор найдёт то, что она прячет. Поэтому она рационально выберет опцию Б, приняв ответственность в обмен на непрозрачность. Безопасная фирма честно выберет опцию А и получит более мягкие условия. Ни один действующий закон об AI не создаёт таких стимулов. Все они создают бумажную работу. Возьмём закон Иллинойса. Компания использует алгоритм для отбора резюме. По закону она должна отправить кандидатам уведомление: "Мы используем AI в процессе найма." Регулятор ничего не узнаёт. Кандидат не получает реальной защиты. Алгоритм может дискриминировать, может нет. Закон не выясняет этого и не создаёт стимулов для рискованных систем раскрывать себя. Урок из полиции Фрайер приводит пример из своего исследования полицейской деятельности. Министерство юстиции, не способное наблюдать тип или усилия офицера, написало правило: определённый паттерн жалоб запускает расследование. Но плохой полицейский в лёгкой ситуации может показать ту же статистику, что и хороший в сложной. Результат: после федеральных расследований инициативные контакты полицейских с гражданами в Чикаго упали на 89% за один месяц. Офицеры рационально снизили усилия, чтобы минимизировать риск. По оценкам исследования, это привело к почти 1000 дополнительным убийствам за следующие два года, преимущественно чернокожих людей. Не из-за злого умысла, а из-за плохого дизайна. О чём это говорит Регуляторы всегда находятся в темноте, хотя бы частично. Вопрос в том, строят ли они системы, которые раскрывают информацию, или закапывают её глубже. Если мы хотим регулировать сложные, быстро развивающиеся области вроде AI, начинать нужно со смирения. Мы не знаем, что происходит внутри чёрного ящика. Но с правильными инструментами можно заставить его открыться ровно настолько, чтобы выровнять стимулы, предотвратить вред и вознаградить честность. В регулировании главная опасность не плохие актёры. Главная опасность это проектировать политику так, будто у нас есть полная информация, когда её нет.

Почему регулирование AI делает всё хуже, а не лучше