Сэм Альтман признал, что компания не сообщила властям о тревожных переписках стрелка с чат-ботом, даже когда сотрудники сами забили тревогу внутри компании. За этической стороной истории стоит вполне конкретная экономическая.
Что произошло?
В феврале 2026 года в небольшом канадском городе Тамблер-Ридж в провинции Британская Колумбия 18-летний молодой человек открыл огонь в местной школе. Погибли восемь человек, среди которых шестеро детей. Одна из самых страшных массовых стрелок в новейшей истории Канады.
Позднее выяснилось, что до расстрела стрелок вёл переписку с чат-ботом ChatGPT, содержание которой было достаточно тревожным, чтобы сотрудники OpenAI внутри компании его заметили и заблокировали аккаунт ещё в июне — но в полицию никто не обратился.
23 апреля Сэм Альтман направил официальное письмо жителям Тамблер-Риджа, признал факт произошедшего и принёс извинения. Письмо опубликовал премьер Британской Колумбии Дэвид Иби - с жёстким комментарием: извинения необходимы, но совершенно недостаточны для семей, потерявших детей.
Экономические последствия: почему это не только этика
На первый взгляд это история про мораль и ответственность. Но у неё есть вполне измеримые экономические последствия - и они касаются всей индустрии, а не только OpenAI.
Этот случай ускорит принятие обязательных стандартов для ИИ-компаний в части мониторинга опасных пользователей и взаимодействия с правоохранительными органами. Канада уже работает над регулированием ИИ в рамках Bill C-27 (законопроект об искусственном интеллекте и защите данных), и подобные инциденты создают политическое давление для его ужесточения. Для компаний это означает рост затрат на compliance (соответствие нормативным требованиям) - найм юристов, создание внутренних процедур, аудит переписок. В сложившейся ситуации, расходы крупных ИИ-платформ на регуляторное соответствие в ближайшие два-три года могут вырасти в разы.
OpenAI сейчас находится в процессе реструктуризации из некоммерческой организации в коммерческую компанию и активно привлекает инвестиции. Репутационные удары в такой момент напрямую влияют на оценку компании и условия будущих раундов финансирования. Инвесторы всё чаще смотрят на ESG-риски (Environmental, Social, Governance - экологические, социальные и управленческие факторы при оценке компании), и публичный скандал с жертвами среди детей - именно тот тип события, который попадает в эту категорию.
Официальных правовых последствий для OpenAI пока не объявлено, но вектор очевиден. Вопрос о том, должны ли ИИ-компании в обязательном порядке сообщать властям о потенциально опасных пользователях, перестал быть абстрактной дискуссией. Он превращается в конкретное регуляторное и финансовое требование - с ценой за несоблюдение, которую индустрия только начинает осознавать.