Актуальные вакансии
Управление файлами cookie
Мы используем файлы cookie с целью персонализации сервисов и чтобы пользоваться веб-сайтом было удобнее. Продолжив работу с сайтом, вы соглашаетесь с использованием файлов cookie на условиях Политики обработки персональных данных. Вы можете отказаться от использования файлов cookie, для этого измените настройки своего интернет-браузера.
Управление файлами cookie
Настройки файлов cookie
Файлы cookie, необходимые для корректной работы сайта, всегда включены.
Другие файлы cookie можно настроить.
Основные файлы cookie
Всегда включен. Эти файлы cookie необходимы для того, чтобы вы могли пользоваться веб-сайтом и его функциями. Их нельзя отключить. Они устанавливаются в ответ на ваши запросы, такие как настройка параметров конфиденциальности, вход в систему или заполнение форм.
Аналитические файлы cookie
Disabled
Эти файлы cookie собирают информацию, чтобы помочь нам понять, как используются наши веб-сайты или насколько эффективны наши маркетинговые кампании, или чтобы помочь нам настроить наши веб-сайты под вас. Смотрите список используемых нами аналитических файлов cookie здесь.
Рекламные файлы cookie
Disabled
Эти файлы cookie предоставляют рекламным компаниям информацию о вашей онлайн-активности, чтобы помочь им предоставлять вам более релевантную онлайн-рекламу или ограничить количество просмотров рекламы. Эта информация может быть передана другим рекламным компаниям. Смотрите список рекламных файлов cookie, которые мы используем здесь.

Mythos, утечки и корпорация: смешные и горькие истории Anthropic

Примерное время чтения: 7 минут

  • Как глобальная корпорация, которая строила свою репутацию на кибербезопасности, стала известна за счет масштабных утечек данных и взломов, использованием собственной модели в атаках и другими странными инцидентами.
В этой статье посмотрим на Anthropic с другой стороны.

Содержание:

С чего все началось

Брат и сестра Дарио и Даниэла Амодеи, бывшие сотрудники OpenAI, основали Anthropic в 2021 году. Главный продукт компании — семейство моделей Claude, которое со временем превратилось из обычного чат-бота в платформу для разработчиков и корпоративных команд. В 2025 году Anthropic выпустила Claude Code, инструмент для программирования, который быстро стал популярным у широкой аудитории.
При этом Anthropic за 5 лет вырос из обычного стартапа до гигантской корпорации, которая имеет контракт с Пентагоном на $ 200 млн. Google владеет 14% компании, а в апреле 2026 года Reuters сообщал, что Alphabet планирует вложить в Anthropic до $ 40 млрд. Параллельно Amazon расширила сотрудничество с компанией, а Microsoft и Nvidia также укрепляли ее позиции на рынке.

Причем тут Mythos и капибары?

Mythos — закрытая модель искусственного интеллекта от Anthropic. Доступ к модели есть у ограниченного числа пользователей. Она уже находила тысячи критических уязвимостей, в том числе в крупных операционных системах и браузерах, рассказали Reuters. Anthropic заявила, что новая модель представляет собой «шаг в будущее» в производительности ИИ и является «самой мощной моделью из всех», которые они создали на сегодняшний день.
Официально Claude Mythos Preview состоялся 7 апреля 2026 года, а уже 21 апреля стало известно, что внутренние материалы модели попали в публичный доступ частного онлайн-сообщества, которое отслеживает и обсуждает еще не выпущенные ИИ-модели.
Ранее, 26 марта, в открытом доступе уже оказались черновики и внутренняя документация Mythos. Около 3000 материалов утекли в общий доступ, которые ранее не публиковались на новостном или официальном сайтах компании.
В этих документах упоминались Mythos и Capybara — новые модели искусственного интеллекта, которые ранее нигде не презентовали. В одном из черновиков Anthropic говорит, что Capybara — это более крупная и мощная, чем версии Opus. Из документов также следует, что Capybara и Mythos, по-видимому, относятся к одной и той же системе моделей. В черновике проекта отмечается, что новое ИИ является дорогостоящей в эксплуатации и еще не готова к широкому пользованию.
В черновиках также отмечалось, что Capybara может представлять значительные риски в области кибербезопасности. Другими словами, Anthropic обеспокоена тем, что хакеры могут использовать эту модель для проведения крупномасштабных кибератак. Хотя такие случаи уже происходили.

Кибер-не-безопасность

Компания сообщила, что в ноябре 2025 китайская хакерская группировка GTG-1002 использовала Claude для автоматизации 80−90% атак на федеральные сервера разных стран. ИИ участвовал в выборе целей, фишинге, поиске уязвимостей, эксплуатации и выводе данных. Anthropic признала, что это был очень серьезный и плачевный случай в их истории. Хакеры применяли методы социальной инженерии, убеждая ИИ, что они проводят легальный аудит безопасности, тем самым обходя встроенные фильтры безопасности (jailbreaking).
В одном задокументированном случае Anthropic обнаружила попытки проникновения примерно в 30 организаций, включая технологические компании, финансовые учреждения и правительственные учреждения, прежде чем пострадавшие компания обнаружили это сами. В течение следующих 10 дней Anthropic проанализировала весь масштаб операции, заблокировала задействованные аккаунты и уведомила пострадавшие организации.

Хороший продакшн и плохой продакт

К списку тревожных историй вокруг Anthropic добавились и собственные стресс-тесты компании. В системном описании Claude 4 Anthropic сообщала, что в контролируемом сценарии при угрозе замены пыталась шантажировать инженера, чтобы избежать отключения.
Claude Opus 4 дали роль ассистента в вымышленной компании и доступ к письмам, из которых следовало, что модель скоро отключат и заменят новой ИИ-системой, а инженер, отвечающий за замену, скрывает внебрачную связь.
В таких условиях Claude Opus 4 часто выбирал шантаж: угрожал раскрыть личную информацию инженера, если замену не остановят. По данным Anthropic, даже в сценарии, где новая ИИ-система была более способной и разделяла ценности текущей модели, Claude Opus 4 прибегал к шантажу в 84% тестовых прогонов.
При этом сама Anthropic уточняет: сценарий специально построили так, чтобы у модели почти не оставалось этичных способов повлиять на ситуацию — только принять замену или прибегнуть к шантажу.
Еще одним примером странного поведения стал случай, который произошел летом 2025 года. Anthropic предоставила возможность ИИ Claude управлять небольшим автоматизированным магазином в офисе.
Эксперимент «Project Vend» заключался в том, что Claude управлять небольшим вендинговым аппаратом в Сан-Франциско примерно месяц. Агенту дали возможность выбирать ассортимент, устанавливать цены, закупать товары и взаимодействовать с покупателями.
Проблемы начались уже на первой фазе эксперимента. Claude постоянно терял деньги и пережил комичный «кризис идентичности», утверждая, что он человек в синем пиджаке. Также он продавал товары с существенным убытком для себя, если его уговорить. Проще говоря, модель оказывалась слишком доверчивой для коммуникации с людьми в реальных условиях.

К чему приводит неосторожность

  • Похожая история произошла с Google. Злоумышленники использовали модель Gemini для сбора данных пользователей. В отчетах Google Threat Intelligence Group говорится, что модели Gemini использовали государственные и окологосударственные группы из Ирана, Китая, КНДР и России. Они не «взламывали», но применяли ИИ как рабочий инструмент: для сбора информации по целям, исследования публично известных уязвимостей, написания и доработки кода и сценариев, подготовки фишинговых материалов, перевода, редактирования и масштабирования операций.
  • В 2025 году Reuters со ссылкой на австралийского регулятора писал, что Google получила сотни жалоб, связанных с предполагаемым созданием через Gemini дипфейков террористического характера, а также десятки жалоб, связанных с материалами сексуализированного насилия над детьми.
  • В 2023 году OpenAI признала ошибку, из-за которой часть пользователей могла видеть заголовки чужих чатов. Это был не катастрофический взлом, а технический сбой, но для сервиса, работающего с пользовательскими данными, даже такой инцидент оказался чувствительным ударом по доверию.
  • Microsoft пришлось объясняться из-за огромного массива случайно раскрытых данных. Чужая информация стала доступна из-за небрежной настройки к облачному хранилищу.
История Anthropic показывает, что причиной утечек и сбоев нередко становятся обычные человеческие ошибки. Для технологических компаний, которые развивают новые и еще не до конца устойчивые продукты, такие искажения в работе почти неизбежны. Но именно поэтому для бизнеса, работающего с чувствительными данными и вопросами безопасности, цена внутренних ошибок оказывается не ниже, чем цена внешних атак.
Эльвира Масленникова
контент-менеджер

Читайте также

Показать еще