► Подписывайтесь на телеграм-канал «Минфин»: главные финансовые новости

Детали раунда и стремительный рост

Раунд финансирования возглавили такие ведущие инвесторы, как Iconiq Capital, Fidelity Management и Lightspeed Venture Partners. Спрос на акции компании значительно превысил предложение: первоначальная цель в $5 млрд была сначала увеличена до $10 млрд, а в итоге компания привлекла $13 млрд.

Бизнес-показатели Anthropic демонстрируют взрывную динамику. Годовой доход вырос с $1 млрд в начале 2025 года до более $5 млрд в августе. Количество бизнес-клиентов достигло 300 000. Особенно успешным является инструмент для программистов Claude Code, доход от которого превысил $500 млн в год, а его использование за последние три месяца выросло в 10 раз.

Стратегия и конкуренция

Компания Anthropic была основана в 2021 году бывшими топ-сотрудниками OpenAI. Она позиционирует себя как разработчика более безопасных и надежных ИИ-моделей, что сделало ее популярной среди корпоративных клиентов в таких чувствительных отраслях, как финансы и здравоохранение. Один из продуктов компании — большая языковая модель (LLM) Claude, которая конкурирует с чатом GPT.

Привлеченные средства компания планирует направить на удовлетворение спроса со стороны бизнеса, дальнейшие исследования в сфере безопасности ИИ и международную экспансию.

Безопасность как бизнес-модель: в чем уникальность Anthropic?

Anthropic была основана группой исследователей, покинувших OpenAI из-за разногласий во взглядах на безопасность искусственного интеллекта. Их главная идея заключалась в том, чтобы создать ИИ-модели, которые были бы не только мощными, но и безопасными, этичными и предсказуемыми.

Для этого компания разработала уникальный подход к обучению своих моделей, известный как «Конституционный ИИ» (Constitutional AI).

Сначала модель обучают на огромном массиве текстов, как и другие LLM.

Затем, на втором этапе, вместо того, чтобы люди-модераторы вручную корректировали ее поведение, модель заставляют следовать определенной «конституции» — набору принципов и правил (например, «не генерируй вредоносный контент», «избегай предвзятости»).

Модель самостоятельно обучается, критикуя и исправляя собственные ответы, чтобы они соответствовали этим принципам.

Такой подход позволяет создавать более управляемые и надежные ИИ-системы. Именно этот акцент на безопасности стал главным конкурентным преимуществом Anthropic и привлек к ней крупных корпоративных клиентов, которые боятся репутационных и юридических рисков, связанных с непредсказуемым поведением других ИИ-моделей.