ИИ-стартап Anthropic, один из главных конкурентов OpenAI, завершил новый раунд финансирования, привлекая $13 миллиардов. Это подняло общую оценку компании до $183 миллиардов и сделало ее одним из самых дорогих частных стартапов в мире. Об этом сообщается на сайте компании.
Конкурент OpenAI, компания Anthropic, привлекла $13 млрд и достигла оценки в $183 млрд
► Подписывайтесь на телеграм-канал «Минфин»: главные финансовые новости
Детали раунда и стремительный рост
Раунд финансирования возглавили такие ведущие инвесторы, как Iconiq Capital, Fidelity Management и Lightspeed Venture Partners. Спрос на акции компании значительно превысил предложение: первоначальная цель в $5 млрд была сначала увеличена до $10 млрд, а в итоге компания привлекла $13 млрд.
Бизнес-показатели Anthropic демонстрируют взрывную динамику. Годовой доход вырос с $1 млрд в начале 2025 года до более $5 млрд в августе. Количество бизнес-клиентов достигло 300 000. Особенно успешным является инструмент для программистов Claude Code, доход от которого превысил $500 млн в год, а его использование за последние три месяца выросло в 10 раз.
Стратегия и конкуренция
Компания Anthropic была основана в 2021 году бывшими топ-сотрудниками OpenAI. Она позиционирует себя как разработчика более безопасных и надежных ИИ-моделей, что сделало ее популярной среди корпоративных клиентов в таких чувствительных отраслях, как финансы и здравоохранение. Один из продуктов компании — большая языковая модель (LLM) Claude, которая конкурирует с чатом GPT.
Привлеченные средства компания планирует направить на удовлетворение спроса со стороны бизнеса, дальнейшие исследования в сфере безопасности ИИ и международную экспансию.
Безопасность как бизнес-модель: в чем уникальность Anthropic?
Anthropic была основана группой исследователей, покинувших OpenAI из-за разногласий во взглядах на безопасность искусственного интеллекта. Их главная идея заключалась в том, чтобы создать ИИ-модели, которые были бы не только мощными, но и безопасными, этичными и предсказуемыми.
Для этого компания разработала уникальный подход к обучению своих моделей, известный как «Конституционный ИИ» (Constitutional AI).
Сначала модель обучают на огромном массиве текстов, как и другие LLM.
Затем, на втором этапе, вместо того, чтобы люди-модераторы вручную корректировали ее поведение, модель заставляют следовать определенной «конституции» — набору принципов и правил (например, «не генерируй вредоносный контент», «избегай предвзятости»).
Модель самостоятельно обучается, критикуя и исправляя собственные ответы, чтобы они соответствовали этим принципам.
Такой подход позволяет создавать более управляемые и надежные ИИ-системы. Именно этот акцент на безопасности стал главным конкурентным преимуществом Anthropic и привлек к ней крупных корпоративных клиентов, которые боятся репутационных и юридических рисков, связанных с непредсказуемым поведением других ИИ-моделей.
Комментарии