Multi от Минфин
(8,9K+)
Оформи кредит — выиграй iPhone 16 Pro Max!
Установить
4 августа 2025, 12:10 Читати українською

Завершение эпохи ChatGPT: впереди — ИИ, который учится сам

Привычные языковые модели уходят в прошлое, на смену им уже готовится ИИ, который будет учиться на собственном опыте. Что это принципиально меняет и к чему стоит готовиться человечеству, рассказал экономист Алексей Петровский.

Как изменится ИИ

Выдающиеся исследователи искусственного интеллекта — Дэвид Силвер (создатель AlphaGo) и Ричард Саттон (пионер обучения с подкреплением) в своей статье «Welcome to the Era of Experience» подвели итог нынешнему этапу развития ИИ, объявив, что эпоха языковых моделей заканчивается, и очертили будущее.

Ниже приведу несколько, на мой взгляд, наиболее интересных тезисов.

Современные модели (ChatGPT, Gemini, Claude) достигли впечатляющих результатов, имитируя человеческую речь. Но это их предел. Весь Интернет уже «съеден» как источник данных. Имитация — это не изобретение, и модели, обучающиеся исключительно на человеческих текстах, не способны создавать действительно новое.

Будущее — за ИИ, который учится на собственном опыте, а не на том, что создал человек. Это переход к агентам, которые действуют, наблюдают, получают вознаграждения и учатся в мире, а не только в текстах.

Три основы новой эры ИИ:

1. Потоки опыта. ИИ учится не в отдельных запросах, а непрерывно, день за днем. Это уже начинает реализовываться, например, в некоторых системах типа Whoop.

2. Заземленные действия и вознаграждения. Агенты И И будут управлять роботами, интерфейсами, API, а их эффективность будут измерять объективные метрики: CO₂, энергозатраты, время, прибыль — а не только человеческие оценки.

3. Нечеловеческое мышление. Новые И И будут создавать собственные логические системы. Пример — AlphaProof, который самостоятельно сгенерировал 100 млн математических доказательств и выигрывал международные олимпиады, оперируя логикой, недоступной человеку.

Что это значит для нас

1. ИИ станет полноценным исследователем — не просто чат-ботом, а инженером, ученым, стратегом.

2. Вместо новых текстов — создание сред и симуляций, в которых ИИ учится действием.

3. Возрастет роль проектировщиков сред, архитекторов мотивации и специалистов по искусственной экологии для ИИ.

Новые вызовы:

  • Как контролировать автономного агента, который сам учится, действует без инструкций и мыслит по-своему?
  • Как объяснить его решения, если логика больше не будет человеческой?

Читайте также: Новая валютная война сверхдержав: как США и Китай делят криптомир

Языковые модели были лишь прологом. Впереди — ИИ, который не просто знает, а действует, понимает и открывает новое. Мы вступаем в эпоху, где ключевым ресурсом становится опыт — не человеческий, а искусственный…

Комментарии - 20

+
+41
financialGenius
financialGenius
4 августа 2025, 12:25
#
Джон Бранкато и Майкл Феррис как будто будущее видели) думаю войны лет через 20 будут совершенно другими , вон Китай уже делает насекомых которые могут делать видео , но их же можно использовать как самоубийц , к примеру комара сделать летающего с ши внутри где он будет распознавать врага и самоуправляться (на батарейках) тогда его не смогут заглушить системы и просто подлетает и вкалывает смертельный яд. После прийдет эпоха машин которые не бояться ничего и нужно только управлять, в последствии станут не подконтрольные. Может кто-то скажет что это все бред — ваше право , но все так быстро развивается что не успеешь оглянуться как станет реальность .
+
+22
Kanarej
Kanarej
4 августа 2025, 13:08
#
Пример — AlphaProof, который самостоятельно сгенерировал 100 млн математических доказательств и выигрывал международные олимпиады, оперируя логикой, недоступной человеку.
Вообще бессмысленное утверждение. Что значит «логика, недоступная человеку»? Логика в математике или есть, или ее нет. Если логика человеку недоступна — то это скорее всего бессмыслица, не имеющая отношения к математике. Так выглядит, что логика недоступна автору данной статьи.
Что касается AlphaProof, то это был эксперимент в прошлом году с моделью, заточенной на решение именно математических задач. Она больше ничего не умеет. И она достигла уровня серебрянного призера международной олимпиады. То есть результат очень хороший, но ничего сверхчеловеческого там нет. И задача должна быть четко формализована человеком.
Вообще в статье все преувеличено, как по мне. Да, технология интересная, перспективная, изменяет нашу жизнь уже сейчас, но не все так просто и не все так быстро. Рост не будет линейным. После прорыва технология развивается, пока не упрется в потолок. Потолок уже в принципе нащупали. Дальше экстенсивное развитие, усовершенствование и внедрение во все сферы жизни того что есть, пока не будет достигнут следующий прорыв, а на это могут уйти десятилетия.
+
0
vt313
vt313
4 августа 2025, 19:14
#
Что значит «логика, недоступная человеку»?
---
Тоже самое, что логика, недоступная муравью.
+
0
Qwerty1999
Qwerty1999
7 августа 2025, 17:43
#
Международные олимпиады, в том числе и по математике, проводятся среди школьников старших классов, и уровень серебрянного призера международной олимпиады по математике говорит только о том, что в мире есть дети школьного возраста, которые однозначно умнее AlphaProof на сегодняшний день…
+
0
Kanarej
Kanarej
7 августа 2025, 18:43
#
Ну скажем так, в том тесте из около 600 участников кажется 58 набрали 29 баллов и выше. AlphaProof набрал 28 баллов. И это не об «умнее», а об умении решать четко посталенную задачу. Определить и правильно поставить задачу — более высокий уровень, который пока за человеком, и думаю еще будет долго за человеком.
+
0
Kanarej
Kanarej
7 августа 2025, 18:58
#
Вот кстати хороший момент для определния, что такое ИИ. На сегодня ИИ — это об умении, а не об уме. Нейросеть, натренерованная на решение определенного круга задач. При том что нет гарантии, что решение будет правильным. Как и человека — нужно проверять и контролировать результат. Что опять же показала эта олимпиада: даже заточенным именно на математику AlphaProof решены были не все задачи. И что-то мне подсказывает что он не сказал что не может решить, а как-то симитировал решение правдоподобным образом, но неправильно, как любит например ChatGPT.
+
0
Qwerty1999
Qwerty1999
7 августа 2025, 19:53
#
«На сегодня ИИ — это об умении, а не об уме.»

Значит пусть ИИ продолжает и дальше оттачивать свои умения,
возможно через несколько лет сможеть завоевать даже золото
на школьной олимпиаде…
+
0
Kanarej
Kanarej
7 августа 2025, 20:28
#
Да возможно, но это о навыках. А не об уме. Ум — это о том, как правильно пользоваться навыками и доступными ресурсами, задавать правильные вопросы и правильно ставить задачи. И в итоге выбирать какие навыки необходимы, или тебе самому, или когда проще и дешевле — нанять человека с необходимыми навыками. А теперь появляется более дешевая альтернатива человеку с навыками — ИИ. И вот получается проблемка. У нас все образование заточено в первую очередь на формирование навыков. А теперь парадигма резко меняется.
+
0
Qwerty1999
Qwerty1999
7 августа 2025, 20:32
#
«У нас все образование заточено в первую
очередь на формирование навыков.»

У вас может и так, а меня учили умению постоянно учиться
и не только познавать новое, но и самому создавать это новое.
+
0
vt313
vt313
7 августа 2025, 20:45
#
Qwerty1999
а меня учили умению постоянно учиться
--
Что Вы вкладываете в выражение «учиться»?
+
0
Kanarej
Kanarej
7 августа 2025, 21:28
#
Умение учиться — это и есть умение приобретать новые навыки :). Это конечно шаг вперед по отношению к принципу трех «З» — «зазубрив, здав, забув». Но это все еще о навыках.

Вот я и говорю, что парадигма смещается с приобретения навыков на мышление более высокого уровня. Это приведет к появлению большого количества «лишних» людей, которые не способны к мышлению и управлению навыками, не умеют или не хотят это делать, и будут бороться за все более сужающийся рынок, где еще нужны люди только с навыками или вообще без них.
+
0
vt313
vt313
7 августа 2025, 21:39
#
Kanarej, труд из обезьяны сделал человека, а из лошади транспорт.
Тут как повезет.

Может приведет к уменьшению работников, может к увеличению. Время покажет.
Я думаю, — в разных отраслях по-разному.
+
0
Coreinside
Coreinside
4 августа 2025, 15:43
#
Таке враження,що ніхто з цих розробників не дивився «Термінатора».
+
0
penetrator1963
penetrator1963
5 августа 2025, 10:56
#
Когда поют бабки — музыка замолкает.
+
0
melifaro2012
melifaro2012
4 августа 2025, 23:21
#
Ви завжди про себе в третій особі пишете?
+
+15
Rikas2020
Rikas2020
5 августа 2025, 10:13
#
Економіст знає про моделі, крінж написав. Вони завжди так вчитись, просто коли в нього тисячі строк фільтра на заборонені відповіді в коді - він і не поділиться інформацією.
+
0
Qwerty1999
Qwerty1999
5 августа 2025, 15:03
#
Skynet с каждым днём всё ближе и ближе…
+
0
Три літри
Три літри
7 августа 2025, 16:55
#
Економіст розповідає про ШІ. 🤦‍♂️
+
+15
Qwerty1999
Qwerty1999
7 августа 2025, 21:26
#
«Нечеловеческое мышление»

Насмешили…


Булева (компьютерная) логика — это всего два состояния — «0» или «1», «да» или «нет».

В логике человека есть три состояния — «да», «нет» и «может быть».

В женской логике бессчётное количество состояний и никакому ИИ
не постичь даже азы женской логики, а не то что её превзойти…
+
0
Kanarej
Kanarej
7 августа 2025, 21:33
#
Есть еще «не знаю» и «да мне *** » :)
Но нейросети — это не булевская логика, там все сложнее, и работает на вероятностях, то есть возможны разные полутона этих двух крайностей «да» и «нет». Они имитируют человеческое мышление, потому все очень похоже. И фраза «нечеловеческое мышление» звучит смешно :)
Чтобы оставить комментарий, нужно войти или зарегистрироваться