Multi от Минфин
(8,9K+)
Оформи кредит — выиграй iPhone 16 Pro Max!
Установить
30 марта 2026, 19:51 Читати українською

Не доверяйте ИИ: 6 сфер, в которых он точно вам не помощник

Искусственный интеллект сегодня работает рядом со всеми нами практически в каждом рабочем процессе. Но вместе с ощутимым «эффектом ускорения» появилось и ложное чувство: если модель отвечает уверенно и логично, то она якобы «понимает», о чем говорит. Это и есть главная ловушка — иллюзия экспертности. Где проходит предел, когда ИИ стоит доверять, в колонке для ЭП рассказал генеральный директор Lenovo в Украине Тарас Джамалов. «Минфин» публикует ключевые тезисы.

Почему ИИ ошибается

Несмотря на всю технологическую сложность, ИИ не мыслит — он угадывает (я бы даже сказал, очень хорошо угадывает). Его задача — не поиск истины, а построение наиболее вероятного ответа. Из-за этого возникают галлюцинации: модель может быть уверена в утверждении, которое не только ложно, но и порой опасно.

Вторая причина — отсутствие контекста и достаточной базы знаний. Алгоритм не знает особенностей рынка, нюансов корпоративной культуры, логики внутренних процессов или реального поведения людей. У него нет интуиции, он не способен почувствовать тон или мотивацию, не оценивает последствий для репутации.

И третье: модель не несет ответственности. В юридических, финансовых или технических решениях это критично. В недавнем исследовании по применению генеративного искусственного интеллекта в правовой практике Lenovo подчеркивала: ИИ может помогать в подготовке, но не может заменить адвоката или специалиста по комплаенсу.

Где именно ИИ создает иллюзию экспертности

Правовые и HR-политики

На первый взгляд кажется, что модель способна за считанные минуты создать документ, который выглядит так же профессионально, как работа юриста. Однако она не учтет местное законодательство, не будет знать о противоречиях между юрисдикциями и не сможет корректно адаптировать политику под конкретную компанию.

Также ИИ нередко использует устаревшие данные, которые чаще встречались в обучающих наборах данных, чем новые данные. В праве цена ошибки может быть слишком высокой.

Рыночные прогнозы и финансовая аналитика

ИИ прекрасно анализирует прошлые данные и выдает красивые графики. Но стратегические решения основываются не только на прошлом: они зависят от того, что еще только готовится — от регуляторных изменений до поведения конкурентов. Модель этого не видит. Она экстраполирует прошлое и не способна учесть переломные моменты.

Таким образом, под экспертной оболочкой будут скрываться слишком общие тезисы или вовсе ложные тенденции.

Диагностика технических неисправностей

Когда инженер копирует лог ошибки в модель, он ожидает точного анализа. Но алгоритм не знает архитектуры, внутренних связей между системами, конфигураций или аппаратных нюансов. Из-за этого «универсальный совет» может не решить проблему, а только усугубить ее.

Именно поэтому в последний год мы наблюдаем бум персонализированных ИИ-агентов как на личном уровне («я натренировал ChatGPT под себя, скормив ему огромную базу своих данных»), так и на корпоративном уровне.

Такие кастомизированные под конкретную ИТ-компанию ассистенты будут иметь более глубокое понимание решений и процессов, что дает инженерам лучшие результаты на выходе. Потому что только такие, обученные на проверенных «закрытых» наборах данных модели, практически лишены влияния ложной информации и почти не имеют галлюцинаций.

Формирование технических заданий на важные системы

ТЗ — это не просто текст. Это баланс требований, бюджета, рисков, нефункциональных ожиданий и договоренностей между стейкхолдерами. ИИ генерирует красиво оформленный шаблон, но легко игнорирует важнейшие детали: от безопасности и масштабируемости до реальных ограничений команды.

В результате, исполнитель не получит нужных требований и предложит абсолютно неадаптированное под запрос команды решение.

Кризисные коммуникации и деликатные публичные заявления

Алгоритм хорошо работает со стилем, но не чувствует тон, триггеры или этические риски. То, что статистически звучит «нейтрально», в реальности может спровоцировать скандал. В кризисах человеческий опыт всегда сильнее машинного.

То же самое касается текстов: ИИ не может оценить весь масштаб политической и экономической ситуации в стране, так же как и настроения общества. И даже в совершенно невинной теме он может предложить формулировки, которые вызовут возмущение: например, в статье о новогодних праздниках предложить украинцам поездки за границу.

К тому же сейчас многие люди не отличают текст ИИ от текста настоящего человека, воспринимая «машинный текст» как оскорбление или обман.

Креатив и вирусная популярность

Ожидание, что ИИ создаст абсолютно новую концепцию, не совсем верно. Модель работает с тем, что уже существовало. Она не способна породить идею, выходящую за пределы известных паттернов. Культура, эмоции, ирония, контекст — все это пока исключительно человеческое. Тем более, когда речь заходит о «вирусном» контенте, который работает именно благодаря нестандартному, незнакомому до сих пор подходу.

Комментарии

Чтобы оставить комментарий, нужно войти или зарегистрироваться
 
Страницу просматривают 3 незарегистрированных посетителя.