
ИИ без иллюзий: бизнес сталкивается с рисками завышенных ожиданий
Эксперты предупреждают: эпоха «легких побед» в ИИ заканчивается — на первый план выходит экономика проектов и прозрачность алгоритмов.
Хайп против экономики
В материале под названием «Глупость, жадность и прямой маркетинговый обман: тёмная сторона хайпа по «ИИ»» издание pvsm.ru обращает внимание на проблему маркетингового перегрева вокруг ИИ-решений. По оценке автора статьи, значительная часть продуктов под брендом «AI» (искусственный интеллект) представляет собой либо доработанные статистические модели, либо автоматизацию без полноценного машинного обучения.
Автор приводит цитату создателя «Лаборатории Касперского» Евгения Касперского: «Я много лет был категорически против термина «искусственный интеллект». Я объяснял, что это никакой не интеллект. Он искусственный, да, но никакой не интеллект. Это просто умные, хорошие алгоритмы, сложные, но это алгоритмы… Если говорить строго, то ИИ не существует, есть машинное обучение».
В очень развернутой статье автор подробно анализирует все нарративы вокруг ИИ и пытается дон5ести до читателя простую мысль: искусственный интеллект способствует прогрессу и пользоваться им, безусловно, полезно. Но это не освобождает от необходимости критически осмысливать роль и возможности ИИ, а также учитывать риски, которые с этим связаны.
«Сегодня под вывеской ИИ продается всё — от чат-бота на шаблонах до обычной аналитики», — отмечает автор публикации, подчеркивая разрыв между рекламными обещаниями и реальной функциональностью решений.
Между тем глобальные инвестиции в ИИ в 2025 году превысили $150 млрд, а компании массово внедряют генеративные модели в HR, маркетинг и клиентскую поддержку. Однако, по данным Gartner, до 30% проектов ИИ не достигают заявленного экономического эффекта из-за завышенных ожиданий и отсутствия четкой бизнес-метрики ROI.
Проблема особенно актуальна для малого и среднего бизнеса, где внедрение ИИ зачастую происходит без достаточной экспертизы. В результате компании получают рост затрат на инфраструктуру и подписки без измеримого прироста выручки.
Риски для пользователей и компаний
Ключевой риск — подмена понятий и отсутствие прозрачности. Многие решения используют крупные языковые модели, но не раскрывают источники данных, ограничения или потенциальные ошибки.
Эксперты неоднократно подчеркивали проблему «галлюцинаций» моделей. Генеральный директор OpenAI Сэм Альтман заявлял: «ИИ может уверенно выдавать неверную информацию. Пользователи должны понимать ограничения технологии» (источник: https://openai.com/blog).
Для бизнеса это означает репутационные и юридические риски — от публикации некорректных данных до нарушения авторских прав.
Кроме того, сохраняется проблема зависимости от внешних платформ. Если компания строит ключевые процессы на API-сервисах, изменение тарифов или политики поставщика может существенно повлиять на себестоимость продукта.
Что это значит для рынка
Актуальность темы связана с переходом рынка от стадии хайпа к фазе рационализации. Инвесторы и заказчики требуют доказательств эффективности: снижение затрат, ускорение процессов, рост конверсии.
Для пользователей ИИ ключевые рекомендации выглядят следующим образом:
— оценивать не технологию, а экономический эффект;
— требовать прозрачности архитектуры и источников данных;
— тестировать решения на пилотных проектах до масштабирования;
— учитывать долгосрочные издержки инфраструктуры и лицензирования.
Вывод очевиден: искусственный интеллект остается мощным инструментом, но его ценность определяется не громкими заявлениями, а измеримыми результатами. В 2026 году выигрывают не те, кто громче говорит об ИИ, а те, кто умеет считать, советует автор статьи.









