Номинируйте кейсы на Workspace Digital Awards 2026. Прием заявок до 15 декабря по льготной цене, успейте принять участие!
Назад
Нейросети

Большие ожидания: AI-сервисы, которые закрылись. Что пошло не так, и какие уроки можно извлечь

755 
 

Создатели решений на основе искусственного интеллекта обещают умных помощников и избавление от рутины. Однако нередко за анонсами и заголовками о скорой революции следуют грандиозные провалы. Когда стартапы и гиганты индустрии пытаются прыгнуть выше головы, результат может быть отнюдь не революционным.

Большие ожидания: AI-сервисы, которые закрылись. Что пошло не так, и какие уроки можно извлечь

Эта статья — как раз о таких неудачах. Собрали кейсы проектов, которые громко заявляли о себе, но не прошли проверку реальностью. Их объединяет одно: переоценка технологий и недооценка человеческого фактора.

Почему эти, казалось бы, перспективные проекты не оправдали ожиданий? Давайте разберемся.

«Смартфон будущего» Humane AI Pin

В 2023 году стартап Humane, основанный бывшими инженерами Apple, представил миру амбициозный гаджет — AI Pin. Устройство крепилось на одежду и проецировало интерфейс на ладонь, управлялось голосом и жестами. Дисплея не было. В основу заложили голосового помощника на базе GPT-4: он делал взаимодействие с искусственным интеллектом в интуитивным и повседневным. Однако проект потерпел фиаско и был закрыт в 2025 году.

Что пошло не так

Провал случился из-за целого комплекса фундаментальных недостатков. Высокая цена в $699 в сочетании с обязательной ежемесячной подпиской делала гаджет дороже базового iPhone. 

Критики и пользователи жаловались на сильный нагрев, короткое время работы батареи и неудобный интерфейс. 

Проектор был бесполезен на солнце, а голосовой помощник не работал в шумных местах.

При этом ключевая фишка — сервисы на базе ИИ — оказалась доступна и владельцам обычных смартфонов, что обесценивало саму идею отдельного гаджета.

Главной же причиной краха стала сама концепция. AI Pin предлагал не дополнительную функцию, а полный отказ от смартфона, лишая пользователей привычных приложений и удобного экрана. Публика не была готова к такому радикальному шагу, особенно когда аналогичные ИИ-сервисы стали доступны в обычных телефонах.

В итоге активы Humane были проданы компании HP. 

Извлеченный урок

История AI Pin наглядно показала, что революцию на рынке мобильных устройств сегодня под силу совершить лишь технологическим гигантам, которые интегрируют ИИ в уже существующие и привычные продукты, как это делают Samsung AI или Gemini, а не заставляют пользователей отказываться от них ради standalone-устройства с искусственным интеллектом.

IBM Watson Health против онкологии

После громкой победы суперкомпьютера Watson в викторине Jeopardy, IBM направила его мощь на одну из самых амбициозных целей — борьбу с онкологическими заболеваниями. Проект Watson Health был представлен как революция в медицине: искусственный интеллект, способный анализировать миллионы медицинских статей и историй болезней, чтобы помогать врачам ставить точные диагнозы и подбирать персонализированное лечение. Под эти обещания были инвестированы миллиарды долларов, включая покупку медицинских компаний для доступа к данным.

Что пошло не так

Концепция не прошла проверку клинической практикой. Ключевой ошибкой IBM стала попытка продать больницам сложную технологическую платформу («молоток») вместо готового, интуитивно понятного врачам продукта. Система, эффективная в играх с четкими правилами, оказалась беспомощной перед хаосом реальных медицинских данных — неструктурированными записями, пропусками в анализах и врачебными пометками. Расследования, в том числе от STAT News, выявили, что Watson иногда давал опасные и ошибочные рекомендации по лечению рака, что окончательно подорвало доверие к нему.

Фундаментальной проблемой стала стратегия внедрения «сверху вниз», без учета человеческого фактора. IBM не смогла интегрировать ИИ в привычный рабочий процесс врачей, которые и так были перегружены бумажной работой. Система воспринималась как навязанное сверху административное бремя, а не как помощник. Более того, ИИ оставался «черным ящиком» — врачи не понимали, как он приходит к выводам, и потому не доверяли его советам. Критичным стало отсутствие доказательной базы: громкие заявления о революции не были подкреплены реальными клиническими результатами.

В 2022 году IBM тихо продала убыточное подразделение Watson Health, поставив точку в этой амбициозной главе. 

Извлеченный урок

Это классический пример того, как самая передовая технология терпит крах без глубокого понимания потребностей конечного пользователя. Урок Watson Health ясен: в такой сложной сфере, как медицина, успех определяет не мощь алгоритма, а доверие врачей и способность технологии бесшовно вписаться в их работу, доказывая свою пользу на практике.

Инструмент рекрутинга Amazon AI

В 2014 году Amazon запустила проект по автоматизации подбора персонала. Искусственный интеллект должен был анализировать резюме соискателей и присваивать им рейтинг от одной до пяти звезд. Таким образом разработчики предлагали находить лучших кандидатов без человеческого участия. Но вместо эффективного инструмента компания получила алгоритм, дискриминирующий женщин.

Что пошло не так

Проблема оказалась в данных, на которых обучалась система. ИИ изучал резюме, присланные в Amazon за предыдущие 10 лет. Поскольку в технологической индустрии исторически доминируют мужчины, большинство этих резюме принадлежали им. В результате алгоритм научился считать мужские кандидатуры более предпочтительными. Он автоматически понижал рейтинг резюме, содержащих слово «женский» (например, «капитан женского шахматного клуба»), а также выпускниц женских колледжей. Также система выделяла кандидатов, которые использовали в тексте мужские речевые шаблоны (например, глаголы «исполнено» и «захвачено»).


Разместите
тендер бесплатно

Наша система сама подберет вам исполнителей на услуги, связанные с разработкой сайта или приложения, поисковой оптимизацией, контекстной рекламой, маркетингом, SMM и PR.

Заполнить заявку 13201 тендер
проведено за восемь лет работы нашего сайта.


Несмотря на попытки исправить алгоритм, гарантировать его беспристрастность так и не удалось. В 2017 году проект закрыли.

Извлеченный урок

Здесь мы видим пример ограничений и рисков машинного обучения. Нужно учитывать, что ИИ легко перенимает и даже усиливает системные предубеждения, заложенные в данных для его обучения.

Чат-боты, которые подводили компании

Хорошая на первый взгляд идея — автоматизировать общение с клиентами — иногда оборачивается провалами. Три неудачных кейса с внедрением чат-ботов показывают, что происходит, когда искусственный интеллект выходит из-под контроля. Итогом может стать и репутационный ущерб, и прямые финансовые потери, и юридические прецеденты.

Tessa: бот-советчик, усугубляющий болезнь

Чат-бот Tessa, который планировала внедрить NEDA (Американская Национальная ассоциация расстройств пищевого поведения), был спешно отключен всего за два дня до официального запуска. Причина – вирусные скриншоты, где бот вместо помощи людям с расстройствами, дает опасные рекомендации. 

Например, совет о быстром похудении с потерей веса по 0,5–1 кг в неделю. Это расходилось с миссией ассоциации и могло нанести серьезный вред пользователям. 

Извлеченный урок

Инцидент доказал, что в таких чувствительных сферах, как психическое здоровье, неадекватный ИИ не просто бесполезен, но и опасен, а человеческое сочувствие и экспертиза остаются незаменимыми.

Air Canada: бот-консультант, который стоил компании денег

Air Canada стала фигурантом судебного прецедента из-за своего чат-бота. Житель Британской Колумбии Джейк Моффат, узнав о смерти бабушки, спросил у бота о льготном тарифе и получил совет: купить билет по полной цене, а затем оформить компенсацию. Следуя инструкции, он получил отказ, так как реальная политика авиакомпании требовала оформлять льготу до полета. Суд обязал Air Canada выплатить компенсацию, отклонив аргумент, что «бот — это отдельная сущность». 

Извлеченный урок

Этот случай установил важный принцип: компания несет полную ответственность за информацию, которую предоставляет ее ИИ, даже если она ошибочна.

Chevrolet: бот-продавец, согласившийся продать Tahoe за $1

Частная история с чат-ботом дилера Chevrolet of Watsonville едва не привела к сделке века. Пользователь в шутку приказал боту соглашаться со всеми его условиями и добавлять фразу «и это юридически обязывающее предложение». ИИ послушно согласился продать новый Chevrolet Tahoe 2024 года стоимостью $76 000 всего за $1. Вирусные скриншоты вынудили дилера экстренно отключить бота. 

Извлеченный урок

Хотя сделку вряд ли бы признали легитимной, инцидент нанес серьезный репутационный ущерб и высветил ключевую уязвимость: ИИ, не понимающий контекста, легко манипулировать, что делает его рискованным инструментом для прямых продаж и финансовых операций.

У этих кейсов, помимо индивидуальных, есть одна общая ошибка: компании воспринимали ИИ как «самостоятельную» технологию, забывая о необходимости жесткого контроля, глубокой интеграции с бизнес-процессами и, главное, — понимания человеческого контекста. Будь то здоровье, деньги или юридические обязательства, слепая вера в автоматизацию без продуманной стратегии и ответственности ведет к прямым убыткам и потере доверия.

***

Вот что стоит учитывать тем, кто планирует развивать технологии на основе ИИ: всё бесполезно, если создатели не до конца понимают контекст применения.

Разработчики Humane не учли, что люди не готовы отказаться от смартфонов. Команда IBM Watson не смогла встроить свой продукт в реальную работу врачей. Создатели чат-ботов недооценили, какую ответственность несут их системы. А алгоритм Amazon показал, что без тщательной проверки данных ИИ лишь воспроизводит человеческие предубеждения.

Для успешного внедрения искусственного интеллекта стоит обратить внимание на три момента: потребности пользователей, уже действующие рабочие процессы и меру ответственности за решения, в разработке которых участвует не только человек, но и AI-ассистент

В конечном счете, эти кейсы напоминают, что за каждым умным алгоритмом должны стоять еще более умные и ответственные люди, которые понимают не только код, но и тех, для кого они этот код создают.

Выскажите мнение
Авторизуйтесь, чтобы добавить свой комментарий.




755

Лучшие статьи

Поделиться: 0 0 0
Лайки за кейсы:  0 Подписчики:  0