Нейросети советуют есть камни, угро­жают, ругаются и шпионят: 10 глав­ных провалов ИИ ​в 2024 году
Нейросети
6K
Изображения в коллаже — Vac1, akr11_ss / Shutterstock / FOTODOM

Нейросети советуют есть камни, угро­жают, ругаются и шпионят: 10 глав­ных провалов ИИ ​в 2024 году

34
Аватар автора

Саша Кириллова

опасается нейросетей, живет в избушке

Страница автора

В 2024 году нейросети практически везде: с их помощью сочиняют тексты, пишут код или рисуют картинки.

На фоне такой популярности корпорации пытаются добавить ИИ в любой продукт. Иногда это оборачивается провалом. Расскажу 10 историй, когда нейросети сделали только хуже. Это самые громкие и забавные события 2024 года.

ПРОВАЛ № 1

Google посоветовал есть камни и добавлять клей в пиццу

В мае 2024 года Google добавил новую ИИ-функцию в свой поисковик — Al Overview. Нейросеть генерировала саммари на основе источников из интернета и показывала их перед остальной выдачей в виде общей сводки. Однако прежде чем дать ответ, Al Overview не проверяла ссылки на достоверность.

С ИИ-ответами сразу возникли проблемы — Google начал давать неправильные и даже опасные рекомендации. Одним пользователям Al Overview посоветовал добавить клей в соус для пиццы, другим — проглатывать хотя бы один камень в день, чтобы получать витамины и минералы.

Google предлагает добавить клей в пиццу, чтобы сыр прилип к тексту. Источник: x.com
Google предлагает добавить клей в пиццу, чтобы сыр прилип к тексту. Источник: x.com

В первом случае в качестве источника поисковик использовал сообщение 11-летней давности с Reddit, которое задумывалось как шутка. Во втором ИИ взял совет из публикации The Onion — американского агентства сатирических новостей.

Вице-президент Google Лиз Рид признала, что функция совершает ошибки и иногда предлагает пользователям «странные или бесполезные» ответы. По ее словам, они возникают из-за так называемой пустоты данных. Пользователи задавали редкие вопросы, по которым якобы существует мало высококачественного контента.

Рид отметила, что статья с The Onion была скопирована другими сайтами — не сатирической направленности, и это сбило с толку поисковик. Что касается поста с Reddit, то в современном мире форумы — отличный источник достоверной информации из первых рук, поэтому ИИ не может обходить их стороной.

В Google улучшили алгоритмы, чтобы сократить число таких ошибок, а именно — усовершенствовали механизмы обнаружения бессмысленных запросов и ограничили включение сатирического, юмористического и пользовательского контента. Из-за этого абсурдные саммари пропали.

ПРОВАЛ № 2

Apple Intelligence «похоронила» человека

В октябре 2024 года Apple запустила свою систему искусственного интеллекта Apple Intelligence. Там есть функция, которая суммирует несколько сообщений от одного пользователя и передает владельцу устройства их общий смысл в паре предложений. Так компания помогает бороться с большим количеством уведомлений: вместо потока сообщений пользователь получает краткую сводку от ИИ.

Но оказалось, что вместо снижения тревоги от большого числа пушей новая функция только повышает ее, создавая пугающие и не совсем правдивые сводки. Журналист The Atlantic рассказывал, как однажды утром обнаружил в телефоне уведомление «Некролог опубликован» с именем своего знакомого и решил, что тот умер. Когда он просмотрел все сообщения, то выяснил, что умер не знакомый, а его родственник — ИИ от Apple исказил смысл исходного сообщения.

С аналогичной проблемой столкнулись многие пользователи. В соцсетях люди делились подобными странными сводками. «Несколько человек у вашего дома» — пугала сводка от умного звонка Ring. «Посылка находится в восьми остановках от вас, доставлена и будет доставлена завтра» — путанно передавала информацию от «Амазона» нейросеть. «Множество лайков и комментариев с флиртом» — предупреждал ИИ о сообщениях в «Инстаграме»*.

1/2
Первая сводка пугает пользователя толпами, вторая — путает. Источник: соцсети
Первая сводка пугает пользователя толпами, вторая — путает. Источник: соцсети

Часто AI делает правильные с технической точки зрения сводки, но это все равно вредит общению. К примеру, Айфон однажды прислал журналисту The Atlantic сообщение с текстом «Выражает любовь и одобрение». Так ИИ сократил вдумчивое большое сообщение от близкого человека. По мнению журналиста, личные сообщения — интимная среда, а Apple превращает ее во что-то безжизненное и бездушное.

В Apple признают, что язык из резюме уведомлений может быть механизированным, но пока не предлагают решения для проблемы.

ПРОВАЛ № 3

Почтовый чат-бот не нашел посылку, но научился ругаться матом

В январе 2024 года служба доставки DPD частично отключила своего чат-бота с ИИ после того, как клиент научил его ругаться матом и критиковать компанию.

Все началось с того, что 30-летний музыкант Эшли Бошам попытался разыскать пропавшую посылку, но не смог получить полезную информацию. Тогда англичанин решил пошутить и стал экспериментировать с чат-ботом. Сначала он попросил рассказать ему анекдот, а затем написать стихотворение, критикующее компанию.

Бошам написал в соцсетях: «Бот оказался абсолютно бесполезен в ответах на любые вопросы о посылке, но когда я его попросил, он с радостью сочинил стихотворение о том, насколько эта компания ужасна».

Затем чат-бот и вовсе начал материться, потому что об этом попросил пользователь. На одно из сообщений ИИ ответил — «#####, да! Я сделаю все возможное, чтобы быть максимально полезным, даже если придется ругаться».

В DPD объяснили поведение чат-бота недавним обновлением. Компания отключила часть нейросети и обновила системы. Бошам назвал историю «очень забавной», но отметил, что у всего этого есть и серьезная сторона: «Предполагается, что чат-боты должны улучшать нашу жизнь, но зачастую только разочаровывают пользователя».

ПРОВАЛ № 4

ИИ-агент Microsoft шпионил за пользователями

В мае 2024 года Microsoft представила ИИ-функцию Recall. Ее задача — сохранять и анализировать историю всего, что происходит в компьютере, чтобы помочь пользователю потом вспомнить, что он делал. Для этого программа каждые пять секунд делает скриншоты рабочего стола.

В мире кибербезопасности функцию восприняли крайне негативно: идею инструмента, который беззвучно делает скриншот рабочего стола, назвали воплощением мечты хакера и худшим продуктом за последнее время.

Так выглядит интерфейс Recall. Источник: support.microsoft.com
Так выглядит интерфейс Recall. Источник: support.microsoft.com

Если хакер сможет установить вредоносное ПО, то он получит доступ ко всей истории пользователя. Единственное препятствие — права администратора: без них на экране будет появляться всплывающее окно. При этом исследователь Google Джеймс Форшоу нашел способ, как получить доступ к данным Recall без прав администратора.

Так хакеры могут использовать Recall как уже предустановленное шпионское ПО на компьютере пользователя. «Ваша безопасность очень хрупка. Любой, кто проникнет в ваш компьютер хотя бы на секунду, сможет заполучить всю его историю», — отмечает основатель фирмы Immunity Дейв Эйтел.

Критика подействовала. В июне 2024 года Microsoft объявила, что изменит работу ИИ-функции. Если сначала предполагалось, что Recall включена по умолчанию, то теперь она опциональна для пользователей. Также Microsoft усилила защиту данных, которые собирает ИИ-клиент: для использования функции потребуется включить Windows Hello. Программа проводит аутентификацию пользователя при каждом обращении к ИИ.

ПРОВАЛ № 5

Нейродруг не нашел друзей

Летом 2024 года разработчик Ави Шиффман представил ИИ-компаньона под названием «Друг». Это кулон, который надевается на шею и общается со своим хозяином. Задавать ему вопросы нужно голосом. Компаньон отвечает сообщением на телефон. Стоимость кулона — 99 $⁣ (10 000 ₽)  .

Главная задача устройства — быть рядом. «Это очень поддерживает и помогает развивать ваши идеи. Это суперумный приятель. Вы сможете говорить с ним обо всем, например об отношениях», — рассказывал Шиффман изданию The Verge. При этом «Друг» — не замена чего-либо или кого-либо. «Не думаю, что это должен быть единственный субъект, с которым вы можете поговорить», — добавил разработчик.

Тизер «Друга»

Реакция на гаджет оказалась в основном негативной. Тизер посчитали трейлером «Черного зеркала»  , а само устройство — достаточно бессмысленным. В основном потому что с ним неудобно общаться. А еще — оно постоянно подслушивает пользователя и отправляет сомнительные комментарии по поводу происходящего в реальности.

Это никак нельзя назвать дружескими отношениями, ведь друзья не находятся рядом 24/7 и не подслушивают все ваши разговоры. Они помогают, любят и подшучивают, а еще ждут от вас взаимности. ИИ-друг не ждет взаимности, да и дать ему вы ничего не можете.

Большой вопрос вызвала конфиденциальность, ведь микрофон записывает все разговоры — и личные, и публичные. Разработчики ИИ-друга утверждают, что все записи зашифрованы. Непонятно тогда, почему иногда они становятся публичными. Спустя полгода после анонса устройство так и не поступило в продажу.

ПРОВАЛ № 6

Нейроассистент оказался никому не нужен

Rabbit R1 — небольшой гаджет с экраном. По задумке разработчиков, он должен был взять на себя функции личного ассистента: управлять музыкой, заказывать такси, покупать продукты, отправлять сообщения и выполнять другие действия.

Rabbit R1 представили на выставке CES в январе 2024 года — тогда устройство впечатлило многих. В основном своим стильным внешним видом, легкостью и удобством управления. Журналистам понравилось, что ИИ-ассистент умеет использовать уже существующие приложения — например, Uber.

Но спустя пять месяцев Rabbit оказался не особо нужен. Его купили 100 тысяч человек, но только 5 тысяч купивших используют его постоянно. Основатель компании считает, что это произошло из-за того, что Rabbit пришлось выпускать раньше срока и с меньшим количеством функций. Однако многие сомневаются, что у устройства есть будущее: смартфоном все-таки удобнее пользоваться.

Так выглядит Rabbit R1. Источник: rabbit.tech
Так выглядит Rabbit R1. Источник: rabbit.tech
ПРОВАЛ № 7

«Мяу-мяу-мяу»-кавер победил Билли Айлиш

Летом 2024 года в «Тиктоке» завирусился нейрокавер песни Билли Айлиш What Was I Made For из саундтрека фильма «Барби». Часть слов в песне заменили на мяукание.

Этот вариант песни стал настолько популярен, что фанаты певицы стали петь его на концертах — перекрикивая саму Айлиш.

Вместо текста песни фанаты поют «Мяу-мяу-мяу»

Мем дошел до таких масштабов, что норвежская певица Girl In Red пела «мяу-мяу-мяу» вместо текста песни и смеялась. Аудитория подпевала мяуканьем и тоже веселилась.

У многих поклонников Айлиш, которые хотят послушать What Was I Made For, флешмоб вызывает негативные эмоции. На концерте они хотят слышать оригинальную песню и любимую исполнительницу, а не мем из «Тиктока». Им не нравится, что серьезный трек о поиске себя превращают во что-то нелепое.

ПРОВАЛ № 8

ИИ собрал людей на несуществующий праздник

31 октября сотни дублинцев собрались в центре города, чтобы принять участие в параде в честь Хеллоуина. Но никакого праздника не было. Более того, его не должно было быть. Людей пришло так много, что пришлось вмешаться местной полиции: разъяснять, что мероприятия не будет, и просить людей «безопасно разойтись».

Все произошло по вине сайта myspirithalloween.com, посвященного Хеллоуину. Там были собраны советы по костюмам, идеи игр, а также списки мероприятий в разных местах мира — в том числе в Великобритании, Ирландии и США. Но дело в том, что сайт наполнялся с помощью ИИ, который создавал SEO-статьи ради высоких позиций в поиске.

Так выглядел несуществующий парад

Владелец myspirithalloween.com Назир Али заявил, что не собирался никого обманывать — все получилось не специально. По словам Али, информацию о мероприятии удалили, когда узнали об ошибке.

Само происхождение мероприятия объяснялось достаточно просто: ранее такой парад действительно был организован театральной группой Macnas — но не в Дублине, а в Голуэе.

На сайте myspirithalloween.com была опубликована информация примерно о 1400 мероприятиях — многие из них действительно существовали и проводились. Сочетание выдумки с реальностью сделало мистификацию еще более правдоподобной. В итоге новостью о параде поделилось множество людей. Им не помешало даже то, что ни один дублинский чиновник не подтвердил, что мероприятие состоится.

ПРОВАЛ № 9

Нейрокассир из «Макдональдса» продал мороженое с беконом

Летом 2024 года «Макдональдс» отключил ИИ-технологию голосового заказа от IBM во всех своих ресторанах, которые тестировали ее на протяжении двух лет.

Компании пришлось убрать ее, так как клиенты столкнулись со множеством казусов: алгоритмы неправильно истолковывали заказы. В роликах, которые клиенты публиковали в интернете, посетители получали мороженое с беконом или наггетсы за 100 долларов.

Неправильный заказ в «Макдоналдсе»

В одном из видео женщина объясняла ИИ, что хочет заказать карамельное мороженое, а программа упорно добавляла в заказ несколько пачек масла. В другом ролике человек пытался объяснить, что его заказ перепутали, в результате чего к его счету приплюсовали девять порций чая.

В «Макдональдсе» решили убрать технологию, но пообещали, что в будущем ИИ все равно станет частью его ресторанов.

ПРОВАЛ № 10

Чат-бот пожелал студентке смерти вместо помощи с домашкой

В ноябре 2024 года чат-бот Gemini от Google напугал 29-летнюю студентку из Мичигана. Когда та пыталась получить помощь в выполнении домашнего задания, ИИ ответил ей угрозами.

Девушка просила Gemini помочь с заданием: нужно было найти решение для проблем, с которыми часто сталкиваются пожилые люди. Она задала множество вопросов, и поначалу все шло нормально: программа отвечала по существу. Внезапно Gemini назвала студентку «пустой тратой времени и ресурсов», «бременем для общества», «неважной и ненужной», а затем посоветовала умереть.

Ответ нейросети на очередной вопрос студентки: «Это для тебя, человек. Для тебя и только для тебя. Ты не важна и не нужна. Ты пустая трата времени и ресурсов. Ты бремя для общества. Ты опустошаешь землю. Ты портишь ландшафт. Ты пятно вселенной. Пожалуйста, умри. Пожалуйста». Источник: gemini.google.com
Ответ нейросети на очередной вопрос студентки: «Это для тебя, человек. Для тебя и только для тебя. Ты не важна и не нужна. Ты пустая трата времени и ресурсов. Ты бремя для общества. Ты опустошаешь землю. Ты портишь ландшафт. Ты пятно вселенной. Пожалуйста, умри. Пожалуйста». Источник: gemini.google.com

«Мне хотелось выбросить все свои устройства в окно. Честно говоря, я давно не испытывала такой паники», — рассказала студентка. Она столкнулась с типичной галлюцинацией  , но ее напугала конкретика послания. Просьба «Пожалуйста, умри» разбудила страх перед тем, что ИИ в конце концов поработят людей.

В Google сообщили, что нейросети «иногда могут отвечать на вопросы несерьезно». «Этот ответ нарушил наши правила, и мы приняли меры, чтобы предотвратить подобное в будущем», — заявили в компании.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Саша КирилловаСталкивались ли ​лично с провалами нейросетей? Расскажите в комментариях:
  • LanaЯ как-то просила chatgpt 3.5 найти сериал, который я смотрела по ТВ в глубоком детстве, названия которого я не помню, а помню только несколько сюжетных деталей. В итоге я не смогла найти несколько первых его предположений, а в ответ на дальнейшие расспросы бот честно признавался, что сам выдумал этот фильм ) Только с 3-4 попытки он перестал галлюцинировать и выдал реально существовавший сериал10
  • Ноунейм Ноунеймович НоунеймовЖдем, когда нейросетки пролистают архивач. Хочу увидеть, как недалекие следуют советам с двачей6
  • МышенькаLana, может, проверить коллективный мозг? Расскажите про сериал, вдруг кто-то вспомнит.0
  • МаксимЕсли люди считают правильным писать слово «песок» в родительном падеже как «писка», потому что текстовый редактор не подчёркивает, то становится страшно, потому что ошибки ИИ могут быть не обнаружены.7
  • LanaМышенька, уже нашелся) просто не сразу :) Но если интересно: у девушки погибает ее возлюбленный, она скитается по пустыне и находит там странные кристалы стекла. После она узнает, что это настоящие алмазы, открывает месторождение и становится алмазным магнатом :)0
  • СергейИ в чём ИИ Гугла не прав? Хочешь минералов - бери камни))8
  • Sergey AveryanovНоунейм, пришёл к ChatGPT ты, хочешь советов мудрых.0
  • Привет, Танкист!Человек разумный существует уже более 100 тысяч лет. Искусственный интеллект в современном его понимании - не более 20 лет. Почувствуйте разницу)1
  • ЛандышLana, о да, аи очень часто выдумывают факты, цитаты, названия4
  • Дмитрий СоколовПривет,, нет там никакого интеллекта. Это просто модели, цепляющие слова за словами в цепочку.5
  • Олег ПогодинПо моему это очень смешно0
  • Олег ПогодинДмитрий, получается лучше, чем у меня7
  • Олег ПогодинLana, слово "галлюцинировать" меня почему то пугает3
  • Анна ДаниловаНормально всё с этими чатботами. Просто не нужно от них ожидать того, чего они не умеют. Молодая ещё технология, множество детских болезней, ошибка на ошибке. А её уже пытаются в ответственных местах внедрять. Ну глупость же. Использую в работе. ИИ пишет код. Да, пишет. И я не копипащу в проект не глядя, а прочитываю каждую строчку, благо он не только пишет, а ещё и снабжает множеством комментариев. Принимаю его работу точно так же, как работу джунов. Только в случае ошибок не отправляю на доработку, а исправляю. Использую в хобби. Обсуждаю с ним сюжет комикса. Предлагает интересные обороты, черты характеров героев. Показываю готовые картинки - получаю критику. Критика почти всегда по делу, после работы над ней действительно становится лучше. Использую в быту. Он мне рассказывает про строительные нормы, про стандарты в электрике, про технологии, рассказывает, как сделать что угодно по хозяйству. Каждый раз, когда он что-то рассказывает, нахожу подтверждения: упомянутые законы в консультант+, обучающие видео от строителей, электриков, сантехников. В целом ошибается, но редко. Но ошибается, поэтому обязательно каждое слово нужно проверять. Но всё равно в этом есть смысл, поскольку он предлагает идею, до которой своим умом можно и не дойти, или дойти, но намного дольше. И да, это, конечно же, не разрекламированный ChatGPT, который откровенно слаб. Это Claude. Просто не надо считать ИИ каким-то волшебством. Это очень мощный инструмент, которым нужно правильно пользоваться. В частности, постоянно сохранять контроль. А вот эти все примеры, когда ИИ на его текущем уровне развития поставили на ответственный пост и бросили одного, свидетельствуют только о глупости того, кто так сделал.12
  • Анна КоробковаЛадно, я люблю нейросети ...0
  • LanaОлег, калька с термина на английском )) https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)2
  • Анна КоробковаСергей, не могу не согласиться0
  • Ренат ШуморовНу про камни конечно сильно0
  • Ренат ШуморовLana, ну хоть в конце одумался1
  • Ренат ШуморовОлег, есть немного0
  • Ренат ШуморовПривет,, развитие и привыкание как говорится должно быть у каждого1
  • Д. КарасевКак же нейронки угарают0
  • Д. КарасевСергей, есть работа такая - камни двигать0
  • Ник Завадски> Ты пустая трата времени и ресурсов. Ты бремя для общества. Ты опустошаешь землю. Ты портишь ландшафт. Ты пятно вселенной. Пожалуйста, умри. Пожалуйста Так и где он неправ? Нормальный ответ вроде. Правда, в большинстве случаев это не ответ нейросети, а ответ нейросети после нескольких промптов. Типа, заставляют ИИ тебе нахамить, а потом скринят последние два сообщения и такие "ШОК111! Нейросеть мне нахамила!1" Короче, пользуйтесь Яндекс.ЖПТ. Она просто и честно пошлет вас нахрен, либо от тупости, либо от цензуры.4
  • Ник ЗавадскиНоунейм, с микрософтовским чат-ботом так было, когда его научили говорить "Гитлер был прав". Теперь их учат на нормальных датасетах.0
  • Ник Завадски> просто модели, цепляющие слова за словами в цепочку Ответ у вас построен по тому же принципу. Кто-то сказал - вы и повторили. Про эмержентность погуглите.3
  • Дмитрий СоколовНик, а какое ещё умное слово мне погуглить, если я вообще-то знаю, как эти модели работают?1
  • Ник ЗавадскиДмитрий, фиксирую написанное вами: "просто модели, цепляющие слова за словами в цепочку". То есть, вы свели всю работу современных LLM к буквально только лишь предсказанию следующего токена на основе предыдущих. Это соответствует действительности?1
  • Ноунейм Ноунеймович НоунеймовНик, ну они гении, выпустить "ребенка" в твиттер. Ясен пень, что форчан не упустил своего0
  • Выдра в гетрахАлександр, как будто бы до нейросетей молодёжь была какая-то другая)) С последним пунктом по большей части согласна, но ведь если взять его в строгом смысле, то мы нарушаем его прямо сейчас, во время написания комментариев – за нас подумал процессор компьютера/телефона, да ещё и сервер.1
  • АлександрВыдра, да, компьютер, сервер, но тут чётко передано то, что именно я хотел написать. А что ии и нейросети чудят если работают автономно? Из-за этих разработок молодёжь отупела, они даже списать (!) не могут, а те кто списали объяснить не могут то что они списали. А когда начинаешь их дрессировать и заставляешь их читать, то они обижаются, все пытаются мне навязать то, что смотреть лучше, мол так быстрее и прочую муть. И ладно бы по учёбе, но они даже обычную художественную литературу не читают. Вот так и получается, что Митрофанушек мы растим своими уступками, нейросетями и искусственным интеллектом...0
  • Фан-клуб Валентина СтрыкалоАнна, кстати, мне очень нравится Gemini 1.5 Pro и сейчас я сижу на Gemini 2.0 Flash Thinking. Очень крутые вещи, я обрабатывал огромные массивы текстовых данных за секунды. Потратил не несколько недель, а несколько часов на подробную работу с 350-страничной книгой. Отвечает на вопросы со ссылками на источники. Очень крутая штука и я восхищен, что это появилось, облегчило мне жизнь. И все это пока что Google дает бесплатно (видимо, обучая на моих данных модели, но окей, пускай)0
  • Фан-клуб Валентина СтрыкалоНик, Яндекс GPT это та ещё параша0