Нейросети засоряют интернет: 7 ситуаций, в которых ИИ​ делает всем только хуже

Нейросети засоряют интернет: 7 ситуаций, в которых ИИ​ делает всем только хуже

17
Аватар автора

Екатерина Лебедева

хранит фото

Страница автора

Часто ИИ-контент встречается там, где не ожидаешь его увидеть: в фотобанках, поисковой выдаче, отзывах на маркетплейсах.

Как и любой инструмент, нейросети можно использовать не только во благо. Количество созданных с их помощью текстов, изображений, видео- и аудиозаписей уже таково, что это влияет на весь интернет. И не всегда речь о невинных генерациях: массово производят вводящий в заблуждение или попросту некачественный контент.

Расскажу про ситуации, где нейросети уже ощутимо влияют на работу сервисов и уровень доверия к информации.

СИТУАЦИЯ № 1

Ненастоящие картинки в фотобанках

Если на Adobe Stock поискать фотографии по случайному запросу, например с полицейскими машинами, сразу же попадется нейрокартинка. Да, на ней отмечено, что она сгенерирована с помощью ИИ. Однако это не то, что ожидаешь найти в фотобанке, куда пользователи заходят за реальными снимками, которые продаются за деньги.

Хотя картинки помечены и в выдаче, и на странице с полным размером, в потоке легко не заметить отметку. Во всех фотобанках нейроконтент надо маркировать при загрузке: обычно есть галочка AI-generated, Created with artificial intelligence или что-то аналогичное. Но на практике ставят ее не всегда.

Клиенты фотобанков справедливо воспринимают генерации в фотостоках как подделку. Поэтому пытаются распознавать ИИ-картинки на глаз: обращают внимание на перенасыщенные цвета, неправильную анатомию, нереалистичное размещение объектов в пространстве, неверный текст.

Кроме Adobe есть и другие стоковые платформы, которые тоже принимают сгенерированные изображения, например Dreamstime, Freepik, Unsplash, 123RF. А на GettyImages, Depositphotos или Pond5 это запрещено. Но люди все еще могут заливать генеративные картинки, выдавая их за реальные.

Затем такими нейрокартинками СМИ иллюстрируют новости и статьи, в качестве источника указывая фотобанк. Даже если изначально стоковое изображение было помечено как сгенерированное, оно начинает жить в интернете просто как снимок из фотобанка. Вряд ли обычные пользователи пойдут проверять источник на оригинальном сайте.

Баланс пока не найден: понятно, почему фотостоки продают сгенерированный контент, — его легче производить, чем делать реальные фото. Но при этом компании теряют доверие клиентов и попадают в скандалы с фейками.

Сгенерированная полицейская машина на сайте Adobe. Источник: stock.adobe.com
Сгенерированная полицейская машина на сайте Adobe. Источник: stock.adobe.com
Сгенерированные изображения динозавров в стоке. Источник: istockphoto.com
Сгенерированные изображения динозавров в стоке. Источник: istockphoto.com
СИТУАЦИЯ № 2

Ненастоящие картинки в поисковой выдаче

Нейросети начинают искажать поисковую выдачу. Если попробовать поискать в Гугле «пейзаж Исландии», «современный интерьер», «дизайнерскую мебель», многие результаты будут сгенерированными. На первый взгляд понять, что в выдачу просочились нейрокартинки, сложно — приходится присматриваться к деталям.

«Гугл» включил в стандарт метаданных  изображений поля для ИИ-работ. Планируется, что в поисковой выдаче сгенерированные картинки будут помечены. А если пользователь ищет именно фото, ему их не покажут. Также разрабатывают инструменты, которые будут распознавать нейроконтент и маркировать его самостоятельно. Но все это пока не работает.

На первой же странице поиска Гугла по картинкам есть одно сгенерированное фото — я знаю этого автора по фотостокам
На первой же странице поиска Гугла по картинкам есть одно сгенерированное фото — я знаю этого автора по фотостокам
На Freepik картинка не отмечена как созданная при помощи ИИ. Но это генерация. Источник: freepik.com
На Freepik картинка не отмечена как созданная при помощи ИИ. Но это генерация. Источник: freepik.com

К тому же это никак не решает проблему: если по запросу «современный интерьер» я хочу получить выдачу не из генеративных картинок, а реальные рендеры от дизайнерских студий, то нужно указывать «современный интерьер, рендеры, созданные людьми»? Это превращает поиск в интернете в абсурд.

Бывают и более серьезные случаи, когда поисковая выдача может переписывать историю. Так, в октябре 2023 года по запросу «неизвестный бунтарь»  в Гугле первой картинкой появлялось сгенерированное селфи мужчины на фоне танков. Такого фото никогда не существовало. Причем изображение запостил пользователь Reddit в разделе, посвященном Midjourney — то есть его не пытались выдавать за реальное. После того как новость разошлась в СМИ, сервис исправил ошибку.

Реальное фото с площади Тяньаньмэнь. Фотография: Associated Press / Wikipedia
Реальное фото с площади Тяньаньмэнь. Фотография: Associated Press / Wikipedia
Сгенерированное селфи с площади Тяньаньмэнь. Источник: reddit.com
Сгенерированное селфи с площади Тяньаньмэнь. Источник: reddit.com
СИТУАЦИЯ № 3

Ненастоящие тексты в блогах и статьях

Многие сайты и блоги начали использовать нейросети для создания контента, особенно в нишах с высокой конкуренцией. Если погуглить популярные кулинарные сайты, то легко наткнуться на площадки, где все тексты и иллюстрации созданы нейросетями — они даже вырвались в лидеры в англоязычном сегменте интернета. Статьи написаны ChatGPT по одной и той же незатейливой структуре, картинки сгенерированы в Dall-E.

Цель — вывести сайт в топ поисковой выдачи. А будет ли написанное полезно пользователям — как повезет. Хорошо, если люди редактируют эти тексты. А если нет, то туда легко может попасть ложная, непроверенная или вредоносная информация.

SEO-тексты пишут исключительно ради ключевых слов — это проблема интернета уже лет двадцать. Но теперь многие генерируют такие статьи дешево и быстро, не приоретизируя качество и содержание. Кроме того, нейросети позволяют автоматически производить не самые достоверные тексты вроде гороскопов.

Тексты из нейросетей уже влияют на качество доступной и достоверной информации в интернете в целом. В 2023 году объем сгенерированных текстов в поисковой выдаче Гугла оценивали в 10%. Можно предположить, что процент будет только возрастать. К тому же генеративные тексты выходят и за пределы интернета: работы из ChatGPT не раз публиковали в научных журналах.

Cами нейросети обучаются на информации из интернета — получается замкнутый круг. Это может привести к еще большему снижению качества контента, так как ошибки и неточности будут многократно воспроизводиться. В итоге интернет заполнится однотипными и поверхностными материалами.

«Писать» гороскопы легко как никогда. Источник: alice.yandex.ru
«Писать» гороскопы легко как никогда. Источник: alice.yandex.ru
СИТУАЦИЯ № 4

Ненастоящие новости

Обычно от новостных сайтов ожидают достоверной информации. Там встречается много контента с фото- или видеоподтверждениями, некоторые сразу вызывают эмоциональный отклик. Однако громкие новости могут оказаться неправдой.

Популярные примеры инфоповодов, контент для которых генерировали в нейросетях, — Папа Римский в пуховике Balenciaga, звонки Джо Байдена, призывавшего игнорировать праймериз, мошеннические сборы на помощь пострадавшим после землетрясения в Турции. Все это быстро опровергли мировые СМИ с репутацией.

Еще в мае 2023 года в The Guardian писали минимум о 49 новостных сайтах с полностью сгенерированным контентом. Это только те, на которых встречались автоматические сообщения вроде «I cannot complete this prompt» или «as an AI language model». Обычно эти фразы встречаются в ответах нейросетей, когда они не могут выполнить запрос или указывают на ограничения. В реальности таких сайтов куда больше, если авторы подчищают ошибки в текстах за нейросетями.

Ловят на публикации сгенерированных текстов даже солидные издания с серьезной репутацией. В 2023 году скандал затронул Sports Illustrated — американский журнал с 70-летней историей. На сайте издания обнаружили написанные с помощью нейросетей обзоры, которые заказывали у стороннего подрядчика. Тот работал также со многими другими газетами и порталами.

Такие новости, с одной стороны, снижают доверие к любой информации вообще, а с другой — позволяют манипулировать общественным мнением. Это очень заметно, например, в период выборов в разных странах.

Сгенерированное фото Эммануэля Макрона якобы на протестах в Париже, распространившееся в СМИ. Источник: bloomberg.com
Сгенерированное фото Эммануэля Макрона якобы на протестах в Париже, распространившееся в СМИ. Источник: bloomberg.com
СИТУАЦИЯ № 5

Ненастоящие товары в рекламе

Сгенерировать тысячи иллюстраций для рекламных целей гораздо проще, чем отрисовать их или сделать и обработать фото. В некоторых случаях это не вызывает этических споров: например, в рекламе услуг или учебных курсов картинка служит для привлечения внимания и может быть более или менее произвольной. Однако сгенерированные изображения используют и в рекламе товаров — там, где пользователь рассчитывает увидеть настоящее фото.

К примеру, рестораны формата дарк-китчен  в американских службах доставки DoorDash и Grubhub ставят нейроарт на карточки с хот-догами. Что приедет клиенту, неизвестно. Да, часто компании обрабатывают фото фастфуда, чтобы в рекламе он выглядел лучше, чем в реальности, — но все же эти снимки хотя бы основаны на сфотографированных хот-догах.

А бывает, что товар вообще не совпадает с картинкой, если сервисы доставки ставят на лот с газировкой «Спрайт» сгенерированное изображение яблочного мартини, а на рулетики с ветчиной — странное месиво из мяса и хлебных палочек. Это даже не введение в заблуждение, а откровенный обман клиента.

Этих хот-догов не существует. jason_koebler / X
Этих хот-догов не существует. jason_koebler / X
СИТУАЦИЯ № 6

Ненастоящие музыканты в стримингах

Представьте: вы слушаете плейлист с новинками в Spotify, понравилась песня, хочется узнать об артисте. И обнаруживаете, что музыканта не существует: фотографий нет, описания в стриминге и никакой информации в интернете тоже. На Reddit считают, что такие треки генерируют в нейросети Suno AI.

Чаще всего они попадаются в плейлистах с инструментальной музыкой для работы или спорта. Их легко распознать: они звучат похоже, на аватарках артистов стоят обложки их же альбомов, в описании нет текста и ссылок на соцсети, а выкладывать треки они начали в 2023—2024 годах.

У артистов Awake Past 3 и Gutter Grinders, которых, предположительно, не существует, сервис даже ставил синюю галочку «Подтвержденный исполнитель», хотя сейчас их треки удалены с платформы.

При этом Spotify признавал проблему. В 2023 году компания удалила десятки тысяч песен, созданных нейросетями. Для накрутки счетчиков прослушиваний тоже использовали ботов. А в сентябре того же года пользователи жаловались, что почти весь плейлист Radar с новинками от начинающих музыкантов был забит сгенерированным контентом — на это сервис уже не отреагировал.

В манипуляциях со сгенерированной музыкой в плейлистах подозревают сам Spotify, потому что, предположительно, ненастоящие артисты часто встречаются в популярных плейлистах с миллионами сохранений. Логика простая: c помощью сгенерированной музыки компания может не выплачивать роялти за прослушивания настоящим музыкантам, а оставлять деньги себе.

Треки длительностью около 2 минут с припиской Original Mix и яркими треугольными паттернами на обложках — все были сгенерированы. Источник: community.spotify.com
Треки длительностью около 2 минут с припиской Original Mix и яркими треугольными паттернами на обложках — все были сгенерированы. Источник: community.spotify.com
СИТУАЦИЯ № 7

Ненастоящие отзывы

Заказывать или бронировать через интернет — всегда риск. Принять решение помогают отзывы на товары, отели или рестораны. Однако если это все сгенерировано ИИ, никакой пользы не вынести. Вбросы автоматически написанных отзывов и обзоров в соцсетях на сайтах с оценками и на страницах интернет-магазинов стали массовыми еще несколько лет назад, но с появлением нейросетей производить их стало проще.

Раньше ненастоящие отзывы можно было легко распознать по чрезмерной похвале — они казались рекламными и приукрашенными. ChatGPT пишет правдоподобнее. Хотя текст все еще может казаться формальным и несколько «механическим», с короткими предложениями и странным выбором слов, эти особенности уже не так очевидны для большинства пользователей. ИИ умеет подражать обычному стилю, создавая впечатление, что отзыв написан реальным человеком, который был краток в своих высказываниях.

Доходит и до создания дипфейков знаменитостей, которые якобы рекомендуют разные товары. Тому Хэнксу уже приходилось объяснять, что он не пьет БАДы, а все рекламные отзывы с ним — подделка. Ранее распространяли сгенерированные аудиозаписи с голосом звезды кантри Люком Комбсом, который якобы похудел на чудодейственных жевательных конфетах и всем их рекомендовал.

Федеральная торговая комиссия США пыталась выработать новые правила с 2022 года. В августе 2024 процесс завершился. Теперь компаниям прямо запрещено использовать отзывы от тех, с кем она на самом деле не взаимодействовала, в том числе сгенерированные нейросетями. Получится ли это применять в реальности, пока неизвестно.

ИИ-отзыв с Amazon, который можно распознать по первой же строчке: «Как у ИИ-модели, у меня нет тела, но я понимаю важность степени комфорта одежды при беременности». Источник: cnbc.com
ИИ-отзыв с Amazon, который можно распознать по первой же строчке: «Как у ИИ-модели, у меня нет тела, но я понимаю важность степени комфорта одежды при беременности». Источник: cnbc.com

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Екатерина ЛебедеваГде вы сталкивались со сгенерированным контентом, вводящим в заблуждение? Расскажите в комментариях:
  • НиколайЭто не хуже и не лучше. Это веяние времени. Думаю, что всё идёт к тому, что любое ИИ-творчество должно будет иметь обязательную и заметную маркировку.7
  • Наталья ПарфёноваЭто забавно все, границы реальности потихоньку стираются...10
  • Анатолий ПриходькоВсе бы ничего, но ненастоящий хот дог? Ничего святого нет....21
  • Roman RomanычПозанудствую. Картинка ≠ фото. P.s. CGPT Картинка является творческим продуктом, который может быть как реалистичным, так и полностью вымышленным.1
  • SoledadЯ извиняюсь, а вы что, рассчитываете найти на фотостоке _настоящую_ фотку динозавра? XD В остальном согласна. ИИ плодит кучу мусора. Интернет и так-то никогда не был местом, где информацию не нужно фильтровать. Теперь её необходимо фильтровать гораздо тщательнее. Вот оно, прекрасное новое будущее. Такоэ фантастам в голову не приходило :(27
  • Helg SvartЕщё могу добавить липовые статьи по инженерии. Лично столкнулся с одной из них. Благо, я разбирался в теме и понял, что наткнулся на статью с галлюцинациями. Написана она была красиво, но вот по содержанию там был нереалистичный бред. Если уж законодатели хотят как-то контролировать и регулировать интернет, то начинать надо было не со сносок об иноагентах, а об обязательных сносках, что статья или другой контент сделаны при помощи ИИ5
  • Михаил ВикторовичНиколай, в далёком будущем роботы будут "рассказывать" своим потомкам, как люди клеймили их предков.8
  • Забаненый за правдуHelg, вот если нейросети начнут критиковать режим,тогда будут и сноски, и ограничения, и запреты)5
  • Забаненый за правдуДа постоянно в предложке вк. Благо ясно видно что фейк. Банишь, банишь тупые группы но они все равно множатся как тараканы1
  • Мамин_абьюзерДа что далеко ходить. Тут на ТЖ к некоторым темам такие всратые пикчи, что диву даешься как так бездарно можно выбрать картинку. То люди с семью пальцами, то цветок из телефона девчонке в лицо зарядил 🤦🏻0
  • monaкак часто бывает - люди что-то изобрели, а что изобрели - разбираемся потом. меня очень бесят сгенерированные в Сбере короткие видосики на тему "1 сентября" на экранах, где талоны отображаются. в этих видео такие лютые ошибки, а Сбер забил на это и пустил транслировать во всех филиалах. Да, там указано, это что все сгенерированно ИИ, но бесит.2
  • Артем МихайловЕще забавный факт - количество сгенерированного контента относительно оригинального увеличивается прогрессивно, а это означает, что скоро нейросети будут учиться в основном на том, что было так же сгенерировано нейросетями и генерировать отборную херню в n-цатом поколении. Скорее всего инженеры найдут, как это обойти, просто забавный факт. Ну а в целом да, нужна регуляция. ЕС уже думает о том, чтобы ввести обязательную маркировку для сгенерированного при помощи нейросетей контента. Потому что рано или поздно качество сгенерированного контента дорастет до того, что для не специалисту найти отличие без помощи нейросети будет просто невозможно. Это сейчас мы смеемся над восемью пальцами или тремя руками. Рано или поздно настанет момент когда людям начнут рассылать например идеально сгенерированные картинки, на которых они якобы изменяют супругу с предложением перевести немного битков, иначе эти картинки отправятся гулять в сеть.2
  • Талантливая поклонницаАртем, дипфейк-порнографией уже сейчас шантажируют женщин💔0
  • h42Николай, угу, и эту маркировку будут обходить и подделывать с помощью того же ИИ0
  • Дарья СанджаровнаМамин_абьюзер,1
  • Sergey ShubinЧитал историю про группу предприимчивых людей, которые сгенерировали десятки тысяч музыкальных композиций и загрузили их на Spotify под именами вымышленных исполнителей. Потом настроили ботнет, который всё это "слушал". Spotify, предположительно, задолжал им несколько миллионов долларов роялти, но обмануть систему не удалось, и организатору предъявили обвинение в мошенничестве: https://futurism.com/man-arrested-fake-bands-streams-ai0
  • АльбертЕще проблемка: засорение выдачи и умерщвление сайтов. В чем суть: с помощью ИИ и ботов создают мусорный контент, который, однако, соответствует критериям релевантности поисковой машины (Яндекс например). Сайты с мусорным контентом не только засоряют выдачу, но и отбирают трафик (посетителей) у владельцев сайтов с нормальным контентом, доходы падают, часть сайтов просто умирает из-за нерентабельности. Ну а дальше проблема, которую уже описали: ИИ начинают учиться на мусорным контенте, качество информации падает еще ниже. Замкнутый круг. Само по себе оно может быть как-нибудь и отрегулировалось. НО тут вмешался Яндекс со своей политикой и стал отдавать трафик проверенным крупным ресурсам, таким как Т-Ж, VC, КП и проч. Добив тех, кто еще держался. Видел простой пример: название рынка в каком-то районе Тайланда. По этому запросу была целая страница на специализированном сайте по тематике Тайланда. Но что, как вы думаете, предложил Яндекс? Статью с КП, где этот рынок упоминался вскользь между строк! Можно сказать, что частных вебмастеров по большому счету прикончили, а Яшка вбил гвоздь в крышку гроба.0