Как мы использовали нейросети в рекламе и увеличили показатели за месяц в пять раз

28
Как мы использовали нейросети в рекламе и увеличили показатели за месяц в пять раз
Аватар автора

Саша Намдаков

старший таргетолог в Т⁠—⁠Ж

Страница автора
Аватар автора

Наташа Тищенко

второй пилот-таргетолог в Т⁠—⁠Ж

Страница автора
Аватар автора

Лев Переулков

редактор и дизайнер Т⁠—⁠Ж

Страница автора

В Тинькофф Журнале уже несколько месяцев продолжается эксперимент: для некоторых статей обложки генерируют в нейросетях.

Они достаточно просты в использовании — можно с ходу создавать сносные проработанные изображения. Но действительно качественные генерации получаются не сразу: нейросеть нужно тщательно настроить под свои запросы, в идеале — дообучить. Иначе получится не то, что нужно, а скорее неконтролируемая фантазия на тему.

Первые наши обложки получились крайне удачными — их можно увидеть в материалах о бизнесе и психологии.

Поэтому мы решили провести эксперимент: сделать несколько рекламных плакатов для курсов Учебника Т⁠—⁠Ж и посмотреть, что сработает лучше всего.

Спойлер: победило аниме.

Какую нейросеть мы выбрали

В генерации обложек мы пробовали разные модели. Например, есть Midjourney — довольно простая в использовании нейросеть. Она генерирует красочные изображения по простым запросам, и для нее не нужен мощный компьютер: картинки создаются на серверах разработчиков.

Так что Midjourney — это хорошая точка вхождения для тех, кто до этого с нейросетями вообще никак не работал. Но она платная, а ее возможности ограничены.

В других случаях пробовали Stable Diffusion. На данный момент это самая продвинутая нейросеть для генерации картинок. В ней можно создавать качественные изображения с детальной настройкой практически всего, а еще она полностью бесплатна.

К тому же открытый исходный код позволяет дообучать Stable Diffusion на своих картинках. Но для нее нужен мощный компьютер и время, чтобы разобраться во всех тонкостях. Придется потратить немало времени на гайды.

Мы выбрали как раз Stable Diffusion. У этой нейросети сейчас есть ограничения, которые надо учитывать: нельзя сгенерировать текст на иллюстрациях или сложные объекты вроде купюр. Лучше всего получается стилизация.

Один из баннеров, который мы сделали в Stable Diffusion. Стиль — фотореализм
Один из баннеров, который мы сделали в Stable Diffusion. Стиль — фотореализм

Как нейросеть может пригодиться в рекламе

Возникла идея — использовать Stable Diffusion для A/B-тестирований. Это такие маркетинговые исследования, которые помогают на практике проверить, какая реклама лучше себя показала.

В нашем случае это работало так. Мы создавали разные визуализации одного и того же баннера, а затем запускали рекламу. После смотрели, какой баннер сработал лучше всех, и делали для него еще несколько вариаций. И повторяли этот цикл до тех пор, пока не получали нужных нам показателей переходов по рекламе.

Мы в Учебнике Тинькофф Журнала рекламируем самые разные курсы, и для каждого нужен свой подход. Без нейросетей A/B-тестирование подразумевало постоянное вовлечение дизайнеров. Но они тоже живые люди и не могут делать по десять иллюстраций за день — особенно когда речь о детализированных картинках в самых разных стилях.

Нейросети решают эту проблему: можно в течение дня сгенерировать десять уникальных картинок, на которые человек потратил бы больше недели.

Если иллюстратор сделает рисунок в стиле аниме день, то предварительно подготовленная нейросеть справится за три секунды. Здесь особенно хорошо помогает такая фишка, как дообучение моделей.

Как устроена Stable Diffusion

Stable Diffusion — нейросеть с открытым исходным кодом, которая появилась летом 2022 года. Поначалу у нее даже не было удобных «оболочек», то есть ее нельзя было запустить как любую другую программу с интерфейсом, приходилось работать через командную строку. Сейчас все стало намного проще.

Например, вот так выглядит интерфейс Stable Diffusion. Настроек много, но основная работа идет с запросом — промтом. Есть два поля для текста: в первом — что хочешь получить, во втором — чего не должно быть в генерации.

Еще есть количество шагов — от него зависит, насколько долго нейросеть генерирует изображения. За одну итерацию она не сильно обработает шум, поэтому 20 — оптимальное значение. Для фотографий иногда нужно больше
Еще есть количество шагов — от него зависит, насколько долго нейросеть генерирует изображения. За одну итерацию она не сильно обработает шум, поэтому 20 — оптимальное значение. Для фотографий иногда нужно больше

Важное преимущество Stable Diffusion в том, что модель можно дообучить на собственном наборе картинок, или датасете. Изначально нейросеть уже обучена на тысячах других изображений, но если хочется добиться определенной стилизации, придется создавать свои модели с датасетами.

В интернете можно найти пользовательские модели. Среди них есть 3D, винтажные кадры, вышивка, классическая анимация и даже безумный вариант на основе Liquid Television с MTV — передачи, где транслировали андеграундные мультфильмы и анимацию.

Мы тестировали десятки разных моделей, чтобы плакаты для баннера были разнообразнее. Но на этом не остановились и сами обучили три модели: на простых иллюстрациях, кадрах с «Пинтереста» и экспериментальной живописи.

Дообучение одной модели на ноутбуке с видеокартой 3080 RTX 16 Gb занимает полтора часа. Еще пару часов — подготовка датасета из 40 изображений. Несколько моделей получились неудачными: векторные иллюстрации генерировались плохо. А однажды Stable Diffusion выдал ошибку и заставил почти что рыдать. Модель полтора часа дообучалась, надо было использовать день в день, а в итоге ничего не сработало. Стоило запустить обучение заново — все стало хорошо. Но времени потеряли прилично.

Всего с начала эксперимента мы использовали 12 разных моделей.

Какие у нас получились баннеры

Мы не получали готовых изображений с первых же запросов. Сначала генерировали от 5 до 10 квадратных иллюстраций, а затем растягивали их до вертикального формата так, чтобы сохранить композицию. Исправляли недостатки: ошибки в анатомии, негармоничные цвета или артефакты. Склеивали варианты, которые хорошо сочетались.

В целом для одной хорошей иллюстрации мы генерировали 30—100 картинок — это занимало около получаса. Но чем дальше, тем легче. Больше всего времени уходит на поиск идей, поэтому иногда мы отказывались от образов, которые сложно генерировать, или же уходили совсем в другую сторону.

Как выглядит процесс генерации
Как выглядит процесс генерации

Еще мы использовали img2img, чтобы добавить текст или сложные объекты. Это метод, при котором нейросеть обрабатывает другое изображение. Например, с ним можно загрузить фотографию кота, выставить коэффициент изменения и написать, что нужно сгенерировать, скажем, рисунок на бумаге. И получится тот же самый кот, но будто нарисованный от руки.

Для img2img мы делали грубые коллажи, а потом загружали их в Stable Diffusion. Так мы получили генерации, которые сложно назвать искусственными.

Также задействовали иллюстрации в стилистике аниме. Раньше мы их никогда не использовали, потому что рисовать такое самостоятельно слишком дорого и долго. Интересно, что мы генерировали той моделью, которая, скорее всего, лежит в основе того вирального китайского приложения.

Сгенерировали телефон, добавили текст руками, загрузили в нейросеть и опять сгенерировали
Сгенерировали телефон, добавили текст руками, загрузили в нейросеть и опять сгенерировали

Первые результаты в рекламе

Наши эксперименты с нейросетями мы начали с курса Учебника «Как быть взрослым». Это новый курс, поэтому в январе 2023 года мы поставили себе цель привлечь в пять раз больше студентов, чем в декабре.

В течение нескольких дней мы создали в Stable Diffusion 23 новые визуализации — и сразу же отправили на A/B.

Примеры баннеров, которые мы отправили в таргет
Примеры баннеров, которые мы отправили в таргет

Эксперимент оказался по-настоящему успешным. Изначально мы рассчитывали, что приблизимся к заветным цифрам лишь через три-четыре итерации тестирования. Но нужные нам показатели получились в первой же итерации. Примерно треть баннеров дала нужный нам CTR — это доля кликнувших пользователей от всех тех, кто увидел рекламу. А конверсия оказалась в районе 25—30%.

Топовым баннером оказалась картинка с девушкой в аниме-стиле на фоне здания МГУ. Он сработал в два-три раза эффективнее, чем все остальные баннеры в среднем.

Мы ее назвали МГУ⁠-⁠тян
Мы ее назвали МГУ⁠-⁠тян

Наши выводы

Мы думаем, что в будущем маркетинг станет работать именно так, но уже полностью автоматизированно. За февраль сгенерировали 46 уникальных плакатов — и без дизайнеров.

Через пять лет концептуальные проблемы диффузионных нейросетей наверняка решат, а это значит, что все больше компаний начнут экспериментировать. Вряд ли дизайнер за день нарисует аниме в стиле студии Гибли или оформит фотореалистичный коллаж под Рене Магритта.

Но нейросети не заменят иллюстраторов. Этот эксперимент был бы невозможен без отбора и доработки. К тому же не получится генерировать баннеры с текстом или самим продуктом — это серьезное ограничение.

По сути, то, чем мы занимались, — наполовину автоматизированное A/B-тестирование. В ходе отбора лучшие иллюстрации показывают себя и самоулучшаются. Если это автоматизировать полностью, то реклама будет все лучше и лучше подстраиваться под целевую аудиторию — сама по себе.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult.

Александр Намдаков
Как вам кейс?
Комментарии проходят модерацию по правилам журнала
Загрузка

Сообщество