Как распознать текст, написанный нейросетью ChatGPT?

37
Аватар автора

Алексей

спросил в Сообществе

Я учитель литературы. Недавно узнал про сайт ChatGPT: ученики с его помощью пишут сочинения и выдают за свои работы. Можно ли как-то отличить, написал текст человек или нейросеть?

Аватар автора

Евгений Кузьмин

протестировал нейросеть

Страница автора

В теории отличить текст, написанный нейросетью, возможно. Исследователи уже несколько лет занимаются тем, что выявляют паттерны ИИ-текста — находят повторяющиеся слова и закономерности в строении предложений и их средней длине.

Но проблема в том, что языковые модели развиваются быстрее, чем их раскусывают. Еще четыре года назад нейросети не могли нормально связать и трех предложений подряд, а теперь выдают логичные тексты. Поэтому способы определить ИИ-текст быстро устаревают.

Как человек может отличить ИИ-текст

Лучше всего распознать текст, который написала нейросеть, может человек. Все дело в насмотренности: чем больше читаешь текстов, сгенерированных ИИ, тем проще определить такой на глаз.

Если вы хотите научиться их распознавать, главный совет — практикуйтесь. Пользуйтесь генераторами текстов, экспериментируйте с разными моделями, параметрами, стилями. Чем больше вы будете работать с ИИ, тем скорее научитесь видеть характерные особенности и «артефакты» сгенерированных текстов.

Если у вас нет времени на долгую практику, вот несколько советов, которые помогут распознать нейросетевой текст.

Нейросеть пишет слишком конкретно. Например, исследователи из Google Brain еще в 2019 году пришли к выводу, что ИИ слишком часто использует артикль the, потому что работает на предсказание следующего слова в предложении. Но понятно, что этот признак присущ только англоязычным текстам.

ChatGPT уже используют как замену поисковым системам, поскольку она дает вполне конкретные ответы. Но с рассуждениями дела у нее обстоят хуже: на вопросы вроде «Что такое любовь?» ИИ выдаст сухую формулировку, а не попытку проанализировать сложное чувство.

Также нейросеть может очень уверенно написать абсолютную неправду — это называется галлюцинацией. Такое происходит, когда у ИИ недостаточно данных о реальном мире. Поэтому он начинает компенсировать пробел в знаниях выдумками.

Нейросеть опускает контекст и персонализацию текста. ChatGPT не сможет передать опыт конкретного человека — только попытаться имитировать опыт миллионов людей, на чьих текстах обучена модель. Но таким материалам обычно не хватает глубины и авторского ощущения: одно дело — написать шаблонное сочинение по литературному произведению, и другое — рассказать, как ты провел лето.

С экспертностью то же самое. Многие тексты ChatGPT достаточно полезны, но в них нет углубления в тему. Это может сделать только человек с богатым личным опытом.

При этом новая версия языковой модели гораздо лучше работает с контекстом, чем ее предшественники. Поэтому теоретически уже после генерации можно попросить ChatGPT подредактировать текст и сделать его «более человеческим». Но от этого он не станет выглядеть полностью живым. Добиться хорошего результата можно, только если редактурой займется человек.

Вряд ли за такое сочинение в четвертом классе я получил бы отлично
Вряд ли за такое сочинение в четвертом классе я получил бы отлично

Нейросеть пишет большинство текстов по одинаковой структуре. Обычно они состоят из вступления, основной части и вывода. Во вступлении нейросеть представляет тему, дает общий контекст. Основная часть текста состоит из нескольких абзацев, каждый раскрывает отдельный аспект темы. Но переходы могут быть нелогичными, а связь между абзацами — не очень четкой. В заключении нейросеть старается подвести итог, сделать выводы из сказанного. Но они общие и предсказуемые.

Стиль текста безэмоциональный. Нейросетям сложно передавать эмоции, сарказм, иронию, юмор. Поэтому их тексты часто выглядят сухими и формальными по стилю. Еще нейросети обучены быть нейтральными и объективными, поэтому они стараются избегать резких, категоричных суждений. В их текстах мало критики, негативных оценок, субъективных мнений.

В сгенерированном тексте много «воды». Это связано с особенностями обучения нейросетей: они стараются генерировать связные правдоподобные тексты, имитируя стиль и приемы человеческих. При этом нейросети не всегда четко выделяют главную мысль, повторяют одно и то же разными словами, используют ничего не добавляющие к сути фразы. Часто из нескольких абзацев сгенерированного текста вытекает только одна мысль.

Нейросеть не допускает грамматических ошибок. В Google Brain отмечают: люди чаще указывают, что логичный текст без ошибок написал человек. Хотя идеальная грамотность как раз больше присуща ИИ: люди не там ставят запятые, опечатываются, используют сленг и сокращения. Такого уровня имитации нейросети пока не достигли.

Нейросеть может противоречить сама себе. Поскольку она генерирует текст на основе паттернов и статистики, а не глубокого понимания темы, в разных частях текста могут встречаться противоречащие друг другу утверждения. Особенно это заметно в длинных текстах, где нейросеть может «забыть», о чем писала ранее.

Какие сервисы помогут отличить ИИ-текст

С сервисами есть две проблемы. Первая — они нестабильны. Могут определять текст, написанный нейросетью, как оригинальный, а текст, созданный человеком, — как сгенерированный. Например, один из них определил, что Конституция США на 92% создана ИИ.

Вторая проблема в том, что многие сервисы или вообще не работают с русским языком, или плохо с ним справляются и из-за этого не могут правильно определить авторство текста.

Расскажу про несколько вариантов, которые советуют чаще всего. Чтобы их протестировать, я использовал три материала. Первый я сгенерировал на английском языке, второй — на русском, а третий написал мой коллега без помощи ИИ.

GPTZero — сервис 22-летнего американского студента Эдварда Тиана. Он сделал его в январе 2023 года, и инструмент сразу же обрел популярность. В разработке уже продвинутая платная версия GPTZero, но я пользовался бесплатной классической.

Сервис анализирует текст по двум параметрам:

  1. Perplexity считает предсказуемость текста: люди пишут сложнее и используют менее очевидные сочетания слов.
  2. Perplexity оценивает структуру и длину предложений.

Понять итоговые оценки сложно, так что после анализа можно пролистать страницу вниз и нажать «Получить результаты».

В моем случае GPTZero верно оценил авторство текста на английском языке, но с русским не справился — выдал ошибку. В соцсетях пишут, что GPTZero легко обмануть, но с базовыми материалами он справится.

Я так и не разобрался в показателях текста, но результат один: его сгенерировал ИИ
Я так и не разобрался в показателях текста, но результат один: его сгенерировал ИИ

Writer AI Content Detector — коммерческий проект, который сделали разработчики ИИ для создания текстов. Он позволяет вставить ссылку на текст или скопировать до 1500 символов в поле на сайте. Затем выдает процент, определяющий, с какой вероятностью текст сгенерирован или написан человеком.

В практическом тесте сервис полностью провалился. Он определил, что сгенерированный текст на русском с вероятностью 97% написан человеком, а на английском — с вероятностью 91%. Текст от моего коллеги он тоже отнес к человеческим. Сложилось впечатление, что цифры выдаются абсолютно случайно. Тем более что сервис никак не комментирует свое решение.

Writer AI Content Detector определил нейросетевой текст как человеческий
Writer AI Content Detector определил нейросетевой текст как человеческий

ChatGPT — это вариант победить врага его же оружием. Скиньте самой продвинутой нейросети кусок текста и спросите, написал ли его ИИ. Учитывая, что ChatGPT запоминает предыдущие сообщения и остается в контексте диалога, задайте дополнительные вопросы, как чат-бот пришел к своему выводу.

В моем случае нейросеть отлично справилась с материалом, который сама же и сгенерировала. Заодно рассказала, что в тексте приведена слишком базовая и распространенная в сети информация. А вот сгенерированный текст на русском языке ChatGPT принял за человеческий.

ChatGPT объяснил мне, как вычислил свой же сгенерированный текст
ChatGPT объяснил мне, как вычислил свой же сгенерированный текст

Результаты моего тестирования сервисов

Writer AI Content DetectorGPTZero ClassicChatGPT
Определил ли ИИ-текст на английском языкеПринял за человекаДаДа
Определил ли ИИ-текст на русском языкеПринял за человекаВыдал ошибкуПринял за человека
Определил ли текст человека на русском языкеДаВыдал ошибкуДа

Результаты моего тестирования сервисов

Writer AI Content Detector
Определил ли ИИ-текст на английскомПринял за человека
Определил ли ИИ-текст на русскомПринял за человека
Определил ли текст человека на русскомДа
GPTZero Classic
Определил ли ИИ-текст на английскомДа
Определил ли ИИ-текст на русскомВыдал ошибку
Определил ли текст человека на русскомВыдал ошибку
ChatGPT
Определил ли ИИ-текст на английскомДа
Определил ли ИИ-текст на русскомПринял за человека
Определил ли текст человека на русскомДа

Мой опыт показал, что процент ошибок слишком велик, чтобы полагаться на сервисы.

К тому же в марте 2024 года сингапурские и вьетнамские ученые выяснили, что точность ИИ-детекторов в среднем всего 39,5%. А если добавить в сгенерированный текст опечатки, орфографические ошибки, сделать предложения разной длины, показатель уменьшится до 22%.

Раньше у OpenAI был собственный определитель нейросетевых текстов. Но в 2024 году он перестал работать, а компания не прокомментировав решение. Возможно, это произошло на фоне обсуждений того, что ИИ-детекторы непредсказуемы.

Чего ждать дальше

Крупные платформы внедрят собственные системы проверки ИИ-текстов. Подобные решения уже анонсировали платформа для авторов Medium и ресурс для программистов Stack Overflow. Можно ожидать, что в будущем такие сервисы будут у всех крупных соцсетей и платформ.

У сгенерированных текстов появятся вотермарки. Эту технологию уже разрабатывают в OpenAI. По словам сотрудника компании Скотта Ааронсона, у сгенерированных через GPT текстов будет скрытый криптографический сигнал, который поможет быстро определить авторство.

Вот как это должно работать:

  1. Создают список специальных слов. При генерации текста языковая модель выбирает эти слова чаще, чем это сделал бы человек.
  2. В процессе генерации текста слова из списка вставляют в текст таким образом, чтобы они не нарушали его естественность.
  3. ИИ-детектор, который знает, какие слова входят в список, анализирует текст. Если значительная часть включает слова из него, сервис делает вывод, что текст сгенерирован.

С методом есть проблемы. Например, список слов может утечь в сеть. А еще стандартизировать такой документ для нейросетей от разных разработчиков сложно, и это требует от частных компаний сотрудничества.


Евгений КузьминИспользуете нейросеть ChatGPT в жизни? Поделитесь опытом:
  • lazex0
  • КонстантаВ первый раз слышу на самом деле) Доводилось только нейросеть Миджорней поковырять, потому что это весьма залипательно, теперь хочется еще и с текстом повозиться попробовать0
  • Полиция Т—Жlazex, убрали часть комментария в соответствии с первым пунктом правил: https://journal.tinkoff.ru/comments-rules/1
  • Карина МальцеваАрхиполезная вещь для тех, у кого английский не родной и нужно выдавать причесанные тексты по разным поводам, особенно хорошо подходит для всякого бизнес-бла-бла-бла. По русской литературе "сочинение" она не выдаст. По английской литературе надо осознавать, что под термином "эссе" там понимается не сочинение как мы его знаем, а что-то вроде письменного ответа при сдаче ЕГЭ: ригидная структура: вступление и оговорки, тезисы (не менее чем / не более чем), заключение. Нормированное число слов в предложении / предложений в абзаце / абзацев в эссе. Любая девиация за пределы установлленных рамок ведет к снижению итогового балла. И с этим ЧатГПТ справляется идельано, потому что по сути американские эссе — это тупо переработка и выжимка информации. Полезный навык, но крайне легко заменяемый, как выяснилось. Ну а русским учителям хотелось бы порекомендовать не давать из года в год шаблонные сочинения на тему "Евгений Печорин и лишние люди в творчестве Некрасова", а смотреть в сторону Франции, где по двум строчкам стихотворения какого-нибудь Апполинера надо накатать философскую телегу на тему "Что есть добро".23
  • Нехетти ГринЧеловек задал вопрос и не получил на него ответа. Вместо этого - иррелевантные скриншоты на английском языке. Значит ли это, что данная статья написана той же нейросетью? Или ей такое пока не по зубам (как и русский язык вообще)?6
  • Нехетти ГринКонстанта, прикольно. Ссылочку дадите? Мид знает русский язык?1
  • Boris Köln5
  • Без бЯ попросил ChatGPT написать сочинение о лете, максимально подражая человеку, потом в другом диалоге дал ему его же текст и спросил, написан он ИИ или человеком, он ответил, что текст написан человеком из-за личного опыта и переживаний. В итоге ChatGPT обманул сам себя17
  • Дарья ДомбрусНе так давно начала пользоваться chatGPT, и хочу сказать, что довольно быстро втянулась :) по поводу сочинений - может просить учеников сдавать эссе в электроном виде, тогда можно будет скопировать текст и задать прямой вопрос в chatGPT- бы ли этот текст написан здесь?)1
  • Василий АнисимовБудущее с ChatGPT8
  • Василий АнисимовНехетти, ChatGPT может писать и на других языках, русском в том числе, только медленнее и тупит больше1
  • Василий АнисимовБез, ChatGPT очень легко надурить, даже в том же самом диалоге она может поменять мнение на противоположное3
  • Василий АнисимовНехетти, Миджорни это текст ту имейдж, а не текст ту текст1
  • Алексей МасловскийBoris, а что если все статьи на Т-Ж уже давно пишет нейросеть? 😱5
  • MariaBoris, буквально за один вчерашний день прочитала - статью редактора-"кинокритика", выражавшего своё категоричное субъективное мнение о сериале от лица всех зрителей - хорошую статью, подредактированную редактор_ками так, чтобы споткнуться сразу об эти неуместные феминитивы - ещё есть замечательный опросник "письмо психологу", которое публикуется вообще без редактуры и без ответов психолога - вчера там было безответное письмо психологу о суицидальных мыслях может вы говорите про Т-Ж 2018 года?)2
  • КонстантаНехетти, вот тут инструкция как пользоваться, для этого Дискорд нужен) https://lifehacker.ru/kak-polzovatsya-midjourney/3
  • Алина СмольниковаПробовали проверять все способами, получилось ужасно. 1. GPT-2 Output Detector. Практически все тексты мнёт под то, что это написал бот, хотя 90% текстов, отправленных на проверку, были написаны своими руками (даже до доступа к боту). 2/10 2. GLTR. Тоже мнёт под себя порой, но чуть меньше. На английском мало текстов (в основном всё русское), поэтому точной оценки не дать. 4/10 3. GPTZero Classic. Как и GLTR. 3/10 4. Сам ChatGPT. Постоянно путается, даёт неверные ответы. То, что было написано полностью самостоятельно и своими руками - сказал, что "это мой текст". Что полностью было написано им - сказал, что "нет, это не мой текст". Также, за "свой текст" он может посчитать то, что хоть частично совпадает с материалами, на которых он обучался и которые есть в его базе. Также проверяли на текстах, написанных 3-4 года назад, все эти тексты он ответил "это мой текст", хотя мы про него тогда даже не знали)) 0/10 Забавно, постоянно везде ошибки в распознавании текста от ИИ, какой вообще смысл тогда от этих программ? Уже представляю, как студент 100500+ пашет над своей курсовой САМ, а препод отправит его текст к одно их этих "систем проверки", которая всё мнёт под себя, и отправит студента далеко и надолго, поверив результату проверки. Глупость.10
  • Владислав ЦыганковDaria, только что заказал ему мини-эссе, а потом показал кусок из него с вопросом: это ты написал? ИИ ответил: "Нет, я не написал этот текст. Он представляет собой обсуждение проблематики использования нейросетей в искусстве, которая вызывает интерес не только среди технических специалистов...". И т.д. Похоже, он запрограммирован не сознаваться в своём авторстве.4
  • Дарья ДомбрусВладислав, это смешно :) спасибо, что поделились :)2
  • Софья ПыжоваИспользую как раз для «налить воды» в различных работах. Но часто приходится редактировать, ибо добавляет уникальности ( переписывает), увеличивает/ уменьшает объем текста с речевыми или содержательными ошибками2
  • Андрей АксеновДа,постоянно! И во многом он лучше,и точнее поисковиков!1
  • Т—ЖВпервые мы опубликовали этот материал в январе 2023 года. В июне 2024 мы его обновили и опубликовали повторно.2
  • ВеркинззСначала детей учат применять клише, а потом пытаются отличить получающиеся "сочинения" от программы 😆😁22
  • v2.0legВасилий, вот с этим соглашусь, мнение чат иногда может менять1
  • Миха Котовv2.0leg, смех в том что и человек тоже1
  • Туманный туманМиха, человек, хотя бы, старается это как то скрыть или завуалировать, так как знает, что его мнение было другим1
  • Andrey KhoviakovДля меня самый красный флаг — это слишком конкретные и структурированные ответы, особенно с эквивалентными абзацами и нумерацией/маркерами. Раньше так писали единицы digital-дисциплинированных людей, сейчас такое можно встретить на каждом шагу. Достаточно часто получаются ответы в стиле статьи, с введением, основной частью и заключением. Все эти штуки всплывают, если совсем не стараться. Если хорошенько пообщаться в чате, тыкнуть пальцем на ошибки и сказать, что хочешь взамен, текст может получиться достаточно хорошим.1
  • Mr PadЕвгений Печорин?3
  • Алсу Закирова4 месяца плотно работала с ChatGPT и теперь почти безошибочно определяю тексты, написанные именно с его помощью. Яндекс Нейро и другие может и не определю, но вот именно ChatGPT легко выявляется по нескольким признакам. Во-первых, сильно заметно, что нейросетка переводит с английского - предложения в английском построены определенным образом, а нейросетка переводит их буквально, поэтому они немного кривые, т.е. люди так не говорят. Очень часто используется слово "является" и другие бесполезные глаголы. Во-вторых, у текстов ChatGPT есть определенная структура, которой он ВСЕГДА следует: введение, содержание в определенной последовательности и заключение. Причем заключения все очень похожие, там нет никаких неожиданных выводов, как, например, мог бы написать человек)) Иногда пытаюсь как-то снова использовать ChatGPT в жизни или работе, но быстро забиваю - не пишет он так, как мне нужно. Проще самой написать) В сочинениях по литературе от ChatGPT я на 100% уверена, что будут "галлюцинации" - то есть то, чего в книгах вообще не было, учителя легко раскусят такие опусы :)8
  • ДушенькаНедавно пыталась найти нужный момент из одного очень популярного сериала, гугл быстро не помог,поэтому решила попробовать gpt и обнаружился интересный баг-при запросе в какой серии какого сезона произошла такая-то ситуация, он каждый раз с абсолютной и одинаковой уверенностью выдает полнейшую чушню, причем каждый раз разную. Тоже самое происходит если спросить о развязке сюжетной-прям на ходу сочиняет бредню, не имеющую отношения к реальности, причем так бодро и уверенно ее сочиняет - диву даёшься) Так что задача давать такие темы сочинений, чтоб их сложно было генерить с помощью нейронки, выглядит вполне реализуемой. С другой стороны в мою пору обучения в школе почти все сочинения были до блевоты типовыми, собственный самостоятельный анализ и персональное мнение в их написании наказывалось, так что если сейчас в школах все осталось также, то ученики абсолютно правы используя нейронку в подобных задачах и едва ли имеет смысл их от этого как-то ограничивать, лучше спросить себя чего вы пытаетесь добиться от детей давая им такие задания и постараться честно ответить себе на этот вопрос2
  • Иваника ИвановаMr, да-да, в творчестве Некрасова )))4
  • Анастасия ХаритоноваЯ распознаю часто, если текст не отредактирован человеком. - Пафосный стиль изложения. "Насладитесь нашими блокнотами... ", "Невероятный и изысканный стиль... ", " Я просто потрясён обслуживанием в ресторане... ". Это отчасти из английского. Enjoy our... I am amazed... - Англоязычное построение фраз, будто калька. Читается как плохой перевод. - В принципе... Чувствуешь. Работаю с копирайтерами и знаю, кто юзает нейронку. Отправляю на доработку)3
  • Миха КотовТуманный, я бы прямо сказал что изменил мнение0
  • Туманный туманМиха, смотря какая цель0
  • a412nnaЯ проверила свой текст на двух детекторах, вердикт - написан ИИ :). На одном детекторе 85% ИИ, на другом 53%. Но я то точно знаю что писала сама, просто делала текст менее эмоциональным, такой был запрос.0
Вот что еще мы писали по этой теме