

В том, что искусственный интеллект по развитию пока первоклашка, я не сомневался. Но вскоре я выяснил, что он врун. А натолкнул меня на эту мысль пост американского ученого с мировым именем Пола Спикера.
Ради шутки он прогнал через искусственный интеллект свою статью, написанную в 1981 году, когда и интернета как такового еще не было.
Робот-программа выдала результат, что 77 процентов материала написал такой же робот.
Усе, аминь.
Тогда я решился повторить примерно то же самое. Взял свою статью про дроновода, участника СВО. Написал я ее в 2023 году, а буквально на днях отправил проверить в text.ru, и он показал уникальность всего 36 процентов. То есть по факту выходит, что репортер Эмиль взял чей-то текст и сделал рерайт, да так плохо и лениво, что программа посчитала меня плагиатором.
Тогда я, опечалившись, нашел свою папку со статьями времен 90-х годов.
И выбрал одну про проблемы с производством молока на одном местном предприятии. К слову, оно давно закрылось. То есть более 25 лет про это предприятие никто не слыхивал и информации о нем в тырнете просто не было. Я заново набрал текст и вновь закинул его на разные ресурсы. Они показали уникальность 60 процентов.
Да что ж такое творится-то, Карл? Получается, я опять у кого-то украл статью и сделал средненький рерайт.
Потом я закинул этот текст в ИИ, и снова – так себе, 72 процента. Какой позор! Про оператора беспилотников вышла примерно такая же статистика, но мои тексты нередко растаскивают паблики, причем публикуют без моего авторства, как свое. Соответственно, уникальность могла сильно просесть из-за этого. А если новость попадает в яндекс-агрегацию, то через 10 минут она уже не твоя, ее тут же рерайтируют другие сайты, и она слетает вниз. Яндекс покажет тебе только первоисточник. Просмотры будут набирать уже верхние варианты рерайта.
Так было про новость с карантином, введенным из-за ящура. Во время дежурства в новостной сетке я отвлекся на 15 минут, а когда заглянул в рейтинг, моя новость была уже на 9 месте. Ее переписали такие же дежурные других изданий и поднялись наверх.
Тогда я снова вчитался в свою статью про молоко и увидел, что она написана структурировано, без каких-либо шероховатостей. Гладенько, вылизано. Из нее невозможно вырвать ни одного слова, чтобы не разрушить всю структуру текста. Соответственно, программа посчитала, что текст про молоко написан ее коллегой-роботом. Вот так. Приплыли.
Я не хочу сказать, что куча специализированных сайтов или программ ИИ для определения плагиата врут, есть и достаточно точные.
Однако, если накидать кучу инфы в какой-нибудь авторедактор и попросить его оформить текст в конкретном жанре, на выходе получится вылизанный, но поверхностный материал, по-идиотски пафосный. В нем могут появиться пустопорожние фразы, которые вычеркнет любой редактор.
В жертву будут принесены самые интересные детали, которые и делают текст интересным. А стиль будет академическим.
И еще один момент остается не до конца ясным. Если автор отправит свой текст на проверку, останется ли он после нее уникальным? Не посчитают ли его яндекс-агрегаторы плагиатом и, соответственно, не пессимизируют ли?
От одного журналиста я слышал нечто подобное.
В общем, все эти гигачаты и дипсики пока гуляют в коротеньких шортиках и ковыряются в носу.
Имеются ИИ-сервисы для программистов, но полностью заменить репортера ИИ не сможет еще долго.







