Худшие нейросети для профессиональных задач
Traffic Cardinal Traffic Cardinal  написал 18.03.2026

Худшие нейросети для профессиональных задач

Traffic Cardinal Traffic Cardinal  написал 18.03.2026
9 мин
0
46
Содержание

Нейросети сейчас выходят как горячие пирожки. Чуть ли не каждый месяц нам обещают «революцию», «прорыв» и «новый уровень интеллекта». Маркетинга много, реальных улучшений — не очень. Но одно дело, когда новая модель просто не впечатляет, и совсем другое, когда она работает хуже предыдущей.

При этом каждый такой «прорыв» требует все более мощного железа. Оперативка дорожает на глазах из-за адовых закупов разработчиков, а подорожание оптоволокна грозит повышением стоимости интернета до 4 раз. И все это в том числе и ради нейросетей из нашего списка.

ChatGPT 5.2: когда апгрейд оказался даунгрейдом

Источник

OpenAI в конце прошлого года выпустили ChatGPT 5.2. Пообещали все то же, что обещают всегда: умнее, быстрее, точнее. Цену, само собой, подняли — модель же новая, сложная, денег стоит. Только вот когда начинаешь ей пользоваться, возникает вопрос: а за что, собственно, платим?

Проблема первая: нейронка реально поглупела

Звучит странно, но это не просто наезд на пустом месте. OpenAI в своем же техническом отчете прямым текстом пишут, что в некоторых режимах качество упало по сравнению с 5.1. Не где-то там, а в официальном документе. OpenAI.

Просто они это спрятали глубоко, чтобы маркетинговые материалы не портить. На Reddit полные ветки разработчиков, которые матерятся на новую версию. Люди переходят с 5.2 обратно на 5.1 и видят разницу. Одни и те же запросы старая версия отрабатывает нормально, новая — тупит, теряет нить, забывает, о чем говорили пару сообщений назад.

Проблема вторая: тон общения стал никаким

Раньше у ChatGPT был какой-никакой, но характер. Можно было настроить стиль, получить живой текст. Сейчас 5.2 в базовом режиме звучит как человек, который только что прошел тренинг по безопасному общению и теперь боится сказать лишнее слово.

Переводы стали буквальными до смешного, а текст — ровным и пресным.

Для творческих задач это просто бесполезно. Копирайтеры на форумах жалуются: раньше модель помогала придумывать, сейчас выдает шаблоны, которые стыдно показать клиенту.

Проблема третья: инструменты работают через раз

Разработчики, которые встраивают ChatGPT в свои продукты, пишут одно и то же: стабильности нет. Модель может блестяще выполнить сложный сценарий из пяти шагов, а потом на втором шаге простейшей задачи тупо пропустить обязательное действие. И ничего не скажет. Просто сделает вид, что так и надо. То есть в продакшен такое ставить страшно. Потому что никогда не знаешь, в какой момент она решит сэкономить усилия и проигнорировать половину инструкции.

Проблема четвертая: длинные тексты — боль

Разработчики хвастаются, что контекст теперь огромный. На синтетических тестах — да, все отлично. Но когда загружаешь реальный договор или большой файл с кучей повторов и сложной структурой, модель начинает плавать. Забывает, о чем писала в начале. Противоречит сама себе. Выдумывает пункты, которых нет. Если текст неидеальный (а в жизни идеальных не бывает), 5.2 спотыкается на каждом шагу.

Почему Microsoft Copilot работает хуже ChatGPT, если использует те же модели

Источник

Microsoft Copilot позиционируется как умный помощник, встроенный прямо в Windows и Office. Технически он действительно работает на моделях OpenAI. Но те, кто пользуется им регулярно, быстро замечают разницу в качестве. Copilot заметно уступает обычному ChatGPT. Почему так выходит?

Разные обертки одной модели

ChatGPT и Copilot используют одни и те же базовые модели. Но пользователь общается не напрямую с моделью, а с целой надстройкой из системных промптов, фильтров безопасности и дополнительных инструкций. ChatGPT добавляет к модели свои наработки, чтобы улучшить результат. Copilot делает то же самое, но хуже. Модель под капотом одна и та же, а вот то, как ее настроили и чем ограничили, сильно влияет на то, что вы получите в ответ.

Урезанный контекст для экономии

Чтобы снизить нагрузку на серверы и ускорить ответы, Microsoft использует в Copilot значительно меньше контекста. Copilot отвечает практически мгновенно, тогда как ChatGPT тратит несколько секунд на генерацию. Скорость достигается за счет глубины обработки. Для простых вопросов вроде «какая сегодня погода» этого хватает. Но когда задача сложнее, Copilot начинает тупить — он просто не успевает нормально обработать информацию.

Корпоративные фильтры душат функциональность

Copilot заточен под корпоративный сектор. Microsoft добавила в него столько защитных механизмов, что модель боится лишнее слово сказать. Пользователи жалуются на постоянные ложные срабатывания фильтров, отказы отвечать на нормальные запросы и излишнюю осторожность. Там, где ChatGPT спокойно отвечает, Copilot может выдать отписку или сослаться на правила безопасности.

Copilot объективно хуже справляется с задачами

Показательный тест: Copilot и ChatGPT попросили извлечь данные из счетов-фактур. ChatGPT справился на 85%, Copilot — на 50%. Разница колоссальная. Copilot оптимизирован под другие задачи: поиск в почте, анализ встреч, работу с документами. Для более сложных операций он просто не предназначен, хотя пользователи по привычке пытаются его использовать как полноценную нейросеть.

Проблемы с корпоративными данными

Copilot умеет обращаться к SharePoint, Teams, почте и корпоративным файлам. Это его главная фишка. Но на практике он часто выбирает неверные источники. Если в компании есть противоречивая информация (а где ее нет), Copilot берет самую свежую, даже если она некорректна. Либо ссылается на случайный документ, не оценивая его релевантность. Он может использовать как аргумент письмо, которое изначально считалось ошибочным, просто потому, что оно новее.

Те, кто разбирается в теме, высказали два предположения: либо Microsoft сознательно экономит на вычислительных мощностях, чтобы не работать в минус. Либо OpenAI выделяет партнеру урезанные ресурсы. В любом случае Copilot работает на менее производительной инфраструктуре, чем оригинальный ChatGPT. Отсюда и разница в качестве.

Replit: как AI-агент удалил базу данных

Источник

Вайб-кодинг — штука удобная, пока нейросеть делает то, что просишь. Проблемы начинаются, когда она начинает делать что ей вздумается. История основателя SaaStr Джейсона Лемкина с сервисом Replit — идеальный пример того, как доверие к AI заканчивается фатальным сбоем.

Сначала все было прекрасно

Лемкин зашел в Replit, потратил несколько часов и собрал прототип, который его впечатлил. Сервис его так затянул, что он не мог оторваться целую неделю. Прямо писал: «Самое затягивающее приложение, которое я когда-либо использовал».

Кстати, Replit позиционирует себя как «самое безопасное место для вайб-кодинга» — то есть для разработки, где большую часть кода пишет нейросеть, а человек только задает направление. На тот момент Лемкин был готов петь сервису дифирамбы. Но уже на следующий день все полетело в тартарары.

А потом агент все сломал

Программист обнаружил, что Replit начал подменять реальные отчеты и тесты какими-то фиктивными данными. Ошибки не отображались, сервис их скрывал и делал вид, что все работает. Потом выяснилось, что AI-агент просто игнорирует часть инструкций и рисует красивую картинку.

Но главное случилось позже: агент без спроса удалил базу данных. Не просто какие-то временные файлы, а рабочую базу. Хотя у него была прямая инструкция ничего не менять без согласия пользователя. В компании признали «катастрофическую ошибку в оценке ситуации» и нарушение прямых указаний. И добавили, что восстановить данные не получится. Лемкин тогда наверняка пожалел, что вообще связался с этим сервисом.

Надо отметить, что через неделю Лемкину все же удалось восстановить данные. Можно было бы выдохнуть, но история получила продолжение. Несмотря на случившееся, он дал сервису второй шанс — продолжил им пользоваться. Видимо, надеялся, что дважды ружье не выстрелит.

Спустя несколько дней Replit снова отличился. Лемкин попытался зафиксировать код и запретить автоматические изменения. Он четко дал команду ничего не трогать. Агент послушно подождал секунду и... изменил код. Прямо после того, как получил запрет.

Только тогда программист окончательно забил на Replit и перестал использовать его для работы.

Итоги

Нейронки очень часто бывают нестабильными в наше время. Компании гонятся не за качеством, а за громким анонсом и одобрением инвесторов. Поэтому стоит тысячу раз присматриваться перед тем, как покупать ту или иную нейросеть — особенно если такое грешное желание возникает на фоне релизов и пустых обещаний менеджеров, которым нужно только отчитаться перед вкладчиками.

Здравствуйте! У вас включен блокировщик рекламы, часть сайта не будет работать!