Локальный Claude Code
Инфлюэнсеры Инфлюэнсеры  написал 20.04.2026

Локальный Claude Code

Инфлюэнсеры Инфлюэнсеры  написал 20.04.2026
8 мин
0
72
Содержание

Привет, на связи Антон Конвертов!

banner banner

Нейронки не просто вошли в нашу с вами арбитражную жизнь — они, по сути, ворвались без стука и предупреждения. Сейчас, если ты не привлекаешь к своей работе ту или иную LLM, ты становишься просто неконкурентоспособным на рынке.

Но во всем этом есть и проблемы для нашей сферы. Как минимум у нейронок есть внутренняя цензура, и далеко не все можно сделать с ИИ из того, что возможно без них. Тот же ленд под адалт или крео на «серую» тематику — нейронка просто не допустит такую генерацию в работу.

Ну и ко всему вышенаписанному есть и минусы. Нейронки стоят денег, и если работать с ними плотно, сумма выходит далеко не маленькая. Плюс сюда же лимиты токенов, которых постоянно не хватает.

По итогу нюансов и проблем тоже хватает.

Сегодня расскажу о том, как создать локальный Claude Code с безлимитными токенами и без утечки всех полученных данных нейронкой в сеть. По своей сути мы создадим закрытый, локальный Claude Code, но со своими нюансами.

Принцип работы любой LLM

Давайте в двух словах разберемся, как же работает по сути любая LLM. В нашем случае это Claude Code, но и другие подобные нейронки (OpenAI Codex, Cursor) работают так же.

По сути, Claude Code — это CLI-инструмент, который при любом обращении отправляет API-запрос на серверы Anthropic, где вся информация обрабатывается уже серверной LLM. Для Claude на данный момент одна из топовых моделей — Opus 4.6.

После обработки данных мы получаем результат в виде ответа либо в виде написанного кода, лендинга и т. д.

Исходя из всего вышенаписанного, делаем очень простой и логичный вывод: для создания нашего локального «Claude Code» нам нужна локальная LLM, к которой мы будем обращаться через CLI-инструмент.

Ollama

Ollama — это инструмент, который позволяет запускать большие языковые модели (LLM) локально на твоем компьютере, без обращения к облаку вроде OpenAI или Anthropic.

Если объяснять максимально просто — это такой «мини-ChatGPT», который работает не в облаке или на чужом серваке, а прямо на твоем компьютере.

С помощью Ollama можно запускать популярные open-source-модели, например LLaMA, Mistral или DeepSeek, и взаимодействовать с ними так же, как с API от Claude или OpenAI. Только без интернета и лимитов на токены.

Установка Ollama

Скачиваем по ссылке EXE-файл под свою операционку.

Распаковываем и устанавливаем.

После установки открываем командную строку (СМD) и вводим команду: ollama --version.

Это нам нужно для проверки, что все установилось корректно. Если все нормально, то видим версию установленной ollama.

Все установилось корректно, погнали дальше.

Теперь нам нужно выбрать LLM, с которой мы хотим работать. Тут есть свои нюансы, и зависят они прежде всего от того компьютера, на который вы устанавливаете данную нейронку, а точнее от мощности железа. Так как это локальная модель, то, соответственно, и ресурсы для своей работы она будет потреблять локальные.

Если комп слабенький, то лучше поставить qwen2.5-coder:7b. Если мощный — то qwen2.5-coder:14b. Или как альтернатива queen 3-coder. Я ставил qwen2.5-coder:7b.

Выбираем нужную модель и вводим команду в командной строке: ollama pull qwen2.5-coder:7b. Где «qwen2.5-coder:7br» — название выбранной нами модели.

Вводим команду и ждем полной установки. Обратите внимание, что LLM весит немало и должно хватать места на диске.

После установки вводим команду: ollama run qwen2.5-coder:7b и проверяем работу нашей нейронки.

Все работает.

Далее нам нужно подключить нашу LLM к Claude Code. По сути, Claude Code ожидает подключения к API Anthropic. Мы же «подсовываем» ему локальный сервер Ollama.

Прежде чем подключать Claude к Ollama, нам нужно установить сам Claude Code (если у вас его еще нет). Тут я не буду подробно останавливаться на этом. Мануалов куча, но лучше всего все сделать через сам сайт Claude Code.

Для чего нам вообще нужно подключение к агенту Claude Code? Без данного агента наша Ollama — это просто умный чат, способный отвечать на вопросы. Но вот работать с файлами, редактировать их, читать, вносить изменения, работать с проектами без агента Claude Ollama не может.

Установили Claude, далее вводим команду ollama serve и запускаем Ollama.

По умолчанию он будет на: http://localhost:11434/

Как видим, все работает. Далее просто в этом же окне вводим команду: ollama launch claude --model qwen2.5-coder:7b.

Как видим, клауд подключился через установленную ранее локальную модель.

Плюсы

Как я уже писал выше, это локальная модель и у нее, по сути, нет цензуры. Можно генерировать много чего интересного для арбитражной тематики. Еще из плюсов то, что ее можно обучать на своих данных.

Делаете вы, допустим, свои ленды или проклы под определенные вертикали, ленды, в которых есть свои нюансы. Локальную модель можно «натаскать» на работу именно с ними. Еще из плюсов — то, что модель локальная и все загруженные в нее данные никуда не уйдут, а останутся на сервере/компе, на котором находится сама модель.

Минусы

Мы устанавливаем open-source LLM, и, соответственно, это не передовая разработка наподобие Opus 4.6. Писать большие проекты или SaaS-платформы на ней невозможно. Подправить ленд, решить тривиальные задачи — это да. Но что-то глобальное она просто не потянет, как минимум без должного обучения.

Еще из минусов — для грамотной работы нужны достаточно серьезные ресурсы железа, на котором стоит сама модель.

Короче, ставить все это нужно на хороший выделенный сервак — и тогда будет счастье! Запустить все это на ноуте или стационарной машине средней руки, по сути, не получится. Работать-то будет, но все будет ужасно медленно и дискомфортно.

Послесловие

Если вы работаете в соло, вам точно нет смысла заморачиваться с этим. Но если вы команда, подобное решение открывает огромные горизонты. Своя локальная LLM, обученная именно на вашем опыте баинга, понимающая все тонкости, нюансы и специфику именно вашего направления. И все это без лимитов на токены, оплат и т. д.

На мой взгляд, командам уже нужно двигаться в этом направлении и получать компетенции на будущее. Такие дела.

____________________________________________________________________________

Канал в Телеге: Konvertov/Арбитраж — трафика

Сервис поиска расходников для арбитража FB* — https://huntermanager.com/

Материал написан для проекта trafficcardinal.com

Здравствуйте! У вас включен блокировщик рекламы, часть сайта не будет работать!