Как сделать уникальную копию ленда в два клика
Инфлюэнсеры Инфлюэнсеры  написал 02.10.2025

Как сделать уникальную копию ленда в два клика

Инфлюэнсеры Инфлюэнсеры  написал 02.10.2025
7 мин
0
67
Содержание

На связи Антон Конвертов!

Годами для скачивания найденных в спай-сервисах прокладок или лендингов все пользовались различными программами и утилитами: Wget, Teleport Pro, Local Website Archive, Website Extractor, Web Copier — и это далеко не весь список софта, который позволял слить нужный ресурс. Но у всех этих программ, как правило, немало проблем: скачивают они криво и в 100% случаев приходится править полученный код вручную, чтобы привести слитый ленд в рабочее состояние. Плюс ко всему нередко ленды и проклы содержат скрытые скрипты, которые могут спокойно воровать с них трафик.

Сегодня я расскажу, как можно сделать копию любого ленда или проклы буквально в два клика и при этом избежать всех тех проблем, которые обычно преследуют веба при использовании стороннего софта.

Делать все буду при помощи LLM Cursor и одного из MCP-серверов.

Если вы не в курсе, что такое Cursor и где его взять, просто прочитайте этот материал.

MCP-сервер Firecrawl

Firecrawl.dev — это платформа и API-сервис, разработанный командой Mendable (поддерживаемая Y Combinator), предназначенный для масштабируемого извлечения данных с веб-сайтов и преобразования их в удобные форматы для данных, совместимых с LLM-моделями.

Заходим на сайт. Регистрируемся, я сделал это через Google-форму.

Далее находим вкладку DOCS и переходим на нее. Здесь нам нужно получить код для установки нашего MCP-сервера в Cursor.

Затем в левой панели находим вкладку MCP Server, скроллим вниз до пункта Add to Cursor.

На данный момент у вас должен быть запущен Cursor. Нажимаем Add to Cursor — нас перекинет в саму LLM, где MCP-сервер установится автоматически. Далее в открывшемся окне нам нужно ввести API KEY.

Взять мы его можем на сайте нашего MCP firecrawl.dev.

Затем нажимаем кнопку Install.

Если все сделано правильно, в строке с нашими MCP-серверами мы увидим строку с Firecrawl, в которой будет гореть зеленый индикатор.

Если же вы поставили MCP и индикатор горит красным, с вероятностью 99% проблема в том, что на вашей системе не установлен Node.js.

Для решения этой проблемы переходим по ссылке и устанавливаем Node.js на свою систему. Далее перезагружаем компьютер. Теперь все должно работать нормально.

Если по какой-то причине MCP-сервер не получается установить автоматически, это можно сделать вручную.

Для этого в той же вкладке Docs — MCP Server находим кусок кода.

Копируем код и переходим в Cursor. Далее: File → Preferences → Cursor Settings → MCP & Integration. В открывшемся окне нажимаем Add Custom MCP и вставляем скопированный код. Сохраняем — готово.

Все, наш MCP-сервер установлен и готов к работе. Идем дальше.

Следующий шаг

Для этих целей хорошо подходит расширение для Google Chrome Image Downloader. Оно позволяет пакетно скачивать все изображения с сайта буквально в один клик. Скачиваем расширение по ссылке, переходим на сайт-донор и забираем все изображения с него.

Все скачанные изображения я поместил в созданную под эти задачи папку media.

Для теста взял страницу.

Написал промпт:

Запустил Cursor. Буквально в течение пары минут Cursor создал styles.css, script.js, index.html, обратился в папку media, взял оттуда все необходимые изображения и клонировал наш сайт-донор.

Получилось все так:

Как видно, не все поля удалось скопировать корректно: нет главных изображений, а на нижней части баннера пропущена небольшая часть сайта.

Для решения этой проблемы можно просто скормить нашей LLM скриншот всей страницы. Сделать такой скрин можно с помощью плагина Easy Screenshot. Устанавливаем плагин, делаем скрин и отправляем его в Cursor с промптом:

Через пару минут получаем ответ:

Все готово.

Итоги

На первый взгляд может показаться, что все это выглядит долго и муторно. Но это лишь иллюзия. Нужно один раз все настроить, а дальше с помощью всего пары промптов делать качественные копии интересующих вас лендингов или прокладок. А плюсы таких клонов достаточно существенные.

  1. Весь код таких сайтов по факту уникален, так как он пишется LLM с нуля, а не копируется. А уникальный код — это уникальность сайта в глазах того же FB*.
  2. Нередко на прокладках, скачанных со спай-сервисов, могут находиться скрытые скрипты, ворующие трафик и лиды. И найти такие скрипты даже специалистам своего дела не всегда легко. При клонировании сайтов таких скриптов просто не может быть, ведь весь проект написан с нуля, а не скопирован.

Изучайте вайб-кодинг и LLM. Эти инструменты могут сэкономить кучу времени при работе с трафиком и значительно снизить рутину в процессе подготовки к запуску кампаний.

Канал в Телеге: Konvertov/Арбитраж — трафика

Сервис поиска расходников для арбитража FB — https://huntermanager.com/

Материал написан для проекта trafficcardinal.com

* Meta запрещена на территории РФ.

Здравствуйте! У вас включен блокировщик рекламы, часть сайта не будет работать!