На связи Антон Конвертов!
Годами для скачивания найденных в спай-сервисах прокладок или лендингов все пользовались различными программами и утилитами: Wget, Teleport Pro, Local Website Archive, Website Extractor, Web Copier — и это далеко не весь список софта, который позволял слить нужный ресурс. Но у всех этих программ, как правило, немало проблем: скачивают они криво и в 100% случаев приходится править полученный код вручную, чтобы привести слитый ленд в рабочее состояние. Плюс ко всему нередко ленды и проклы содержат скрытые скрипты, которые могут спокойно воровать с них трафик.
Сегодня я расскажу, как можно сделать копию любого ленда или проклы буквально в два клика и при этом избежать всех тех проблем, которые обычно преследуют веба при использовании стороннего софта.
Делать все буду при помощи LLM Cursor и одного из MCP-серверов.
Если вы не в курсе, что такое Cursor и где его взять, просто прочитайте этот материал.
MCP-сервер Firecrawl
Firecrawl.dev — это платформа и API-сервис, разработанный командой Mendable (поддерживаемая Y Combinator), предназначенный для масштабируемого извлечения данных с веб-сайтов и преобразования их в удобные форматы для данных, совместимых с LLM-моделями.
Заходим на сайт. Регистрируемся, я сделал это через Google-форму.
Далее находим вкладку DOCS и переходим на нее. Здесь нам нужно получить код для установки нашего MCP-сервера в Cursor.
Затем в левой панели находим вкладку MCP Server, скроллим вниз до пункта Add to Cursor.
На данный момент у вас должен быть запущен Cursor. Нажимаем Add to Cursor — нас перекинет в саму LLM, где MCP-сервер установится автоматически. Далее в открывшемся окне нам нужно ввести API KEY.
Взять мы его можем на сайте нашего MCP firecrawl.dev.
Затем нажимаем кнопку Install.
Если все сделано правильно, в строке с нашими MCP-серверами мы увидим строку с Firecrawl, в которой будет гореть зеленый индикатор.
Если же вы поставили MCP и индикатор горит красным, с вероятностью 99% проблема в том, что на вашей системе не установлен Node.js.
Для решения этой проблемы переходим по ссылке и устанавливаем Node.js на свою систему. Далее перезагружаем компьютер. Теперь все должно работать нормально.
Если по какой-то причине MCP-сервер не получается установить автоматически, это можно сделать вручную.
Для этого в той же вкладке Docs — MCP Server находим кусок кода.
Копируем код и переходим в Cursor. Далее: File → Preferences → Cursor Settings → MCP & Integration. В открывшемся окне нажимаем Add Custom MCP и вставляем скопированный код. Сохраняем — готово.
Все, наш MCP-сервер установлен и готов к работе. Идем дальше.
Следующий шаг
Для этих целей хорошо подходит расширение для Google Chrome Image Downloader. Оно позволяет пакетно скачивать все изображения с сайта буквально в один клик. Скачиваем расширение по ссылке, переходим на сайт-донор и забираем все изображения с него.
Все скачанные изображения я поместил в созданную под эти задачи папку media.
Для теста взял страницу.
Написал промпт:
Запустил Cursor. Буквально в течение пары минут Cursor создал styles.css, script.js, index.html, обратился в папку media, взял оттуда все необходимые изображения и клонировал наш сайт-донор.
Получилось все так:
Как видно, не все поля удалось скопировать корректно: нет главных изображений, а на нижней части баннера пропущена небольшая часть сайта.
Для решения этой проблемы можно просто скормить нашей LLM скриншот всей страницы. Сделать такой скрин можно с помощью плагина Easy Screenshot. Устанавливаем плагин, делаем скрин и отправляем его в Cursor с промптом:
Через пару минут получаем ответ:
Все готово.
Итоги
На первый взгляд может показаться, что все это выглядит долго и муторно. Но это лишь иллюзия. Нужно один раз все настроить, а дальше с помощью всего пары промптов делать качественные копии интересующих вас лендингов или прокладок. А плюсы таких клонов достаточно существенные.
- Весь код таких сайтов по факту уникален, так как он пишется LLM с нуля, а не копируется. А уникальный код — это уникальность сайта в глазах того же FB*.
- Нередко на прокладках, скачанных со спай-сервисов, могут находиться скрытые скрипты, ворующие трафик и лиды. И найти такие скрипты даже специалистам своего дела не всегда легко. При клонировании сайтов таких скриптов просто не может быть, ведь весь проект написан с нуля, а не скопирован.
Изучайте вайб-кодинг и LLM. Эти инструменты могут сэкономить кучу времени при работе с трафиком и значительно снизить рутину в процессе подготовки к запуску кампаний.
Канал в Телеге: Konvertov/Арбитраж — трафика
Сервис поиска расходников для арбитража FB — https://huntermanager.com/
Материал написан для проекта trafficcardinal.com
* Meta запрещена на территории РФ.