Screaming frog SEO spider русификатор

Screaming frog SEO spider русификатор

Как пользоваться Screaming Frog SEO Spider

Сама программа распространяется бесплатно, хоть и имеется платная версия — функционал при этом мало ограничен, что позволяет провести полноценный технический аудит сайта. Но прежде чем приступить к работе, необходимо немного ознакомится с настройками в Screaming Frog. Давайте разберем самые важные. Заходим Configuration > Spider и далее по вкладкам.

Basic

Чтобы ускорить анализ сайта, можно исключить из парсинга CSS стили, JavaScript, SWF (это проприетарный формат для флеш-анимации, векторной графики, видео и аудио в инете).

Limits

Тут нас интересует только Limit Search Depth — это настройка ограничения по вложенности страницы. Например, страницы больших сайтов с огромным количеством товаров в каталоге обычно имеют глубокую вложенность по url. Ставим подходящее нам ограничение и заметно экономим время.

Advanced

Cтавим галочки так, как показано на скриншоте. Тем самым будем изучать только ту информацию, которую видят поисковые роботы.

Preferences

Screaming SEO Frog предлагает указать пожелания по размеру метатегов, урла, заголовков h1/h2, длине атрибута alt и размера изображения. Можно указать большие значения, чтобы не упускать ничего.

Бывает, что необходимо проверить только определенные разделы или один, а может и наоборот — все, кроме некоторых или кроме одного. Чтобы проверить конкретные разделы, заходим в Configuration > Include, где указываем раздел. Если нужно исключить: Configuration > Exclude и аналагично указываем исключаемые разделы.

Если у вас новый сайт, который еще не готов к открытию (и админки как таковой еще нет), а провести технический аудит нужно — в SEO Screamig Frog можно указать логин и пароль. Чтобы не указывать админский доступ, можно создать ограниченный — гостевой

Обратите внимание

Если сайт закрыт в robots. txt, в настройках (вкладка Basic) необходимо включить опцию игнорирования данного файла.

Скорость парсинга

Еще одна основная настройка SEO Frog. При запуске парсинга в самом низу указывается средняя скорость и текущая. Если сайт не выдерживает большой скорости, то лучше в настройках указать определенное значение.

Все настройки готовы и теперь можно приступить к старту парсинга сайта. В верхней части SEO Frog указываем сайт, нажимаем Start и ждем. Время ожидания зависит от размера сайта, в основном это от 5 до 25 минут.

Пример аудита сайта

Перед тем как приступить к работе, хочется дать небольшой совет. Каждую страницу из SEO Spider Frog можно выгружать и затем форматировать на свое усмотрение в Excel. В большинстве случаев это очень удобно: можно фильтровать и откидывать ненужную информацию. В данной статье мы разберем программу и информацию без выгрузки файлов, но суть от этого не меняется.

Итак, давайте из всей отчетной информации выберем самую важную.

Проверка кодировки страниц

Выбираем вкладку Internal и в фильтре HTLM и глазами пробегаемся по столбцу Content. Везде должна быть кодировка UTF-8. Если она отличается, то следует посмотреть на код ответа сервера в соседней колонке. Например, если есть 301 редирект, значит все ок.

Проверяем мета-теги с помощью SEO Spider Screaming Frog

Данный пункт имеет большое значение. Сперва стоит проверить на всех ли страницах есть h1, title и description. Для этого находим нужный столбец, фильтруем его двойным нажатием на заголовок и смотрим результат. На скриншоте видно, что все страницы без мета-тега Title имеют код ответа сервера 404 или 301 редирект. За исключением одной страницы, но это ошибка при парсинге, т.к. если зайти на нее можно убедиться, что тайтл присутствует. Ошибки программа выдает крайне редко и 1 на 500 страниц не так и страшно, если ошибок много, то следует уменьшить в настройках скорость парсинга и перезапустить процесс.

Так можно проверить title, description, заголовки h1 и h2. Помимо наличия в соседней колонке указывается длина в символах и ширина в пикселях. Поэтому необходимо после проверки наличия мета-тегов проверить и их длину.

Также следует проверить одинаковые description, title и h1. Сделать это можно вручную: пробежать глазами по списку (если страниц немного) или во вкладке отфильтровать должным образом.

После проверки необходимо заполнить все мета-теги и сделать их уникальными в пределах ресурса. Данная процедура имеет немалое значение в SEO оптимизации сайта и весьма положительно влияет на место в выдаче.

Теперь перейдем к вопросу — как найти дубли страниц на сайте. Переходим во вкладку URL, в фильтре выбираем дубликат. В идеале получаем такой результат.

Если дубли все же есть, необходимо избавиться от них. Сделать это можно двумя способами: удалить все дубли или закрыть от индексации поисковыми системами в файле robots.txt.

Также стоит обратить внимание на размеры и время загрузки страниц сайта. Возвращаемся во вкладку Internal и ищем колонки Size и Response Time. Размер кода страницы не должен превышать 200 килобайт, если видим больше — заходим на страницу и анализируем проблему. Скорость загрузки не должна превышать 5−6 секунд. Обычно «тяжелые» страницы прогружаются именно на этом временном пороге, т. е. больше уже плохо. Опять же заходим, анализируем, исправляем.

Оптимизация изображений

Оптимизация картинок также имеет свое значение в комплексном аудите сайта. Например, Яндекс охотнее возьмет картинку в соответствующую выдачу, а это дополнительный трафик и + в карму от поисковой системы. Скриминг фрог и в этом вопросе может нам помочь. Переходим на вкладку Images, в фильтре выбираем Over 100 kb, ищем объемные картинки и затем Missing Alt Text. Конечно, настроек изображений много, но это основные две, которые рекомендуется соблюдать.

Анализ перелинковки

Не будем подробно разбирать правила перелинковки, просто расскажу два важных правила:

  1. Важные для продвижения страницы должны быть как можно ближе к главной.
  2. Должны иметь как можно больше входящих ссылок и меньше исходящих, чтобы у страницы был хороший внутри-ссылочный вес.

Во вкладке Internal ищем inlinks и outlinks, сортируем по значению. Желательно найти все важные и продвигаемые разделы в списке, для этого можно воспользоваться поиском. Значения входящих и исходящих ссылок у каждого сайта будут разные. Поэтому стоит отталкиваться от общего количества страниц и средне-ссылочной массы каждой из них.

Поиск пустых страниц

Там же (во вкладке Internal) выбираем в фильтр HTML и переходим к столбцу Word Count. Отфильтровываем по значению и смотрим, где значение равно нулю либо подозрительно маленькое. Главное, сразу отбросить страницы с кодом 404 и 301 редиректами. Пустые страницы следует наполнить контентом (если они нужны). В противном случае закройте их от индексации или избавьтесь от них вовсе.

Поиск проблемных URL

В SEO Spider Frog переходим во вкладку URL и смотрим по разным параметрам фильтра, но прежде давайте разберемся «who is who».

  • Non ASCII Characters — это урлы, которые имеют символы, не входящие в схему кодировки ASCII символов. Исправляем, т.к. в будущем возникнут проблемы с ссылками на такие страницы.
  • Underscores — урлы, в которых используется нижнее подчеркивание. Правилом хорошего тона считается написание через дефис. Это не критично, но исправить желательно.
  • Duplicate — самый важный фильтр, ради которого мы заходим в этот раздел. Видим все дублирующие страницы на сайте. Необходимо найти причину образования дублей и как можно быстрее решить проблему.
  • Dynamic — показывает список url, которые содержат символы типа «&», «!» и «?». Задача не критичная, но проанализировать стоит.
  • Over 115 characters — покажет нам длинные url. К данному пункту стоит присмотреться. Т.к. есть любители поспамить ключами в урлах, за что часто можно поплатиться санкциями за переспам.

Важно!

В любых операциях с URL не стоит забывать про 301 редирект.

Анализ внешних ссылок с сайта с помощью Frog Sreaming

Вкладка External позволяет просмотреть список всех исходящих внешних ссылок. Желательно провести детальный анализ и затем периодически проверять их количество и качество. Переходим на вкладку External и фильтруем колонку Status Code по значению. Нас интересуют нерабочие ссылки. Просматриваем, меняем их на своем сайте или удаляем вовсе. Внизу во вкладке In Links можно увидеть список страниц, которые содержат ссылку на определенный сайт.

Далее желательно просмотреть все ссылки, проверить все ли ваши. Бывают случаи, когда кто-то получает доступ к вашему сайту и шпионским образом проставляет ссылки. Случай редкий, но проверить надо.

Screaming Frog SEO Spider Tool 5.1 x86 x64 [2015, ENG]

Функционал данного софта действительно поражает. Перечислю основные функциональные возможности данной программы.
Начнем с вкладки Internal:Address — Адреса (URL) страниц сайта;
Content — Тип контента (Text/Html, image/jpeg, text/css и так далее), а также кодировка на данной странице (например, utf8);
Status Code — код ответа веб-сервера (например, 200, 301, 404 и т.д);
Status — Статус ответа веб-сервера (например, для для кода ответа 200 — статус будет ОК, а для кода ответа 301 — статус будет Moved Permanently);
Title 1 — Тайтл — заголовок данной страницы;
Title 1 Length — Длинна тайтла (заголовка) в символах;
Meta Description 1 — Описание страницы (тег Meta Description);
Meta Description Length — Длинна содержимого Meta Description в символах;
Meta Keyword 1 — cодержимое тега Meta Keyword;
Meta Keywords Length — Длинна cодержимого Meta Keywords в символах;
h1 – 1 — Содержимое первого тега <h1> на странице (на самое деле, по факту, тегов <h1> может быть больше — поэтому софт при наличии второго h1 выведет столбец h1-2 самостоятельно);
h1 – Len-1 — Длинна содержимого тега <h1> в символах;
h2 – 1 — Содержимое самого первого тега <h2> на странице;
h2 – Len-1 — Длинна содержимого тега <h2> в символах;
Meta Data 1 — Мета данные robots (то есть если для страницы прописан, например, <meta name=»robots» content=»noindex,follow» />, то софт выведет в столбце Meta Data 1 значение noindex, follow);
Meta Refresh 1 (не нашел, что это такое — если знаете напишите в комментах);
Canonical — Предпочитаемый URL — содержимое <link rel=’canonical’ href=’Предпочитаемый url’ />.
Size — Размер страницы в байтах. Если хотите в Килобайтах (КБ) разделите на 1024;
Level — Уровень вложенности страницы или число кликов, которое надо сделать, начиная от главной страницы сайта, чтобы попасть на данную страницу;
Inlinks — Количество входящих внутренних ссылок на страницу;
Outlinks — Количество исходящих внутренних ссылок с данной страницы;
External Outlinks — Количество внешних исходящих ссылок (абсолютно всех, в том числе и с nofollow);
Hash — Значение ХЭШ — функции страницы. Это замечательная проверка на дубликаты контента. Если 2 значения ХЭШ — функций разных страниц равны, то и контент на этих двух страницах будет одинаковый.Хочу заметить, что Screaming Frog SEO Spider собирает в первую очередь значения Title 1, Meta Description 1, Meta Keyword 1, h1 – 1, h2 – 1 и так далее (то есть содержимое самых первых данных тегов в HTML коде данной страницы — они обозначены индексом 1), но если вдруг на странице присутствуют Title 2, Meta Description 2, Meta Keyword 2, h1 – 2, h2 – 2 и так далее, то в отчете будут автоматически созданы и столбцы под эти значения.
Перейдем к вкладке External.
Содержатся следующие данные о внешних ссылках на сайте:Address — Адреса (URL) внешней ссылки на сайте;
Content — Тип ссылки (Text/Html, image/gif, application/x — javascript и так далее), а также кодировка на данной странице (например, utf8);
Status Code — код ответа веб-сервера (например, 200, 301, 404 и т.д);
Status — Статус ответа веб-сервера (например, для для кода ответа веб-сервера 200 — статус будет ОК, а для кода ответа 302 — статус будет Found);
Level — Уровень вложенности страницы или число кликов, которое надо сделать, начиная от главной страницы сайта, чтобы попасть на данную страницу;
Inlinks — Количество найденных внешних ссылок в масштабе всего сайта.Теперь вкладка Response Code.
Содержит данные о редиректах (перенаправлениях):Address — Адреса (URL) всех страниц сайта, а также всех исходящих ссылок;
Content — Тип контента (Text/Html, image/png, image/gif и так далее), а также кодировка на данной странице (например, utf-8);
Status Code — код ответа веб-сервера (например, 200, 301, 302 и т.д);
Status — Статус ответа веб-сервера (например, для для кода ответа веб-сервера 200 — статус будет ОК, 301 — Moved Permanently, а для кода ответа 302 — статус будет Found);
Redirect URI — данный столбец содержит url-цель редиректа. Тип редиректа (301, 302 и так далее) смотрим в столбце Status Code.
Вкладка in links (входящие ссылки).
Находится внизу страницы. Выбираем url в главном окне, нажимаем in links и получаем следующие данные:
Type — Тип ссылки (HREF, JS, CSS, IMG);
From — Ссылающийся url на исследуемую страницу;
To — Ссылка выбранная в главном окне;
Anchor Text — Текст ссылки (анкор ссылки);
Alt Text — содержимое тега <alt> картинки;
Follow — атрибут ссылки (если Follow — true, то есть это означает, что ссылка не содержит атрибут rel=»nofollow») и (если Follow — false, то есть это означает, что ссылка содержит атрибут rel=»nofollow»).
Вкладка out links (исходящие ссылки).
Находится внизу страницы. Выбираем url в главном окне, нажимаем out links и получаем данные аналогичные in links с той лишь разницей, что From — уже ссылка выбранная в главном окне, а To — Ссылающийся url на исследуемую страницу.Я просто приятно поражен функционалом этого софта! Некоторые функции просто незаменимы при устранение технических неполадок на сайте. Я уверен, что продвижение сайта с данным софтом значительно облегчится. Из плюсов также отмечу следующие особенности:
очень быстрая загрузка данных с сайта;
данные представлены в удобном виде, разбиты по соответствующим вкладкам;
возможность настройки ручных фильтров по необходимым данным (доступно только после оплаты).

Screaming Frog SEO Spider русификатор

Вследствие того, что названия вкладок и пунктов меню программы являются интуитивно понятными, большинству опытных web-мастеров не требуется Frog SEO Spider русификатор. Однако в этой статье мы приведем перевод меню «Кричащей лягушки» (именно так звучит название программы на русском) для тех, кто испытает затруднения с ее использованием.

Главное меню Frog SEO Spider: как программно проанализировать сайт

  1. Пункт File предназначен для работы с результатами работы программы. При помощи Open вы можете выбрать уже готовый сохраненный в файл результат аудита сайта, а в Open Recent содержатся ссылки на последние открытые файлы.
  2. Пункт Save предназначен сохранение готового результата.
  3. Default Config – для установки «дефолтной» конфигурации и ее изменения.
  4. Crawl Recent обеспечивает быстрый доступ к запуску аудитов сайтов, которые уже были проверены программой ранее.
  5. Exit – выход из программы.

В пункте меню Configuration устанавливаются основные параметры проверки сайта.

Подпункт Spider

Для аудита большинства сайтов подойдет стандартная конфигурация, в которой осуществляется проверка всех параметров. Для увеличения скорости анализа вы можете отключить ряд ненужных вам опций, сняв соответствующие галочки:

  • check image – проверка изображений,
  • check CSS – анализ CSS-файлов,
  • check JavaScript – проверка JavaScript-файлов,
  • check SWF – аудит встроенных flash-приложений,
  • check external links – проверять внешние ссылки,
  • check links outside folder – проверять ссылки внешних директорий,
  • crawl all subdomains – анализ всех поддоменов,
  • crawl outside of start folder – проверять ссылки вне стартовой папки,
  • ignore robots.txt – игнорировать правила, указанные в robots.txt.

Также вы можете задать в расширенных настройках учет редиректов, ссылок в noindex и rel canonical.

В подпунктах меню Include и Exclude можно указать обязательные или необязательные для анализа директории сайта. К примеру, чтобы проанализированный весь сайт seo-praktika.com за исключением форума, расположенного в директории /forum/, настройки Screaming Frog SEO Spider должны быть следующими:

Также в меню Configuration можно указать скорость сканирования, прокси и User Agent для отображения в логах сайта.

В пункте Mode можно выбрать опции:

  • Spider (сканирование сайта),
  • List (анализ списка url-ов из текстового файла).

Advanceв Export – настройки экспорта. Этот пункт Screaming Frog SEO Spider позволяет создать sitemap.xml, а также экспортировать необходимые данные в таблицу .csv.

Пункт Licence предназначен для активации программы. В меню Help расположены ссылки на официальный сайт и FAQ, возможность связаться с поддержкой, проверка наличия обновления.

Вкладки Screaming Frog SEO Spider: программный аудит сайта

После того, как вы проведет анализ сайта, перед вами появится несколько заполненных информацией таблиц.

Internal – таблица внутренних ссылок сайта. В этой таблица собрана общая информация обо всех страницах web-ресурса. Рассмотрим их подробнее.

  • Address — URL проанализированных страниц.
  • Content – вид и кодировка контента (Text/Html, image/jpeg, text/css).
  • Status Code — код ответа сервера (200, 301, 404).
  • Status – расшифровка кода сервера (например, для кода 200 — статус ОК, для 301 — Moved Permanently, для 404 – Not Found).
  • Title 1 — заголовок TITLE страницы.
  • Title 1 Length — длина TITLE.
  • Meta Description 1 – содержимое тега Meta Description.
  • Meta Description Length — длина Meta Description.
  • Meta Keyword 1 — тега Meta Keyword.
  • Meta Keywords Length — длина Meta Keywords.
  • h1-1 — Содержимое первого тега <h1> на странице (при наличии второго h1 Frog SEO Spider автоматически создаст столбец h1-2).
  • h1-Len-1 — Длина тега <h1>.
  • h2-1 — содержимое самого первого на странице тега <h2>.
  • h2-Len-1 — длина тега <h2>.
  • Meta Data 1 – содержимое мета тега robots (выводит noindex и follow).
  • Meta Refresh 1 – период между автоматической перезагрузкой страницы в секундах.
  • Canonical – URL, указанный в rel canonical.
  • Size — размер страницы в байтах.
  • Level – уровень вложенности страницы.
  • Inlinks — количество входящих внутренних ссылок на эту страницу.
  • Outlinks — количество исходящих внутренних ссылок.
  • External Outlinks — количество внешних исходящих ссылок, включая noindex и nofollow).
  • Hash – Значение hash-функции страницы. Позволяет осуществлять проверку на дубли контента. Если 2 значения hash разных страниц не отличаются, значит, и контент на них одинаков.

Снизу располагается еще 4 таблицы:

  • Url info – краткая информация о странице,
  • In links – входящие внутренние ссылки на страницу,
  • Out links – исходящие ссылки,
  • Image Info – сведения о картинках.

External – таблица исходящих. Если вы не засорили свой сайт «вечными ссылками», то она должна быть практически пустой. В ином случае в таблице будет множество строк числом, равном количеству внешних исходящих ссылок на сайте.

Таблица External включает столбцы:

  • Address — URL внешней ссылки.
  • Content — тип контента (Text/Html, image/gif, application/x — javascript и т.д.)
  • Status Code — код ответа сервера.
  • Status – расшифровка кода ответа.
  • Level — уровень вложенности страницы.
  • Inlinks — количество внешних ссылок в масштабе всего сайта.

При помощи данной таблицы можно очень быстро выявить «битые» линки и удалить их, согласно правилам бирж «вечных ссылок».

Также Screaming Frog SEO Spider включает таблицы Response Codes, URL, Page Titles, Meta Description, Meta Keywords, H1, H2, Images, Directives, Custom. В них дублируется информация из таблицы Internal, представленная в более удобном виде.

Основной функционал Screaming Frog SEO Spider

Останавливаться подробно на покупке и скачивании Скриминг СЕО Фрога мы не будем: для этого достаточно базовых умений компьютерного и интернет-пользователя. Вместо этого рассмотрим основной функционал seo frog, представленный последовательно во всех ее вкладках:

  • Internal. Как понятно из названия, вкладка посвящена внутренним ссылкам. Здесь можно получить ключевую информацию обо всех страницах сайта (их, при желании, можно отсортировать по алфавиту). Достаточно кликнуть по URL какой-либо страницы, чтобы увидеть достаточно подробные данные о ней. В разделах вкладки «in links» и «out links» можно просмотреть отдельные данные о входящих и исходящих ссылках соответственно, что поможет откорректировать внутриссылочный вес каждой страницы. Также можно получить информацию о расположенных на странице картинках, заголовках, мета-тегах, размере страницы в байтах, уровне ее вложенности по отношению к главной странице интернет-портала, и так далее.

  • External. Эта вкладка, напротив, посвящена внешним ссылкам. Она включает в себя полный список сайтов, на которые со станиц вашего ресурса ведут открытые ссылки. Для каждой из них можно узнать тип, кодировку, уровень вложенности соответствующей страницы и другие данные.

  • Response Codes. Здесь содержится информация обо всех редиректах сайта: адреса страниц, исходящих ссылок и, что самое важное, коды и статусы ответа веб-сервера. В контексте оптимизации сайта пристального внимания заслуживают страницы с кодами 404 (Not Found), 302 (Found) и 301 (Moved Permanently). Особенно важно грамотно настроить 301 редирект.

  • URI. Это отдельная вкладка, целиком и полностью посвященная «проблемным» страницам сайта. Их адреса могут попасть сюда по разным причинам: например, если в их названии присутствуют символы, которых нет в ASCII; если длина адреса превышает 115 символов; если адрес является динамическим; если страницы дублируются; и по ряду других. То, что какая-то страница попала на эту вкладку, еще не значит, что с ней гарантированно что-то не так – однако это повод лишний раз проверить ее и, при необходимости, внести корректировки.

  • Page Titles. Здесь собрана информация о тайтлах всех страниц сайта. Соответственно, тут можно узнать, на каких страницах не оказалось тайтлов (и добавить их, поскольку они крайне важны для продвижения); где тайтлы совпадают с H1 (что также лучше исправить); у каких страниц одинаковые тайтлы (и это, опять же, лучше откорректировать, сделав Title разных страниц уникальными); где размер тайтла выходит за пределы рекомендуемой длины в 60-70 символов.

  • Meta Description. Суть вкладки примерно аналогична предыдущей, только здесь речь идет уже не о Title, а о Description всех страниц сайта. Тут так же можно узнать, на каких страницах нет мета-тега, на каких он чрезмерно длинный, на каких – дублируется с других страниц, и так далее, после чего принять необходимые меры.

  • Meta Keywords. Это то же самое, но для прописанных Keywords. Поскольку в нынешних реалиях прописывать их практически бессмысленно, эта вкладка не несет в себе особой ценности.

  • H По аналогии с несколькими предыдущими вкладками, здесь можно получить информацию об H1 всех страниц и откорректировать их, если где-то они слишком длинны, дублированы или вовсе отсутствуют.

  • H В этой вкладке можно посмотреть полный перечень заголовков второго уровня для каждой страницы и, опять же, наметить планы по их корректировке в случае необходимости.

  • Images. Здесь можно получить информацию обо всех изображениях, которые загружены на сайт, и их весе. Вкладка полезна в контексте ускорения загрузки интернет-портала, которой можно добиться благодаря оптимизации картинок.

  • Meta&Canonical. В этой вкладке можно, во-первых, просмотреть мета-теги robots для каждой страницы: это теги, которые позволяют или запрещают поисковым роботам индексировать страницу и использовать размещенные на ней ссылки. Здесь же можно получить информацию о канонических ссылках rel=canonical для всех страниц, то есть адресах, которые будут индексироваться при появлении дублей. Это также весьма существенная и периодически нуждающаяся в корректировке информация с точки зрения продвижения и оптимизации сайта.

Как сканировать сайт с помощью Screaming Frog SEO Spider?

Чтобы получить все перечисленные выше данные и возможность использовать их для оптимизации сайта, необходимо его просканировать в программе Screaming frog SEO Spider. Для этого достаточно ввести адрес сайта в соответствующее поле и нажать на кнопку «Start».

При этом важно знать, что все поддомены программа воспринимает как внешние ссылки. Поэтому в том случае, если вы хотите, чтобы они расценивались как часть основного ресурса, понадобится пометить галочкой пункт «Crawl All Subdomains» в разделе меню «Spider Configurations».

При помощи SEO Spider Tool можно сканировать не только весь сайт, но и какой-либо его раздел: для этого достаточно ввести его адрес в поле и нажать на кнопку «Start». В то же время, определенные разделы можно исключать из анализа: для этого нужно зайти в пункт меню «Configurations». В разделе «Exclude settings» этого пункта вы можете задать правила исключения конкретных разделов сайта из общего процесса сканирования.

Для удобства просмотра и использования результатов анализа сайта, полученных при помощи Screaming Frog SEO Spider, их можно преобразовать в более привычный и комфортный для восприятия Excel-формат. Чтобы это сделать, достаточно воспользоваться кнопкой «Export».


Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *