<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Парсинг &#8212; mastak.eu.org</title>
	<atom:link href="https://mastak.eu.org/category/parsing/feed/" rel="self" type="application/rss+xml" />
	<link>https://mastak.eu.org</link>
	<description></description>
	<lastBuildDate>Sun, 09 Nov 2025 08:38:19 +0000</lastBuildDate>
	<language>ru-RU</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>

<image>
	<url>https://mastak.eu.org/wp-content/uploads/2025/03/cropped-photo_2025-03-27_14-26-31-32x32-optimized.webp</url>
	<title>Парсинг &#8212; mastak.eu.org</title>
	<link>https://mastak.eu.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Парсинг контента при помощи Screaming Frog SEO Spider</title>
		<link>https://mastak.eu.org/parsing-kontenta-pri-pomoshhi-screaming-frog-seo-spider-2/</link>
		
		<dc:creator><![CDATA[mastak1eu_all]]></dc:creator>
		<pubDate>Mon, 20 Oct 2025 12:31:45 +0000</pubDate>
				<category><![CDATA[Парсинг]]></category>
		<category><![CDATA[Полезно]]></category>
		<category><![CDATA[screaming frog seo spider]]></category>
		<guid isPermaLink="false">https://mastak.eu.org/?p=612</guid>

					<description><![CDATA[ПРОГРАММЫ АВТОРАлексей Содержание Screaming Frog SEO Spider (лягушка) — это SEO краулер при помощи которого обычно производят аудиты сайтов, так же им можно парсить контент с других сайтов. Сразу оговорюсь в бесплатной версии программы это сделать нельзя, но вы можете получить ключ бесплатно, подписавшись на рассылку в конце данного урока. Скачиваем&#160;Screaming Frog SEO Spider, устанавливаем его и запускаем. После чего активируем программу (как это сделать есть в материалах рассылки). Парсим контент программой Screaming Frog SEO Spider Я сейчас создаю 2 [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>Создание бесплатного API для генерации изображений, используя перехваченные запросы Flux</title>
		<link>https://mastak.eu.org/sozdanie-besplatnogo-api-dlya-generaczii-izobrazhenij-ispolzuya-perehvachennye-zaprosy-flux/</link>
		
		<dc:creator><![CDATA[mastak1eu_all]]></dc:creator>
		<pubDate>Fri, 16 May 2025 06:20:38 +0000</pubDate>
				<category><![CDATA[Python]]></category>
		<category><![CDATA[Парсинг]]></category>
		<guid isPermaLink="false">https://mastak.eu.org/?p=326</guid>

					<description><![CDATA[ # Inspecting and Replaying HTTP Requests: Создание Flux API на Python https://wlux.net/threads/30663/HTTP-запросы — это основной способ взаимодействия нашего кода с внешними сервисами. Однако для эффективного использования этих запросов нам нужно уметь их отслеживать и повторять. Сегодня мы подробно разберём, как это делать, используя Flux API для бесплатной генерации фотографий. Рассмотрим каждый шаг на примере Python и Flux Schnell API.## Подготовка окружения### 1. Установка необходимых библиотекПрежде чем начать, убедитесь, что у вас установлены все необходимые библиотеки. В нашем случае мы будем [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>Разработка веб-скраперов и автоматизация работы с веб-сайтами с использованием Python</title>
		<link>https://mastak.eu.org/razrabotka-veb-skraperov-i-avtomatizacziya-raboty-s-veb-sajtami-s-ispolzovaniem-python/</link>
		
		<dc:creator><![CDATA[mastak1eu_all]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 18:25:18 +0000</pubDate>
				<category><![CDATA[Selenium]]></category>
		<category><![CDATA[Парсинг]]></category>
		<guid isPermaLink="false">https://mastak.eu.org/?p=199</guid>

					<description><![CDATA[В наше время доступ к данным, представленным в интернете, играет ключевую роль во многих областях, включая аналитику, маркетинг, исследования рынка и многое другое. Однако получение этих данных может быть трудоемким и требует автоматизации процесса. В этой статье я расскажу о методах сбора данных с веб-сайтов с использованием Python и нескольких популярных библиотек. BeautifulSoup: парсинг HTML и XML При работе с веб-сайтами и данными, представленными в формате HTML или XML, часто возникает необходимость извлечь определенные данные из страницы или файла. В [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>Селекторы CSS и их применение в автоматизации тестирования Программного Обеспечения</title>
		<link>https://mastak.eu.org/selektory-css-i-ih-primenenie-v-avtomatizaczii-testirovaniya-programmnogo-obespecheniya/</link>
		
		<dc:creator><![CDATA[mastak1eu_all]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 11:06:49 +0000</pubDate>
				<category><![CDATA[Selenium]]></category>
		<category><![CDATA[Парсинг]]></category>
		<guid isPermaLink="false">https://mastak.eu.org/?p=191</guid>

					<description><![CDATA[Всем добра! Данную тему мы уже раскрывали на вебинаре, который проводил наш преподаватель, но решили дополнить чуть текстом (да и многим, как оказалось, так удобнее). В общем представляем статью на тему&#160;«Селекторы CSS», которую&#160;Павел Попов&#160;прорабатывал в рамках нашего курса&#160;«Автоматизация в тестировании». Поехали. Каждый курс или статья для начинающих автоматизаторов рассказывает об удобном и универсальном средстве поиска элементов Web-страницы, как XPath. Данный вид локаторов на элемент был создан в 1999 году для указания на элементы в XML файлах. С помощью встроенных функций [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>CSS и XPath для QA: чтобы разобраться с локаторами, нужно всего лишь…</title>
		<link>https://mastak.eu.org/css-i-xpath-dlya-qa-chtoby-razobratsya-s-lokatorami-nuzhno-vsego-lish/</link>
		
		<dc:creator><![CDATA[mastak1eu_all]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 10:00:43 +0000</pubDate>
				<category><![CDATA[Selenium]]></category>
		<category><![CDATA[Парсинг]]></category>
		<guid isPermaLink="false">https://mastak.eu.org/?p=161</guid>

					<description><![CDATA[Привет! Меня зовут Иван, я руковожу горизонталью автоматизации тестирования в Skyeng. Часть моей работы — обучать ручных тестировщиков ремеслу автоматизации. И тема с поиском локаторов, по моему опыту, самая тяжкая для изучения. Здесь куча нюансов, которые надо учитывать. Но стоит разобраться, и локаторы начинают бросаться в глаза сами. Хороший автоматизатор должен идеально уметь находить читабельные и краткие локаторы на странице. Об этом и пойдет речь ниже. Наливаем чай-кофе и погнали! Что такое локатор Локатор — обычный текст, которой идентифицирует себя [&#8230;]]]></description>
		
		
		
			</item>
		<item>
		<title>Парсинг контента при помощи Screaming Frog SEO Spider</title>
		<link>https://mastak.eu.org/parsing-kontenta-pri-pomoshhi-screaming-frog-seo-spider/</link>
		
		<dc:creator><![CDATA[mastak1eu_all]]></dc:creator>
		<pubDate>Wed, 19 Mar 2025 18:03:41 +0000</pubDate>
				<category><![CDATA[Парсинг]]></category>
		<guid isPermaLink="false">https://mastak.eu.org/?p=44</guid>

					<description><![CDATA[ПРОГРАММЫ АВТОРАлексей Screaming Frog SEO Spider (лягушка) — это SEO краулер при помощи которого обычно производят аудиты сайтов, так же им можно парсить контент с других сайтов. Сразу оговорюсь в бесплатной версии программы это сделать нельзя, но вы можете получить ключ бесплатно, подписавшись на рассылку в конце данного урока. Скачиваем&#160;Screaming Frog SEO Spider, устанавливаем его и запускаем. После чего активируем программу (как это сделать есть в материалах рассылки). Парсим контент программой Screaming Frog SEO Spider Я сейчас создаю 2 сайта [&#8230;]]]></description>
		
		
		
			</item>
	</channel>
</rss>
