Как парсить данные о размещении вакансий монстров с помощью Python

Как парсить данные о размещении вакансий монстров с помощью Python Скачать скрипт PythonОтправьте ссылку для загрузки на: Monsterjob.com является ведущим в мире интернет парсинг-порталом вакансий. На его веб-сайте и в приложении перечислены миллионы рабочих меспарсить товары с сайтат по всему миру. Здесь можно создать полный профиль со всеми деталями образования, опытом работы, резюме и т.д. и обратиться к потенциальным работодателям. Менеджеры по найму используют monster для поиска подходящих кандидатов из миллионов профилей, доступных здесь. Таким образом, чтобы парсить данные о монстрах, обеспечьте автоматический способ извлечения массовых данных.Поиск подходящего кандидата на работу или кандидата может быть затруднительным, учитывая количество доступных вариантов. Это может быть автоматизировано и легко обрабатывается с помощью веб-скрейпинга. Вы можете искать работу по ключевым словам, соскабливать все детали, а затем отфильтровывать их в соответствии с вашим профилем. Аналогично для менеджера по найму вмеспарсить товары с сайтато того, чтобы переходить по одному ко всем профилям, просто соскребайте данные о монстрах и устанавливайте фильтры, чтобы найти подходящих кандидатов. Мало того, что можно также найти, какие навыки востребованы для определенного вида работы, проанализировать данные и изучить наиболее актуальные навыки. Таким образом, спарсить базу есть много преимуществ очистки рабочего места.В этом уроке мы перейдем на веб-сайт monster job и будем искать работу разработчика программного обеспечения в Австралииhttps://www.monster.com/jobs/search/?q=Software-Developer&where=Australia&cy=AUМы соскребем такие детали, как должность, название компании, местоположение, а затем соскребем полное описание работы.Смотрите полный код ниже или смотрите видео для подробного объяснения:Импорт библиотек:import requests from bs4 import BeautifulSoup as soup Send get request: URL = ‘https://www.monster.com/jobs/search/?q=Software-Developer&where=Australia&cy=AU’ page = requests.get(URL) Get Job title: title = [] for header in bsobj.findAll(‘h2′,’class’:’title’): title.append(header.text.strip()) НазваниеВыход:Получить название компании:company = [] for name in bsobj.findAll(‘div’,’class’:’company’): company.append(name.text.strip()) КомпанияВыход:Получить местоположение:location = [] for locs in bsobj.findAll(‘div’,’class’:’location’): location.append(locs.text.strip()) location = location[1:] РасположениеВыход:Create pandas data frame: import pandas as pd d1 = ‘title’:title,’company’:company,’location’:location df = pd.DataFrame.from_dict(d1) Выход:Получите полное описание работы:links = [] for link in bsobj.findAll(‘h2′,’class’:’title’): links.append(link.a[‘href’]) for link in links: html = requests.get(link) #print(html.status_code) bs = soup(html.content,’lxml’) for a in bs.findAll(‘div’,’class’:’col-md-8′): print(a.text.strip()) Выход:Узнайте больше о наших услугах по очистке данных монстров и о том, программа для парсинга сайтов как данные о вакансиях могут вам помочь. Также загрузите образцы данных для четкого представления о данных и о том, какое поле из них можно извлечь.