婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > Python手拉手教你爬取貝殼房源數(shù)據(jù)的實(shí)戰(zhàn)教程

Python手拉手教你爬取貝殼房源數(shù)據(jù)的實(shí)戰(zhàn)教程

熱門(mén)標(biāo)簽:富錦商家地圖標(biāo)注 武漢外呼系統(tǒng)平臺(tái) 池州外呼調(diào)研線(xiàn)路 如何申請(qǐng)400電話(huà)費(fèi)用 沈陽(yáng)防封電銷(xiāo)卡品牌 江西省地圖標(biāo)注 沈陽(yáng)外呼系統(tǒng)呼叫系統(tǒng) 沈陽(yáng)人工外呼系統(tǒng)價(jià)格 外呼系統(tǒng)哪些好辦

一、爬蟲(chóng)是什么?

 在進(jìn)行大數(shù)據(jù)分析或者進(jìn)行數(shù)據(jù)挖掘的時(shí)候,數(shù)據(jù)源可以從某些提供數(shù)據(jù)統(tǒng)計(jì)的網(wǎng)站獲得,也可以從某些文獻(xiàn)或內(nèi)部資料中獲得,但是這些獲得數(shù)據(jù)的方式,有時(shí)很難滿(mǎn)足我們對(duì)數(shù)據(jù)的需求,而手動(dòng)從互聯(lián)網(wǎng)中去尋找這些數(shù)據(jù),則耗費(fèi)的精力過(guò)大。此時(shí)就可以利用爬蟲(chóng)技術(shù),自動(dòng)地從互聯(lián)網(wǎng)中獲取我們感興趣的數(shù)據(jù)內(nèi)容,并將這些數(shù)據(jù)內(nèi)容爬取回來(lái),作為我們的數(shù)據(jù)源,從而進(jìn)行更深層次的數(shù)據(jù)分析,并獲得更多有價(jià)值的信息。 在使用爬蟲(chóng)前首先要了解爬蟲(chóng)所需的庫(kù)(requests)或者( urllib.request ),該庫(kù)是為了爬取數(shù)據(jù)任務(wù)而創(chuàng)建的。

 二、使用步驟

1.引入庫(kù)

代碼如下(示例):

import os
import urllib.request
import random
import time
class BeikeSpider:
    def __init__(self, save_path="./beike"):
        """
        貝殼爬蟲(chóng)構(gòu)造函數(shù)
        :param save_path: 網(wǎng)頁(yè)保存目錄
        """

2.讀入數(shù)據(jù)

代碼如下 :

# 網(wǎng)址模式
        self.url_mode = "http://{}.fang.ke.com/loupan/pg{}/"
        # 需爬取的城市
        self.cities = ["cd", "sh", "bj"]
        # 每個(gè)城市爬取的頁(yè)數(shù)
        self.total_pages = 20
        # 讓爬蟲(chóng)程序隨機(jī)休眠5-10秒
        self.sleep = (5, 10)
        # 網(wǎng)頁(yè)下載保存根目錄
        self.save_path = save_path
        # 設(shè)置用戶(hù)代理,是爬蟲(chóng)程序偽裝成瀏覽器
        self.headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.114 Safari/537.36"}
        # 代理IP的信息
        self.proxies = [
            {"https": "123.163.67.50:8118"},
            {"https": "58.56.149.198:53281"},
            {"https": "14.115.186.161:8118"}
        ]

        # 創(chuàng)建保存目錄
        if not os.path.exists(self.save_path):
            os.makedirs(self.save_path)
   def crawl(self):
        """
        執(zhí)行爬取任務(wù)
        :return: None
        """

該處使用的url網(wǎng)絡(luò)請(qǐng)求的數(shù)據(jù)。

3.隨機(jī)選擇一個(gè)ip地址構(gòu)建代理服務(wù)器

 for city in self.cities:
            print("正在爬取的城市:", city)
            # 每個(gè)城市的網(wǎng)頁(yè)用單獨(dú)的目錄存放
            path = os.path.join(self.save_path, city)
            if not os.path.exists(path):
                os.makedirs(path)

            for page in range(1, self.total_pages+1):
                # 構(gòu)建完整的url
                url = self.url_mode.format(city, page)
                # 構(gòu)建Request對(duì)象, 將url和請(qǐng)求頭放入對(duì)象中
                request = urllib.request.Request(url, headers=self.headers)

                # 隨機(jī)選擇一個(gè)代理IP
                proxy = random.choice(self.proxies)
                # 構(gòu)建代理服務(wù)器處理器
                proxy_handler = urllib.request.ProxyHandler(proxy)
                # 構(gòu)建opener
                opener = urllib.request.build_opener(proxy_handler)
                # 使用構(gòu)建的opener打開(kāi)網(wǎng)頁(yè)
                response = opener.open(request)
                html = response.read().decode("utf-8")
                # 網(wǎng)頁(yè)保存文件名(包含路徑)
                filename = os.path.join(path, str(page)+".html")

                # 保存網(wǎng)頁(yè)
                self.save(html, filename)
                print("第%d頁(yè)保存成功!" % page)

                # 隨機(jī)休眠
                sleep_time = random.randint(self.sleep[0], self.sleep[1])
                time.sleep(sleep_time)

該處除隨機(jī)選擇ip地址以外還會(huì)限制爬取數(shù)據(jù)的速度,避免暴力爬取。

4.運(yùn)行代碼

def save(self, html, filename):
        """
        保存下載的網(wǎng)頁(yè)
        :param html: 網(wǎng)頁(yè)內(nèi)容
        :param filename: 保存的文件名
        :return:
        """

        f = open(filename, 'w', encoding="utf-8")
        f.write(html)
        f.close()

    def parse(self):
        """
        解析網(wǎng)頁(yè)數(shù)據(jù)
        :return:
        """
        pass

if __name__ == "__main__":
    spider = BeikeSpider()
    spider.crawl()

運(yùn)行結(jié)果就會(huì)這樣,會(huì)保存在你的文件夾中。

總結(jié)

這里對(duì)文章進(jìn)行總結(jié):今天分析這波代碼目的是為了讓大家清晰明亮的了解python爬蟲(chóng)的運(yùn)作,和大家一起學(xué)習(xí)
以上就是今天要講的內(nèi)容,本文僅僅簡(jiǎn)單介紹了pandas的使用,而urllib.request提供了大量能使我們快速便捷地爬取數(shù)據(jù)。

您可能感興趣的文章:
  • Python scrapy爬取蘇州二手房交易數(shù)據(jù)
  • Python爬蟲(chóng)之爬取我愛(ài)我家二手房數(shù)據(jù)
  • python爬取鏈家二手房的數(shù)據(jù)
  • Python爬蟲(chóng)之爬取二手房信息
  • 基于python爬取鏈家二手房信息代碼示例
  • python爬蟲(chóng) 爬取58同城上所有城市的租房信息詳解
  • Python爬蟲(chóng)入門(mén)案例之爬取二手房源數(shù)據(jù)

標(biāo)簽:株洲 潛江 黑龍江 阿里 常德 呂梁 銅川 通遼

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python手拉手教你爬取貝殼房源數(shù)據(jù)的實(shí)戰(zhàn)教程》,本文關(guān)鍵詞  Python,手拉手,教你,爬取,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python手拉手教你爬取貝殼房源數(shù)據(jù)的實(shí)戰(zhàn)教程》相關(guān)的同類(lèi)信息!
  • 本頁(yè)收集關(guān)于Python手拉手教你爬取貝殼房源數(shù)據(jù)的實(shí)戰(zhàn)教程的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 乌拉特中旗| 宽城| 五常市| 抚宁县| 綦江县| 西安市| 庆阳市| 沙河市| 延吉市| 田东县| 临颍县| 酒泉市| 阳原县| 龙山县| 九江县| 玉溪市| 望江县| 句容市| 米脂县| 莲花县| 仙居县| 天峻县| 塔河县| 西峡县| 桃园县| 隆子县| 清涧县| 竹山县| 莱阳市| 定兴县| 丰宁| 江阴市| 琼海市| 海原县| 枝江市| 十堰市| 醴陵市| 高邑县| 五台县| 阿拉善左旗| 澳门|