婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Python爬蟲UA偽裝爬取的實例講解

Python爬蟲UA偽裝爬取的實例講解

熱門標(biāo)簽:鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 外呼系統(tǒng)前面有錄音播放嗎 申請辦個400電話號碼 柳州正規(guī)電銷機器人收費 騰訊地圖標(biāo)注有什么版本 高德地圖標(biāo)注字母 400電話辦理費用收費 千呼ai電話機器人免費 深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商

在使用python爬取網(wǎng)站信息時,查看爬取完后的數(shù)據(jù)發(fā)現(xiàn),數(shù)據(jù)并沒有被爬取下來,這是因為網(wǎng)站中有UA這種請求載體的身份標(biāo)識,如果不是基于某一款瀏覽器爬取則是不正常的請求,所以會爬取失敗。本文介紹Python爬蟲采用UA偽裝爬取實例。

一、python爬取失敗原因如下:

UA檢測是門戶網(wǎng)站的服務(wù)器會檢測對應(yīng)請求的載體身份標(biāo)識,如果檢測到請求的載體身份標(biāo)識為某一款瀏覽器,說明該請求是一個正常的請求。如果檢測到請求的載體身份標(biāo)識不是基于某一款瀏覽器的。則表示該請求為不正常的請求,則服務(wù)器端就很有可能會拒絕該次請求。

二、解決方法:采用UA偽裝

讓爬蟲對應(yīng)的請求載體身份標(biāo)識偽裝成某一款瀏覽器,這里采用的偽裝成Chrome瀏覽器。

采用UA偽裝爬取實例

import requests
if __name__=="__main__":
  headers={
    "User-Agent":"Mozilla/5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) 
    Chrome / 88.0.4324.150 Safari / 537.36"
  }
  url="https://www.sogou.com/web"
  queryword=input("輸出關(guān)鍵字")
  param={
    "query":queryword
  }
  res=requests.get(url=url,params=param,headers=headers)
  res.encoding="utf-8"
  page_text=res.text
  fileName=queryword+".html"
  with open(fileName,"w",encoding="utf-8") as fs:
    fs.write(page_text)
  print(page_text+"爬取結(jié)束")

知識點擴展:

采用UA偽裝:讓爬蟲對應(yīng)的請求載體身份標(biāo)識偽裝成某一款瀏覽器,這里采用的偽裝成Chrome瀏覽器

代碼如下:

import requests
#UA:User—Agent(請求載體的身份標(biāo)識)
# UA檢測:門戶網(wǎng)站的服務(wù)器會檢測對應(yīng)請求的載體身份標(biāo)識,如果檢測到請求的載體身份標(biāo)識為某一款瀏覽器,說明該請求是一個正常的請求。
# 如果檢測到請求的載體身份標(biāo)識不是基于某一款瀏覽器的。則表示該請求為不正常的請求,則服務(wù)器端就很有可能會拒絕該次請求
if __name__=="__main__":
  headers={
    "User-Agent":"Mozilla/5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 88.0.4324.150 Safari / 537.36"
  }
  url="https://www.sogou.com/web"
  queryword=input("輸出關(guān)鍵字")
  param={
    "query":queryword
  }
  res=requests.get(url=url,params=param,headers=headers)
  res.encoding="utf-8"
  page_text=res.text
  fileName=queryword+".html"
  with open(fileName,"w",encoding="utf-8") as fs:
    fs.write(page_text)
  print(page_text+"爬取結(jié)束")

到此這篇關(guān)于Python爬蟲UA偽裝爬取的實例講解的文章就介紹到這了,更多相關(guān)Python爬蟲如何UA偽裝爬取內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬蟲 urllib模塊反爬蟲機制UA詳解

標(biāo)簽:海南 烏蘭察布 大慶 平頂山 合肥 烏蘭察布 哈爾濱 郴州

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python爬蟲UA偽裝爬取的實例講解》,本文關(guān)鍵詞  Python,爬蟲,偽裝,爬,取的,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python爬蟲UA偽裝爬取的實例講解》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python爬蟲UA偽裝爬取的實例講解的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 定安县| 芜湖市| 唐河县| 上蔡县| 阿克苏市| 德清县| 嘉兴市| 米泉市| 德安县| 宁晋县| 桑植县| 五原县| 蕲春县| 大城县| 兴和县| 勃利县| 清徐县| 宁国市| 盘山县| 东明县| 通许县| 衢州市| 拉萨市| 宣汉县| 海丰县| 军事| 安阳县| 丰县| 永泰县| 新津县| 安福县| 中方县| 新邵县| 高碑店市| 铁岭市| 井研县| 绥江县| 竹山县| 会同县| 扎鲁特旗| 定西市|