婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲破解字體加密案例詳解

python爬蟲破解字體加密案例詳解

熱門標簽:qt百度地圖標注 地圖地圖標注有嘆號 電銷機器人系統廠家鄭州 400電話申請資格 正安縣地圖標注app 舉辦過冬奧會的城市地圖標注 遼寧智能外呼系統需要多少錢 螳螂科技外呼系統怎么用 阿里電話機器人對話

本次案例以爬取起小點小說為例

案例目的:

通過爬取起小點小說月票榜的名稱和月票數,介紹如何破解字體加密的反爬,將加密的數據轉化成明文數據。

程序功能:

輸入要爬取的頁數,得到每一頁對應的小說名稱和月票數。

案例分析: 找到目標的url:

(右鍵檢查)找到小說名稱所在的位置:

通過名稱所在的節點位置,找到小說名稱的xpath語法:

(右鍵檢查)找到月票數所在的位置:

由上圖發現,檢查月票數據的文本,得到一串加密數據。

我們通過xpathhelper進行調試發現,無法找到加密數據的語法。因此,需要通過正則表達式進行提取。

通過正則進行數據提取。

正則表達式如下:

得到的加密數據如下:

破解加密數據是本次案例的關鍵:

既然是加密數據,就會有加密數據所對應的加密規則的Font文件。
通過找到Font字體文件中數據加密文件的url,發送請求,獲取響應,得到加密數據的woff文件。

注:我們需要的woff文件,名稱與加密月票數前面的class屬性相同。

如下圖,下載woff文件:

找到16進制的數字對應的英文數字。

其次,我們需要通過第三方庫TTFont將文件中的16進制數轉換成10進制,將英文數字轉換成阿拉伯數字。如下圖:

解析出每個加密數據對應的對應的月票數的數字如下:

注意:

由于我們在上面通過正則表式獲得的加密數據攜帶特殊符號

因此解析出月票數據中的數字之后,除了將特殊符號去除,還需把每個數字進行拼接,得到最后的票數。

最后,通過對比不同頁的url,找到翻頁的規律:



對比三個不同url發現,翻頁的規律在于參數page

所以問題分析完畢,開始代碼:

import requests
from lxml import etree
import re
from fontTools.ttLib import TTFont
import json

if __name__ == '__main__':
  # 輸入爬取的頁數、
  pages = int(input('請輸入要爬取的頁數:')) # eg:pages=1,2
  for i in range(pages): # i=0,(0,1)
    page = i+1  # 1,(1,2)
    # 確認目標的url
    url_ = f'https://www.qidian.com/rank/yuepiao?page={page}'
    # 構造請求頭參數
    headers = {
      'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36'
    }
    # 發送請求,獲取響應
    response_ = requests.get(url_,headers=headers)
    # 響應類型為html問文本
    str_data = response_.text
    # 將html文本轉換成python文件
    py_data = etree.HTML(str_data)
    # 提取文本中的目標數據
    title_list = py_data.xpath('//h4/a[@target="_blank"]/text() ')
    # 提取月票數,由于利用xpath語法無法提取,因此換用正則表達式,正則提取的目標為response_.text
    mon_list = re.findall('/style>span class=".*?">(.*?)/span>/span>',str_data)
    print(mon_list)
    # 獲取字體反爬woff文件對應的url,xpath配合正則使用
    fonturl_str = py_data.xpath('//p/span/style/text()')
    font_url = re.findall(r"format\('eot'\); src: url\('(.*?)'\) format\('woff'\)",str_data)[0]
    print(font_url)
    # 獲得url之后,構造請求頭獲取響應
    headers_ = {
      'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36',
      'Referer':'https://www.qidian.com/'
    }
    # 發送請求,獲取響應
    font_response = requests.get(font_url,headers=headers_)
    # 文件類型未知,因此用使用content格式
    font_data = font_response.content
    # 保存到本地
    with open('加密font文件.woff','wb')as f:
      f.write(font_data)
    # 解析加密的font文件
    font_obj = TTFont('加密font文件.woff')
    # 將文件轉成明文的xml文件
    font_obj.saveXML('加密font文件.xml')
    # 獲取字體加密的關系映射表,將16進制轉換成10進制
    cmap_list = font_obj.getBestCmap()
    print('字體加密關系映射表:',cmap_list)
    # 創建英文轉英文的字典
    dict_e_a = {'one':'1','two':'2','three':'3','four':'4','five':'5','six':'6',
          'seven':'7','eight':'8','nine':'9','zero':'0'}
    # 將英文數據進行轉換
    for i in cmap_list:
      for j in dict_e_a:
        if j == cmap_list[i]:
          cmap_list[i] = dict_e_a[j]
    print('轉換為阿拉伯數字的映射表為:',cmap_list)
    # 去掉加密的月票數據列表中的符號
    new_mon_list = []
    for i in mon_list:
      list_ = re.findall(r'\d+',i)
      new_mon_list.append(list_)
    print('去掉符號之后的月票數據列表為:',new_mon_list)
    # 最終解析月票數據
    for i in new_mon_list:
      for j in enumerate(i):
        for k in cmap_list:
          if j[1] == str(k):
            i[j[0]] = cmap_list[k]
    print('解析之后的月票數據為:',new_mon_list)
    # 將月票數據進行拼接
    new_list = []
    for i in new_mon_list:
      j = ''.join(i)
      new_list.append(j)
    print('解析出的明文數據為:',new_list)
    # 將名稱和對應的月票數據放進字典,并轉換成json格式及進行保存
    for i in range(len(title_list)):
      dict_ = {}
      dict_[title_list[i]] = new_list[i]
      # 將字典轉換成json格式
      json_data = json.dumps(dict_,ensure_ascii=False)+',\n'
      # 將數據保存到本地
      with open('翻頁起小點月票榜數據爬取.json','a',encoding='utf-8')as f:
        f.write(json_data)

爬取了兩頁的數據,每一頁包含20個數據

執行結果如下:

到此這篇關于python爬蟲破解字體加密案例詳解的文章就介紹到這了,更多相關python爬蟲破解字體加密內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • scrapy在python爬蟲中搭建出錯的解決方法
  • scrapy-redis分布式爬蟲的搭建過程(理論篇)
  • Python爬蟲代理池搭建的方法步驟
  • windows下搭建python scrapy爬蟲框架步驟
  • windows7 32、64位下python爬蟲框架scrapy環境的搭建方法
  • 使用Docker Swarm搭建分布式爬蟲集群的方法示例
  • 快速一鍵生成Python爬蟲請求頭
  • 一文讀懂python Scrapy爬蟲框架
  • 快速搭建python爬蟲管理平臺

標簽:濟源 合肥 淘寶好評回訪 興安盟 阜新 信陽 昭通 隨州

巨人網絡通訊聲明:本文標題《python爬蟲破解字體加密案例詳解》,本文關鍵詞  python,爬蟲,破解,字體,加密,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲破解字體加密案例詳解》相關的同類信息!
  • 本頁收集關于python爬蟲破解字體加密案例詳解的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 南华县| 印江| 洪雅县| 福建省| 永济市| 卓资县| 迭部县| 盐津县| 纳雍县| 临夏市| 体育| 顺义区| 甘德县| 临清市| 襄垣县| 田阳县| 鱼台县| 衢州市| 遂昌县| 青阳县| 济南市| 万山特区| 哈巴河县| 临江市| 将乐县| 鸡西市| 邯郸市| 阳泉市| 喀喇沁旗| 滁州市| 兰坪| 宁阳县| 韩城市| 通州区| 简阳市| 大庆市| 明光市| 峡江县| 龙陵县| 宁陕县| 织金县|