婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 詳解使用scrapy進行模擬登陸三種方式

詳解使用scrapy進行模擬登陸三種方式

熱門標簽:千呼ai電話機器人免費 外呼系統前面有錄音播放嗎 柳州正規電銷機器人收費 高德地圖標注字母 申請辦個400電話號碼 深圳網絡外呼系統代理商 騰訊地圖標注有什么版本 鎮江人工外呼系統供應商 400電話辦理費用收費

scrapy有三種方法模擬登陸方式:
- 直接攜帶cookies
- 找url地址,發送post請求存儲cookie
- 找到對應的form表單,自動解析input標簽,自動解析post請求的url地址,自動帶上數據,自動發送請求

1、攜帶cookies登陸github

import scrapy
import re
 
class Login1Spider(scrapy.Spider):
  name = 'login1'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/NoobPythoner'] # 這是一個需要登陸以后才能訪問的頁面
 
  def start_requests(self): # 重構start_requests方法
    # 這個cookies_str是抓包獲取的
    cookies_str = '...' # 抓包獲取
    # 將cookies_str轉換為cookies_dict
    cookies_dict = {i.split('=')[0]:i.split('=')[1] for i in cookies_str.split('; ')}
    yield scrapy.Request(
      self.start_urls[0],
      callback=self.parse,
      cookies=cookies_dict
    )
 
  def parse(self, response): # 通過正則表達式匹配用戶名來驗證是否登陸成功
    result_list = re.findall(r'noobpythoner|NoobPythoner', response.body.decode())
    print(result_list)
    pass

注意:

scrapy中cookie不能夠放在headers中,在構造請求的時候有專門的cookies參數,能夠接受字典形式的coookie
在setting中設置ROBOTS協議、USER_AGENT

2、使用scrapy.FormRequest()登錄

通過scrapy.FormRequest能夠發送post請求,同時需要添加fromdata參數作為請求體,以及callback

 yield scrapy.FormRequest(
       "https://github.com/session",
       formdata={
         "authenticity_token":authenticity_token,
         "utf8":utf8,
         "commit":commit,
         "login":"****",
         "password":"****"
       },
       callback=self.parse_login
     )

3、使用scrapy.Formrequest.from_response登陸github

import scrapy
import re
 
class Login3Spider(scrapy.Spider):
  name = 'login3'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/login']
 
  def parse(self, response):
    yield scrapy.FormRequest.from_response(
      response, # 傳入response對象,自動解析
      # 可以通過xpath來定位form表單,當前頁只有一個form表單時,將會自動定位
      formxpath='//*[@id="login"]/form', 
      formdata={'login': '****', 'password': '***'},
      callback=self.parse_login
    )
 
  def parse_login(self,response):
    ret = re.findall(r"noobpythoner|NoobPythoner", response.text)
    print(ret)

到此這篇關于詳解使用scrapy進行模擬登陸三種方式的文章就介紹到這了,更多相關scrapy模擬登陸內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Scrapy模擬登錄趕集網的實現代碼
  • Scrapy框架實現的登錄網站操作示例
  • python爬蟲框架scrapy實現模擬登錄操作示例

標簽:海南 烏蘭察布 大慶 烏蘭察布 郴州 合肥 平頂山 哈爾濱

巨人網絡通訊聲明:本文標題《詳解使用scrapy進行模擬登陸三種方式》,本文關鍵詞  詳解,使用,scrapy,進行,模擬,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《詳解使用scrapy進行模擬登陸三種方式》相關的同類信息!
  • 本頁收集關于詳解使用scrapy進行模擬登陸三種方式的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 大竹县| 兰坪| 千阳县| 南澳县| 河北区| 桐梓县| 盐池县| 大理市| 罗平县| 泽库县| 台安县| 连南| 临沂市| 沐川县| 将乐县| 湟中县| 合江县| 澄城县| 清远市| 宝丰县| 伊金霍洛旗| 南漳县| 永丰县| 吴堡县| 德化县| 东海县| 湖口县| 元朗区| 班戈县| 阜南县| 江口县| 荆门市| 南丰县| 定结县| 义马市| 卫辉市| 慈利县| 清徐县| 三江| 荔浦县| 日照市|