婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Ruby中使用多線程隊列(Queue)實現下載博客文章保存到本地文件

Ruby中使用多線程隊列(Queue)實現下載博客文章保存到本地文件

熱門標簽:地圖標注賺錢項目注冊 湖州u友防封電銷卡 徐州網絡外呼系統哪個好 高德地圖標注客服 百度地圖標注自定義圖片 常德電銷平臺外呼系統軟件價格 電銷機器人廠商代理 滴滴外呼系統 白銀外呼paas系統

Ruby:多線程下載博客文章到本地的完整代碼

復制代碼 代碼如下:

#encoding:utf-8
require 'net/http'
require 'thread'
require 'open-uri'
require 'nokogiri'
require 'date'

$queue = Queue.new
#文章列表頁數
page_nums = 8
page_nums.times do |num|
  $queue.push("http://www.cnblogs.com/hongfei/default.html?page="+num.to_s)
end

threads = []
#獲取網頁源碼
def get_html(url)
  html = ""
  open(url) do |f|
    html = f.read
  end
  return html
end

def fetch_links(html)
  doc = Nokogiri::HTML(html)
  #提取文章鏈接
  doc.xpath('//div[@class="postTitle"]/a').each do |link|
    href = link['href'].to_s
    if href.include?"html"
      #add work to the  queue
      $queue.push(link['href'])
    end
  end
end

def save_to(save_to,content)
  f = File.new("./"+save_to+".html","w+")
  f.write(content)
  f.close()
end

#程序開始的時間
$total_time_begin = Time.now.to_i

#開辟的線程數
threadNums = 10
threadNums.times do
  threadsThread.new do
    until $queue.empty?
      url = $queue.pop(true) rescue nil
      html = get_html(url)
      fetch_links(html)
      if !url.include?"?page"
        title = Nokogiri::HTML(html).css('title').text
        puts "["+ Time.now.strftime("%H:%M:%S") + "]「" + title + "」" + url
        save_to("pages/" + title.gsub(/\//,""),html) if url.include?".html"
      end
    end
  end
end
threads.each{|t| t.join}

#程序結束的時間
$total_time_end = Time.now.to_i
puts "線程數:" + threadNums.to_s
puts "執行時間:" + ($total_time_end - $total_time_begin).to_s + "秒"

多線程部分講解

復制代碼 代碼如下:

$queue = Queue.new
#文章列表頁數
page_nums = 8
page_nums.times do |num|
  $queue.push("http://www.cnblogs.com/hongfei/default.html?page="+num.to_s)
end

首先聲明一個Queue隊列,然后往隊列中添加文章列表頁,以便后面可以從這些列表頁中提取文章鏈接,另外queue聲明成全局變量($),以便在函數中也可以訪問到。

我的曾是土木人博客文章列表總共有8頁,所以需要實現給page_nums賦值為8

復制代碼 代碼如下:

#開辟的線程數
threadNums = 10
threadNums.times do
  threadsThread.new do
    until $queue.empty?
      url = $queue.pop(true) rescue nil
      html = get_html(url)
      fetch_links(html)
      if !url.include?"?page"
        title = Nokogiri::HTML(html).css('title').text
        puts "["+ Time.now.strftime("%H:%M:%S") + "]「" + title + "」" + url
        save_to("pages/" + title.gsub(/\//,""),html) if url.include?".html"
      end
    end
  end
end
threads.each{|t| t.join}

通過Thread.new來創建線程

創建線程后,會進入until $queue.empty?循環,直到任務隊列為空(即:沒有要采集的網址了)
開辟的線程,每次都會從任務隊列(queue)取到一個url,并通過get_html函數獲取網頁源碼
由于任務隊列中的url有分頁url和文章url兩種,所以要進行區分。
如果是分頁url(url中含有“?page”),就直接提取文章鏈接。
如果是文章url,就保存到本地(save_to(),文件名為文章title)
在循環體外,創建線程完畢后,需要將創建的線程執行Thread#join方法,以便讓主線程等待,
直到所有的線程執行完畢才結束主線程

代碼執行時間統計

復制代碼 代碼如下:

#程序開始的時間
$total_time_begin = Time.now.to_i
#執行過程

#程序結束的時間
$total_time_end = Time.now.to_i
puts "執行時間:" + ($total_time_end - $total_time_begin).to_s + "秒"

TIme模塊的#now方法可以獲取當前時間,然后使用to_i,可以將當前時間轉換成從1970年1月1日00:00:00 UTC開始所經過的秒數。

獲取網頁源碼

復制代碼 代碼如下:

#獲取網頁源碼
def get_html(url)
  html = ""
  open(url) do |f|
    html = f.read
  end
  return html
end

ruby中,獲取網頁的方法用Net::HTTP模塊和OpenURI模塊。OpenURI模塊最簡單,可以直徑將指定網頁當成普通文件一樣進行操作。

執行結果:使用多線程采集130多篇文章,耗時15秒(單線程:47s左右)

您可能感興趣的文章:
  • Ruby中使用mechanize批量下載校內網相冊照片
  • ruby實現的一個異步文件下載HttpServer實例
  • 比較不錯的關于ruby的電子書下載地址集合
  • windows和linux下Ruby的下載與安裝
  • Ruby使用eventmachine為HTTP服務器添加文件下載功能

標簽:張家界 永州 遼寧 梧州 普洱 公主嶺 三沙 荊門

巨人網絡通訊聲明:本文標題《Ruby中使用多線程隊列(Queue)實現下載博客文章保存到本地文件》,本文關鍵詞  Ruby,中,使用,多,線程,隊列,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Ruby中使用多線程隊列(Queue)實現下載博客文章保存到本地文件》相關的同類信息!
  • 本頁收集關于Ruby中使用多線程隊列(Queue)實現下載博客文章保存到本地文件的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 河曲县| 巴马| 河东区| 上思县| 乌拉特后旗| 应城市| 成都市| 章丘市| 八宿县| 台北县| 广平县| 东阿县| 余姚市| 庄浪县| 榆中县| 余江县| 伊吾县| 安平县| 甘南县| 苍溪县| 沂南县| 香港 | 涟源市| 宁明县| 红桥区| 龙陵县| 南丹县| 黄浦区| 册亨县| 廉江市| 吉木萨尔县| 祥云县| 山东| 大宁县| 灌云县| 云和县| 南京市| 麻栗坡县| 芦山县| 浙江省| 乐都县|