1,使用到的第三方庫
requests
BeautifulSoup 美味湯
worldcloud 詞云
jieba 中文分詞
matplotlib 繪圖
2,代碼實現部分
import requests import wordcloud import jieba from bs4 import BeautifulSoup from matplotlib import pyplot as plt from pylab import mpl #設置字體 mpl.rcParams['font.sans-serif'] = ['SimHei'] mpl.rcParams['axes.unicode_minus'] = False url = 'https://s.weibo.com/top/summary?Refer=top_hottopnav=1wvr=6' try: #獲取數據 r = requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding soup = BeautifulSoup(r.text,'html.parser') data = soup.find_all('a') d_list = [] for item in data: d_list.append(item.text) words = d_list[4:-11:] #中文分詞 result = list(jieba.cut(words[0])) for word in words[1::]: result.extend(jieba.cut(word)) redata = [] for it in result: if len(it) = 1: continue else: redata.append(it) result_str = ' '.join(redata) #輸出詞云圖 font = r'C:\Windows\Fonts\simhei.ttf' w = wordcloud.WordCloud(font_path=font,width=600,height=400) w.generate(result_str) w.to_file('微博熱搜關鍵詞詞云.png') key = list(set(redata)) x,y = [],[] #篩選數據 for st in key: count = redata.count(st) if count = 1: continue else: x.append(st) y.append(count) x.sort() y.sort() #繪制結果圖 plt.plot(x,y) plt.show() except Exception as e: print(e)
3,運行結果
到此這篇關于Python爬蟲分析微博熱搜關鍵詞的文章就介紹到這了,更多相關Python爬蟲微博熱搜內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!
標簽:烏蘭察布 哈爾濱 合肥 海南 平頂山 烏蘭察布 郴州 大慶
巨人網絡通訊聲明:本文標題《Python爬蟲分析微博熱搜關鍵詞的實現代碼》,本文關鍵詞 Python,爬蟲,分析,微博,熱搜,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。