春節檔賀歲片《你好,李煥英》,于2月23日最新數據出來后,票房已經突破42億,并且趕超其他賀歲片,成為2021的一匹黑馬。
從小品演員再到導演,賈玲處女作《你好李煥英》,為何能這么火?接下來榮仔帶你運用Python借助電影網站從各個角度剖析這部電影喜得高票房的原因。
毫無疑問, 中國的電影評論伴隨著整個社會文化語境的變遷以及不同場域和載體的更迭正發生著明顯的變化。在紙質類影評統御了中國電影評論一百年后,又分別出現了電視影評、網絡影評、新媒體影評等不同業態相結合的批評話語形式。電影評論的生產與傳播確實已經進入一個民主多元化的時代。
電影評論的目的在于分析、鑒定和評價蘊含在銀幕中的審美價值、認識價值、社會意義、鏡頭語等方面,達到拍攝影片的目的,解釋影片中所表達的主題,既能通過分析影片的成敗得失,幫助導演開闊視野,提高創作水平,以促進電影藝術的繁榮和發展;又能通過分析和評價,影響觀眾對影片的理解和鑒賞,提高觀眾的欣賞水平,從而間接促進電影藝術的發展。
python爬蟲實戰——爬取豆瓣影評數據
爬取豆瓣影評數據步驟:1、獲取網頁請求
2、解析獲取的網頁
3、提取影評數據
4、保存文件
5、詞云分析
該實例選擇采用selenium庫進行編碼。
導庫
# 導入庫 from selenium import webdriver
瀏覽器驅動
# 瀏覽驅動器路徑 chromedriver = 'E:/software/chromedriver_win32/chromedriver.exe' driver = webdriver.Chrome(chromedriver)
打開網頁
driver.get("此處填寫網址")
F12鍵進入開發者工具,并確定數據提取位置,copy其中的XPath路徑
采用XPath進行影評數據提取
driver.find_element_by_xpath('//*[@id="comments"]/div[{}]/div[2]/p/span')
# 新建文件夾及文件 basePathDirectory = "Hudong_Coding" if not os.path.exists(basePathDirectory): os.makedirs(basePathDirectory) baiduFile = os.path.join(basePathDirectory, "hudongSpider.txt") # 若文件不存在則新建,若存在則追加寫入 if not os.path.exists(baiduFile): info = codecs.open(baiduFile, 'w', 'utf-8') else: info = codecs.open(baiduFile, 'a', 'utf-8')
txt文件寫入
info.writelines(elem.text + '\r\n')
詞云分析用到了jieba庫和worldcloud庫。
值得注意的是,下圖顯示了文字的選取路徑方法。
# -*- coding: utf-8 -*- # !/usr/bin/env python import os import codecs from selenium import webdriver # 獲取摘要信息 def getFilmReview(): try: # 新建文件夾及文件 basePathDirectory = "DouBan_FilmReview" if not os.path.exists(basePathDirectory): os.makedirs(basePathDirectory) baiduFile = os.path.join(basePathDirectory, "DouBan_FilmReviews.txt") # 若文件不存在則新建,若存在則追加寫入 if not os.path.exists(baiduFile): info = codecs.open(baiduFile, 'w', 'utf-8') else: info = codecs.open(baiduFile, 'a', 'utf-8') # 瀏覽驅動器路徑 chromedriver = 'E:/software/chromedriver_win32/chromedriver.exe' os.environ["webdriver.chrome.driver"] = chromedriver driver = webdriver.Chrome(chromedriver) # 打開網頁 for k in range(15000): # 大約有15000頁 k = k + 1 g = 2 * k driver.get("https://movie.douban.com/subject/34841067/comments?start={}".format(g)) try: # 自動搜索 for i in range(21): elem = driver.find_element_by_xpath('//*[@id="comments"]/div[{}]/div[2]/p/span'.format(i+1)) print(elem.text) info.writelines(elem.text + '\r\n') except: pass except Exception as e: print('Error:', e) finally: print('\n') driver.close() # 主函數 def main(): print('開始爬取') getFilmReview() print('結束爬取') if __name__ == '__main__': main()
# -*- coding: utf-8 -*- # !/usr/bin/env python import jieba #中文分詞 import wordcloud #繪制詞云 # 顯示數據 f = open('E:/software/PythonProject/DouBan_FilmReview/DouBan_FilmReviews.txt', encoding='utf-8') txt = f.read() txt_list = jieba.lcut(txt) # print(txt_list) string = ' '.join((txt_list)) print(string) # 很據得到的彈幕數據繪制詞云圖 # mk = imageio.imread(r'圖片路徑') w = wordcloud.WordCloud(width=1000, height=700, background_color='white', font_path='C:/Windows/Fonts/simsun.ttc', #mask=mk, scale=15, stopwords={' '}, contour_width=5, contour_color='red' ) w.generate(string) w.to_file('DouBan_FilmReviews.png')
# -*- coding: utf-8 -*- # !/usr/bin/env python import os import time import datetime import requests class PF(object): def __init__(self): self.url = 'https://piaofang.maoyan.com/dashboard-ajax?orderType=0uuid=173d6dd20a2c8-0559692f1032d2-393e5b09-1fa400-173d6dd20a2c8riskLevel=71optimusCode=10' self.headers = { "Referer": "https://piaofang.maoyan.com/dashboard", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36", } def main(self): while True: # 需在dos命令下運行此文件,才能清屏 os.system('cls') result_json = self.get_parse() if not result_json: break results = self.parse(result_json) # 獲取時間 calendar = result_json['calendar']['serverTimestamp'] t = calendar.split('.')[0].split('T') t = t[0] + " " + (datetime.datetime.strptime(t[1], "%H:%M:%S") + datetime.timedelta(hours=8)).strftime("%H:%M:%S") print('北京時間:', t) x_line = '-' * 155 # 總票房 total_box = result_json['movieList']['data']['nationBoxInfo']['nationBoxSplitUnit']['num'] # 總票房單位 total_box_unit = result_json['movieList']['data']['nationBoxInfo']['nationBoxSplitUnit']['unit'] print(f"今日總票房: {total_box} {total_box_unit}", end=f'\n{x_line}\n') print('電影名稱'.ljust(14), '綜合票房'.ljust(11), '票房占比'.ljust(13), '場均上座率'.ljust(11), '場均人次'.ljust(11),'排片場次'.ljust(12),'排片占比'.ljust(12), '累積總票房'.ljust(11), '上映天數', sep='\t', end=f'\n{x_line}\n') for result in results: print( result['movieName'][:10].ljust(9), # 電影名稱 result['boxSplitUnit'][:8].rjust(10), # 綜合票房 result['boxRate'][:8].rjust(13), # 票房占比 result['avgSeatView'][:8].rjust(13), # 場均上座率 result['avgShowView'][:8].rjust(13), # 場均人次 result['showCount'][:8].rjust(13), # '排片場次' result['showCountRate'][:8].rjust(13), # 排片占比 result['sumBoxDesc'][:8].rjust(13), # 累積總票房 result['releaseInfo'][:8].rjust(13), # 上映信息 sep='\t', end='\n\n' ) break time.sleep(4) def get_parse(self): try: response = requests.get(self.url, headers=self.headers) if response.status_code == 200: return response.json() except requests.ConnectionError as e: print("ERROR:", e) return None def parse(self, result_json): if result_json: movies = result_json['movieList']['data']['list'] # 場均上座率, 場均人次, 票房占比, 電影名稱, # 上映信息(上映天數), 排片場次, 排片占比, 綜合票房,累積總票房 ticks = ['avgSeatView', 'avgShowView', 'boxRate', 'movieName', 'releaseInfo', 'showCount', 'showCountRate', 'boxSplitUnit', 'sumBoxDesc'] for movie in movies: self.piaofang = {} for tick in ticks: # 數字和單位分開需要join if tick == 'boxSplitUnit': movie[tick] = ''.join([str(i) for i in movie[tick].values()]) # 多層字典嵌套 if tick == 'movieName' or tick == 'releaseInfo': movie[tick] = movie['movieInfo'][tick] if movie[tick] == '': movie[tick] = '此項數據為空' self.piaofang[tick] = str(movie[tick]) yield self.piaofang if __name__ == '__main__': while True: pf = PF() pf.main()
# -*- coding: utf-8 -*- # !/usr/bin/env python import requests from bs4 import BeautifulSoup import re from PIL import Image def get_data(url): # 請求網頁 resp = requests.get(url) # headers 參數確定 headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36' } # 對于獲取到的 HTML 二進制文件進行 'utf-8' 轉碼成字符串文件 html = resp.content.decode('utf-8') # BeautifulSoup縮小查找范圍 soup = BeautifulSoup(html, 'html.parser') # 獲取 a> 的超鏈接 for link in soup.find_all('a'): a = link.get('href') if type(a) == str: b = re.findall('(.*?)jpg', a) try: print(b[0]+'jpg') img_urls = b[0] + '.jpg' # 保存數據 for img_url in img_urls: # 發送圖片 URL 請求 image = requests.get(img_url, headers=headers).content # 保存數據 with open(r'E:/IMAGES/' + image, 'wb') as img_file: img_file.write(image) except: pass else: pass # 爬取目標網頁 if __name__ == '__main__': get_data('https://www.1905.com/newgallery/hdpic/1495100.shtml')
看這部電影開始笑得有多開心,后面哭得就有多傷心,這部電影用孩子的視角,選取了母親在選擇愛情和婚姻期間所作出的選擇,通過對母親的觀察,體會母親所謂的幸福,并不是賈玲認為的:嫁給廠長的兒子就能獲得的,這是他們共同的選擇,無論經歷過多少次,母親都會義無反顧選擇適合自己的而不是別人認為的那種幸福的人生,這也間接告訴我們:我們追求幸福的過程中,要憑借自己的走,而不是要過別人眼中和口中的幸福,畢竟人生的很多選擇只有一次。
到此這篇關于python爬蟲之你好,李煥英電影票房數據分析的文章就介紹到這了,更多相關python爬取電影票房內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!