婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pandas 使用merge實現百倍加速的操作

pandas 使用merge實現百倍加速的操作

熱門標簽:京華圖書館地圖標注 看懂地圖標注方法 電話機器人貸款詐騙 佛山通用400電話申請 廣東旅游地圖標注 蘇州人工外呼系統軟件 淮安呼叫中心外呼系統如何 打印谷歌地圖標注 電話外呼系統招商代理

對于非連續數據集,數據可視化時候需要每七天一個采樣點。要求是選擇此前最新的數據作為當日的數據展示,譬如今天是2019-06-18,而數據集里只有2019-06-15,那就用2019-06-15的數據作為2019-06-18的數據去描點。

每七天一個采樣點,會使得每天展示所選的數據都會有所不同。當時間往后推移一天,日期為2019-06-19,那么最新數據點從2019-06-19開始,第二個就是2019-06-12。這里就需要一個算法來快速的根據當前日期去選出(填充)一系列數據供數據可視化之用。

一個非常直接的實現方法:

先生成一串目標時間序列,從某個開始日到今天為止,每七天一個日期。

把這些日期map到數據集的日期, Eg. {“2019-06-18”:“2019-06-15”…} 。

把map到的數據抽出來用pd.concat接起來。

代碼如下:

target_dates = pd.date_range(end=now, periods=100, freq="7D")
full_dates = pd.date_range(start, now).tolist()
org_dates = df.date.tolist()

last_date = None
for d in full_dates:
 if d in org_dates:
  date_map[d] = d
  last_date = d
 elif last_date is not None:
  date_map[d] = last_date
 else:
  continue
new_df = pd.DataFrame()
for td in target_dates:
 new_df = pd.concat([new_df, df[df["date"]==date_map[td]]) 

這樣的一個算法處理一個接近千萬量級的數據集上大概需要十多分鐘。仔細檢查發現,每一次合并的dataframe數據量并不小,而且總的操作次數達到上萬次。

所以就想如何避免高頻次地使用pd.concat去合并dataframe。

最終想到了一個巧妙的方法,只需要修改一下前面的第三步,把日期的map轉換成dataframe,然后和原始數據集做merge操作就可以了。

target_dates = pd.date_range(end=now, periods=100, freq="7D")
full_dates = pd.date_range(start, now).tolist()
org_dates = df.date.tolist()

last_date = None
for d in full_dates:
 if d in org_dates:
  date_map[d] = d
  last_date = d
 elif last_date is not None:
  date_map[d] = last_date
 else:
  continue
  
#### main change is from here #####
date_map_list = []
for td in target_dates:
 date_map_list.append({"target_date":td, "org_date":date_map[td]}) 
date_map_df = pd.DataFrame(date_map_list)
new_df = date_map_df.merge(df, left_on=["org_date"], right_on=["date"], how="inner") 

改進之后,所有的循環操作都在一個微數量級上,最后一個merge操作得到了所有有用的數據,運行時間在5秒左右,大大提升了性能。

補充:Pandas DataFrames 中 merge 合并的坑點(出現重復連接鍵)

在我的實際開發中遇到的坑點,查閱了相關文檔 總結一下

left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})

right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 2, 2]})

result = pd.merge(left, right, on='B', how='outer')

警告:在重復鍵上加入/合并可能導致返回的幀是行維度的乘法,這可能導致內存溢出。在加入大型DataFrame之前,重復值。

檢查重復鍵

如果知道右側的重復項DataFrame但希望確保左側DataFrame中沒有重復項,則可以使用該 validate='one_to_many'參數,這不會引發異常。

pd.merge(left, right, on='B', how='outer', validate="one_to_many")
 
# 打印的結果:
 A_x B A_y
0 1 1 NaN
1 2 2 4.0
2 2 2 5.0
3 2 2 6.0

參數:

validate : str, optional
If specified, checks if merge is of specified type.

“one_to_one” or “1:1”: check if merge keys are unique in both left and right datasets.
“one_to_many” or “1:m”: check if merge keys are unique in left dataset.
“many_to_one” or “m:1”: check if merge keys are unique in right dataset.
“many_to_many” or “m:m”: allowed, but does not result in checks.

官方文檔連接:

Pandas文檔中提及 merge

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • Python基礎之pandas數據合并
  • python-pandas創建Series數據類型的操作
  • Python數據分析之pandas函數詳解
  • python基于Pandas讀寫MySQL數據庫
  • pandas讀取excel時獲取讀取進度的實現
  • pandas中.loc和.iloc以及.at和.iat的區別說明
  • 淺談Pandas dataframe數據處理方法的速度比較
  • 解決使用pandas聚類時的小坑
  • 詳細介紹在pandas中創建category類型數據的幾種方法
  • python中pandas.read_csv()函數的深入講解
  • pandas 顛倒列順序的兩種解決方案
  • pandas調整列的順序以及添加列的實現
  • pandas快速處理Excel,替換Nan,轉字典的操作
  • Python基礎之教你怎么在M1系統上使用pandas

標簽:股票 中山 江蘇 畢節 衡水 呼和浩特 駐馬店 湖州

巨人網絡通訊聲明:本文標題《pandas 使用merge實現百倍加速的操作》,本文關鍵詞  pandas,使用,merge,實現,百倍,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pandas 使用merge實現百倍加速的操作》相關的同類信息!
  • 本頁收集關于pandas 使用merge實現百倍加速的操作的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 区。| 菏泽市| 溆浦县| 綦江县| 弥渡县| 布尔津县| 和林格尔县| 金乡县| 信阳市| 平阴县| 西盟| 津市市| 湘潭县| 滨海县| 隆昌县| 平安县| 砀山县| 北流市| 五寨县| 龙岩市| 广水市| 广昌县| 安吉县| 泾川县| 青州市| 虎林市| 塘沽区| 南皮县| 阳新县| 芜湖市| 青岛市| 临夏市| 大城县| 泸溪县| 南川市| 万盛区| 巴南区| 咸丰县| 宿迁市| 肥东县| 西青区|