對于非連續數據集,數據可視化時候需要每七天一個采樣點。要求是選擇此前最新的數據作為當日的數據展示,譬如今天是2019-06-18,而數據集里只有2019-06-15,那就用2019-06-15的數據作為2019-06-18的數據去描點。
每七天一個采樣點,會使得每天展示所選的數據都會有所不同。當時間往后推移一天,日期為2019-06-19,那么最新數據點從2019-06-19開始,第二個就是2019-06-12。這里就需要一個算法來快速的根據當前日期去選出(填充)一系列數據供數據可視化之用。
一個非常直接的實現方法:
先生成一串目標時間序列,從某個開始日到今天為止,每七天一個日期。
把這些日期map到數據集的日期, Eg. {“2019-06-18”:“2019-06-15”…} 。
把map到的數據抽出來用pd.concat接起來。
代碼如下:
target_dates = pd.date_range(end=now, periods=100, freq="7D")
full_dates = pd.date_range(start, now).tolist()
org_dates = df.date.tolist()
last_date = None
for d in full_dates:
if d in org_dates:
date_map[d] = d
last_date = d
elif last_date is not None:
date_map[d] = last_date
else:
continue
new_df = pd.DataFrame()
for td in target_dates:
new_df = pd.concat([new_df, df[df["date"]==date_map[td]])
這樣的一個算法處理一個接近千萬量級的數據集上大概需要十多分鐘。仔細檢查發現,每一次合并的dataframe數據量并不小,而且總的操作次數達到上萬次。
所以就想如何避免高頻次地使用pd.concat去合并dataframe。
最終想到了一個巧妙的方法,只需要修改一下前面的第三步,把日期的map轉換成dataframe,然后和原始數據集做merge操作就可以了。
target_dates = pd.date_range(end=now, periods=100, freq="7D")
full_dates = pd.date_range(start, now).tolist()
org_dates = df.date.tolist()
last_date = None
for d in full_dates:
if d in org_dates:
date_map[d] = d
last_date = d
elif last_date is not None:
date_map[d] = last_date
else:
continue
#### main change is from here #####
date_map_list = []
for td in target_dates:
date_map_list.append({"target_date":td, "org_date":date_map[td]})
date_map_df = pd.DataFrame(date_map_list)
new_df = date_map_df.merge(df, left_on=["org_date"], right_on=["date"], how="inner")
改進之后,所有的循環操作都在一個微數量級上,最后一個merge操作得到了所有有用的數據,運行時間在5秒左右,大大提升了性能。
補充:Pandas DataFrames 中 merge 合并的坑點(出現重復連接鍵)
在我的實際開發中遇到的坑點,查閱了相關文檔 總結一下
left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})

right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 2, 2]})

result = pd.merge(left, right, on='B', how='outer')

警告:在重復鍵上加入/合并可能導致返回的幀是行維度的乘法,這可能導致內存溢出。在加入大型DataFrame之前,重復值。

檢查重復鍵
如果知道右側的重復項DataFrame但希望確保左側DataFrame中沒有重復項,則可以使用該 validate='one_to_many'參數,這不會引發異常。
pd.merge(left, right, on='B', how='outer', validate="one_to_many")
# 打印的結果:
A_x B A_y
0 1 1 NaN
1 2 2 4.0
2 2 2 5.0
3 2 2 6.0
參數:
validate : str, optional
If specified, checks if merge is of specified type.
“one_to_one” or “1:1”: check if merge keys are unique in both left and right datasets.
“one_to_many” or “1:m”: check if merge keys are unique in left dataset.
“many_to_one” or “m:1”: check if merge keys are unique in right dataset.
“many_to_many” or “m:m”: allowed, but does not result in checks.
官方文檔連接:
Pandas文檔中提及 merge
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
您可能感興趣的文章:- Python基礎之pandas數據合并
- python-pandas創建Series數據類型的操作
- Python數據分析之pandas函數詳解
- python基于Pandas讀寫MySQL數據庫
- pandas讀取excel時獲取讀取進度的實現
- pandas中.loc和.iloc以及.at和.iat的區別說明
- 淺談Pandas dataframe數據處理方法的速度比較
- 解決使用pandas聚類時的小坑
- 詳細介紹在pandas中創建category類型數據的幾種方法
- python中pandas.read_csv()函數的深入講解
- pandas 顛倒列順序的兩種解決方案
- pandas調整列的順序以及添加列的實現
- pandas快速處理Excel,替換Nan,轉字典的操作
- Python基礎之教你怎么在M1系統上使用pandas