婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Python中lru_cache的使用和實現詳解

Python中lru_cache的使用和實現詳解

熱門標簽:智能機器人電銷神器 外呼電信系統 熱門電銷機器人 河南虛擬外呼系統公司 上海企業外呼系統 惠州龍門400電話要怎么申請 萬利達百貨商場地圖標注 電話機器人哪里有賣 okcc外呼系統怎么調速度

在計算機軟件領域,緩存(Cache)指的是將部分數據存儲在內存中,以便下次能夠更快地訪問這些數據,這也是一個典型的用空間換時間的例子。一般用于緩存的內存空間是固定的,當有更多的數據需要緩存的時候,需要將已緩存的部分數據清除后再將新的緩存數據放進去。需要清除哪些數據,就涉及到了緩存置換的策略,LRU(Least Recently Used,最近最少使用)是很常見的一個,也是 Python 中提供的緩存置換策略。

下面我們通過一個簡單的示例來看 Python 中的 lru_cache 是如何使用的。

def factorial(n):
  print(f"計算 {n} 的階乘")
  return 1 if n = 1 else n * factorial(n - 1)

a = factorial(5)
print(f'5! = {a}')
b = factorial(3)
print(f'3! = {b}')

上面的代碼中定義了函數 factorial,通過遞歸的方式計算 n 的階乘,并且在函數調用的時候打印出 n 的值。然后分別計算 5 和 3 的階乘,并打印結果。運行上面的代碼,輸出如下

計算 5 的階乘
計算 4 的階乘
計算 3 的階乘
計算 2 的階乘
計算 1 的階乘
5! = 120
計算 3 的階乘
計算 2 的階乘
計算 1 的階乘
3! = 6

可以看到, factorial(3) 的結果在計算 factorial(5) 的時候已經被計算過了,但是后面又被重復計算了。為了避免這種重復計算,我們可以在定義函數 factorial 的時候加上 lru_cache 裝飾器,如下所示

import functools
# 注意 lru_cache 后的一對括號,證明這是帶參數的裝飾器
@functools.lru_cache()
def factorial(n):
  print(f"計算 {n} 的階乘")
  return 1 if n = 1 else n * factorial(n - 1)

重新運行代碼,輸入如下

計算 5 的階乘
計算 4 的階乘
計算 3 的階乘
計算 2 的階乘
計算 1 的階乘
5! = 120
3! = 6

可以看到,這次在調用 factorial(3) 的時候沒有打印相應的輸出,也就是說 factorial(3) 是直接從緩存讀取的結果,證明緩存生效了。

被 lru_cache 修飾的函數在被相同參數調用的時候,后續的調用都是直接從緩存讀結果,而不用真正執行函數。下面我們深入源碼,看看 Python 內部是怎么實現 lru_cache 的。寫作時 Python 最新發行版是 3.9,所以這里使用的是Python 3.9 的源碼 ,并且保留了源碼中的注釋。

def lru_cache(maxsize=128, typed=False):
  """Least-recently-used cache decorator.
  If *maxsize* is set to None, the LRU features are disabled and the cache
  can grow without bound.
  If *typed* is True, arguments of different types will be cached separately.
  For example, f(3.0) and f(3) will be treated as distinct calls with
  distinct results.
  Arguments to the cached function must be hashable.
  View the cache statistics named tuple (hits, misses, maxsize, currsize)
  with f.cache_info(). Clear the cache and statistics with f.cache_clear().
  Access the underlying function with f.__wrapped__.
  See: http://en.wikipedia.org/wiki/Cache_replacement_policies#Least_recently_used_(LRU)
  """

  # Users should only access the lru_cache through its public API:
  #    cache_info, cache_clear, and f.__wrapped__
  # The internals of the lru_cache are encapsulated for thread safety and
  # to allow the implementation to change (including a possible C version).
  
  if isinstance(maxsize, int):
    # Negative maxsize is treated as 0
    if maxsize  0:
      maxsize = 0
  elif callable(maxsize) and isinstance(typed, bool):
    # The user_function was passed in directly via the maxsize argument
    user_function, maxsize = maxsize, 128
    wrapper = _lru_cache_wrapper(user_function, maxsize, typed, _CacheInfo)
    wrapper.cache_parameters = lambda : {'maxsize': maxsize, 'typed': typed}
    return update_wrapper(wrapper, user_function)
  elif maxsize is not None:
    raise TypeError(
      'Expected first argument to be an integer, a callable, or None')
  
  def decorating_function(user_function):
    wrapper = _lru_cache_wrapper(user_function, maxsize, typed, _CacheInfo)
    wrapper.cache_parameters = lambda : {'maxsize': maxsize, 'typed': typed}
    return update_wrapper(wrapper, user_function)
  
  return decorating_function

這段代碼中有如下幾個關鍵點

關鍵字參數

maxsize 表示緩存容量,如果為 None 表示容量不設限, typed 表示是否區分參數類型,注釋中也給出了解釋,如果 typed == True ,那么 f(3) 和 f(3.0) 會被認為是不同的函數調用。

第 24 行的條件分支

如果 lru_cache 的第一個參數是可調用的,直接返回 wrapper,也就是把 lru_cache 當做不帶參數的裝飾器,這是 Python 3.8 才有的特性,也就是說在 Python 3.8 及之后的版本中我們可以用下面的方式使用 lru_cache,可能是為了防止程序員在使用 lru_cache 的時候忘記加括號。

import functools
# 注意 lru_cache 后面沒有括號,
# 證明這是將其當做不帶參數的裝飾器
@functools.lru_cache
def factorial(n):
  print(f"計算 {n} 的階乘")
  return 1 if n = 1 else n * factorial(n - 1)

注意,Python 3.8 之前的版本運行上面代碼會報錯:TypeError: Expected maxsize to be an integer or None。

lru_cache 的具體邏輯是在 _lru_cache_wrapper 函數中實現的,還是一樣,列出源碼,保留注釋。

def _lru_cache_wrapper(user_function, maxsize, typed, _CacheInfo):
  # Constants shared by all lru cache instances:
  sentinel = object()     # unique object used to signal cache misses
  make_key = _make_key     # build a key from the function arguments
  PREV, NEXT, KEY, RESULT = 0, 1, 2, 3  # names for the link fields

  cache = {}
  hits = misses = 0
  full = False
  cache_get = cache.get  # bound method to lookup a key or return None
  cache_len = cache.__len__ # get cache size without calling len()
  lock = RLock()      # because linkedlist updates aren't threadsafe
  root = []        # root of the circular doubly linked list
  root[:] = [root, root, None, None]   # initialize by pointing to self

  if maxsize == 0:

    def wrapper(*args, **kwds):
      # No caching -- just a statistics update
      nonlocal misses
      misses += 1
      result = user_function(*args, **kwds)
      return result

  elif maxsize is None:

    def wrapper(*args, **kwds):
      # Simple caching without ordering or size limit
      nonlocal hits, misses
      key = make_key(args, kwds, typed)
      result = cache_get(key, sentinel)
      if result is not sentinel:
        hits += 1
        return result
      misses += 1
      result = user_function(*args, **kwds)
      cache[key] = result
      return result

  else:

    def wrapper(*args, **kwds):
      # Size limited caching that tracks accesses by recency
      nonlocal root, hits, misses, full
      key = make_key(args, kwds, typed)
      with lock:
        link = cache_get(key)
        if link is not None:
          # Move the link to the front of the circular queue
          link_prev, link_next, _key, result = link
          link_prev[NEXT] = link_next
          link_next[PREV] = link_prev
          last = root[PREV]
          last[NEXT] = root[PREV] = link
          link[PREV] = last
          link[NEXT] = root
          hits += 1
          return result
        misses += 1
      result = user_function(*args, **kwds)
      with lock:
        if key in cache:
          # Getting here means that this same key was added to the
          # cache while the lock was released. Since the link
          # update is already done, we need only return the
          # computed result and update the count of misses.
          pass
        elif full:
          # Use the old root to store the new key and result.
          oldroot = root
          oldroot[KEY] = key
          oldroot[RESULT] = result
          # Empty the oldest link and make it the new root.
          # Keep a reference to the old key and old result to
          # prevent their ref counts from going to zero during the
          # update. That will prevent potentially arbitrary object
          # clean-up code (i.e. __del__) from running while we're
          # still adjusting the links.
          root = oldroot[NEXT]
          oldkey = root[KEY]
          oldresult = root[RESULT]
          root[KEY] = root[RESULT] = None
          # Now update the cache dictionary.
          del cache[oldkey]
          # Save the potentially reentrant cache[key] assignment
          # for last, after the root and links have been put in
          # a consistent state.
          cache[key] = oldroot
        else:
          # Put result in a new link at the front of the queue.
          last = root[PREV]
          link = [last, root, key, result]
          last[NEXT] = root[PREV] = cache[key] = link
          # Use the cache_len bound method instead of the len() function
          # which could potentially be wrapped in an lru_cache itself.
          full = (cache_len() >= maxsize)
      return result

  def cache_info():
    """Report cache statistics"""
    with lock:
      return _CacheInfo(hits, misses, maxsize, cache_len())

  def cache_clear():
    """Clear the cache and cache statistics"""
    nonlocal hits, misses, full
    with lock:
      cache.clear()
      root[:] = [root, root, None, None]
      hits = misses = 0
      full = False

  wrapper.cache_info = cache_info
  wrapper.cache_clear = cache_clear
  return wrapper

函數開始的地方 2~14 行定義了一些關鍵變量,

  • hits 和 misses 分別表示緩存命中和沒有命中的次數
  • root 雙向循環鏈表的頭結點,每個節點保存前向指針、后向指針、key 和 key 對應的 result,其中 key 為 _make_key 函數根據參數結算出來的字符串,result 為被修飾的函數在給定的參數下返回的結果。 注意 ,root 是不保存數據 key 和 result 的。
  • cache 是真正保存緩存數據的地方,類型為 dict。 cache 中的 key 也是 _make_key 函數根據參數結算出來的字符串,value 保存的是 key 對應的雙向循環鏈表中的節點。

接下來根據 maxsize 不同,定義不同的 wrapper 。

  • maxsize == 0 ,其實也就是沒有緩存,那么每次函數調用都不會命中,并且沒有命中的次數 misses 加 1。
  • maxsize is None ,不限制緩存大小,如果函數調用不命中,將沒有命中次數 misses 加 1,否則將命中次數 hits 加 1。
  • 限制緩存的大小,那么需要根據 LRU 算法來更新 cache ,也就是 42~97 行的代碼。
    • 如果緩存命中 key,那么將命中節點移到雙向循環鏈表的結尾,并且返回結果(47~58 行)
    • 這里通過字典加雙向循環鏈表的組合數據結構,實現了用 O(1) 的時間復雜度刪除給定的節點。
    • 如果沒有命中,并且緩存滿了,那么需要將最久沒有使用的節點(root 的下一個節點)刪除,并且將新的節點添加到鏈表結尾。在實現中有一個優化,直接將當前的 root 的 key 和 result 替換成新的值,將 root 的下一個節點置為新的 root,這樣得到的雙向循環鏈表結構跟刪除 root 的下一個節點并且將新節點加到鏈表結尾是一樣的,但是避免了刪除和添加節點的操作(68~88 行)
    • 如果沒有命中,并且緩存沒滿,那么直接將新節點添加到雙向循環鏈表的結尾( root[PREV] ,這里我認為是結尾,但是代碼注釋中寫的是開頭)(89~96 行)

最后給 wrapper 添加兩個屬性函數 cache_info 和 cache_clear , cache_info 顯示當前緩存的命中情況的統計數據, cache_clear 用于清空緩存。對于上面階乘相關的代碼,如果在最后執行 factorial.cache_info() ,會輸出

CacheInfo(hits=1, misses=5, maxsize=128, currsize=5)

第一次執行 factorial(5) 的時候都沒命中,所以 misses = 5,第二次執行 factorial(3) 的時候,緩存命中,所以 hits = 1。

最后需要說明的是, 對于有多個關鍵字參數的函數,如果兩次調用函數關鍵字參數傳入的順序不同,會被認為是不同的調用,不會命中緩存。另外,被 lru_cache 裝飾的函數不能包含可變類型參數如 list,因為它們不支持 hash。

總結一下,這篇文章首先簡介了一下緩存的概念,然后展示了在 Python 中 lru_cache 的使用方法,最后通過源碼分析了 Python 中 lru_cache 的實現細節。

到此這篇關于Python中lru_cache的使用和實現詳解的文章就介紹到這了,更多相關Python lru_cache 內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python 的lru_cache裝飾器使用簡介
  • Python實現的一個簡單LRU cache
  • python自帶緩存lru_cache用法及擴展的使用

標簽:百色 綏化 綿陽 合肥 周口 淮安 秦皇島 周口

巨人網絡通訊聲明:本文標題《Python中lru_cache的使用和實現詳解》,本文關鍵詞  Python,中,lru,cache,的,使用,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python中lru_cache的使用和實現詳解》相關的同類信息!
  • 本頁收集關于Python中lru_cache的使用和實現詳解的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    久久久蜜桃精品| 欧美亚洲综合一区| 奇米四色…亚洲| 日韩精品亚洲专区| 日韩电影在线观看网站| 日本aⅴ亚洲精品中文乱码| 视频一区免费在线观看| 久久99日本精品| 精品亚洲成a人在线观看| 国产福利精品一区| 99热精品国产| 欧美日精品一区视频| 欧美久久久一区| 欧美r级在线观看| 国产精品女上位| 亚洲精品va在线观看| 午夜欧美一区二区三区在线播放| 亚洲成人先锋电影| 激情五月激情综合网| 成人av动漫网站| 欧美日韩精品电影| 精品成a人在线观看| 中文字幕日韩一区二区| 五月婷婷欧美视频| 国产精品一区二区黑丝| 91精彩视频在线观看| 欧美不卡在线视频| 综合色中文字幕| 日本网站在线观看一区二区三区 | 国产精品美女久久久久久久久 | 亚洲精品国产精华液| 三级在线观看一区二区| 国产成人啪免费观看软件 | 久久久久久久久久电影| 亚洲一区在线视频观看| 看电影不卡的网站| 99视频在线观看一区三区| 欧美精品丝袜中出| 综合在线观看色| 激情图区综合网| 欧美日本韩国一区| 亚洲高清在线精品| 国产一区二区三区免费看| 欧美在线综合视频| 国产欧美精品区一区二区三区 | 国产精品久久久久久久久免费桃花| 亚洲国产视频直播| 成人精品高清在线| 久久丝袜美腿综合| 久久狠狠亚洲综合| 欧美电影一区二区| 亚洲资源中文字幕| 成人精品视频一区二区三区尤物| 欧美一区二视频| 午夜天堂影视香蕉久久| 91免费版在线看| 国产精品二区一区二区aⅴ污介绍| 久久国产精品免费| 日韩欧美二区三区| 麻豆精品国产传媒mv男同| 精品视频在线免费| 亚洲激情综合网| 色一情一伦一子一伦一区| 日韩理论片网站| 一本久久精品一区二区| 亚洲私人黄色宅男| 色综合久久99| 一区二区三区中文在线观看| 色先锋资源久久综合| 亚洲精品福利视频网站| 91老司机福利 在线| 亚洲精品日产精品乱码不卡| 一本到一区二区三区| 一区二区三区鲁丝不卡| 欧美日韩一本到| 日韩va欧美va亚洲va久久| 日韩三级精品电影久久久| 麻豆91在线播放免费| 久久久亚洲国产美女国产盗摄| 久久99精品网久久| 国产三区在线成人av| aaa亚洲精品| 香蕉久久夜色精品国产使用方法 | 欧美国产精品一区二区| 99精品视频在线播放观看| 综合激情网...| 欧美日韩日日骚| 狠狠色狠狠色综合系列| 中文av一区特黄| 在线观看视频一区| 日韩av电影免费观看高清完整版| 日韩免费高清电影| 成人久久18免费网站麻豆| 一区二区三区欧美在线观看| 欧美一区二区三区人| 国产福利一区二区三区视频| 亚洲另类一区二区| 日韩一级片在线播放| 9久草视频在线视频精品| 亚洲一区二区三区在线看| 精品理论电影在线观看| 99久久精品免费观看| 日本特黄久久久高潮| 中文字幕中文字幕在线一区| 欧美色综合天天久久综合精品| 精品在线免费视频| 综合av第一页| 久久奇米777| 欧美人与性动xxxx| 成人免费视频国产在线观看| 日韩成人精品在线| 亚洲三级小视频| 久久久久亚洲蜜桃| 欧美群妇大交群中文字幕| 成人性视频免费网站| 蜜桃在线一区二区三区| 亚洲欧美日韩系列| 日本一区二区三级电影在线观看 | 99国产精品久久久| 久久精品国产精品亚洲综合| 亚洲乱码国产乱码精品精98午夜 | 成人av集中营| 奇米色一区二区| 亚洲一区二区三区国产| 国产女主播在线一区二区| 欧美日韩情趣电影| 97久久超碰精品国产| 国产sm精品调教视频网站| 日韩精品欧美成人高清一区二区| 亚洲青青青在线视频| 日本一区二区免费在线观看视频| 日韩欧美一区二区免费| 欧美日韩久久一区二区| 99久久99久久免费精品蜜臀| 高清成人免费视频| 国产91精品精华液一区二区三区 | 亚洲欧洲在线观看av| 国产欧美一区在线| 国产三级欧美三级日产三级99| 制服.丝袜.亚洲.中文.综合| 欧美剧在线免费观看网站| 欧美中文字幕一区二区三区亚洲| 国产午夜精品久久| www国产精品av| 久久女同互慰一区二区三区| 日韩午夜av电影| 日韩欧美激情四射| 日韩精品中午字幕| 2023国产精华国产精品| 久久午夜老司机| 国产欧美一区二区精品婷婷| 国产视频一区二区在线| 国产精品嫩草久久久久| 中文字幕综合网| 亚洲婷婷在线视频| 亚洲专区一二三| 日本中文字幕不卡| 精品一区二区免费视频| 国产成人亚洲综合色影视| thepron国产精品| 欧美性一级生活| 日韩精品资源二区在线| 久久丝袜美腿综合| 亚洲婷婷综合久久一本伊一区| 亚洲一区二区三区四区在线免费观看 | 国产精品久久99| 一区二区三区不卡视频| 日韩1区2区3区| 国产精品一区二区视频| 色综合色综合色综合| 7777精品伊人久久久大香线蕉的| 久久综合色综合88| 亚洲欧美激情在线| 久久国产精品99久久久久久老狼 | 亚洲女与黑人做爰| 日韩av在线播放中文字幕| 国产精品自拍毛片| 91香蕉国产在线观看软件| 欧美精品视频www在线观看| 欧美精品一区二区三| 一区二区三区日韩在线观看| 看片网站欧美日韩| 在线观看欧美黄色| 国产亚洲人成网站| 亚洲不卡av一区二区三区| 国产成人av一区二区三区在线观看| 91丨porny丨在线| 久久婷婷国产综合国色天香| 一区二区三区欧美激情| 国产不卡视频在线观看| 欧美日韩你懂的| 国产精品传媒在线| 精品在线免费视频| 欧美精品aⅴ在线视频| 亚洲欧美怡红院| 国产一区二区三区在线观看免费| 精品视频资源站| 亚洲视频在线观看三级| 国产精品亚洲综合一区在线观看| 91精品国产综合久久精品图片|