• 【实战项目】高并发内存池(下)


    79f3199ea1e64c218856725efddf2b2a.gif

      我们上篇文章(高并发内存池(上))介绍了向高并发内存池申请资源的整个过程,本篇文章我们将会对申请后的空间资源释放的整个流程同时也会对我们自己实现的内存池进行性能测试和优化

    文章目录

    一、thread cache 回收资源

    二、central cache 回收资源

    三、page cache 回收资源

    四、大于256KB的空间申请与释放

    4、1 大于256KB空间的申请

     4、2 大于256KB空间的释放

    五、引入定长内存池进行优化

    六、释放时的参数优化

    七、多线程环境下性能测试

    八、采用基数树代替unordered_map


    🙋‍♂️ 作者:@Ggggggtm 🙋‍♂️

    👀 专栏:实战项目 👀

    💥 标题:高并发内存池💥

     ❣️ 寄语:与其忙着诉苦,不如低头赶路,奋路前行,终将遇到一番好风景 ❣️

    一、thread cache 回收资源

      thread cache 只能处理申请对象的大小需要小于等于256KB。当然,thread cache 也只能处理回收小于等于256KB的对象。这里提问:假设我们申请的对象不再使用,需要对其进行释放,那么是还给了操作系统吗? 并不是还给操作系统,而是还给了thread cache对应的哈希桶所挂的_freeList

      对象释放的思路也很简单:当释放内存小于256k时将内存释放回thread cache,计算size映射自由链表桶位置i,将对象Push 到_freeLists[i]。我们直接看代码实现:

    1. void ThreadCache::Deallocate(void* ptr, size_t size)
    2. {
    3. assert(ptr);
    4. assert(size <= MAX_BYTES);
    5. // 找到对应的桶位置进行头插
    6. size_t index = SizeClass::Index(size);
    7. _freeLists[index].Push(ptr);
    8. }

      只考虑把对象插回对应的自由链表就结束了吗?有没有这样一种情况:前期某一个线程申请了很多空间资源,现在基本上有很多都需要释放,那么thread cache 某个桶下会不会占有过多资源呢?答案是会的!当某一个线程的thread cache一个桶下占有过多资源是不是也是一种浪费呢?是的!应该把他们还给central cache,以便后面给其他线程使用

      怎么判断thread cache某个桶当中自由链表长度过长呢当thread cache某个桶当中自由链表的长度超过它一次批量向central cache申请的对象个数,此时我们就认为它的自由链表长度是过长的!需要把该自由链表当中的这些对象还给central cache。具体实现代码如下:

    1. void ThreadCache::Deallocate(void* ptr, size_t size)
    2. {
    3. assert(ptr);
    4. assert(size <= MAX_BYTES);
    5. // 找到对应的桶位置进行头插
    6. size_t index = SizeClass::Index(size);
    7. _freeLists[index].Push(ptr);
    8. // 当链表长度大于一次批量申请的内存时就开始还一段list给central cache
    9. if (_freeLists[index].Size() > _freeLists[index].MaxSize())
    10. {
    11. ListTooLong(_freeLists[index], size);
    12. }
    13. }
    14. void ThreadCache::ListTooLong(FreeList& list, size_t size)
    15. {
    16. void* start = nullptr;
    17. void* end = nullptr;
    18. list.PopRange(start, end, list.MaxSize());
    19. CentralCache::GetInstance()->ReleaseListToSpans(start, size);
    20. }

       为了很好的获取thread cache中的自由链表下的对象的个数,我们在FreeList中还维护了一个_size的变量,用来统计自由链表下的对象的个数。同时,上述的PopRange就是删除自由链表的一段节点。由于还需要将这段节点还回给central cache 中,所以我们在头插一段时需要两个输出型参数具体实现代码如下:

    1. class FreeList
    2. {
    3. public:
    4. void Push(void* obj)
    5. {
    6. assert(obj);
    7. // 头插
    8. //*(void**)obj = _freeList;
    9. NextObj(obj) = _freeList;
    10. _freeList = obj;
    11. ++_size;
    12. }
    13. void* Pop()
    14. {
    15. assert(_freeList);
    16. // 头删
    17. void* obj = _freeList;
    18. _freeList = NextObj(obj);
    19. --_size;
    20. return obj;
    21. }
    22. bool Empty()
    23. {
    24. return _freeList == nullptr;
    25. }
    26. void PushRange(void* start, void* end,size_t n)
    27. {
    28. NextObj(end) = _freeList;
    29. _freeList = start;
    30. _size += n;
    31. }
    32. void PopRange(void*& start, void*& end, size_t n)
    33. {
    34. assert(n <= _size);
    35. start = _freeList;
    36. end = start;
    37. for (size_t i = 0; i < n - 1; ++i)
    38. {
    39. end = NextObj(end);
    40. }
    41. _freeList = NextObj(end);
    42. NextObj(end) = nullptr;
    43. _size -= n;
    44. }
    45. size_t& MaxSize()
    46. {
    47. return _maxSize;
    48. }
    49. size_t Size()
    50. {
    51. return _size;
    52. }
    53. private:
    54. void* _freeList = nullptr;
    55. size_t _maxSize = 1; //用于慢增长部分
    56. size_t _size = 0;
    57. };

      当我们时刻维护着_freeList中的对象的个数时,需要的时候不用遍历去查找,直接获取就行。

      我们这里是当thread cache的某个自由链表过长时,我们实际就是把这个自由链表当中全部的对象都还给central cache了。实际上也并没有完全还回去,因为我们还留了一个可申请空间(个人感觉有点少),其次是可能还回有一部分资源并没有释放回来。当然,我们这里也是可以通过PopRange()函数进行控制删除的个数。

    二、central cache 回收资源

      当我们把一部分对象从thread cache中还给central cache时,也就是使用的下面的接口:

    CentralCache::GetInstance()->ReleaseListToSpans(start, size);

      有的同学就会有所疑问:问什么只传一个start的指针,不用end指针吗?答案是不用的。因为我们在PopRange中已经将最后一个元素指向的下一个空间为nullptr了。所以只需要从开始遍历到nullptr结束就可以。

      上篇文章我们也提到了在对page cache进行加锁时,是需要释放掉对应的central cache中的桶锁。这时候就体现出释放桶锁的用处了。因为我们可能还回向central cache中还回空间,并不只是在向central cache申请空间。 因为在向central cache还回空间时,也是需要加锁的。因为可能不仅仅只有一个线程在向central cache进行还回空间。

      提问:在向central cache还回空间时,还回给对应的SpanList下的任何一个span都可以吗? 答案是不可以的!你可以先思考一下原因。

    04efe7a57618440e97662bc8bd18315c.png

      因为central cache中的空间资源都是向page cache申请的(这段空间是连续的)。当central cache中的useCount减为0时,说明该span已经完全被还回来了。虽然还回来后是乱序的,但至少可以说明这段空间已经全部还回来了。我们这时就可以将该span还回给page cache,这里可以减少外部的内存碎片,提高整体的内存使用率

      假如我们把一个对象还回给了central cache下SpanList中的任何一个span下,useCount并没有实际意义了,即使对应的useCount减为0,也并不能代表这一段内存已经被完全还回来这样只会对底层的堆空间造成大量的内存碎片!!!

    3412907241184d7f8fe1d44a3020098d.png

      问题来了:怎么找到该小块对象属于那个span呢? 首先我们要清楚的是:某个页当中的所有地址除以页的大小都等于该页的页号。因为我们把余数给省去了。举个例子:我们这里假设一页的大小是100,那么地址0~99都属于第0页,它们除以100都等于0,而地址100~199都属于第1页,它们除以100都等于1。

      那么是不是就可以用该对象的地址除以一页的大小,就知道其所在那个页了呢?确实是的。但是我们还需要遍历该SapnList中的每个span,与其span的页号和页数之和进行对比,看是否在该span当中,这样效率就太低了

      为了解决这一问题,我们不如在central cache向page cache申请对应的span时,就建立对应的span的地址与其页号的映射关系,这样当我们知道其页号时也就方便我们后边对span的查找了

      central cache 只有在NewSpan()中是向page cache申请span空间,那我们再来向NewSpan中添加对应的映射关系不就行了!此时大家都会想到用unordered_map来存储他们的映射。我们直接看代码实现:

    1. class PageCache
    2. {
    3. public:
    4. static PageCache* GetInstance()
    5. {
    6. return &_sInst;
    7. }
    8. Span* NewSpan(size_t k);
    9. Span* MapObjectToSpan(void* obj);
    10. // 释放空闲span回到Pagecache,并合并相邻的span
    11. void ReleaseSpanToPageCache(Span* span);
    12. private:
    13. SpanList _spanLists[NPAGES];
    14. std::unordered_map _idSpanMap;
    15. public:
    16. std::mutex _pageMtx;
    17. private:
    18. PageCache()
    19. {}
    20. PageCache(const PageCache&) = delete;
    21. static PageCache _sInst;
    22. };
    23. Span* PageCache::NewSpan(size_t k)
    24. {
    25. assert(k > 0);
    26. // 先检查第k个桶里面有没有span
    27. if (!_spanLists[k].Empty())
    28. {
    29. Span* kSpan = _spanLists[k].PopFront();
    30. // 建立id和span的映射,方便central cache回收小块内存时,查找对应的span
    31. for (PAGE_ID i = 0; i < kSpan->_n; ++i)
    32. {
    33. _idSpanMap[kSpan->_pageId + i] = kSpan;
    34. }
    35. return kSpan;
    36. }
    37. // 检查一下后面的桶里面有没有span,如果有可以把他它进行切分
    38. for (size_t i = k + 1; i < NPAGES; ++i)
    39. {
    40. if (!_spanLists[i].Empty())
    41. {
    42. Span* nSpan = _spanLists[i].PopFront();
    43. Span* kSpan = new Span;
    44. // 在nSpan的头部切一个k页下来
    45. // k页span返回
    46. // nSpan再挂到对应映射的位置
    47. kSpan->_pageId = nSpan->_pageId;
    48. kSpan->_n = k;
    49. nSpan->_pageId += k;
    50. nSpan->_n -= k;
    51. _spanLists[nSpan->_n].PushFront(nSpan);
    52. // 存储nSpan的首位页号跟nSpan映射,方便page cache回收内存时
    53. // 进行的合并查找
    54. _idSpanMap[nSpan->_pageId] = nSpan;
    55. _idSpanMap[nSpan->_pageId + nSpan->_n - 1] = nSpan;
    56. // 建立id和span的映射,方便central cache回收小块内存时,查找对应的span
    57. for (PAGE_ID i = 0; i < kSpan->_n; ++i)
    58. {
    59. _idSpanMap[kSpan->_pageId + i] = kSpan;
    60. }
    61. return kSpan;
    62. }
    63. }
    64. }

      建立好映射后,通过小块对象的地址查找其对应的span就不难了,前面我们也讲述过思路了。这里我们直接看代码:

    1. Span* PageCache::MapObjectToSpan(void* obj)
    2. {
    3. std::unique_lock lock(_pageMtx);
    4. auto ret = _idSpanMap.find(id);
    5. if (ret != _idSpanMap.end())
    6. {
    7. return ret->second;
    8. }
    9. else
    10. {
    11. assert(false);
    12. return nullptr;
    13. }
    14. }

      提问:为什么这里在对_idSpanMap读的时候,也就是通过小对象地址找对应的span时还需要加锁呢unordered_map的底层实现是哈希表,说白了就是一个动态的数组。当我们在读的时候,有没有可能其他的线程同时在向page cache申请span建立映射关系呢?如果在申请span建立映射关系时,也就是在向_idSpanMap中写入,可能就会进行扩容并且重新建立映射关系,这时候会对我们的读产生影响,所以在这里我们是需要进行加锁的。

      现在可以通过小对象地址很好的找到其对应的span。当thread cache还回一段小对象到central span 时,我们拿到的是一段小对象的start,这是我们只需要遍历这段空间到nullptr,通过映射关系找到对应的span,插入其_freeList下就可以,不要忘记对_useCount进行减减操作。具体实现代码如下:

    1. void CentralCache::ReleaseListToSpans(void* start, size_t size)
    2. {
    3. size_t index = SizeClass::Index(size);
    4. _spanLists[index]._mtx.lock();
    5. while (start)
    6. {
    7. void* next = NextObj(start);
    8. Span* span = PageCache::GetInstance()->MapObjectToSpan(start);
    9. NextObj(start) = span->_freeList;
    10. span->_freeList = start;
    11. span->_useCount--;
    12. if (span->_useCount == 0)
    13. {
    14. // 把对应的span还回给page cache
    15. }
    16. start = next;
    17. }
    18. _spanLists[index]._mtx.unlock();
    19. }

      注意:将thread cache中的小对象空间还回给central cache中对应的span时,本质上就是在central cache对应的哈希桶下某个span的_freeList进行头插操作(写操作),所以再进行操作之前是需要加对应的桶锁的。

      当我们发现_useCount减为0时,表明该span已经全部被还了回来,这时候我们就可以将该span还回给对应的page cache了为什么要将span还回给对应的page cache呢?就在central cache对应的哈希桶下的SpanList中放着不就行了,以后thread cache需要的话直接向central cache申请不就得了。这里有两个原因其一是central cache对应的哈希桶下的SpanList中所挂span的个数大概率不止一个,同时很多span完全被返回的可能性很小。所以不用太过担心central cache中的空间资源不足;其二是将对应的span还回给page cache时,page cache可对前后页的span进行合并(后续会讲解),减少内存碎片

    三、page cache 回收资源

      当central cache下的某个span已经全部被还了回来时,这时候我们就可以将该span还回给对应的page cache了。需要将span还回给page cache的原因我们已经解释了,下面我们看还回的细节和具体实现。 

    df2fb89b258e443d8a084e1a2f75c243.png  假设上图central cache中的span已经被完全返回来了,我们现在将其还回给page cache时,是不是就是把该span从central cache的SpanList中拿出来给了page cache对应的SpanList中就可以了在向page cache还回时,不要忘记了对page cache整体进行加锁。一样的,当我们从central cache中拿出来了该span时,就可以解除central cache对应的桶锁了,当已经还回给了page cache是,我们再加上桶锁去找下一个小对象块对应的 span,最后全部结束时不要忘记释放桶锁。我们先把central cache中的ReleaseListToSpans()函数中的思路补全,具体代码实现如下:

    1. void CentralCache::ReleaseListToSpans(void* start, size_t size)
    2. {
    3. size_t index = SizeClass::Index(size);
    4. _spanLists[index]._mtx.lock();
    5. while (start)
    6. {
    7. void* next = NextObj(start);
    8. Span* span = PageCache::GetInstance()->MapObjectToSpan(start);
    9. NextObj(start) = span->_freeList;
    10. span->_freeList = start;
    11. span->_useCount--;
    12. if (span->_useCount == 0)
    13. {
    14. _spanLists[index].Erase(span);
    15. span->_freeList = nullptr;
    16. span->_next = nullptr;
    17. span->_prev = nullptr;
    18. // 释放span给page cache时,使用page cache的锁就可以了
    19. // 这时把桶锁解掉,以便其他线程可申请和释放资源
    20. _spanLists[index]._mtx.unlock();
    21. PageCache::GetInstance()->_pageMtx.lock();
    22. PageCache::GetInstance()->ReleaseSpanToPageCache(span);
    23. PageCache::GetInstance()->_pageMtx.unlock();
    24. // 再加上桶锁,去找list的下一个节点对应的 span
    25. _spanLists[index]._mtx.lock();
    26. }
    27. start = next;
    28. }
    29. _spanLists[index]._mtx.unlock();
    30. }

      具体将span插入到对应的page cache对应哈希桶下的SpanList就比较简单了。插入确实简单,但是不要忘记了我们还需要对该span前后的span进行合并,以避免外部的内存碎片的问题

    ca344424a2724e7c97f324407f2cb6df.png

      如上图所示,在该span被还会之前其上下的两段空间(也就是对应的以页为单位的span)都已经被还回来了,这时候我们就可以将这三者进行合并出一个更大的span放入到page cache对应的spanList中去。这样后面再次申请时就可以申请更大页的span了!不合并的话,都是小页的span,无法很好的申请出一个大页的span。

      这里就又有一个问题:你怎么知道相邻的span已经被还回来了或者没有被使用呢?是不是只有我们在central cache中申请获得一个新的span时,就表明该span正在被使用其他两种情况下的span表明没有被使用一种就是在page cache层申请一个128页时被切分出来挂在page cache中,另一种就是从central cache中还回来的。此时我们在span结构中添加一个变量,来记录一下该span是否在被使用,具体实现代码如下:

    1. struct Span
    2. {
    3. PAGE_ID _pageId = 0; // 大块内存起始页的页号
    4. size_t _n = 0; // 页的数量
    5. Span* _next = nullptr; // 双向链表
    6. Span* _prev = nullptr;
    7. size_t _useCount = 0; // 大块内存切好的小块内存已经被分配的数量
    8. void* _freeList = nullptr; // 切好的小块内存的自由链表
    9. bool _isUse = false; // 是否正在被使用
    10. };

      那么在central cache中获取span(NewSpan)时,修改一下状态就可以,代码如下:

    1. Span* CentralCache::GetOneSpan(SpanList& list,size_t size)
    2. {
    3. Span* begin = list.Begin();
    4. while (begin != list.End())
    5. {
    6. if (begin->_freeList != nullptr)
    7. {
    8. return begin;
    9. }
    10. else
    11. {
    12. begin = begin->_next;
    13. }
    14. }
    15. // 先把central cache的桶锁解掉,这样如果其他线程释放内存对象回来,不会阻塞
    16. list._mtx.unlock();
    17. // 走到这里说没有空闲span了,只能找page cache要
    18. PageCache::GetInstance()->_pageMtx.lock();
    19. Span* span = PageCache::GetInstance()->NewSpan(SizeClass::NumMovePage(size));
    20. span->_isUse = true;
    21. PageCache::GetInstance()->_pageMtx.unlock();
    22. char* start = (char*)(span->_pageId << PAGE_SHIFT); // 该span的起始地址
    23. size_t bytes = span->_n << PAGE_SHIFT; // 该span的大小
    24. char* end = start + bytes;
    25. //把申请大块内存的span切分成对应小块内存(尾插进_freeList),再连入SpanList中
    26. span->_freeList = start;
    27. start += size;
    28. void* tail = span->_freeList;
    29. while (start < end)
    30. {
    31. NextObj(tail) = start;
    32. tail = NextObj(tail);
    33. start += size;
    34. }
    35. NextObj(tail) = nullptr;
    36. // 切好span以后,需要把span挂到桶里面去的时候,再加锁
    37. list._mtx.lock();
    38. list.PushFront(span);
    39. return span;
    40. }

      在合并时,我们分为向前合并和向后合并两个步骤。具体如下图:

    750f68143e6b4078a5b01d0a9206bc0f.png

      我们通过页号,就可以找到对应的span,那么其页数我们也就知道了。向前合并或者向后合并时,只要能合并就会一直合并下去。什么时候不能合并呢

    1. 拿到页号时,在对应的_idSpanMap中没有找到对应的映射关系时(说明该控件并不是我们所申请的空间,不能越界访问),不要合并;
    2. 当该span在被使用时,肯定不能将其进行合并;
    3. span合并后的页数大于128时,就不能合并,因为我们能够存储最大页的span就是128(可自行设置上限)。

      我们再来看一下central cache还给page cache时,合并后我们在进行插入。在合并时,应该同步更新_idSpanMap的映射关系。具体实现代码如下:

    1. void PageCache::ReleaseSpanToPageCache(Span* span)
    2. {
    3. // 对span前后的页,尝试进行合并,缓解内存碎片问题
    4. while (1)
    5. {
    6. PAGE_ID prevId = span->_pageId - 1;
    7. auto ret = _idSpanMap.find(prevId);
    8. 前面的页号没有,不合并了
    9. if (ret == _idSpanMap.end())
    10. {
    11. break;
    12. }
    13. // 前面相邻页的span在使用,不合并了
    14. Span* prevSpan = ret;
    15. if (prevSpan->_isUse == true)
    16. {
    17. break;
    18. }
    19. // 合并出超过128页的span没办法管理,不合并了
    20. if (prevSpan->_n + span->_n > NPAGES - 1)
    21. {
    22. break;
    23. }
    24. span->_pageId = prevSpan->_pageId;
    25. span->_n += prevSpan->_n;
    26. _spanLists[prevSpan->_n].Erase(prevSpan);
    27. delete prevSpan;
    28. }
    29. // 向后合并
    30. while (1)
    31. {
    32. PAGE_ID nextId = span->_pageId + span->_n;
    33. /*auto ret = _idSpanMap.find(nextId);
    34. if (ret == _idSpanMap.end())
    35. {
    36. break;
    37. }*/
    38. auto ret = (Span*)_idSpanMap.get(nextId);
    39. if (ret == nullptr)
    40. {
    41. break;
    42. }
    43. Span* nextSpan = ret;
    44. if (nextSpan->_isUse == true)
    45. {
    46. break;
    47. }
    48. if (nextSpan->_n + span->_n > NPAGES - 1)
    49. {
    50. break;
    51. }
    52. span->_n += nextSpan->_n;
    53. _spanLists[nextSpan->_n].Erase(nextSpan);
    54. delete nextSpan;
    55. }
    56. _spanLists[span->_n].PushFront(span);
    57. span->_isUse = false;
    58. _idSpanMap[span->_pageId] = span;
    59. _idSpanMap[span->_pageId+span->_n-1] = span;
    60. }

    四、大于256KB的空间申请与释放

    4、1 大于256KB空间的申请

      我们从开始到现在还没有详细解释怎么处理大于256KB的空间申请与释放。最开始我们就解释道:每个线程的thread cache是用于申请小于等于256KB的内存的。而对于大于256KB的内存,我们直接向page cache申请

      我们首先要做的就是对申请对象的大小进行以页为对齐数进行对齐,看起到底需要几页的大小。大于256KB的话最少也是33页(256KB / 8KB = 32)。page cache中最大的页也就只有128页(也就是128*8KB = 1024KB)的大小。如果申请对象的大小大于1024KB(128页),也就只能直接向堆申请了如果在33~128页之间的话,正常的去page cache的哈希桶对应的SpanList中申请就行在申请的同时,也不要忘记了加锁!具体实现代码如下:

    1. //大于256KB的直接去PageCache上申请
    2. if (size > MAX_BYTES)
    3. {
    4. size_t alignSize = SizeClass::RoundUp(size);
    5. size_t kPage = alignSize >> PAGE_SHIFT;
    6. PageCache::GetInstance()->_pageMtx.lock();
    7. Span* span = PageCache::GetInstance()->NewSpan(kPage);
    8. PageCache::GetInstance()->_pageMtx.unlock();
    9. void* ptr = (void*)(span->_pageId << PAGE_SHIFT);
    10. return ptr;
    11. }
    1. Span* PageCache::NewSpan(size_t k)
    2. {
    3. assert(k > 0);
    4. // 大于128 page的直接向堆申请
    5. if (k > NPAGES - 1)
    6. {
    7. void* ptr = SystemAlloc(k);
    8. //Span* span = new Span;
    9. Span* span = _spanPool.New();
    10. span->_pageId = (PAGE_ID)ptr >> PAGE_SHIFT;
    11. span->_n = k;
    12. //_idSpanMap[span->_pageId] = span;
    13. _idSpanMap.set(span->_pageId, span);
    14. return span;
    15. }
    16. //……
    17. }

     4、2 大于256KB空间的释放

      同样,如果释放的空间大小大于256KB,我们直选择释放给page cache。如果对象过大,大于128页的span,那么就选择直接释放给堆空间。具体实现代码如下:

    1. if (size > MAX_BYTES) //大于256KB的内存释放
    2. {
    3. Span* span = PageCache::GetInstance()->MapObjectToSpan(ptr);
    4. PageCache::GetInstance()->_pageMtx.lock();
    5. PageCache::GetInstance()->ReleaseSpanToPageCache(span);
    6. PageCache::GetInstance()->_pageMtx.unlock();
    7. }
    8. else
    9. {
    10. assert(pTLSThreadCache);
    11. pTLSThreadCache->Deallocate(ptr, size);
    12. }
    1. // 大于128 page的直接还给堆
    2. if (span->_n > NPAGES - 1)
    3. {
    4. void* ptr = (void*)(span->_pageId << PAGE_SHIFT);
    5. // 系统调用
    6. SystemFree(ptr);
    7. delete span;
    8. return;
    9. }

      上述的SystemFree是堆系统调用进行了封装,通过系统调用直接把对象空间还给堆。具体实现代码如下:

    1. inline static void SystemFree(void* ptr)
    2. {
    3. #ifdef _WIN32
    4. VirtualFree(ptr, 0, MEM_RELEASE);
    5. #else
    6. // sbrk unmmap等
    7. #endif
    8. }

      这里说明一下:为了在最开始更好的获取每个线程的TLS对象和申请释放空间,我们这里对申请和释放进行的封装。具体实现代码如下:

    1. static void* ConcurrentAlloc(size_t size)
    2. {
    3. //大于256KB的直接去PageCache上申请
    4. if (size > MAX_BYTES)
    5. {
    6. size_t alignSize = SizeClass::RoundUp(size);
    7. size_t kPage = alignSize >> PAGE_SHIFT;
    8. PageCache::GetInstance()->_pageMtx.lock();
    9. Span* span = PageCache::GetInstance()->NewSpan(kPage);
    10. PageCache::GetInstance()->_pageMtx.unlock();
    11. void* ptr = (void*)(span->_pageId << PAGE_SHIFT);
    12. return ptr;
    13. }
    14. else
    15. {
    16. if (pTLSThreadCache == nullptr)
    17. {
    18. static ObjectPool tcPool;
    19. pTLSThreadCache = new ThreadCache;
    20. }
    21. //cout << std::this_thread::get_id() << ":" << pTLSThreadCache << endl;
    22. return pTLSThreadCache->Allocate(size);
    23. }
    24. }
    25. static void ConcurrentFree(void* ptr,size_t size)
    26. {
    27. Span* span = PageCache::GetInstance()->MapObjectToSpan(ptr);
    28. if (size > MAX_BYTES)
    29. {
    30. PageCache::GetInstance()->_pageMtx.lock();
    31. PageCache::GetInstance()->ReleaseSpanToPageCache(span);
    32. PageCache::GetInstance()->_pageMtx.unlock();
    33. }
    34. else
    35. {
    36. assert(pTLSThreadCache);
    37. pTLSThreadCache->Deallocate(ptr, size);
    38. }
    39. }

    五、引入定长内存池进行优化

      不要忘记了,我们所做的就是一个内存池,且以后在多线程的环境下是需要代替malloc的所以应该避免使用malloc和free。当然,new的底层也是调用的malloc,也不可以被使用。 

      不要忘记了在最开始我们自己实现了一个定长内存池,而我们的span对象不就是一个定长的吗!!!这时候就可以引入我们之前实现的定长内存池了。我们只需要在所有使用new的地方进行替换就可以了。其中较集中使用new的地方就是申请span的时候,下面我们一一将他们进行替换,具体代码如下:

    1. class PageCache
    2. {
    3. // ……
    4. private:
    5. ObjectPool _spanPool;
    6. };
    7. Span* PageCache::NewSpan(size_t k)
    8. {
    9. assert(k > 0);
    10. // 大于128 page的直接向堆申请
    11. if (k > NPAGES - 1)
    12. {
    13. //Span* span = new Span;
    14. Span* span = _spanPool.New();
    15. return span;
    16. }
    17. // 检查一下后面的桶里面有没有span,如果有可以把他它进行切分
    18. for (size_t i = k + 1; i < NPAGES; ++i)
    19. {
    20. if (!_spanLists[i].Empty())
    21. {
    22. Span* nSpan = _spanLists[i].PopFront();
    23. //Span* kSpan = new Span;
    24. return kSpan;
    25. }
    26. }
    27. // 走到这个位置就说明后面没有大页的span了
    28. // 这时就去找堆要一个128页的span
    29. //Span* bigSpan = new Span;
    30. Span* bigSpan = _spanPool.New();
    31. return NewSpan(k);
    32. }
    33. void PageCache::ReleaseSpanToPageCache(Span* span)
    34. {
    35. // 大于128 page的直接还给堆
    36. if (span->_n > NPAGES - 1)
    37. {
    38. //delete span;
    39. _spanPool.Delete(span);
    40. return;
    41. }
    42. // 对span前后的页,尝试进行合并,缓解内存碎片问题
    43. while (1)
    44. {
    45. //delete prevSpan;
    46. _spanPool.Delete(prevSpan);
    47. }
    48. // 向后合并
    49. while (1)
    50. {
    51. //delete nextSpan;
    52. _spanPool.Delete(nextSpan);
    53. }
    54. }

      还有就是当每个线程第一次申请内存时都会创建其专属的thread cache,而这个thread cache目前也是new出来的,我们也需要对其进行替换。具体实现如下:

    1. static void* ConcurrentAlloc(size_t size)
    2. {
    3. //大于256KB的直接去PageCache上申请
    4. }
    5. else
    6. {
    7. if (pTLSThreadCache == nullptr)
    8. {
    9. static ObjectPool tcPool;
    10. //pTLSThreadCache = new ThreadCache;
    11. pTLSThreadCache = tcPool.New();
    12. }
    13. }

      最后就是在SpanList结构的构造函数中,具体修改后代码如下:

    1. class SpanList
    2. {
    3. public:
    4. SpanList()
    5. {
    6. _head = _spanPool.New();
    7. }
    8. private:
    9. Span* _head;
    10. static ObjectPool _spanPool;
    11. };

      同时不要忘记了,申请时使用的是定长内存池,释放时也就不能再用delete了,应该使用定长内存池提供的Delete()。这里就不再一一列举了,大家可根据使用定长内存池new的地方找出对应的delete进行替换。 

    六、释放时的参数优化

      我们现在正常调用申请和释放的代码如下:

    1. void TestAlloc()
    2. {
    3. void* ptr = ConcurrentAlloc(7);
    4. ConcurrentFree(ptr, 7);
    5. }

      在释放对象时,必须知道对象的大小才能进行释放。因为只有知道对象的大小,才能找到在thread cache中的映射到了那个哈希桶。但是正常情况下我们在释放时都是不用传入所释放对象的大小的。如果不传入释放对象的大小,有应该怎么进行设计呢?现在我们只知道所释放对象的指针(地址)。那么在span中记录该span下_freeList的对象的大小就可以了!我们可通过对象的指针(地址)找到对应的span,进而获取大小

      只需要在获取span时对记录span下的_freeList对象大小进行初始化。对应到的就是我们在central cache中向page cache申请新的span后,需要对span进行切分挂到对应的_freeList中。我们在这时候记录下所对应的span下的小块对象大小就可以了注意,该大小是对齐后的大小!具体实现代码如下:

    1. struct Span
    2. {
    3. PAGE_ID _pageId = 0; // 大块内存起始页的页号
    4. size_t _n = 0; // 页的数量
    5. Span* _next = nullptr; // 双向链表
    6. Span* _prev = nullptr;
    7. size_t _useCount = 0; // 大块内存切好的小块内存已经被分配的数量
    8. void* _freeList = nullptr; // 切好的小块内存的自由链表
    9. bool _isUse = false; // 是否正在被使用
    10. size_t _objSize = 0; // _freeList中对象的大小
    11. };
    1. Span* CentralCache::GetOneSpan(SpanList& list,size_t size)
    2. {
    3. // ……
    4. Span* span = PageCache::GetInstance()->NewSpan(SizeClass::NumMovePage(size));
    5. span->_isUse = true;
    6. span->_objSize = size;
    7. PageCache::GetInstance()->_pageMtx.unlock();
    8. // ……
    9. }

      那现在我们在释放时不再传对象的大小也是可以的,具体代码如下:

    1. static void ConcurrentFree(void* ptr)
    2. {
    3. Span* span = PageCache::GetInstance()->MapObjectToSpan(ptr);
    4. size_t size = span->_objSize;
    5. if (size > MAX_BYTES)
    6. {
    7. PageCache::GetInstance()->_pageMtx.lock();
    8. PageCache::GetInstance()->ReleaseSpanToPageCache(span);
    9. PageCache::GetInstance()->_pageMtx.unlock();
    10. }
    11. else
    12. {
    13. assert(pTLSThreadCache);
    14. pTLSThreadCache->Deallocate(ptr, size);
    15. }
    16. }

    七、多线程环境下性能测试

      以上即为我们整个高并发内存池的整体实现的思路。接下来我们需要在对线程环境下与malloc进行性能对比测试,看看我们实现的在多线程下的高并发内存池是否比malloc速度要快。下面我们直接给出测试代码:

    1. // ntimes 一轮申请和释放内存的次数
    2. // rounds 轮次
    3. void BenchmarkMalloc(size_t ntimes, size_t nworks, size_t rounds)
    4. {
    5. std::vector vthread(nworks);
    6. std::atomic<size_t> malloc_costtime = 0;
    7. std::atomic<size_t> free_costtime = 0;
    8. for (size_t k = 0; k < nworks; ++k)
    9. {
    10. vthread[k] = std::thread([&, k]() {
    11. std::vector<void*> v;
    12. v.reserve(ntimes);
    13. for (size_t j = 0; j < rounds; ++j)
    14. {
    15. size_t begin1 = clock();
    16. for (size_t i = 0; i < ntimes; i++)
    17. {
    18. v.push_back(malloc(16));
    19. //v.push_back(malloc((16 + i) % 8192 + 1));
    20. }
    21. size_t end1 = clock();
    22. size_t begin2 = clock();
    23. for (size_t i = 0; i < ntimes; i++)
    24. {
    25. free(v[i]);
    26. }
    27. size_t end2 = clock();
    28. v.clear();
    29. malloc_costtime += (end1 - begin1);
    30. free_costtime += (end2 - begin2);
    31. }
    32. });
    33. }
    34. for (auto& t : vthread)
    35. {
    36. t.join();
    37. }
    38. cout << nworks << " 个线程并发执行 " << rounds << "轮次,每轮次malloc " << ntimes << "次: 花费:"
    39. << malloc_costtime << "ms" << endl;
    40. cout << nworks << " 个线程并发执行 " << rounds << "轮次,每轮次free " << ntimes << "次: 花费:"
    41. << free_costtime << "ms" << endl;
    42. cout << nworks << " 个线程并发执行malloc&free " << nworks * rounds * ntimes << "次,总计花费: "
    43. << malloc_costtime + free_costtime << "ms" << endl;
    44. }
    45. void BenchmarkConcurrentMalloc(size_t ntimes, size_t nworks, size_t rounds)
    46. {
    47. std::vector vthread(nworks);
    48. std::atomic<size_t> malloc_costtime = 0;
    49. std::atomic<size_t> free_costtime = 0;
    50. for (size_t k = 0; k < nworks; ++k)
    51. {
    52. vthread[k] = std::thread([&]() {
    53. std::vector<void*> v;
    54. v.reserve(ntimes);
    55. for (size_t j = 0; j < rounds; ++j)
    56. {
    57. size_t begin1 = clock();
    58. for (size_t i = 0; i < ntimes; i++)
    59. {
    60. v.push_back(ConcurrentAlloc(16));
    61. //v.push_back(ConcurrentAlloc((16 + i) % 8192 + 1));
    62. }
    63. size_t end1 = clock();
    64. size_t begin2 = clock();
    65. for (size_t i = 0; i < ntimes; i++)
    66. {
    67. ConcurrentFree(v[i]);
    68. }
    69. size_t end2 = clock();
    70. v.clear();
    71. malloc_costtime += (end1 - begin1);
    72. free_costtime += (end2 - begin2);
    73. }
    74. });
    75. }
    76. for (auto& t : vthread)
    77. {
    78. t.join();
    79. }
    80. cout << nworks << " 个线程并发执行 " << rounds << "轮次,每轮次concurrent alloc " << ntimes << "次: 花费:"
    81. << malloc_costtime << "ms" << endl;
    82. cout << nworks << " 个线程并发执行 " << rounds << "轮次,每轮次concurrent dealloc " << ntimes << "次: 花费:"
    83. << free_costtime << "ms" << endl;
    84. cout << nworks << " 个线程并发执行concurrent alloc&dealloc " << nworks * rounds * ntimes << "次,总计花费: "
    85. << malloc_costtime + free_costtime << "ms" << endl;
    86. }
    87. int main()
    88. {
    89. size_t n = 10000;
    90. cout << "==========================================================" <<
    91. endl;
    92. BenchmarkConcurrentMalloc(n, 4, 10);
    93. cout << endl << endl;
    94. BenchmarkMalloc(n, 4, 10);
    95. cout << "==========================================================" <<
    96. endl;
    97. return 0;
    98. }

      这段代码是在进行高并发内存池的分配和释放的性能测试。它包含了两函数BenchmarkConcurrentMalloc 和 BenchmarkMalloc,下面我将对这段代码的思路和用途进行详细解释:

    1. void BenchmarkMalloc(size_t ntimes, size_t nworks, size_t rounds)函数:

      • 这个函数用于测试在多线程环境下使用标准的malloc和free函数进行内存分配和释放的性能。
      • 参数说明:
        • ntimes:每轮次需要执行多少次内存分配和释放操作。
        • nworks:并发执行的线程数量。
        • rounds:每个线程需要执行的轮次。
      • 函数内部:
        • 创建了nworks个线程,每个线程执行rounds轮次,每轮次分别执行ntimes次内存分配和释放操作。
        • 在每轮次内存分配和释放操作之前,使用clock()函数记录开始时间,操作之后记录结束时间,从而计算出每轮的耗时。
        • 最终计算了所有线程的总体耗时,包括内存分配和释放。
    2. void BenchmarkConcurrentMalloc(size_t ntimes, size_t nworks, size_t rounds)函数:

      • 这个函数用于测试在多线程环境下使用高并发内存池的ConcurrentAaloc和ConcurrentFree函数进行内存分配和释放的性能。
      • 这部分代码针对高并发分配和释放内存做了性能测试。

      下面我们先来测试debug下均匀的向我们自己设的内存池申请空间,效率如下图:

    f944e9f3e5274dc8a74510976bfb9c0a.png

      实际上测试出来的还没有malloc快!我们再来看申请不同大小的速度怎么样:

    8396695bcc18491d9cfe5a583455712a.png

      release下的运行其实也是一样的,也是没有malloc快,运行截图如下:

    41087aea5d68403f858583a9b619a6fa.png

      我们发现在多线程情况下设计的并发内存池并没有malloc快,这是为什么呢?不要猜想,直接上vs下自待的性能探测器来进行分析一下。运行分析如下图:

    746e7173f0604efc8d48645f422da095.png

    4bbe3a41933e432983b9515d831f0424.png

      我们发现还是竞争锁资源耗费的时间太多了。我们再接着往下看看到底是哪里的锁:

    48d140858ca345f28a12555bdff097b2.png

      我们发现是在读取_idMapSpan时加的锁所占用的资源接近了一半!那有什么办法能使这里不在进行加锁吗?采用什么方式进行优化呢?答案是基数树

    八、采用基数树代替unordered_map

      再次思考一下:为什么在读取映射的时候需要加锁。 根本原因就在于线程1在读取时,其他线程可能在向_idMapSpan中存取映射关系,进而导致底层扩容。而线程1再次读取时就可能发生数据错误。我们这里底层存储映射关系时,不再采用unordered_map,而是采用基数树来存储

      基数树(Radix Tree)也称为字典树(Trie)或前缀树,是一种用于快速搜索和插入的数据结构。更官方一点的解释radix tree是一种多叉搜索树。树的叶子结点是实际的数据条目。每一个结点有一个固定的、2^n指针指向子结点(每一个指针称为槽slot,n为划分的基的大小)。

      这里不再对基数树进行过多详解。我们这直接看引入后的代码实现:

    1. template <int BITS>
    2. class TCMalloc_PageMap1 {
    3. private:
    4. static const int LENGTH = 1 << BITS;
    5. void** array_;
    6. public:
    7. typedef uintptr_t Number;
    8. //explicit TCMalloc_PageMap1(void* (*allocator)(size_t)) {
    9. explicit TCMalloc_PageMap1() {
    10. //array_ = reinterpret_cast((*allocator)(sizeof(void*) << BITS));
    11. size_t size = sizeof(void*) << BITS;
    12. size_t alignSize = SizeClass::_RoundUp(size, 1 << PAGE_SHIFT);
    13. array_ = (void**)SystemAlloc(alignSize >> PAGE_SHIFT);
    14. memset(array_, 0, sizeof(void*) << BITS);
    15. }
    16. // Return the current value for KEY. Returns NULL if not yet set,
    17. // or if k is out of range.
    18. void* get(Number k) const {
    19. if ((k >> BITS) > 0) {
    20. return NULL;
    21. }
    22. return array_[k];
    23. }
    24. // REQUIRES "k" is in range "[0,2^BITS-1]".
    25. // REQUIRES "k" has been ensured before.
    26. //
    27. // Sets the value 'v' for key 'k'.
    28. void set(Number k, void* v) {
    29. array_[k] = v;
    30. }
    31. };
    32. // Two-level radix tree
    33. template <int BITS>
    34. class TCMalloc_PageMap2 {
    35. private:
    36. // Put 32 entries in the root and (2^BITS)/32 entries in each leaf.
    37. static const int ROOT_BITS = 5;
    38. static const int ROOT_LENGTH = 1 << ROOT_BITS;
    39. static const int LEAF_BITS = BITS - ROOT_BITS;
    40. static const int LEAF_LENGTH = 1 << LEAF_BITS;
    41. // Leaf node
    42. struct Leaf {
    43. void* values[LEAF_LENGTH];
    44. };
    45. Leaf* root_[ROOT_LENGTH]; // Pointers to 32 child nodes
    46. void* (*allocator_)(size_t); // Memory allocator
    47. public:
    48. typedef uintptr_t Number;
    49. //explicit TCMalloc_PageMap2(void* (*allocator)(size_t)) {
    50. explicit TCMalloc_PageMap2() {
    51. //allocator_ = allocator;
    52. memset(root_, 0, sizeof(root_));
    53. PreallocateMoreMemory();
    54. }
    55. void* get(Number k) const {
    56. const Number i1 = k >> LEAF_BITS;
    57. const Number i2 = k & (LEAF_LENGTH - 1);
    58. if ((k >> BITS) > 0 || root_[i1] == NULL) {
    59. return NULL;
    60. }
    61. return root_[i1]->values[i2];
    62. }
    63. void set(Number k, void* v) {
    64. const Number i1 = k >> LEAF_BITS;
    65. const Number i2 = k & (LEAF_LENGTH - 1);
    66. ASSERT(i1 < ROOT_LENGTH);
    67. root_[i1]->values[i2] = v;
    68. }
    69. bool Ensure(Number start, size_t n) {
    70. for (Number key = start; key <= start + n - 1;) {
    71. const Number i1 = key >> LEAF_BITS;
    72. // Check for overflow
    73. if (i1 >= ROOT_LENGTH)
    74. return false;
    75. // Make 2nd level node if necessary
    76. if (root_[i1] == NULL) {
    77. //Leaf* leaf = reinterpret_cast((*allocator_)(sizeof(Leaf)));
    78. //if (leaf == NULL) return false;
    79. static ObjectPool leafPool;
    80. Leaf* leaf = (Leaf*)leafPool.New();
    81. memset(leaf, 0, sizeof(*leaf));
    82. root_[i1] = leaf;
    83. }
    84. // Advance key past whatever is covered by this leaf node
    85. key = ((key >> LEAF_BITS) + 1) << LEAF_BITS;
    86. }
    87. return true;
    88. }
    89. void PreallocateMoreMemory() {
    90. // Allocate enough to keep track of all possible pages
    91. Ensure(0, 1 << BITS);
    92. }
    93. };

      我们这里就对二层的基数树进行解释一下。比如32位平台下,并且固定一页大小为8K,此时页的数目就是2^32 / 2^13= 2^19,因此存储页号最多需要19个比特位。此时传入非类型模板参数的值就是32-13=19。32位平台下指针的大小是4字节,那么存储所有的地址所需要的空间为 2^19 * 4 = 2^21 byte = 2M。整体来说所占用的内存并不算大。64为平台下如果存储全部的地址那么就不太行了,占用的地址太多了。

      在二层基数树中,第一层的数组存储19位地址的前五位,第二层的数组存储后14位的地址。全部存储下来也就2M。为什么还要分层呢?因为提供了前五位,从而就可以给很快的给我们筛选出地址所在的区间。当我们在存储映射之前,我们就把2M的空间开出来,后面存储的时候就不会在改变底层的结构

    19d1e507a6de4a698966ce325a07d8c4.png

      虽然底层结构不会变了,但是有没有一种可能:某个线程在建立对某一个页读取映射关系时,其他线程刚好也在对该页进行写操作呢(也就是同时对一个页进行读写操作)?答案是不会的!

    • 读取时该页的_useCount一定不为0(一定是建立好了的映射)。只在central cache中进行。
    • 而建立span映射的都是在_useCount等于0的情况下,也就是central cache向page cache释放span和central cache在向page cache申请span时。只在page cache中进行、

      我们再来看一下采用基数数优化后的代码,只需要对_idMapSpan的操作进行修改即可!代码如下:

    1. class PageCache
    2. {
    3. private:
    4. SpanList _spanLists[NPAGES];
    5. //std::unordered_map _idSpanMap;
    6. TCMalloc_PageMap1<32 - PAGE_SHIFT> _idSpanMap;
    7. };
    8. Span* PageCache::NewSpan(size_t k)
    9. {
    10. assert(k > 0);
    11. // 大于128 page的直接向堆申请
    12. if (k > NPAGES - 1)
    13. {
    14. //_idSpanMap[span->_pageId] = span;
    15. _idSpanMap.set(span->_pageId, span);
    16. return span;
    17. }
    18. // 先检查第k个桶里面有没有span
    19. if (!_spanLists[k].Empty())
    20. {
    21. // 建立id和span的映射,方便central cache回收小块内存时,查找对应的span
    22. for (PAGE_ID i = 0; i < kSpan->_n; ++i)
    23. {
    24. //_idSpanMap[kSpan->_pageId + i] = kSpan;
    25. _idSpanMap.set(kSpan->_pageId + i, kSpan);
    26. }
    27. return kSpan;
    28. }
    29. // 检查一下后面的桶里面有没有span,如果有可以把他它进行切分
    30. for (size_t i = k + 1; i < NPAGES; ++i)
    31. {
    32. if (!_spanLists[i].Empty())
    33. {
    34. Span* nSpan = _spanLists[i].PopFront();
    35. //Span* kSpan = new Span;
    36. Span* kSpan = _spanPool.New();
    37. // 在nSpan的头部切一个k页下来
    38. // k页span返回
    39. // nSpan再挂到对应映射的位置
    40. kSpan->_pageId = nSpan->_pageId;
    41. kSpan->_n = k;
    42. nSpan->_pageId += k;
    43. nSpan->_n -= k;
    44. _spanLists[nSpan->_n].PushFront(nSpan);
    45. // 存储nSpan的首位页号跟nSpan映射,方便page cache回收内存时
    46. // 进行的合并查找
    47. //_idSpanMap[nSpan->_pageId] = nSpan;
    48. //_idSpanMap[nSpan->_pageId + nSpan->_n - 1] = nSpan;
    49. _idSpanMap.set(nSpan->_pageId, nSpan);
    50. _idSpanMap.set(nSpan->_pageId + nSpan->_n - 1, nSpan);
    51. // 建立id和span的映射,方便central cache回收小块内存时,查找对应的span
    52. for (PAGE_ID i = 0; i < kSpan->_n; ++i)
    53. {
    54. //_idSpanMap[kSpan->_pageId + i] = kSpan;
    55. _idSpanMap.set(kSpan->_pageId + i, kSpan);
    56. }
    57. return kSpan;
    58. }
    59. }
    60. }
    61. Span* PageCache::MapObjectToSpan(void* obj)
    62. {
    63. //PAGE_ID id = ((PAGE_ID)obj >> PAGE_SHIFT);
    64. //std::unique_lock lock(_pageMtx);
    65. //auto ret = _idSpanMap.find(id);
    66. auto ret = _idSpanMap.find(id);
    67. //if (ret != _idSpanMap.end())
    68. //{
    69. // return ret->second;
    70. //}
    71. //else
    72. //{
    73. // assert(false);
    74. // return nullptr;
    75. //}
    76. PAGE_ID id = ((PAGE_ID)obj >> PAGE_SHIFT);
    77. auto ret = (Span*)_idSpanMap.get(id);
    78. assert(ret != nullptr);
    79. return ret;
    80. }
    81. void PageCache::ReleaseSpanToPageCache(Span* span)
    82. {
    83. // 对span前后的页,尝试进行合并,缓解内存碎片问题
    84. while (1)
    85. {
    86. PAGE_ID prevId = span->_pageId - 1;
    87. //auto ret = _idSpanMap.find(prevId);
    88. 前面的页号没有,不合并了
    89. //if (ret == _idSpanMap.end())
    90. //{
    91. // break;
    92. //}
    93. auto ret = (Span*)_idSpanMap.get(prevId);
    94. if (ret == nullptr)
    95. {
    96. break;
    97. }
    98. }
    99. // 向后合并
    100. while (1)
    101. {
    102. PAGE_ID nextId = span->_pageId + span->_n;
    103. //auto ret = _idSpanMap.find(nextId);
    104. //if (ret == _idSpanMap.end())
    105. //{
    106. // break;
    107. //}
    108. auto ret = (Span*)_idSpanMap.get(nextId);
    109. if (ret == nullptr)
    110. {
    111. break;
    112. }
    113. }
    114. //_idSpanMap[span->_pageId] = span;
    115. //_idSpanMap[span->_pageId+span->_n-1] = span;
    116. _idSpanMap.set(span->_pageId, span);
    117. _idSpanMap.set(span->_pageId + span->_n - 1, span);
    118. }

      我们再来测试一下性能,测试的时候我们需要进行相对应的测试。ad809fe11fff4322aa20478698e77202.png  运行结果如下图:

    defa49ee56f54760ae0d1edf2088f779.png

      确实优化后我们自己设计的高并发内存池速度在多线程的情况下比malloc快!

      项目源码:HighConcurrencyMemoryPool。感谢阅读ovo~

  • 相关阅读:
    (☞゚ヮ゚)☞【精品C语言整理】☜(゚ヮ゚☜)女盆友缠着你让你教她写代码怎么办?安排,三万字博文带你走遍C语言,从此不再害怕编程
    VUE学习:vue简介、vue指令
    vue当中的收集表单数据以及过滤器
    AB 实验 p_value 计算
    结构体内存对齐详解
    Java 解析Tiff深入研究
    【C++ techniques】限制某个class所能产生的对象数量
    Python GUI案例之看图猜成语开发(第一篇)
    别看了,这就是你的题呀(二)
    网络编程原理二
  • 原文地址:https://blog.csdn.net/weixin_67596609/article/details/133997349