筒霓暄 发表于 2025-10-1 16:17:26

记一次 .NET 某企业ECM内容管理系统 内存暴涨分析

一:背景

1. 讲故事

这个dump是去年一个朋友发给我的,让我帮忙分析下为什么内存暴涨,当时由于相关知识的缺乏,分析了一天也没找出最后的原因,最后就不了了之的,直到最近我研究了下 CancellationToken 和 CompositeChangeToken 的底层玩法,才对这个问题有了新的视角,这篇就算是迟来的解读吧。
二:内存暴涨分析

1. 为什么会暴涨

由于是在 linux 上采摘下来的dump,所以用 !maddress -summary 命令观察进程的内存布局,输出如下:
+-------------------------------------------------------------------------+
| Memory Type            |          Count |         Size |   Size (bytes) |
+-------------------------------------------------------------------------+
| Stack                  |          1,101 |       8.67gb |9,305,092,096 |
| PAGE_READWRITE         |          1,371 |       1.13gb |1,216,679,936 |
| GCHeap               |             64 |   790.70mb |    829,108,224 |
| Image                  |          1,799 |   257.44mb |    269,944,832 |
| HighFrequencyHeap      |            797 |      49.85mb |   52,269,056 |
| LowFrequencyHeap       |            558 |      38.32mb |   40,185,856 |
| LoaderCodeHeap         |             23 |      33.53mb |   35,155,968 |
| HostCodeHeap         |             15 |       2.63mb |      2,752,512 |
| ResolveHeap            |            2 |   732.00kb |      749,568 |
| DispatchHeap         |            2 |   452.00kb |      462,848 |
| IndirectionCellHeap    |            5 |   280.00kb |      286,720 |
| PAGE_READONLY          |            124 |   253.50kb |      259,584 |
| CacheEntryHeap         |            4 |   228.00kb |      233,472 |
| LookupHeap             |            4 |   208.00kb |      212,992 |
| PAGE_EXECUTE_WRITECOPY |            5 |      48.00kb |         49,152 |
| StubHeap               |            1 |      12.00kb |         12,288 |
| PAGE_EXECUTE_READ      |            1 |       4.00kb |          4,096 |
+-------------------------------------------------------------------------+
|                 |          5,876 |      10.95gb | 11,753,459,200 |
+-------------------------------------------------------------------------+ 这卦象一看吓一跳,总计内存 10.95G,Stack就独吃 8.67G,并且 Count=1101 也表明了当前有 1101 个线程,这么高的线程数一般也表示出大问题了。。。
2. 为什么线程数这么高

要想找到这个答案,可以用 ~*e !clrstack 观察每个线程都在做什么,发现有大量的 Sleep 等待,输出如下:
0:749> ~*e !clrstack
...
OS Thread Id: 0x6297 (932)
      Child SP               IP Call Site
00007FE9D7FBB508 00007ffa5f564e2b System.Threading.Thread.SleepInternal(Int32)
00007FE9D7FBB650 00007ff9e9ac113f System.Threading.SpinWait.SpinOnceCore(Int32)
00007FE9D7FBB6E0 00007ff9ee55ffd8 System.Threading.CancellationTokenSource.WaitForCallbackToComplete(Int64)
00007FE9D7FBB710 00007ff9eea0817d Microsoft.Extensions.Primitives.CompositeChangeToken.OnChange(System.Object)
00007FE9D7FBB760 00007ff9e9adc75d System.Threading.CancellationTokenSource.ExecuteCallbackHandlers(Boolean)
00007FE9D7FBB7D0 00007ff9e9ab8d61 System.Threading.ExecutionContext.RunFromThreadPoolDispatchLoop(System.Threading.Thread, System.Threading.ExecutionContext, System.Threading.ContextCallback, System.Object)
00007FE9D7FBB810 00007ff9e9abd8dc System.Threading.Tasks.Task.ExecuteWithThreadLocal(System.Threading.Tasks.Task ByRef, System.Threading.Thread)
00007FE9D7FBB890 00007ff9e9ab1039 System.Threading.ThreadPoolWorkQueue.Dispatch()
00007FE9D7FBBCA0 00007ffa5e6632df
...https://img2024.cnblogs.com/blog/214741/202509/214741-20250911111800819-612001358.png
仔细阅读卦中的代码,大概知道问题出在了 CompositeChangeToken.OnChange 里,接下来翻一遍源代码,输出如下:
private static void OnChange(object state)
{
    CompositeChangeToken compositeChangeToken = (CompositeChangeToken)state;
    if (compositeChangeToken._cancellationTokenSource == null)
    {
      return;
    }
    lock (compositeChangeToken._callbackLock)
    {
      try
      {
            compositeChangeToken._cancellationTokenSource.Cancel();
      }
      catch
      {
      }
    }
    List<IDisposable> disposables = compositeChangeToken._disposables;
    for (int i = 0; i < disposables.Count; i++)
    {
      disposables.Dispose();
    }
}

private void WaitForCallbackIfNecessary()
{
    CancellationTokenSource source = _node.Partition.Source;
    if (source.IsCancellationRequested && !source.IsCancellationCompleted && source.ThreadIDExecutingCallbacks != Environment.CurrentManagedThreadId)
    {
      source.WaitForCallbackToComplete(_id);
    }
}

internal void WaitForCallbackToComplete(long id)
{
    SpinWait spinWait = default(SpinWait);
    while (ExecutingCallback == id)
    {
      spinWait.SpinOnce();
    }
}上面的代码可能有些人看不懂是什么意思,我先补充一下序列图。

接下来根据代码将上面的序列化图落地一下

[*]自定义Token在哪里?
这个可以深挖 CallbackNode 中的 CallbackState 字段,可以看到是 CancellationChangeToken ,截图如下:


[*]OnChange 触发在哪里
根据 CompositeChangeToken 底层机制,这个组合变更令牌 在所有的子Token中都是共享的,在各个线程中我们都能看得到,截图如下:


[*]CancellationTokenRegistration 在哪里
这个类是我们回调函数的登记类,从 compositeChangeToken._disposables 中大概知道有 4 个回调函数,截图如下:

接下来将 dump 拖到 vs 中,观察发现都卡死在 for 对 Dispose 遍历上,截图如下:

为什么都会卡死在 disposables.Dispose(); 上?这是我们接下来要探究的问题,根据上面代码中的 ThreadIDExecutingCallbacks != Environment.CurrentManagedThreadId 和 ExecutingCallback == id 大概也能猜出来, A线程 要释放的节点正在被 B线程 持有,可能 B线程 要释放的节点正在被 A线程 持有,所以大概率引发了死锁情况。。。
3. 真的是死锁吗

要想找到是不是真的发生了死锁,可以由果推因将四个自定义的Token下的 CancellationChangeToken.cts.ThreadIDExecutingCallbacks 字段给找到,截图如下:

从卦中可以看到四个节点分别被 726,697,722,774 这4个线程持有,接下来切到 726号线程看下它此时正在做什么,截图如下:

从卦中可以看到726号线程已持有 disposables ,正等待 697号线程持有的 disposables 释放,接下来切到 697号线程,看下它此时正在做什么,截图如下:

从卦中可以看到,697号线程持有 disposables ,正等待 726 号线程持有的 disposables 释放。
到这里就呈现出了经典的的死锁!
4. 为什么会出现死锁

很显然这个死锁是多线程操控共享的 compositeChangeToken.disposables[] 数组导致的,而且据当时朋友反馈并没有用户代码故意为之,现在回头看应该是 NET 3.1.20 内部的bug导致的。
0:749> lmDvmlibcoreclr

    Image path: /usr/share/dotnet/shared/Microsoft.NETCore.App/3.1.20/libcoreclr.so为了验证这个这个说法,我使用了最新的 .NET 3.1.32 版本,发现这里多了一个 if 判断,截图如下:

不要小看这里面的if,因为一旦有人执行了 compositeChangeToken._cancellationTokenSource.Cancel() 方法,那么 compositeChangeToken._cancellationTokenSource.IsCancellationRequested 必然就是 true,可以避免后续有人无脑的对 disposables 遍历。
所以最好的办法就是升级 coreclr 版本观察。
三:总结

在高级调试的旅程中,会遇到各种 牛鬼蛇神,奇奇怪怪,不可思议的奇葩问题,玩.NET高级调试并不是能 fix bug,但确实能真真切切的缩小包围圈,毕竟解铃还须系铃人!

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: 记一次 .NET 某企业ECM内容管理系统 内存暴涨分析