cfPIEMchsi 发表于 2025-2-17 17:31:49

.NET Core常用集合的几个坑

C#中的常见集合


注意,箭头线不代表继承关系,只代表功能上的加强,如有错误,欢迎指出。
泛型集合时间复杂度

集合类型添加删除查找访问(索引/键)遍历备注List<T>O(1)(均摊)O(n)O(n)O(1)O(n)动态数组;删除/插入中间元素需移动数据SortedList<T>O(n)O(n)O(log n)O(1)(按索引)O(n)内部维护排序数组;插入需移动元素Dictionary<T,K>O(1)O(1)O(1)O(1)O(n)哈希表实现;最坏情况 O(n)(哈希冲突)HashSet<T>O(1)O(1)O(1)-O(n)哈希表实现;同 Dictionary 的哈希行为Stack<T>O(1)(Push)O(1)(Pop)---数组或链表实现Queue<T>O(1)(Enqueue)O(1)(Dequeue)---数组或链表实现PriorityQueue<T>O(log n)O(log n)-O(1)(Peek)-基于堆结构实现SortedSet<T>O(log n)O(log n)O(log n)-O(n)基于平衡二叉搜索树(如红黑树)SortedDictionary<T,K>O(log n)O(log n)O(log n)-O(n)基于平衡二叉搜索树(类似 SortedSet)LinkedList<T>O(1)(头/尾)O(1)(已知节点)O(n)-O(n)双向链表;查找需遍历线程安全集合时间复杂度

集合类型添加删除查找访问(索引/键)遍历备注ConcurrentBag<T>平均 O(1)平均 O(1)O(n)不支持O(n)线程安全无序集合,适用于多生产者 - 多消费者场景ConcurrentDictionary<TKey, TValue>平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)O(n)基于分段锁和哈希表实现的线程安全字典ConcurrentStack<T>平均 O(1)平均 O(1)O(n)不支持O(n)线程安全的后进先出(LIFO)集合ConcurrentQueue<T>平均 O(1),最坏 O(n)平均 O(1)O(n)不支持O(n)线程安全的先进先出(FIFO)集合不可变集合时间复杂度

以下是 C# 中 ImmutableList<T>、ImmutableSortedDictionary<TKey, TValue>、ImmutableDictionary<TKey, TValue>、ImmutableHashSet<T>、ImmutableStack<T> 和 ImmutableQueue<T> 这些不可变集合常见操作的时间复杂度表格:
集合类型添加删除查找访问(索引/键)遍历备注ImmutableList<T>O(n)O(n)O(n)O(1)O(n)基于数组实现的不可变列表,每次修改操作都会创建新列表,访问指定索引元素较快ImmutableSortedDictionary<TKey, TValue>O(log n)O(log n)O(log n)O(log n)O(n)基于红黑树实现的按键排序的不可变字典,元素按键排序,操作复杂度基于树的高度ImmutableDictionary<TKey, TValue>平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)O(n)基于哈希表实现的不可变字典,操作复杂度受哈希冲突影响ImmutableHashSet<T>平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)不适用O(n)基于哈希表实现的不可变集合,存储唯一元素,操作复杂度受哈希冲突影响ImmutableStack<T>O(1)O(1)O(n)不适用O(n)基于链表实现的不可变栈,后进先出,添加和删除操作在栈顶进行ImmutableQueue<T>O(1)O(1)O(n)不适用O(n)基于链表实现的不可变队列,先进先出,添加和删除操作分别在队尾和队首进行只读集合时间复杂度

集合类型添加删除查找访问(索引/键)遍历备注ReadOnlyCollection<T>不支持不支持O(n)O(1)O(n)对 IList<T> 的只读包装,可通过索引直接访问元素,查找需遍历集合ReadOnlyObservableCollection<T>不支持不支持O(n)O(1)O(n)继承自 ReadOnlyCollection<T> 且实现 INotifyCollectionChanged,基本操作复杂度与 ReadOnlyCollection<T> 相同ReadOnlyDictionary<TKey, TValue>不支持不支持平均 O(1),最坏 O(n)平均 O(1),最坏 O(n)O(n)对 IDictionary<TKey, TValue> 的只读包装,基于哈希表,操作复杂度受哈希冲突影响List

当你创建一个新的List对象时,若没有指定初始容量,默认为0,不过当第一个元素被添加进去时,它会自动将容量初始化为4.并在下次扩容时,以双倍的容量进行扩容。

List.Insert(0, item) 的坑

List基于数组实现,数组在内存中是连续存储的。当使用 Insert(0, item) 在列表开头插入元素时,列表中现有的所有元素都需要向后移动一个位置,以便为新元素腾出空间。这意味着插入操作的时间复杂度为O(n) ,其中n是列表中现有元素的数量。元素数量越多,移动元素所花费的时间就越长,性能也就越低。
      public void Insert(int index, T item)      {            // Note that insertions at the end are legal.            if ((uint)index > (uint)_size)            {                ThrowHelper.ThrowArgumentOutOfRangeException(ExceptionArgument.index, ExceptionResource.ArgumentOutOfRange_ListInsert);            }            if (_size == _items.Length) Grow(_size + 1);            if (index < _size)            {                                //如果index很靠前,且数组size很大的话。这将是一场灾难。                Array.Copy(_items, index, _items, index + 1, _size - index);            }            _items = item;            _size++;            _version++;      }HashSet/Dictionary


Dictionary<TKey, TValue> 的底层结构主要由以下几个部分组成:

[*]桶(Bucket)数组:这是一个一维数组,数组的每个元素称为一个桶。桶数组的大小是 Dictionary 的容量,初始容量通常是一个较小的质数,后续会根据元素数量的增加而动态调整。
[*]条目(Entry)数组:每个桶对应一个或多个条目,条目是一个结构体,包含三个重要的字段:
*. int hashCode:键的哈希码,用于确定键在桶数组中的位置。
*. int next:指向下一个条目的索引,用于处理哈希冲突。如果该值为 -1,表示这是该桶中的最后一个条目。
*. TKey key:存储的键。
*. TValue value:存储的值。
Add的坑

private bool TryInsert(TKey key, TValue value, InsertionBehavior behavior){        //计算出key的hash        uint hashCode = (uint)((typeof(TKey).IsValueType && comparer == null) ? key.GetHashCode() : comparer!.GetHashCode(key));        //将哈希码与桶数组的长度进行取模运算(hashCode % bucket.Length),得到该键值对应在桶数组中的索引位置。        ref int bucket = ref GetBucket(hashCode);        int i = bucket - 1; // Value in _buckets is 1-based                uint collisionCount = 0;                while (true)        {                // Should be a while loop https://github.com/dotnet/runtime/issues/9422                // Test uint in if rather than loop condition to drop range check for following array access                if ((uint)i >= (uint)entries.Length)                {                        break;                }                //                if (entries.hashCode == hashCode && comparer.Equals(entries.key, key))                {                        return false;                }                //如果该桶已经有其他条目(即发生了哈希冲突),则通过 next 字段将新条目链接到该桶的链表中。                i = entries.next;                                                collisionCount++;                //如果循环次数>Entry的长度,说明有死循环,抛出异常。                if (collisionCount > (uint)entries.Length)                {                        // 在Framework时代,并发情况下会导致entries.next被错误定位。                        // 从而形成一个‌‌‌死链表,导致Contains查询时,陷入死循环,CPU异常高。                        // 在.NET Core中,通过collisionCount来计数,从而规避死循环。                        ThrowHelper.ThrowInvalidOperationException_ConcurrentOperationsNotSupported();                }        }}ConcurrentDictionary

ConcurrentDictionary<TKey, TValue> 的底层核心是由多个分段(Segment)组成,每个分段本质上是一个小型的哈希表,并且每个分段都有自己独立的锁。这种设计将整个字典划分为多个部分,不同线程可以同时访问不同的分段,从而减少锁的竞争,提高并发性能。
简单来说就是多个Dictionary组合


[*]VolatileNode[]
内部的Node类和Dictionary的Entry一致

[*]Locks[]
将一个大锁拆成多个小锁,提高锁的颗粒度,尽可能小的避免锁竞争。
keys/values的坑

不要高频次调用属性,因为它们会返回一个全新的List

ValueFactory的坑

在使用ConcurrentDictionary的过程中,大家会理所当然认为所有操作是线程安全的。但面对GetOrAdd/GetOrUpdate中的ValueFactory方法时,却是线程不安全的。

原因也很简单,ValueFactory会被先执行,再执行从TryUpdateInternal。因此,你有几个线程就会重复执行几次。
举个例子,偷懒用其它大佬的例子。https://www.cnblogs.com/CreateMyself/p/6086752.html
如果要确保线程安全,需要搭配Lazy<>.
ConcurrentQueue

ConcurrentQueue 底层主要基于链表(Linked List)数据结构实现,链表是一种动态的数据结构,由一系列节点(ConcurrentQueueSegment)组成,每个节点包含一个数据元素和一个指向下一个节点的引用。为了保证线程安全,ConcurrentQueue 在链表的基础上使用了无锁(Lock - Free)算法,主要借助原子操作(如 Interlocked 类提供的方法)来避免传统锁带来的性能开销和潜在的死锁问题


[*]头指针(head)
头指针指向队列的第一个节点,用于出队操作
[*]尾指针(tail)
尾指针指向队列的最后一个节点,用于入队操作
Count的坑

不要高频次调用Count属性,因为内部调用逻辑非常复杂,需要遍历每一个Segment的head,tail之间的差值,动态计算出最终的大小,且还有加锁操作,消耗也不低。
点击查看代码      public int Count      {            get            {                SpinWait spinner = default;                while (true)                {                  // Capture the head and tail, as well as the head's head and tail.                  ConcurrentQueueSegment<T> head = _head;                  ConcurrentQueueSegment<T> tail = _tail;                  int headHead = Volatile.Read(ref head._headAndTail.Head);                  int headTail = Volatile.Read(ref head._headAndTail.Tail);                  if (head == tail)                  {                        // There was a single segment in the queue.If the captured segments still                        // match, then we can trust the values to compute the segment's count. (It's                        // theoretically possible the values could have looped around and still exactly match,                        // but that would required at least ~4 billion elements to have been enqueued and                        // dequeued between the reads.)                        if (head == _head &&                            tail == _tail &&                            headHead == Volatile.Read(ref head._headAndTail.Head) &&                            headTail == Volatile.Read(ref head._headAndTail.Tail))                        {                            return GetCount(head, headHead, headTail);                        }                  }                  else if (head._nextSegment == tail)                  {                        // There were two segments in the queue.Get the positions from the tail, and as above,                        // if the captured values match the previous reads, return the sum of the counts from both segments.                        int tailHead = Volatile.Read(ref tail._headAndTail.Head);                        int tailTail = Volatile.Read(ref tail._headAndTail.Tail);                        if (head == _head &&                            tail == _tail &&                            headHead == Volatile.Read(ref head._headAndTail.Head) &&                            headTail == Volatile.Read(ref head._headAndTail.Tail) &&                            tailHead == Volatile.Read(ref tail._headAndTail.Head) &&                            tailTail == Volatile.Read(ref tail._headAndTail.Tail))                        {                            return GetCount(head, headHead, headTail) + GetCount(tail, tailHead, tailTail);                        }                  }                  else                  {                        // There were more than two segments in the queue.Fall back to taking the cross-segment lock,                        // which will ensure that the head and tail segments we read are stable (since the lock is needed to change them);                        // for the two-segment case above, we can simply rely on subsequent comparisons, but for the two+ case, we need                        // to be able to trust the internal segments between the head and tail.                        lock (_crossSegmentLock)                        {                            // Now that we hold the lock, re-read the previously captured head and tail segments and head positions.                            // If either has changed, start over.                            if (head == _head && tail == _tail)                            {                              // Get the positions from the tail, and as above, if the captured values match the previous reads,                              // we can use the values to compute the count of the head and tail segments.                              int tailHead = Volatile.Read(ref tail._headAndTail.Head);                              int tailTail = Volatile.Read(ref tail._headAndTail.Tail);                              if (headHead == Volatile.Read(ref head._headAndTail.Head) &&                                    headTail == Volatile.Read(ref head._headAndTail.Tail) &&                                    tailHead == Volatile.Read(ref tail._headAndTail.Head) &&                                    tailTail == Volatile.Read(ref tail._headAndTail.Tail))                              {                                    // We got stable values for the head and tail segments, so we can just compute the sizes                                    // based on those and add them. Note that this and the below additions to count may overflow: previous                                    // implementations allowed that, so we don't check, either, and it is theoretically possible for the                                    // queue to store more than int.MaxValue items.                                    int count = GetCount(head, headHead, headTail) + GetCount(tail, tailHead, tailTail);                                    // Now add the counts for each internal segment. Since there were segments before these,                                    // for counting purposes we consider them to start at the 0th element, and since there is at                                    // least one segment after each, each was frozen, so we can count until each's frozen tail.                                    // With the cross-segment lock held, we're guaranteed that all of these internal segments are                                    // consistent, as the head and tail segment can't be changed while we're holding the lock, and                                    // dequeueing and enqueueing can only be done from the head and tail segments, which these aren't.                                    for (ConcurrentQueueSegment<T> s = head._nextSegment!; s != tail; s = s._nextSegment!)                                    {                                        Debug.Assert(s._frozenForEnqueues, "Internal segment must be frozen as there's a following segment.");                                        count += s._headAndTail.Tail - s.FreezeOffset;                                    }                                    return count;                              }                            }                        }                  }                  // We raced with enqueues/dequeues and captured an inconsistent picture of the queue.                  // Spin and try again.                  spinner.SpinOnce();                }            }      }                private static int GetCount(ConcurrentQueueSegment<T> s, int head, int tail)      {            if (head != tail && head != tail - s.FreezeOffset)            {                head &= s._slotsMask;                tail &= s._slotsMask;                return head < tail ? tail - head : s._slots.Length - head + tail;            }            return 0;      }
页: [1]
查看完整版本: .NET Core常用集合的几个坑