有人有快速的方法在C#中删除通用列表吗?
ICollection<MyClass> withoutDuplicates = new HashSet<MyClass>(inputList);
有人有快速的方法在C#中删除通用列表吗?
ICollection<MyClass> withoutDuplicates = new HashSet<MyClass>(inputList);
Answers:
也许您应该考虑使用HashSet。
从MSDN链接:
using System;
using System.Collections.Generic;
class Program
{
static void Main()
{
HashSet<int> evenNumbers = new HashSet<int>();
HashSet<int> oddNumbers = new HashSet<int>();
for (int i = 0; i < 5; i++)
{
// Populate numbers with just even numbers.
evenNumbers.Add(i * 2);
// Populate oddNumbers with just odd numbers.
oddNumbers.Add((i * 2) + 1);
}
Console.Write("evenNumbers contains {0} elements: ", evenNumbers.Count);
DisplaySet(evenNumbers);
Console.Write("oddNumbers contains {0} elements: ", oddNumbers.Count);
DisplaySet(oddNumbers);
// Create a new HashSet populated with even numbers.
HashSet<int> numbers = new HashSet<int>(evenNumbers);
Console.WriteLine("numbers UnionWith oddNumbers...");
numbers.UnionWith(oddNumbers);
Console.Write("numbers contains {0} elements: ", numbers.Count);
DisplaySet(numbers);
}
private static void DisplaySet(HashSet<int> set)
{
Console.Write("{");
foreach (int i in set)
{
Console.Write(" {0}", i);
}
Console.WriteLine(" }");
}
}
/* This example produces output similar to the following:
* evenNumbers contains 5 elements: { 0 2 4 6 8 }
* oddNumbers contains 5 elements: { 1 3 5 7 9 }
* numbers UnionWith oddNumbers...
* numbers contains 10 elements: { 0 2 4 6 8 1 3 5 7 9 }
*/
如果您使用的是.Net 3+,则可以使用Linq。
List<T> withDupes = LoadSomeData();
List<T> noDupes = withDupes.Distinct().ToList();
对其进行排序,然后将两个和两个相邻检查,因为重复项将聚集在一起。
像这样:
list.Sort();
Int32 index = list.Count - 1;
while (index > 0)
{
if (list[index] == list[index - 1])
{
if (index < list.Count - 1)
(list[index], list[list.Count - 1]) = (list[list.Count - 1], list[index]);
list.RemoveAt(list.Count - 1);
index--;
}
else
index--;
}
笔记:
RemoveAt
是一个非常昂贵的操作List
它为我工作。只需使用
List<Type> liIDs = liIDs.Distinct().ToList<Type>();
将“类型”替换为所需的类型,例如int。
正如kronoz在.Net 3.5中所说的,您可以使用 Distinct()
。
在.Net 2中,您可以模仿它:
public IEnumerable<T> DedupCollection<T> (IEnumerable<T> input)
{
var passedValues = new HashSet<T>();
// Relatively simple dupe check alg used as example
foreach(T item in input)
if(passedValues.Add(item)) // True if item is new
yield return item;
}
这可用于对任何集合进行重复数据删除,并以原始顺序返回值。
通常,过滤一个集合(这Distinct()
和本示例都一样)要比从集合中删除项目要快得多。
HashSet
构造函数已重复数据删除,这使其在大多数情况下都更好。但是,这将保留排序顺序,而HashSet
不会。
Dictionary<T, object>
代替,替换.Contains
用.ContainsKey
和.Add(item)
用.Add(item, null)
HashSet
保留顺序,Distinct()
但不保留。
在Java中(我假设C#大致相同):
list = new ArrayList<T>(new HashSet<T>(list))
如果您确实要更改原始列表,请执行以下操作:
List<T> noDupes = new ArrayList<T>(new HashSet<T>(list));
list.clear();
list.addAll(noDupes);
要保留顺序,只需将HashSet替换为LinkedHashSet。
var noDupes = new HashSet<T>(list); list.Clear(); list.AddRange(noDupes);
:)
这需要不同的元素(没有重复的元素),然后再次将其转换为列表:
List<type> myNoneDuplicateValue = listValueWithDuplicate.Distinct().ToList();
使用LINQ的联合方法。
注意:除了它之外,此解决方案不需要任何Linq知识。
码
首先将以下内容添加到类文件的顶部:
using System.Linq;
现在,您可以使用以下命令从名为的对象中删除重复项obj1
:
obj1 = obj1.Union(obj1).ToList();
注意:重命名obj1
为对象的名称。
怎么运行的
Union命令列出了两个源对象的每个条目之一。由于obj1都是两个源对象,因此将obj1减少为每个条目之一。
将ToList()
返回一个新的列表。这是必需的,因为Linq命令(例如)Union
将结果作为IEnumerable结果返回,而不是修改原始List或返回新List。
作为辅助方法(没有Linq):
public static List<T> Distinct<T>(this List<T> list)
{
return (new HashSet<T>(list)).ToList();
}
如果你不关心顺序你可以推的项目进入HashSet
,如果你不想要保持你可以做这样的事情的顺序:
var unique = new List<T>();
var hs = new HashSet<T>();
foreach (T t in list)
if (hs.Add(t))
unique.Add(t);
或Linq方式:
var hs = new HashSet<T>();
list.All( x => hs.Add(x) );
编辑:该HashSet
方法是O(N)
时间和O(N)
同时分拣空间,然后制作独特的(通过@的建议lassevk等)的O(N*lgN)
时间和O(1)
空间,所以它不是那么清楚,我(因为它是在第一眼)的排序方式是劣质(我暂时的不赞成票表示歉意...)
这是用于原位删除相邻重复项的扩展方法。首先调用Sort()并传递相同的IComparer。这应该比Lasse V. Karlsen的版本更有效,后者反复调用RemoveAt(导致多次块存储移动)。
public static void RemoveAdjacentDuplicates<T>(this List<T> List, IComparer<T> Comparer)
{
int NumUnique = 0;
for (int i = 0; i < List.Count; i++)
if ((i == 0) || (Comparer.Compare(List[NumUnique - 1], List[i]) != 0))
List[NumUnique++] = List[i];
List.RemoveRange(NumUnique, List.Count - NumUnique);
}
只需确保没有将重复项添加到列表中可能会更容易。
if(items.IndexOf(new_item) < 0)
items.add(new_item)
List<T>.Contains
每次都使用该方法,但是有超过1,000,000个条目。此过程会使我的应用程序变慢。我正在使用List<T>.Distinct().ToList<T>()
第一个。
.Net 2.0中的另一种方式
static void Main(string[] args)
{
List<string> alpha = new List<string>();
for(char a = 'a'; a <= 'd'; a++)
{
alpha.Add(a.ToString());
alpha.Add(a.ToString());
}
Console.WriteLine("Data :");
alpha.ForEach(delegate(string t) { Console.WriteLine(t); });
alpha.ForEach(delegate (string v)
{
if (alpha.FindAll(delegate(string t) { return t == v; }).Count > 1)
alpha.Remove(v);
});
Console.WriteLine("Unique Result :");
alpha.ForEach(delegate(string t) { Console.WriteLine(t);});
Console.ReadKey();
}
有很多解决方法-列表中的重复项是以下之一:
List<Container> containerList = LoadContainer();//Assume it has duplicates
List<Container> filteredList = new List<Container>();
foreach (var container in containerList)
{
Container duplicateContainer = containerList.Find(delegate(Container checkContainer)
{ return (checkContainer.UniqueId == container.UniqueId); });
//Assume 'UniqueId' is the property of the Container class on which u r making a search
if(!containerList.Contains(duplicateContainer) //Add object when not found in the new class object
{
filteredList.Add(container);
}
}
干杯拉维·加内森
这是一个简单的解决方案,不需要任何难以理解的LINQ或列表的任何先前排序。
private static void CheckForDuplicateItems(List<string> items)
{
if (items == null ||
items.Count == 0)
return;
for (int outerIndex = 0; outerIndex < items.Count; outerIndex++)
{
for (int innerIndex = 0; innerIndex < items.Count; innerIndex++)
{
if (innerIndex == outerIndex) continue;
if (items[outerIndex].Equals(items[innerIndex]))
{
// Duplicate Found
}
}
}
}
所有答案都会复制列表,或创建新列表,或使用速度慢的功能,或者非常缓慢。
据我了解,这是我所知道的最快,最便宜的方法(也是由一个专门从事实时物理优化的经验丰富的程序员支持)。
// Duplicates will be noticed after a sort O(nLogn)
list.Sort();
// Store the current and last items. Current item declaration is not really needed, and probably optimized by the compiler, but in case it's not...
int lastItem = -1;
int currItem = -1;
int size = list.Count;
// Store the index pointing to the last item we want to keep in the list
int last = size - 1;
// Travel the items from last to first O(n)
for (int i = last; i >= 0; --i)
{
currItem = list[i];
// If this item was the same as the previous one, we don't want it
if (currItem == lastItem)
{
// Overwrite last in current place. It is a swap but we don't need the last
list[i] = list[last];
// Reduce the last index, we don't want that one anymore
last--;
}
// A new item, we store it and continue
else
lastItem = currItem;
}
// We now have an unsorted list with the duplicates at the end.
// Remove the last items just once
list.RemoveRange(last + 1, size - last - 1);
// Sort again O(n logn)
list.Sort();
最终费用为:
nlogn + n + nlogn = n + 2nlogn = O(nlogn),这非常不错。
关于RemoveRange的注意事项: 由于我们无法设置列表的数量并且避免使用Remove函数,因此我不确切知道此操作的速度,但是我想这是最快的方法。
如果您有两个班级Product
,Customer
并且我们想从其列表中删除重复的项目
public class Product
{
public int Id { get; set; }
public string ProductName { get; set; }
}
public class Customer
{
public int Id { get; set; }
public string CustomerName { get; set; }
}
您必须按照以下形式定义通用类
public class ItemEqualityComparer<T> : IEqualityComparer<T> where T : class
{
private readonly PropertyInfo _propertyInfo;
public ItemEqualityComparer(string keyItem)
{
_propertyInfo = typeof(T).GetProperty(keyItem, BindingFlags.GetProperty | BindingFlags.Instance | BindingFlags.Public);
}
public bool Equals(T x, T y)
{
var xValue = _propertyInfo?.GetValue(x, null);
var yValue = _propertyInfo?.GetValue(y, null);
return xValue != null && yValue != null && xValue.Equals(yValue);
}
public int GetHashCode(T obj)
{
var propertyValue = _propertyInfo.GetValue(obj, null);
return propertyValue == null ? 0 : propertyValue.GetHashCode();
}
}
然后,您可以删除列表中的重复项。
var products = new List<Product>
{
new Product{ProductName = "product 1" ,Id = 1,},
new Product{ProductName = "product 2" ,Id = 2,},
new Product{ProductName = "product 2" ,Id = 4,},
new Product{ProductName = "product 2" ,Id = 4,},
};
var productList = products.Distinct(new ItemEqualityComparer<Product>(nameof(Product.Id))).ToList();
var customers = new List<Customer>
{
new Customer{CustomerName = "Customer 1" ,Id = 5,},
new Customer{CustomerName = "Customer 2" ,Id = 5,},
new Customer{CustomerName = "Customer 2" ,Id = 5,},
new Customer{CustomerName = "Customer 2" ,Id = 5,},
};
var customerList = customers.Distinct(new ItemEqualityComparer<Customer>(nameof(Customer.Id))).ToList();
此代码删除重复项,Id
如果要通过其他属性删除重复项,则可以更改nameof(YourClass.DuplicateProperty)
相同nameof(Customer.CustomerName)
项,然后再按CustomerName
属性删除重复项。
public static void RemoveDuplicates<T>(IList<T> list )
{
if (list == null)
{
return;
}
int i = 1;
while(i<list.Count)
{
int j = 0;
bool remove = false;
while (j < i && !remove)
{
if (list[i].Equals(list[j]))
{
remove = true;
}
j++;
}
if (remove)
{
list.RemoveAt(i);
}
else
{
i++;
}
}
}
一个简单的直观实现:
public static List<PointF> RemoveDuplicates(List<PointF> listPoints)
{
List<PointF> result = new List<PointF>();
for (int i = 0; i < listPoints.Count; i++)
{
if (!result.Contains(listPoints[i]))
result.Add(listPoints[i]);
}
return result;
}