众所周知,List是不能存储重复数据的,而我们想利用List存储不重复的元素,一般都使用List自带的contains方法对元素进行判断,如果不包含再进行添加,但是这样太耗时了。
if (!list.contains("/home/" + i)) {
list.add("/home/" + i);
}
其实我们可以利用set集合存储元素的去重特性来进行list的去重存储,如果set能添加,list就进行添加。
if (set.add("/home/" + i)) {
list.add("/home/" + i);
}
下面我们就来测试几种向List存放不重复数据方法的耗时情况:
public class Test {
public static List<String> list = new ArrayList<String>();
public static Set<String> set = new HashSet<>();
public static Set<String> sortset = new LinkedHashSet<>();
public static void main(String[] args) {
// 利用Hashset去重的特性
long s1 = System.currentTimeMillis();
for (int i = 0; i < 100000; i++) {
if (set.add("/home/" + i)) {
list.add("/home/" + i);
}
}
System.out.println("使用Hashset进行list去重速度:" + (System.currentTimeMillis() - s1));
// 利用linkedHashSet去重且存放有序的特性
long s4 = System.currentTimeMillis();
for (int i = 0; i < 100000; i++) {
if (sortset.add("/home/" + i)) {
list.add("/home/" + i);
}
}
System.out.println("使用LinkedHashset进行list去重速度:" + (System.currentTimeMillis() - s4));
// 利用list自带contains方法做判断
long s2 = System.currentTimeMillis();
for (int i = 0; i < 100000; i++) {
if (!list.contains("/home/" + i)) {
list.add("/home/" + i);
}
}
System.out.println("使用lists的contain方法去重速度:" + (System.currentTimeMillis() - s2));
// 先存到HashSet,再将全部元素添加到list中
long s3 = System.currentTimeMillis();
for (int i = 0; i < 100000; i++) {
set.add("/home/" + i);
}
list.addAll(set);
System.out.println("使用set去重,然后添加到list中速度:" + (System.currentTimeMillis() - s3));
}
}
测试结果如下图:
经过观察我们可以发现,这其中先使用set进行去重,然后再将set所有元素添加到list中是最快的。但是需要注意的是,List的addAll()方法默认是会将要添加集合的元素添加到list的尾部,如果你的这个list中本身包含了其他数据,添加时对顺序有要求的话要谨慎使用。最好是使用第一种方式,使用set是否可以添加作为判断条件,这样在这个过程中还可以附带其他条件。比较灵活。
而使用List的contains方法则耗时最久,与其他方式速度相差几十倍。所以大家以后还是尽量不要使用contains来进行去重的判断了。