集合初始化的时候,建议指定集合初始化值大小。 

说明:HashMap使用HashMap(int initialCapacity) 初始化。

正例:initialCapacity=(需要存储的元素个数/负载因子)+1 。

注意负载因子(即loaderfactor) 默认为0.75,如果暂时无法确定初始值大小,请设置为16(即默认值)。

反例:HashMap需要放置1024个元素,由于没有设置容量初始大小,随着元素不断增加,容量7次被迫扩大,resize需要重建hash表,严重影响性能。


刚看到这个建议,是非常懵的,为啥要这样设置?

在jdk中,当我们new HashMap并且指定初始化容量capacity时,jdk会帮我们取第一个大于capacity的2次幂。

具体的实现是:

1.先把capacity - 1

2.进行多次无符号右移和或运算

3.最后 + 1

比如,我们new HashMap(3),会生成一个4容量的map,5->8。10->16。

但是,hashmap在我们存放的数据大于初始化容量*负载因子(默认0.75)时就会自动扩容,自动扩容是非常消耗性能的。因为元素要重新hash分配。

那么当我们生成了一个7容量的map,jdk会生成一个8容量的map,那么存放到8 * 0.75 = 6个元素时就会扩容了,跟我们预想放7个有偏差,所以阿里就推出了这个建议。

initialCapacity = (int) ((float) expectedSize / 0.75F + 1.0F)

这样我们想放7个元素,就设置 7 / 0.75 + 1 = 10,经过jdk会生成16的容量,这样我们存放7个元素就不会因为扩容而损失性能了,当然会消耗一部分内存。