集合初始化的时候,建议指定集合初始化值大小。
说明:HashMap使用HashMap(int initialCapacity) 初始化。
正例:initialCapacity=(需要存储的元素个数/负载因子)+1 。
注意负载因子(即loaderfactor) 默认为0.75,如果暂时无法确定初始值大小,请设置为16(即默认值)。
反例:HashMap需要放置1024个元素,由于没有设置容量初始大小,随着元素不断增加,容量7次被迫扩大,resize需要重建hash表,严重影响性能。
刚看到这个建议,是非常懵的,为啥要这样设置?
在jdk中,当我们new HashMap并且指定初始化容量capacity时,jdk会帮我们取第一个大于capacity的2次幂。
具体的实现是:
1.先把capacity - 1
2.进行多次无符号右移和或运算
3.最后 + 1
比如,我们new HashMap(3),会生成一个4容量的map,5->8。10->16。
但是,hashmap在我们存放的数据大于初始化容量*负载因子(默认0.75)时就会自动扩容,自动扩容是非常消耗性能的。因为元素要重新hash分配。
那么当我们生成了一个7容量的map,jdk会生成一个8容量的map,那么存放到8 * 0.75 = 6个元素时就会扩容了,跟我们预想放7个有偏差,所以阿里就推出了这个建议。
initialCapacity = (int) ((float) expectedSize / 0.75F + 1.0F)
这样我们想放7个元素,就设置 7 / 0.75 + 1 = 10,经过jdk会生成16的容量,这样我们存放7个元素就不会因为扩容而损失性能了,当然会消耗一部分内存。