Map的原理
1.Map 是什么
Map用于保存具有映射关系的数据,Map集合里保存着两组值,一组用于保存Map的Key,另一组保存着Map的value。
Map有哪些方法
2.HsahMap 是什么
HashMap 是一个采用哈希表实现的键值对集合,继承自 AbstractMap,实现了 Map 接口。
HashMap 的特殊存储结构使得在获取指定元素前需要经过哈希运算,得到目标元素在哈希表中的位置,然后再进行少量比较即可得到元素,这使得 HashMap 的查找效率高。
当发生 哈希冲突(碰撞)的时候,HashMap 采用 拉链法 进行解决,因此 HashMap 的底层实现是 数组+链表,如下图:
HashMap实现概述
- 允许key/value为null,但是key只能有一个null
- 非线程安全,多个线程同时操作同一个HashMap实例所做的修改在线程间不同步
- 遍历时不保证任何顺序,跟元素插入顺序或者访问顺序无关
- 进行遍历时如果执行HashMap的remove(Object key)或者put(Object value)方法时会快速失败,抛出异常ConcurrentModificationException。遍历时删除元素只能通过Iterator本身的remove()方法实现
HashMap中有两个重要概念
由于 HashMap 扩容开销很大(需要创建新数组、重新哈希、分配等等),因此产生扩容相关的两个因素:
- 容量(capacity)HashMap当前长度
- 负载因子(load factor)负载因子,默认值0.75f
不利因素:容量太小扩容rehash,导致性能降低,加载因子太大则会发生冲突,查找的效率变低.
容量即该HashMap能够存储的最大的key个数,为便于扩容,容量都是2^n次方。负载因子用于计算执行扩容的阈值,默认的负载因子是0.75,该值是综合考虑HashMap的get/put等多种操作时的时间空间上的平衡,推荐使用默认值即可。假如容量时256,负载因子是0.75时,当key的总量超过192个时会进行扩容,即容量变成原来的两倍512,原有的存储的key会重新通过hash运算重新分配。
常量
// 如果不指定初值的话,列表的长度就为16,默认加载因子为0.75,
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
static final int MAXIMUM_CAPACITY = 1 << 30;
static final float DEFAULT_LOAD_FACTOR = 0.75f;
static final int TREEIFY_THRESHOLD = 8;
static final int UNTREEIFY_THRESHOLD = 6;
static final int MIN_TREEIFY_CAPACITY = 64;
成员变量
// node列表
transient Node<K,V>[] table;
// 缓存节点
transient Set<Map.Entry<K,V>> entrySet;
// 节点数量
transient int size;
// 修改的次数
transient int modCount;
// 极限值,如果节点数大于这个值就需要扩容,计算方式是capacity * loadfactor
int threshold;
// 加载因子,节点数值大于当前总数的一定百分比时扩容
final float loadFactor;
HashMap 的实现方式
/* ---------------- Public operations -------------- */
/**
* Constructs an empty <tt>HashMap</tt> with the specified initial
* capacity and load factor.
*
* @param initialCapacity the initial capacity
* @param loadFactor the load factor
* @throws IllegalArgumentException if the initial capacity is negative
* or the load factor is nonpositive
*/
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
/**
* Constructs an empty <tt>HashMap</tt> with the specified initial
* capacity and the default load factor (0.75).
*
* @param initialCapacity the initial capacity.
* @throws IllegalArgumentException if the initial capacity is negative.
*/
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
/**
* Constructs an empty <tt>HashMap</tt> with the default initial capacity
* (16) and the default load factor (0.75).
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
// Map中生成一个新的Map,属于深拷贝
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
get方法
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
/**
* Implements Map.get and related methods.
*
* @param hash hash for key
* @param key the key
* @return the node, or null if none
*/
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 列表是否为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 第一个是否要找的,判断条件一致且key一致
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 根据哈希冲突解决方法,每个数据项都是一个链表,需要遍历这个链表去找到我们需要的key那项
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
put方法
put操作时,HashMap会先进行初始化,如果没有先进行初始化操作,初始化过程会取比用户指定容量大的最近2的幂次数作为数组的初始容量,如果设置扩容的阀值也进行更新,初始化完成以后继续put方法。
- 先判断有没有初始化
- 在判断传入的key是否为空 就存储在table(0)位置
- key不为空就对key进行hash,hash的结果在 & 上数组的长度就得到了位置。
- 如果存储位置为空就创建新节点,不为空就说存在hash冲突了。
- 解决冲突HashMap会遍历整个链表,如果有相同的value值就更新,否则创建节点添加到链表头。
- 添加还要判断存储节点是否达到阈值,达到阈值要进行扩容。
- 扩容两倍,扩容的时候使用Arrays.copy() 进行扩容。
- 扩容过后新插入的节点也要重新进行hash 一遍才能插入。
/**
* Implements Map.put and related methods.
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent if true, don't change existing value
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 首先还是先检查列表是否为空,为空的话就调用reszie()
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 根据哈希方法找到列表中的位置,看看是否为空,为空就新建
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 如果已经存在,查看是不是和key一致,如果一致把value替换
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
// 再找链表里有没有数据项和key一致,不一致的话就找到链表的尾部
if ((e = p.next) == null) {
// 在尾部插入一个新的数据项
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 一致先让p和e指向同一个数据项
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 检查e是否为空,不为空表示key所对应的数据项已经存在了
if (e != null) { // existing mapping for key
V oldValue = e.value;
// 这时候就需要判断下onlyIfAbsent开关,如果为true表示不需要更新已有数据项的值了,false才更新
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
如何计算得到hash code
^和>>>这个两个运算符号
^这个符号叫做异或运算符,两个操作数的位中,相同则结果为0,不同则结果为1
比如2^5=7 因为0010^0101=0111
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
modCount的作用
可以看到modeCount在put,get,remove这些值中被修改。然后在AbstractSet的几个子类KeySet和Values中的foreach中被用来比较。
在循环之前先记录modCount的值,如果循环结束之后这个值被改变了说明HashMap内部结构发生了变化,线程不安全了,就抛出异常,实现“fast-fail”机制。
public final void forEach(Consumer<? super V> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e.value);
}
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
HashMap的常见问题
hashMap 的1.7 和1.8的区别?
Hash1.7 和1.8 最大的不同在于1.8 采用了“数组+链表+红黑树”的数据结构,在链表长度超过8 时,把链表转化成红黑树来解决HashMap 因链表变长而查询变慢的问题。
1.7 的底层节点为Entry,1.8 为node ,但是本质一样,都是Map.Entry 的实现。
还有就是在存取数据时添加了关于树结构的遍历更新与添加操作,并采用了尾插法来避免环形链表的产生。
HashMap改变头插法改变尾插法的原因是什么?
java8之前是头插法,就是说新来的值会取代原有的值,原有的值就顺推到链表中去,代码的作者认为后来的值被查找的可能性更大一点,提升查找的效率。
HashMap的扩容机制有哪些呢?
HashMap的扩容机制,数组容量是有限的,数据多次插入的,达到一定数量就行扩容,也就是resize。
举个栗子:容量100的时,当要存第76的时候,就会判断需要进行resize,进行扩容。
/**
* The load factor used when none specified in constructor.
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
HashMap的扩容的条件是什么呢?
扩容:创建一个新的Entry空数组,长度是原数组的2倍。
ReHash:遍历原Entry数组,把所有的Entry重新Hash到新数组。
为什么要重新计算Hash呢,直接复制用不香么?
Hash的公式---> index = HashCode(Key) & (Length - 1)原来长度(Length)是8你位运算出来的值是2 ,新的长度是16你位运算出来的值明显不一样了
我们现在往一个容量大小为2的put两个值,负载因子是0.75是不是我们在put第二个的时候就会进行resize?
2*0.75 = 1 所以插入第二个就要resize了
因为resize的赋值方式,也就是使用了单链表的头插入方式,同一位置上新元素总会被放在链表的头部位置,在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上。
如果这个时候去取值,出现了“Infinite Loop”。
使用头插会改变链表的上的顺序,但是如果使用尾插,在扩容时会保持链表元素原本的顺序,就不会出现链表成环的问题了。
就是说原本是A->B,在扩容后那个链表还是A->B
Java7在多线程操作HashMap时可能引起死循环,原因是扩容转移后前后链表顺序倒置,在转移过程中修改了原来链表中节点的引用关系。
Java8在同样的前提下并不会引起死循环,原因是扩容转移后前后链表顺序不变,保持之前节点的引用关系。
源码看到put/get方法都没有加同步锁,多线程情况最容易出现的就是:无法保证上一秒put的值,下一秒get的时候还是原值,所以线程安全还是无法保证。
HashMap初始值为什么是16?
位与运算比算数计算的效率高了很多,设置初始值16,是为了服务将Key映射到index的算法。
因为在使用不是2的幂的数字的时候,Length-1的值是所有二进制位全为1,这种情况下,index的结果等同于HashCode后几位的值。只要输入的HashCode本身分布均匀,Hash算法的结果就是均匀的。
这是为了实现均匀分布。
/**
* The default initial capacity - MUST be a power of two.
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
能用HashMap给我举个例子么?
java中,所有的对象都是继承于Object类。Ojbect类中有两个方法equals,hashCode这两个方法都是用来比较两个对象是否相等的。
在未重写equals方法我们是继承了object的equals方法,那里的 equals是比较两个对象的内存地址,显然我们new了2个对象内存地址肯定不一样对于值对象,==比较的是两个对象的值
对于引用对象,比较的是两个对象的地址
HashMap是线程不安全的,其主要体现?
在jdk1.7中,在多线程环境下,扩容时会造成环形链或数据丢失。
在jdk1.8中,在多线程环境下,会发生数据覆盖的情况。
HashMap常见面试题
- HashMap的底层数据结构?
- HashMap的存取原理?
- Java7和Java8的区别?
- 为啥会线程不安全?
- 有什么线程安全的类代替么?
- 默认初始化大小是多少?为啥是这么多?为啥大小都是2的幂?
- HashMap的扩容方式?负载因子是多少?为什是这么多?
- HashMap的主要参数都有哪些?
- HashMap是怎么处理hash碰撞的?
- hash的计算规则?
实现线程安全需要用ConcurrentHashMap
https://www.jianshu.com/p/e69...
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。