Map的原理

1.Map 是什么

Map用于保存具有映射关系的数据,Map集合里保存着两组值,一组用于保存Map的Key,另一组保存着Map的value。

image

Map有哪些方法
image

2.HsahMap 是什么

HashMap 是一个采用哈希表实现的键值对集合,继承自 AbstractMap,实现了 Map 接口。

HashMap 的特殊存储结构使得在获取指定元素前需要经过哈希运算,得到目标元素在哈希表中的位置,然后再进行少量比较即可得到元素,这使得 HashMap 的查找效率高。

当发生 哈希冲突(碰撞)的时候,HashMap 采用 拉链法 进行解决,因此 HashMap 的底层实现是 数组+链表,如下图:
image

HashMap实现概述

  • 允许key/value为null,但是key只能有一个null
  • 非线程安全,多个线程同时操作同一个HashMap实例所做的修改在线程间不同步
  • 遍历时不保证任何顺序,跟元素插入顺序或者访问顺序无关
  • 进行遍历时如果执行HashMap的remove(Object key)或者put(Object value)方法时会快速失败,抛出异常ConcurrentModificationException。遍历时删除元素只能通过Iterator本身的remove()方法实现
HashMap中有两个重要概念

由于 HashMap 扩容开销很大(需要创建新数组、重新哈希、分配等等),因此产生扩容相关的两个因素:

  • 容量(capacity)HashMap当前长度
  • 负载因子(load factor)负载因子,默认值0.75f

不利因素:容量太小扩容rehash,导致性能降低,加载因子太大则会发生冲突,查找的效率变低.

容量即该HashMap能够存储的最大的key个数,为便于扩容,容量都是2^n次方。负载因子用于计算执行扩容的阈值,默认的负载因子是0.75,该值是综合考虑HashMap的get/put等多种操作时的时间空间上的平衡,推荐使用默认值即可。假如容量时256,负载因子是0.75时,当key的总量超过192个时会进行扩容,即容量变成原来的两倍512,原有的存储的key会重新通过hash运算重新分配。
常量
// 如果不指定初值的话,列表的长度就为16,默认加载因子为0.75,
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

static final int MAXIMUM_CAPACITY = 1 << 30;

static final float DEFAULT_LOAD_FACTOR = 0.75f;

static final int TREEIFY_THRESHOLD = 8;

static final int UNTREEIFY_THRESHOLD = 6;

static final int MIN_TREEIFY_CAPACITY = 64;
成员变量
// node列表
transient Node<K,V>[] table;

// 缓存节点
transient Set<Map.Entry<K,V>> entrySet;

// 节点数量
transient int size;

// 修改的次数
transient int modCount;

// 极限值,如果节点数大于这个值就需要扩容,计算方式是capacity * loadfactor
int threshold;

// 加载因子,节点数值大于当前总数的一定百分比时扩容
final float loadFactor;
HashMap 的实现方式
/* ---------------- Public operations -------------- */

/**
 * Constructs an empty <tt>HashMap</tt> with the specified initial
 * capacity and load factor.
 *
 * @param  initialCapacity the initial capacity
 * @param  loadFactor      the load factor
 * @throws IllegalArgumentException if the initial capacity is negative
 *         or the load factor is nonpositive
 */
public HashMap(int initialCapacity, float loadFactor) {
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " +
                                           initialCapacity);
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " +
                                           loadFactor);
    this.loadFactor = loadFactor;
    this.threshold = tableSizeFor(initialCapacity);
}

/**
 * Constructs an empty <tt>HashMap</tt> with the specified initial
 * capacity and the default load factor (0.75).
 *
 * @param  initialCapacity the initial capacity.
 * @throws IllegalArgumentException if the initial capacity is negative.
 */
public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

/**
 * Constructs an empty <tt>HashMap</tt> with the default initial capacity
 * (16) and the default load factor (0.75).
 */
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

public HashMap(Map<? extends K, ? extends V> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);
}
// Map中生成一个新的Map,属于深拷贝
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
    int s = m.size();
    if (s > 0) {
        if (table == null) { // pre-size
            float ft = ((float)s / loadFactor) + 1.0F;
            int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                     (int)ft : MAXIMUM_CAPACITY);
            if (t > threshold)
                threshold = tableSizeFor(t);
        }
        else if (s > threshold)
            resize();
        for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
            K key = e.getKey();
            V value = e.getValue();
            putVal(hash(key), key, value, false, evict);
        }
    }
}
get方法
public V get(Object key) {
    Node<K,V> e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}

/**
 * Implements Map.get and related methods.
 *
 * @param hash hash for key
 * @param key the key
 * @return the node, or null if none
 */
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    // 列表是否为空
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        // 第一个是否要找的,判断条件一致且key一致
        if (first.hash == hash && // always check first node
            ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        if ((e = first.next) != null) {
            if (first instanceof TreeNode)
                return ((TreeNode<K,V>)first).getTreeNode(hash, key);
            // 根据哈希冲突解决方法,每个数据项都是一个链表,需要遍历这个链表去找到我们需要的key那项
            do {
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    return null;
}
put方法

put操作时,HashMap会先进行初始化,如果没有先进行初始化操作,初始化过程会取比用户指定容量大的最近2的幂次数作为数组的初始容量,如果设置扩容的阀值也进行更新,初始化完成以后继续put方法。

  1. 先判断有没有初始化
  2. 在判断传入的key是否为空 就存储在table(0)位置
  3. key不为空就对key进行hash,hash的结果在 & 上数组的长度就得到了位置。
  4. 如果存储位置为空就创建新节点,不为空就说存在hash冲突了。
  5. 解决冲突HashMap会遍历整个链表,如果有相同的value值就更新,否则创建节点添加到链表头。
  6. 添加还要判断存储节点是否达到阈值,达到阈值要进行扩容。
  7. 扩容两倍,扩容的时候使用Arrays.copy() 进行扩容。
  8. 扩容过后新插入的节点也要重新进行hash 一遍才能插入。
/**
 * Implements Map.put and related methods.
 *
 * @param hash hash for key
 * @param key the key
 * @param value the value to put
 * @param onlyIfAbsent if true, don't change existing value
 * @param evict if false, the table is in creation mode.
 * @return previous value, or null if none
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // 首先还是先检查列表是否为空,为空的话就调用reszie()
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 根据哈希方法找到列表中的位置,看看是否为空,为空就新建
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        // 如果已经存在,查看是不是和key一致,如果一致把value替换
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            for (int binCount = 0; ; ++binCount) {
                // 再找链表里有没有数据项和key一致,不一致的话就找到链表的尾部
                if ((e = p.next) == null) {
                    // 在尾部插入一个新的数据项
                    p.next = newNode(hash, key, value, null);
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                // 一致先让p和e指向同一个数据项
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        // 检查e是否为空,不为空表示key所对应的数据项已经存在了
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
          // 这时候就需要判断下onlyIfAbsent开关,如果为true表示不需要更新已有数据项的值了,false才更新
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}
如何计算得到hash code
^和>>>这个两个运算符号
^这个符号叫做异或运算符,两个操作数的位中,相同则结果为0,不同则结果为1
比如2^5=7 因为0010^0101=0111
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
modCount的作用
可以看到modeCount在put,get,remove这些值中被修改。然后在AbstractSet的几个子类KeySet和Values中的foreach中被用来比较。
在循环之前先记录modCount的值,如果循环结束之后这个值被改变了说明HashMap内部结构发生了变化,线程不安全了,就抛出异常,实现“fast-fail”机制。
public final void forEach(Consumer<? super V> action) {
    Node<K,V>[] tab;
    if (action == null)
        throw new NullPointerException();
    if (size > 0 && (tab = table) != null) {
        int mc = modCount;
        for (int i = 0; i < tab.length; ++i) {
            for (Node<K,V> e = tab[i]; e != null; e = e.next)
                action.accept(e.value);
        }
        if (modCount != mc)
            throw new ConcurrentModificationException();
    }
}

HashMap的常见问题

hashMap 的1.7 和1.8的区别?
Hash1.7 和1.8 最大的不同在于1.8 采用了“数组+链表+红黑树”的数据结构,在链表长度超过8 时,把链表转化成红黑树来解决HashMap 因链表变长而查询变慢的问题。
1.7 的底层节点为Entry,1.8 为node ,但是本质一样,都是Map.Entry 的实现。
还有就是在存取数据时添加了关于树结构的遍历更新与添加操作,并采用了尾插法来避免环形链表的产生。
HashMap改变头插法改变尾插法的原因是什么?
java8之前是头插法,就是说新来的值会取代原有的值,原有的值就顺推到链表中去,代码的作者认为后来的值被查找的可能性更大一点,提升查找的效率。
HashMap的扩容机制有哪些呢?
HashMap的扩容机制,数组容量是有限的,数据多次插入的,达到一定数量就行扩容,也就是resize。
举个栗子:容量100的时,当要存第76的时候,就会判断需要进行resize,进行扩容。
/**
 * The load factor used when none specified in constructor.
 */
static final float DEFAULT_LOAD_FACTOR = 0.75f;
HashMap的扩容的条件是什么呢?
扩容:创建一个新的Entry空数组,长度是原数组的2倍。
ReHash:遍历原Entry数组,把所有的Entry重新Hash到新数组。
为什么要重新计算Hash呢,直接复制用不香么?
Hash的公式---> index = HashCode(Key) & (Length - 1)

原来长度(Length)是8你位运算出来的值是2 ,新的长度是16你位运算出来的值明显不一样了

我们现在往一个容量大小为2的put两个值,负载因子是0.75是不是我们在put第二个的时候就会进行resize?

2*0.75 = 1 所以插入第二个就要resize了

因为resize的赋值方式,也就是使用了单链表的头插入方式,同一位置上新元素总会被放在链表的头部位置,在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上。

如果这个时候去取值,出现了“Infinite Loop”。

使用头插会改变链表的上的顺序,但是如果使用尾插,在扩容时会保持链表元素原本的顺序,就不会出现链表成环的问题了。

就是说原本是A->B,在扩容后那个链表还是A->B

Java7在多线程操作HashMap时可能引起死循环,原因是扩容转移后前后链表顺序倒置,在转移过程中修改了原来链表中节点的引用关系。

Java8在同样的前提下并不会引起死循环,原因是扩容转移后前后链表顺序不变,保持之前节点的引用关系。

源码看到put/get方法都没有加同步锁,多线程情况最容易出现的就是:无法保证上一秒put的值,下一秒get的时候还是原值,所以线程安全还是无法保证。

HashMap初始值为什么是16?
位与运算比算数计算的效率高了很多,设置初始值16,是为了服务将Key映射到index的算法。
因为在使用不是2的幂的数字的时候,Length-1的值是所有二进制位全为1,这种情况下,index的结果等同于HashCode后几位的值。只要输入的HashCode本身分布均匀,Hash算法的结果就是均匀的。
这是为了实现均匀分布。
/**
 * The default initial capacity - MUST be a power of two.
 */
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
能用HashMap给我举个例子么?
java中,所有的对象都是继承于Object类。Ojbect类中有两个方法equals,hashCode这两个方法都是用来比较两个对象是否相等的。
在未重写equals方法我们是继承了object的equals方法,那里的 equals是比较两个对象的内存地址,显然我们new了2个对象内存地址肯定不一样

对于值对象,==比较的是两个对象的值
对于引用对象,比较的是两个对象的地址

HashMap是线程不安全的,其主要体现?
在jdk1.7中,在多线程环境下,扩容时会造成环形链或数据丢失。
在jdk1.8中,在多线程环境下,会发生数据覆盖的情况。
HashMap常见面试题
  • HashMap的底层数据结构?
  • HashMap的存取原理?
  • Java7和Java8的区别?
  • 为啥会线程不安全?
  • 有什么线程安全的类代替么?
  • 默认初始化大小是多少?为啥是这么多?为啥大小都是2的幂?
  • HashMap的扩容方式?负载因子是多少?为什是这么多?
  • HashMap的主要参数都有哪些?
  • HashMap是怎么处理hash碰撞的?
  • hash的计算规则?

实现线程安全需要用ConcurrentHashMap
https://www.jianshu.com/p/e69...


走在小路上
11 声望1 粉丝

Swim against the stream 要敢于逆流而上


引用和评论

0 条评论