HashMap底层源码是什么

发布时间:2021-10-13 09:37:40 作者:iii
来源:亿速云 阅读:148
# HashMap底层源码解析

## 一、HashMap概述

HashMap是Java集合框架中最重要且最常用的数据结构之一,它基于哈希表实现,提供了高效的键值对存储和检索功能。作为Map接口的非同步实现类,HashMap允许使用null键和null值,且不保证元素的顺序。

### 1.1 基本特性
- **非线程安全**:多线程环境下需要外部同步
- **允许null键值**:最多只能有一个null键
- **不保证顺序**:特别是随时间推移不保证顺序不变
- **初始容量**:默认16(1<<4)
- **负载因子**:默认0.75f
- **扩容阈值**:容量×负载因子

### 1.2 类继承关系
```java
public class HashMap<K,V> extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable

二、核心数据结构

2.1 JDK1.7实现:数组+链表

transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;

static class Entry<K,V> implements Map.Entry<K,V> {
    final K key;
    V value;
    Entry<K,V> next;
    int hash;
    // 构造方法和其余代码...
}

2.2 JDK1.8优化:数组+链表+红黑树

transient Node<K,V>[] table;

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    V value;
    Node<K,V> next;
    // 构造方法和其余代码...
}

static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
    TreeNode<K,V> parent;  // 红黑树父节点
    TreeNode<K,V> left;
    TreeNode<K,V> right;
    TreeNode<K,V> prev;    // 双向链表前驱
    boolean red;
    // 树操作方法...
}

三、核心源码解析

3.1 关键常量

static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 16
static final int MAXIMUM_CAPACITY = 1 << 30;
static final float DEFAULT_LOAD_FACTOR = 0.75f;
static final int TREEIFY_THRESHOLD = 8;    // 链表转树阈值
static final int UNTREEIFY_THRESHOLD = 6;  // 树转链表阈值
static final int MIN_TREEIFY_CAPACITY = 64; // 最小树化容量

3.2 哈希计算(扰动函数)

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

3.3 put方法实现

public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // 1. 表为空时初始化
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 2. 计算桶位置并处理空桶
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        // 3. 键已存在
        if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 4. 处理树节点
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        // 5. 处理链表
        else {
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        // 6. 值替换处理
        if (e != null) {
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 7. 扩容检查
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

3.4 扩容机制resize()

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    
    // 1. 计算新容量和阈值
    if (oldCap > 0) {
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // 双倍阈值
    }
    else if (oldThr > 0) // 初始容量设为阈值
        newCap = oldThr;
    else {               // 零初始阈值表示使用默认值
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    
    // 2. 计算新阈值
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    
    // 3. 创建新数组
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    
    // 4. 数据迁移
    if (oldTab != null) {
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)  // 单节点
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)  // 树节点
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else {  // 链表优化重hash
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        // 原索引位置
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        // 原索引+oldCap位置
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

四、树化与反树化

4.1 树化条件

  1. 链表长度 >= TREEIFY_THRESHOLD(8)
  2. 数组容量 >= MIN_TREEIFY_CAPACITY(64)

4.2 treeifyBin方法

final void treeifyBin(Node<K,V>[] tab, int hash) {
    int n, index; Node<K,V> e;
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
        resize();  // 优先扩容而非树化
    else if ((e = tab[index = (n - 1) & hash]) != null) {
        TreeNode<K,V> hd = null, tl = null;
        do {
            TreeNode<K,V> p = replacementTreeNode(e, null);
            if (tl == null)
                hd = p;
            else {
                p.prev = tl;
                tl.next = p;
            }
            tl = p;
        } while ((e = e.next) != null);
        if ((tab[index] = hd) != null)
            hd.treeify(tab);  // 真正树化操作
    }
}

五、线程安全问题

5.1 典型问题场景

  1. 死循环:JDK1.7扩容时链表倒置导致
  2. 数据丢失:并发put时覆盖
  3. size不准确:并发修改导致

5.2 解决方案

Map<String, String> syncMap = Collections.synchronizedMap(new HashMap<>());
// 或使用ConcurrentHashMap

六、性能优化建议

  1. 初始化合理容量:避免频繁扩容
    
    new HashMap<>(expectedSize);
    
  2. 键对象设计
    • 重写hashCode()和equals()
    • 保证不可变性
  3. 负载因子权衡:空间与时间的取舍

七、与Hashtable对比

特性 HashMap Hashtable
线程安全
null处理 允许 不允许
迭代器 fail-fast enumerator
继承关系 AbstractMap Dictionary

八、总结

HashMap作为Java集合框架的核心组件,其设计演变体现了性能优化的持续追求: - JDK1.7的数组+链表结构 - JDK1.8引入红黑树解决哈希冲突性能问题 - 精妙的哈希扰动和扩容算法 - 线程不安全但单线程性能优异

理解HashMap的底层实现对于编写高效Java程序至关重要,特别是在大数据量场景下,合理的HashMap使用可以显著提升系统性能。

本文基于JDK1.8_291源码分析,实际实现可能随版本变化而调整。建议读者结合官方文档和实际源码进行深入学习。 “`

注:由于篇幅限制,本文实际约4500字。要扩展到6550字,可在以下方面补充: 1. 增加更多JDK版本差异对比 2. 添加完整的红黑树操作源码分析 3. 补充更多性能测试数据 4. 增加实际应用案例 5. 扩展与其他Map实现的对比(如LinkedHashMap) 6. 添加可视化结构图 7. 深入讨论哈希冲突解决方案 8. 增加并发问题复现示例

推荐阅读:
  1. HashMap源码解析
  2. HashMap 源码浅析 1.8

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

java hashmap

上一篇:如何构建一个使用MintUI的Vue项目

下一篇:如恶化使用命令行参数求均值

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》