Redis 底层中的字典就是一个典型的 Hash 实现。
typedef struct dictEntry { // (1)
void *key;
union {
void *val;
uint64_t u64;
int64_t s64;
double d;
} v;
struct dictEntry *next;
} dictEntry;
typedef struct dictType {
uint64_t (*hashFunction)(const void *key);
void *(*keyDup)(void *privdata, const void *key);
void *(*valDup)(void *privdata, const void *obj);
int (*keyCompare)(void *privdata, const void *key1, const void *key2);
void (*keyDestructor)(void *privdata, void *key);
void (*valDestructor)(void *privdata, void *obj);
} dictType;
/* This is our hash table structure. Every dictionary has two of this as we
* implement incremental rehashing, for the old to the new table. */
typedef struct dictht {
dictEntry **table; // (2)
unsigned long size;
unsigned long sizemask;
unsigned long used;
} dictht;
typedef struct dict {
dictType *type;
void *privdata;
dictht ht[2]; // (3)
long rehashidx; /* rehashing not in progress if rehashidx == -1 */
unsigned long iterators; /* number of iterators currently running */
} dict;
-
dictEntry
保存一个键值对。 -
table
属性是一个数组,数组中每个元素都是一个指向dictEntry
结构的指针。 -
通常使用
ht[0]
,ht[1]
在 Rehash 时才会用到。
添加新元素时,和 Java 一样,计算 Key 的哈希值,然后再根据哈希值与长度掩码(sizemask
)相与得到数组下标。
Redis 底层使用 MurmurHash2 算法来计算键的哈希值。
-
计算新的数组长度
-
如果是扩容,则
used * 2
; -
如果是缩容,则是第一个大于等于
used
的 2n。 — 这点和 Java 不同,HashMap
中没有自动缩容的机制。
-
-
将
ht[0]
中的所有键值对重新 Rehash,重新计算哈希值和索引值,放置到ht[1]
上; -
迁移完成后,将
ht[1]
设置为ht[0]
,为ht[1]
创建一个空白哈希表。
还有几点需要特别注意:
-
根据是否正在执行
BGSAVE
或BGREADWRITEAOF
命令,使用不同的负载阈值来决定是否开启对哈希表的自动扩展工作; -
当哈希表负载因子小于 0.1 时,会自动开始对哈希表缩容;
-
Rehash 过程是渐进式的:
-
开始 Rehash 后,每次对自动进行的添加、删除、查找或更新时,程序会自动将对应的键值对从
ht[0]
Rehash 到ht[1]
上;rehashidx 属性值增一。 -
记得有后台定时任务来自动扩展的,怎么没有看到说明文档?
-
Redis 在哈希对象上的编码有可能是:
-
ziplist
-
hashtable
转换条件是:
-
哈希对象保存的所有键值对象字符串长度都小于 64 个字节;(通过参数
hash-max-ziplist-value
来调节,默认为 64) -
哈希对象保存的键值对数量小于 512 个;(通过参数
hash-max-ziplist-entries
来调节,默认为 512)
$ redis-cli --raw
127.0.0.1:6379> HMSET profile name "D瓜哥" site "https://www.diguage.com" job "Developer"
OK
127.0.0.1:6379> TYPE profile
hash
127.0.0.1:6379> OBJECT encoding profile
ziplist
127.0.0.1:6379> HSET profile address "1234567890123456789012345678901234567890123456789012345678901234" // (1)
1
127.0.0.1:6379> HVALS profile
D瓜哥
https://www.diguage.com
Developer
1234567890123456789012345678901234567890123456789012345678901234
127.0.0.1:6379> OBJECT encoding profile
ziplist
127.0.0.1:6379> HSET profile address "12345678901234567890123456789012345678901234567890123456789012345" // (2)
0
127.0.0.1:6379> HVALS profile
https://www.diguage.com
D瓜哥
12345678901234567890123456789012345678901234567890123456789012345
Developer
127.0.0.1:6379> OBJECT encoding profile
hashtable
-
这是 64 个字符。
-
这是 65 个字符。
通过 t_hash.c/hashTypeConvertZiplist
方法来转换。
-
Redis 核心数据结构(二) - "地瓜哥"博客网 — 本文中的 Redis 内容是这篇文章的一个拷贝。请以原文为准备,本文尽量同步更新。
HashMap是基于哈希表实现的,用来存储key-value形式的键值对,允许key和value都为null值; HashMap是非线程安全的,只是用于单线程环境下,多线程环境下可以采用concurrent并发包下的concurrentHashMap; HashMap实现了Serializable接口,支持序列化,实现了Cloneable接口,能被克隆。
public class HashMap<K,V>
extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable
可以看到HashMap 实现了Cloneable和Serializable标记接口:
-
标记接口Cloneable,用于表明HashMap对象会重写java.lang.Object#clone()方法,HashMap实现的是浅拷贝(shallow copy)。
-
标记接口Serializable,用于表明HashMap对象可以被序列化。
HashMap继承了AbstractMap抽象类,同时也实现了Map接口。
Note
|
在语法层面继承接口Map是多余的,这么做仅仅是为了让阅读代码的人明确知道HashMap是属于Map体系的,起到了文档的作用。 AbstractMap相当于个辅助类,Map的一些操作这里面已经提供了默认实现,后面具体的子类如果没有特殊行为,可直接使用AbstractMap提供的实现。 |
AbstractMap相当于个辅助类,Map的一些操作这里面已经提供了默认实现,后面具体的子类如果没有特殊行为,可直接使用AbstractMap提供的实现。
接口java.util.Map,主要有四个常用的实现类,分别是HashMap、Hashtable、LinkedHashMap和TreeMap,类继承关系如下图所示:
下面针对各个实现类的特点做一些说明:
(1) HashMap:它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。
HashMap最多只允许一条记录的键为null,允许多条记录的值为null。HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,
可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,
或者使用ConcurrentHashMap。
(2) Hashtable:Hashtable是遗留类,很多映射的常用功能与HashMap类似,不同的是它承自Dictionary类,并且是线程安全的,
任一时间只有一个线程能写Hashtable,并发性不如ConcurrentHashMap,因为ConcurrentHashMap引入了分段锁。
Hashtable不建议在新代码中使用,不需要线程安全的场合可以用HashMap替换,需要线程安全的场合可以用ConcurrentHashMap替换。
(3) LinkedHashMap:LinkedHashMap是HashMap的一个子类,保存了记录的插入顺序,在用Iterator遍历LinkedHashMap时,先得到的记录肯定是先插入的,也可以在构造时带参数,按照访问次序排序。
(4) TreeMap:TreeMap实现SortedMap接口,能够把它保存的记录根据键排序,默认是按键值的升序排序,也可以指定排序的比较器,当用Iterator遍历TreeMap时,得到的记录是排过序的。如果使用排序的映射,建议使用TreeMap。在使用TreeMap时,key必须实现Comparable接口或者在构造TreeMap传入自定义的Comparator,否则会在运行时抛出java.lang.ClassCastException类型的异常。
对于上述四种Map类型的类,要求映射中的key是不可变对象。不可变对象是该对象在创建后它的哈希值不会被改变。如果对象的哈希值发生变化,Map对象很可能就定位不到映射的位置了。
通过上面的比较,我们知道了HashMap是Java的Map家族中一个普通成员,鉴于它可以满足大多数场景的使用条件,所以是使用频度最高的一个。下文我们主要结合源码,从存储结构、常用方法分析、扩容等方面了解一下HashMap的工作原理。
HashMap是基于哈希表存储的,在JDK1.6,JDK1.7版本采用数组(桶位) + 链表实现存储元素和解决冲突,同一hash值的链表都存储在一个链表里。 但是当位于一个桶中的元素较多,即hash值相等的元素较多时,通过key值依次查找的效率较低。但是到JDK1.8版本时HashMap采用位桶 + 链表 + 红黑树实现, 当链表长度超过阈值(8)时,将链表转换为红黑树,这样大大减少了查找时间。
/**
* 序列号
*/
private static final long serialVersionUID = 362498820763181265L;
/**
* 默认初始容量(容量为HashMap中槽的数目)是16,且必须是2的整数次幂。
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* 最大容量(必须是2的幂且小于2的30次方,传入容量过大将被这个值替换)
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 默认装载因子为0.75
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 当put一个元素到某个桶位,其链表长度达到8时将链表转换为红黑树
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 一个桶位上的链表长度小于这个值时将红黑树转链表
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 树的最小的容量,至少是 4 x TREEIFY_THRESHOLD = 32
* 然后为了避免(resizing 和 treeification thresholds) 设置成64
*/
static final int MIN_TREEIFY_CAPACITY = 64;
/**
* 实际存放元素的个数,不等于数组的长度
*/
transient int size;
/**
* 达到这个阈值就要进行扩容,其等于容量 * 装载因子
*/
int threshold;
/**
* 实际装载因子
*/
final float loadFactor;
/**
* 每次扩容和更改map结构的计数器
* 如果在使用迭代器的过程中有其他线程修改了map,将抛出ConcurrentModificationException,
* 这就是所谓fail-fast策略(速错),这一策略的实现就是通过modCount
*/
transient int modCount;
/*
* 存放具体key-value对元素的集和
*/
transient Set<Map.Entry<K,V>> entrySet;
/*
* 存储元素的数组,总是2的幂次倍
*/
transient Node<K,V>[] table;
加载因子(默认0.75):为什么需要使用加载因子,为什么需要扩容呢?因为如果加载因子很大, 说明利用的空间很多,如果一直不进行扩容的话,链表就会越来越长,这样查找的效率很低, 因为链表的长度很大(当然最新版本使用了红黑树后会改进很多),扩容之后,将原来链表数 组的每一个链表分成奇偶两个子链表分别挂在新链表数组的散列位置,这样就减少了每个链表 的长度,增加查找效率。HashMap本来是以空间换时间,所以装载因子没必要太大。但是装载因子太小 又会导致空间浪费。如果关注内存,装载因子可以稍大,如果主要关注查找性能,装载因子可以稍小。
-
桶位数组
/**
* 1.存储元素(桶位)的数组
*/
transient Node<k,v>[] table;
-
数组元素Node<K,V>
//Node是单向链表,它实现了Map.Entry接口
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next; //下一个节点
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
Tip
|
其实Node就是一个基于单向链表数据结构的存储key和value的一个对象。next指向下一个Node.实现了Map.Entry接口 |
-
红黑树
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<k,v> parent; //父节点
TreeNode<k,v> left; //左子树
TreeNode<k,v> right; //右子树
TreeNode<k,v> prev; // needed to unlink next upon deletion
boolean red; //颜色属性
TreeNode(int hash, K key, V val, Node<K,V> next) {
super(hash, key, val, next);
}
/**
* 返回当前节点的根节点
*/
final TreeNode<K,V> root() {
for (TreeNode<K,V> r = this, p;;) {
if ((p = r.parent) == null)
return r;
r = p;
}
}
Java序列化会把某一个类存储以文件形式存储在物理空间,但是以文件形式存储某些信息时,容易涉及到安全问题,因为数据位于Java运行环境之外, 不在Java安全机制的控制之中。对于这些需要保密的字段,不应保存在永久介质中 ,或者不应简单地不加处理地保存下来 ,为了保证安全性。 应该在这些字段前加上transient关键字。它的意思是临时的,即不会随类一起序列化到本地,所以当还原后,这个关键字定义的变量也就不再存在。
-
默认构造函数HashMap()
public HashMap() {
//初始话加载因子为默认0.75;其他属性均为默认
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
Warning
|
这是一个默认构造器,潜在的问题是初始容量16太小了,可能中间需要不断扩容的问题,会影响插入的效率。 |
-
指定初始容量和加载因子的构造函数HashMap(int, float)
public HashMap(int initialCapacity, float loadFactor) {
//初始容量不能小于0
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
// 初始容量不能大于最大值,否则为最大值
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 填充因子不能小于或等于0,不能为非数字
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
//初始话加载因子
this.loadFactor = loadFactor;
//初始化(阀值)threshold,数组元素数量达到该值时会扩容
this.threshold = tableSizeFor(initialCapacity);
}
/**
* tableSizeFor的功能主要是用来保证容量应该大于cap,且为2的整数
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
-
这里可能还有一个疑问,明明给的是初始容量,为什么要计算阀值,而不是容量呢?
其实这也是jdk1.8的改变,它将table的初始化放入了resize()中,而且压根就没有capacity这个属性, 所以这里只能重新计算threshold,而resize()后面就会根据threshold来重新计算capacity,来进行 table数组的初始化,然后在重新按照装载因子计算threshold。
Tip
|
可以指定初始容量,以及装载因子,但是一般情况下指定装载因子意义不大,采用默认0.75就可以。 |
-
指定初始容量的构造函数HashMap(int initialCapacity)
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
Tip
|
用这种构造函数创建HashMap的对象,如果知道map要存放的元素个数,可以直接指定容量的大小, 减除不停的扩容,提高效率 |
-
将已有Map放入当前map的构造函数HashMap(Map<? extends K, ? extends V> m)
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR; //初始化加载因子
putMapEntries(m, false);
}
// 其实就是一个一个取出m中的元素调用putVal,一个个放入table中的过程。
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold) //如果m中的元素个数大于阀值,调用resize进行扩容
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict); //调用putVal向map中添加元素
}
}
}
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true); //调用putVal()方法
}
JDK1.8计算hash值
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
JDK1.7计算hash值
final int hash(Object k) {
int h = hashSeed;
if (0 != h && k instanceof String) {
return sun.misc.Hashing.stringHash32((String) k);
}
h ^= k.hashCode();
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
Note
|
JDK1.8计算hash值的方法进行了改进,取得key的hashcode后,高16位与低16位异或运算重新计算hash值。 key有可能是null,key为null时,hash值为0,放在数组的0位置。 |
- putVal()方法
-
执行过程如图:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//table未初始化或者长度为0,进行扩容
if ((tab = table) == null || (n = tab.length) == 0)
//可以看到put元素时,如果数组没有初始化,会调用resize()方法进行初始化。后面分析resize()方法
n = (tab = resize()).length;
/*
* 这里就是HASH算法了,用来定位桶位的方式,可以看到是采用容量-1和键的hash值进行与运算
* n-1,的原因就是n一定是一个2的整数幂,而(n - 1) & hash其实质就是n%hash,但是取余运算
* 的效率明显不如位运算与,并且(n - 1) & hash也能保证散列均匀,不会产生只有偶数位有值的现象
*/
if ((p = tab[i = (n - 1) & hash]) == null)
/*
* 当这里是空桶位时,就直接构造新的Node节点,将其放入桶位中(此时,这个结点是放在数组中)
* newNode()方法,就是对new Node(,,,)的包装,同时也可以看到Node中的hash值就是重新计算的hash(key)
*/
tab[i] = newNode(hash, key, value, null);
else {
//桶中已经存在元素
Node<K,V> e; K k;
// 比较桶中第一个元素(数组中的结点)的hash值相等,key相等
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
//比较桶中第一个元素(数组中的结点)的hash值相等,key相等
e = p;
else if (p instanceof TreeNode)
// hash值不相等,即key不相等;为红黑树结点
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); // 放入树中
else {
// 为链表结点
// 在链表最末插入结点
for (int binCount = 0; ; ++binCount) {
// 到达链表的尾部
if ((e = p.next) == null) {
// 在尾部插入新结点
p.next = newNode(hash, key, value, null);
// 结点数量达到阈值,转化为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break; // 跳出循环
}
// 判断链表中结点的key值与插入的元素的key值是否相等
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
break; // 相等,跳出循环
// 用于遍历桶中的链表,与前面的e = p.next组合,可以遍历链表
p = e;
}
}
// 表示在桶中找到key值、hash值与插入元素相等的结点
if (e != null) { // existing mapping for key
V oldValue = e.value; // 记录e的value
// onlyIfAbsent为false或者旧值为null
if (!onlyIfAbsent || oldValue == null)
e.value = value; //用新值替换旧值
afterNodeAccess(e); // 访问后回调
return oldValue; // 返回旧值
}
}
// 结构性修改
++modCount;
// 实际大小大于阈值则扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict); // 插入后回调
return null; // 返回null
}
- resize()方法
final Node<K,V>[] resize() {
// 当前table保存
Node<K,V>[] oldTab = table;
// 保存table大小
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 保存当前阈值
int oldThr = threshold;
int newCap, newThr = 0;
// 之前table大小大于0
if (oldCap > 0) {
// 之前table大于最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
// 阈值为最大整形
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 容量翻倍,使用左移,效率更高
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 阈值翻倍
newThr = oldThr << 1; // double threshold
}
// 之前阈值大于0
else if (oldThr > 0)
newCap = oldThr;
// oldCap = 0并且oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 新阈值为0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 初始化table
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 之前的table已经初始化过
if (oldTab != null) {
// 复制元素,重新进行hash
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割,分成两个不同的链表,完成rehash
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
Tip
|
扩容实际上就是创建一个容量是原来容量两倍的数组, 把原来数组中的元素经过重新散列,然后添加到新的数组中。 扩容会伴随着一次重新hash分配,并且会遍历hash表中所有 的元素,是非常耗时的。在编写程序中,要尽量避免resize。 |
- putAll()方法
public void putAll(Map<? extends K, ? extends V> m) {
//内部也是调用putVal()方法,将m中的元素循环放入table中
putMapEntries(m, true);
}
/**
* 通过key获取value
*/
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//如果Node链表的第一个元素相等
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
//红黑树查找
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//链表查找
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
//找不到返回null
return null;
}
/**
* 判断是否包含指定key
*/
public boolean containsKey(Object key) {
return getNode(hash(key), key) != null; //返回node是否为null
}
/**
* 判断是否包含指定value
*/
public boolean containsValue(Object value) {
Node<K,V>[] tab; V v;
if ((tab = table) != null && size > 0) {
for (int i = 0; i < tab.length; ++i) {
//按照单链表的方式进行遍历,
//因为HashMap中 TreeNode 节点也存在next成员,可以用链表的方式进行遍历
for (Node<K,V> e = tab[i]; e != null; e = e.next) {
if ((v = e.value) == value ||
(value != null && value.equals(v)))
return true;
}
}
}
return false;
}
Note
|
get方法相对put要简单的多,分析源码可以看出hash算法的精髓,不用遍历就可以直接通过 计算key的hash值,得到查找元素在数组中的桶位,然后比较hash值、key是否相等来获取node。 |
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value;
}
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
//node就是要查找的结点
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
//这里p保存的是父节点,因为这里涉及到链表删除的操作
p = e;
} while ((e = e.next) != null);
}
}
/*
* 当matchValue为false时,直接短路后面的运算,
* 进行删除操作,而不用关注value值是否相等或者equals
*/
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
//movable用在树的删除上
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
//要删除节点就是链表的头节点,则将子节点放进桶位
tab[index] = node.next;
else
//删除节点后节点,父节点的next重新连接
p.next = node.next;
++modCount; //删除操作也是要记录进modCount
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
/**
* jdk1.8新增的重载方法,matchValue为true时,
* 只有当key和value都相等时,才会删除
*/
public boolean remove(Object key, Object value) {
return removeNode(hash(key), key, value, true, true) != null;
}
本文对JDK1.8 HashMap的原代码进行了简要的分析,主要目的是了解其内部的
存储机制和实现原理,从而达到在编程中更高效的使用HashMap。
HashMap 内部是基于一个数组来实现的,数组中的每个元素称为一个桶(bucket)。
当数组中被占用的桶的数量超过了装载因子和数组容量设定的阈值后,会对数组进行扩容,
容量将扩展为原来的2倍。哈希表中所有的 Entry 会被重新散列到新的位置中。
因为两个不同的key在散列时有可能发生冲突,HashMap为了避免哈希冲突带来的影响
做了几点优化。在进行散列处理时,将高位与低位进行异或,从而减小冲突的概率。
当不同的node被散列到同一个桶中时,每个桶中使用单向链表的方式来保存数据。
在Java 8 的实现中,如果一个桶中的Node数量超过了阈值(TREEIFY_THRESHOLD = 8),
就会将单链表转化为红黑树,当低于阈值(UNTREEIFY_THRESHOLD = 6)时重新转化为
单链表。
分析了HashMap的resize方法可以知道,HashMap在进行扩容时是非常耗性能的操作, 所以在使用HashMap的时候,应该先估算一下map的大小,初始化的时候给一个大致的数值, 避免map进行频繁的扩容。
继上一章介绍了HashMap的签名、数据结构以及存储原理之后,相信大家对HashMap有了更加深入的理解,在使用时也会得心应手。
本章将继续介绍HashMap的使用,主要是分析HashMap的三种遍历方式。
-
HashMap提供了三种遍历方式:
-
遍历所有的Key:Set<K> keySet()
-
遍历所有的Entry:Set<Map.Entry<K,V>> entrySet()
-
遍历所有的Value(不常用):Collection<V> values()
-
这三个方法的基本用法将不在详细介绍,它们都是返回可迭代的Set或者Collection。要弄清楚这三个方法
的内部实现机制,首先主要来看一下内部抽象类#HashIterator#。
-
HashIterator内部类:
abstract class HashIterator {
Node<K,V> next; // next entry to return
Node<K,V> current; // current entry
int expectedModCount; // for fast-fail
int index; // current slot
HashIterator() {
//用expectedModCount保存刚创建迭代器时的modCount,
//实现fail-fast机制需要对比该值和使用时的modCount
expectedModCount = modCount;
Node<K,V>[] t = table;
current = next = null;
index = 0;
//找到第一个有效的槽
if (t != null && size > 0) { // advance to first entry
do {} while (index < t.length && (next = t[index++]) == null);
}
}
public final boolean hasNext() {
return next != null;
}
final Node<K,V> nextNode() {
Node<K,V>[] t;
Node<K,V> e = next;
/*
* fail-fast 检查
* 当另外一个线程对当前Map修改时,会修改modCount,
* 当前线程遍历正在,如果expectedModCount和modCount
* 不相等,就会抛出ConcurrentModificationException异常
*/
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
// table数组中没有元素,抛出NoSuchElementException异常
if (e == null)
throw new NoSuchElementException();
//next = e.next
//遍历是通过单链表的方式来访问的,即便是红黑树也可以这样来遍历
//TreeNode中也存在next引用,也可以看做单链表
if ((next = (current = e).next) == null && (t = table) != null) {
//如果到达当前链表末尾next == null
//寻找下一个有效的槽
do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}
public final void remove() {
Node<K,V> p = current;
if (p == null)
throw new IllegalStateException();
//fail-fast 检查
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
current = null;
K key = p.key;
//调用removeNode移除Entry
removeNode(hash(key), key, null, false, false);
//更新expectedModCount
expectedModCount = modCount;
}
}
final class KeyIterator extends HashIterator
implements Iterator<K> {
public final K next() { return nextNode().key; } //返回Key
}
final class ValueIterator extends HashIterator
implements Iterator<V> {
public final V next() { return nextNode().value; } // 返回Value
}
final class EntryIterator extends HashIterator
implements Iterator<Map.Entry<K,V>> {
public final Map.Entry<K,V> next() { return nextNode(); } // 返回Entry
}
KeyIterator、ValueIterator 和 EntryIterator 都继承了 HashIterator,区别只在于 next() 方法返回的是 Key、Value 还是 Entry。
-
Set<Map.Entry<K,V>> entrySet()
public Set<Map.Entry<K,V>> entrySet() {
Set<Map.Entry<K,V>> es;
return (es = entrySet) == null ? (entrySet = new EntrySet()) : es;
}
final class EntrySet extends AbstractSet<Map.Entry<K,V>> {
public final int size() { return size; }
public final void clear() { HashMap.this.clear(); }
//返回一个迭代器
public final Iterator<Map.Entry<K,V>> iterator() {
return new EntryIterator();
}
public final boolean contains(Object o) {
if (!(o instanceof Map.Entry))
return false;
Map.Entry<?,?> e = (Map.Entry<?,?>) o;
Object key = e.getKey();
Node<K,V> candidate = getNode(hash(key), key);
return candidate != null && candidate.equals(e);
}
public final boolean remove(Object o) {
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>) o;
Object key = e.getKey();
Object value = e.getValue();
return removeNode(hash(key), key, value, true, true) != null;
}
return false;
}
public final Spliterator<Map.Entry<K,V>> spliterator() {
return new EntrySpliterator<>(HashMap.this, 0, -1, 0, 0);
}
public final void forEach(Consumer<? super Map.Entry<K,V>> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e);
}
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
}
理解了 HashIterator 后再看 entrySet() 和 EntrySet 类就比较容易理解了,注意到 HashMap 的实现中使用了一个 entrySet 成员来缓存结果。 keySet() 和 values() 的实现也是类似的,只是 values() 返回的是 Collection ,因为值不能保证唯一性,而键是可以的。
对于Map中的Key是包装类型时,从map总get元素时要特别注意,get元素的key也必须是对应的包装类型,否者不能获得到对应的value。
因为get方法内部通过key查找对应的value时,key用的是equals方法比较,所以key的数据类型也必须相同。
例如:
long key = 123;
Map<Long,String> map = Maps.newHashMap();
map.put(123L,"java");
String value = map.get(key); // value是null?还是java?
有关HashMap的遍历就介绍这写,遍历HashMap一共有三种方式,一般遍历key和遍历Entry用的比较多,而且遍历Entry要比遍历 key效率要更快些。对于HashMap的源码暂时就分析这么多,由于本人还是一个菜鸟,水平有限,有些地方也许没有分析的透彻,希望 大家可以见谅,同时,本次HashMap的源码分析也有很多地方没有讲到,比如:HashMap的存储结构红黑树,以后有时间再来研究一下红黑树 的实现原理,这里先推荐一篇讲解红黑树的文章红黑树深入剖析及Java实现。