• 《深入理解java虚拟机 第三版》学习笔记三


    第 8 章 虚拟机字节码执行引擎

    代码编译的结果从本地机器码转变为字节码,是存储格式发展的一小步,却是编程语言发展的一大步。

    8.1 概述

    执行引擎是 Java 虚拟机核心的组成部分之一。“虚拟机”是一个相对于“物理机”的概念,这两种机器都有代码执行能力,其区别是物理机的执行引擎是直接建立在处理器、缓存、指令集和操作系统层面上的,而虚拟机的执行引擎则是由软件自行实现的,因此可以不受物理条件制约地定制指令集与执行引擎的结构体系,能够执行那些不被硬件直接支持的指令集格式。
    在《Java 虚拟机规范》中制定了 Java 虚拟机字节码执行引擎的概念模型,这个概念模型成为各大发行商的 Java 虚拟机执行引擎的统一外观(Facade)。在不同的虚拟机实现中,执行引擎在执行字节码的时候,通常会有解释执行(通过解释器执行)和编译执行(通过即时编译器产生本地代码执行)两种选择[1],也可能两者兼备,还可能会有同时包含几个不同级别的即时编译器一起工作的执行引擎。但从外观上来看,所有的 Java虚拟机的执行引擎输入、输出都是一致的:输入的是字节码二进制流,处理过程是字节码解析执行的等效过程,输出的是执行结果,本章将主要从概念模型的角度来讲解虚拟机的方法调用和字节码执行。

    8.2 运行时栈帧结构

    Java 虚拟机以方法作为最基本的执行单元,“栈帧”(Stack Frame)则是用于支持虚拟机进行方法调用和方法执行背后的数据结构,它也是虚拟机运行时数据区中的虚拟机栈(Virtual Machine Stack)的栈元素。

    栈帧存储了方法的局部变量表、操作数栈、动态连接和方法返回地址等信息,如果读者认真阅读过第 6 章,应该能从 Class 文件格式的方法表中找到以上大多数概念的静态对照物。

    每一个方法从调用开始至执行结束的过程,都对应着一个栈帧在虚拟机栈里面从入栈到出栈的过程。

    每一个栈帧都包括了局部变量表、操作数栈、动态连接、方法返回地址和一些额外的附加信息。

    在编译 Java 程序源码的时候,栈帧中需要多大的局部变量表,需要多深的操作数栈就已经被分析计算出来,并且写入到方法表的 Code 属性之中。换言之,一个栈帧需要分配多少内存,并不会受到程序运行期变量数据的影响,而仅仅取决于程序源码和具体的虚拟机实现的栈内存布局形式。
    一个线程中的方法调用链可能会很长,以 Java 程序的角度来看,同一时刻、同一条线程里面,在调用堆栈的所有方法都同时处于执行状态。而对于执行引擎来讲,在活动线程中,只有位于栈顶的方法才是在运行的,只有位于栈顶的栈帧才是生效的,其被称为“当前栈帧”(Current Stack Frame),与这个栈帧所关联的方法被称为“当前方法”(Current Method)。 执行引擎所运行的所有字节码指令都只针对当前栈帧进行操作,在概念模型上,典型的栈帧结构如图 8-1 所示。
    图 8-1 所示的就是虚拟机栈和栈帧的总体结构,接下来,我们将会详细了解栈帧中的局部变量表、操作数栈、动态连接、方法返回地址等各个部分的作用和数据结构。

    8.2.1 局部变量表

    局部变量表(Local Variables Table)是一组变量值的存储空间,用于存放方法参数方法内部定义的局部变量

    在 Java 程序被编译为 Class 文件时,就在方法的 Code 属性的 max_locals 数据项中确定了该方法所需分配的局部变量表的最大容量。
    局部变量表的容量以变量槽(Variable Slot)为最小单位,《Java 虚拟机规范》中并没有明确指出一个变量槽应占用的内存空间大小,只是很有导向性地说到每个变量槽都应该能存放一个 boolean、 byte、char、short、int、float、reference 或 returnAddress 类型的数据,这 8 种数据类型,都可以使用 32 位或更小的物理内存来存储,但这种描述与明确指出“每个变量槽应占用 32 位长度的内存空间”是有本质差别的,它允许变量槽的长度可以随着处理器、操作系统或虚拟机实现的不同而发生变化,保证了即使在 64 位虚拟机中使用了 64 位的物理内存空间去实现一个变量槽,虚拟机仍要使用对齐和补白的手段让变量槽在外观上看起来与 32 位虚拟机中的一致。
    在这里插入图片描述

    既然前面提到了 Java 虚拟机的数据类型,在此对它们再简单介绍一下。一个变量槽可以存放一个 32 位以内的数据类型,Java 中占用不超过 32 位存储空间的数据类型有boolean、byte、char、short、int、 float、reference和 returnAddress 这 8 种类型。前面 6种不需要多加解释,读者可以按照 Java 语言中对应数据类型的概念去理解它们(仅是这样理解而已,Java 语言和 Java 虚拟机中的基本数据类型是存在本质差别的),而第 7 种reference 类型表示对一个对象实例的引用,《Java 虚拟机规范》既没有说明它的长度,也没有明确指出这种引用应有怎样的结构。但是一般来说,虚拟机实现至少都应当能通过这个引用做到两件事情,一是从根据引用直接或间接地查找到对象在 Java 堆中的数据存放的起始地址或索引,二是根据引用直接或间接地查找到对象所属数据类型在方法区中的存储的类型信息,否则将无法实现《Java 语言规范》中定义的语法约定。第 8 种returnAddress 类型目前已经很少见了,它是为字节码指令 jsr、jsr_w 和 ret 服务的,指向了一条字节码指令的地址,某些很古老的 Java 虚拟机曾经使用这几条指令来实现异常处理时的跳转,但现在也已经全部改为采用异常表来代替了。
    对于 64 位的数据类型,Java 虚拟机会以高位对齐的方式为其分配两个连续的变量槽空间。Java 语言中明确的 64 位的数据类型只有 long 和 double 两种。这里把 long 和double 数据类型分割存储的做法与“long 和 double 的非原子性协定”中允许把一次 long 和double 数据类型读写分割为两次 32 位读写的做法有些类似,读者阅读到本书关于 Java内存模型的内容时可以进行对比。不过,由于局部变量表是建立在线程堆栈中的,属于线程私有的数据,无论读写两个连续的变量槽是否为原子操作,都不会引起数据竞争和线程安全问题。
    Java 虚拟机通过索引定位的方式使用局部变量表,索引值的范围是从 0 开始至局部变量表最大的变量槽数量。如果访问的是 32 位数据类型的变量,索引 N 就代表了使用第 N 个变量槽,如果访问的是 64 位数据类型的变量,则说明会同时使用第 N 和 N+1 两个变量槽。对于两个相邻的共同存放一个 64 位数据的两个变量槽,虚拟机不允许采用任何方式单独访问其中的某一个,《Java 虚拟机规范》中明确要求了如果遇到进行这种操作的字节码序列,虚拟机就应该在类加载的校验阶段中抛出异常。
    当一个方法被调用时,Java 虚拟机会使用局部变量表来完成参数值到参数变量列表的传递过程,即实参到形参的传递。如果执行的是实例方法(没有被 static 修饰的方法),那局部变量表中第 0 位索引的变量槽默认是用于传递方法所属对象实例的引用,
    在方法中可以通过关键字“this”来访问到这个隐含的参数。其余参数则按照参数表顺序排列,占用从 1 开始的局部变量槽,参数表分配完毕后,再根据方法体内部定义的变量顺序和作用域分配其余的变量槽。
    为了尽可能节省栈帧耗用的内存空间,局部变量表中的变量槽是可以重用的,方法体中定义的变量,其作用域并不一定会覆盖整个方法体,如果当前字节码 PC 计数器的值已经超出了某个变量的作用域,那这个变量对应的变量槽就可以交给其他变量来重用。不过,这样的设计除了节省栈帧空间以外,还会伴随有少量额外的副作用,例如在某些情况下变量槽的复用会直接影响到系统的垃圾收集行为,请看代码清单 8-1、代码清单 8-2 和代码清单 8-3 的 3 个演示。

    • 代码清单 8-1 局部变量表槽复用对垃圾收集的影响之一
    public static void main(String[] args) {
     byte[] placeholder = new byte[64 * 1024 * 1024];
     System.gc();
    }
    
    • 1
    • 2
    • 3
    • 4

    代码清单 8-1 中的代码很简单,向内存填充了 64MB 的数据,然后通知虚拟机进行垃圾收集。我们在虚拟机运行参数中加上“-verbose:gc”来看看垃圾收集的过程,发现在System.gc()运行后并没有回收掉这 64MB 的内存,下面是运行的结果:

    [GC 66846K->65824K(125632K), 0.0032678 secs]
    [Full GC 65824K->65746K(125632K), 0.0064131 secs]
    
    • 1
    • 2

    代码清单 8-1 的代码没有回收掉 placeholder 所占的内存是能说得过去,因为在执行System.gc()时,变量 placeholder 还处于作用域之内,虚拟机自然不敢回收掉 placeholder的内存。那我们把代码修改一下,变成代码清单 8-2 的样子。代码清单 8-2 局部变量表 Slot 复用对垃圾收集的影响之二

    public static void main(String[] args) {
     {
     byte[] placeholder = new byte[64 * 1024 * 1024];
     }
     System.gc();
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    加入了花括号之后,placeholder 的作用域被限制在花括号以内,从代码逻辑上讲,在执行 System.gc()的时候,placeholder 已经不可能再被访问了,但执行这段程序,会发现运行结果如下,还是有 64MB 的内存没有被回收掉,这又是为什么呢?

    GC 66846K->65888K(125632K), 0.0009397 secs
    Full GC 65888K->65746K(125632K), 0.0051574 secs
    
    • 1
    • 2

    在解释为什么之前,我们先对这段代码进行第二次修改,在调用 System.gc()之前加入一行“inta=0;”,变成代码清单 8-3 的样子。代码清单 8-3 局部变量表 Slot 复用对垃圾收集的影响之三

    public static void main(String[] args) {
     {
     byte[] placeholder = new byte[64 * 1024 * 1024];
     }
     int a = 0;
     System.gc();
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    这个修改看起来很莫名其妙,但运行一下程序,却发现这次内存真的被正确回收了:

    GC 66401K->65778K(125632K), 0.0035471 secs
    Full GC 65778K->218K(125632K), 0.0140596 secs
    
    • 1
    • 2

    代码清单 8-1 至 8-3 中,placeholder 能否被回收的根本原因就是:局部变量表中的变量槽是否还存有关于 placeholder 数组对象的引用。第一次修改中,代码虽然已经离开了 placeholder的作用域,但在此之后,再没有发生过任何对局部变量表的读写操作,placeholder 原本所占用的变量槽还没有被其他变量所复用,所以作为 GC Roots 一部分的局部变量表仍然保持着对它的关联。这种关联没有被及时打断,绝大部分情况下影响都很轻微。但如果遇到一个方法,其后面的代码有一些耗时很长的操作,而前面又定义了占用了大量内存但实际上已经不会再使用的变量,手动将其设置为 null 值(用来代替那句 int a=0,把变量对应的局部变量槽清空)便不见得是一个绝对无意义的操作,这种操作可以作为一种在极特殊情形(对象占用内存大、此方法的栈帧长时间不能被回收、方法调用次数达不到即时编译器的编译条件)下的“奇技”来使用。Java 语言的一本非常著名的书籍《Practical Java》中将把“不使用的对象应手动赋值为 null”作为一条推荐的编码规则(笔者并不认同这条规则),但是并没有解释具体原因,很长时间里都有读者对这条规则感到疑惑。
    虽然代码清单 8-1 至 8-3 的示例说明了赋 null 操作在某些极端情况下确实是有用的,但笔者的观点是不应当对赋 null 值操作有什么特别的依赖,更没有必要把它当作一个普遍的编码规则来推广。原因有两点,从编码角度讲,以恰当的变量作用域来控制变量回收时间才是最优雅的解决方法,如代码清单 8-3 那样的场景除了做实验外几乎毫无用处。更关键的是,从执行角度来讲,使用赋 null 操作来优化内存回收是建立在对字节码执行引擎概念模型的理解之上的,在第 6 章介绍完字节码之后,笔者在末尾还撰写了一个小结“公有设计、私有实现”(6.5 节)来强调概念模型与实际执行过程是外部看起来等效,内部看上去则可以完全不同。当虚拟机使用解释器执行时,通常与概念模型还会比较接近,但经过即时编译器施加了各种编译优化措施以后,两者的差异就会非常大,只保证程序执行的结果与概念一致。在实际情况中,即时编译才是虚拟机执行代码的主要方式,赋 null 值的操作在经过即时编译优化后几乎是一定会被当作无效操作消除掉的,这时候将变量设置为 null 就是毫无意义的行为。字节码被即时编译为本地代码后,对 GC Roots 的枚举也与解释执行时期有显著差别,以前面的例子来看,经过第一次修改的代码清单 8-2 在经过即时编译后,System.gc()执行时就可以正确地回收内存,根本无须写成代码清单 8-3 的样子。
    关于局部变量表,还有一点可能会对实际开发产生影响,就是局部变量不像前面介绍的类变量那样存在“准备阶段”。通过第 7 章的学习,我们已经知道类的字段变量有两次赋初始值的过程,一次在准备阶段,赋予系统初始值;另外一次在初始化阶段,赋予程序员定义的初始值。因此即使在初始化阶段程序员没有为类变量赋值也没有关系,类变量仍然具有一个确定的初始值,不会产生歧义。但局部变量就不一样了,如果一个局部变量定义了但没有赋初始值,那它是完全不能使用的。所以不要认为 Java 中任何情况下都存在诸如整型变量默认为 0、布尔型变量默认为 false 等这样的默认值规则。如代码清单 8-4 所示,这段代码在 Java 中其实并不能运行(但是在其他语言,譬如 C 和 C++中类似的代码是可以运行的),所幸编译器能在编译期间就检查到并提示出这一点,即便编译能通过或者手动生成字节码的方式制造出下面代码的效果,字节码校验的时候也会被虚拟机发现而导致类加载失败。

    • 代码清单 8-4 未赋值的局部变量
    public static void main(String[] args) {
     int a;
     System.out.println(a);
    }
    
    • 1
    • 2
    • 3
    • 4

    8.2.2 操作数栈

    操作数栈(Operand Stack)也常被称为操作栈,它是一个后入先出(Last In First Out,LIFO)栈。同局部变量表一样,操作数栈的最大深度也在编译的时候被写入到Code 属性的 max_stacks 数据项之中。操作数栈的每一个元素都可以是包括 long 和double 在内的任意 Java 数据类型。32 位数据类型所占的栈容量为 1,64 位数据类型所占的栈容量为 2。Javac 编译器的数据流分析工作保证了在方法执行的任何时候,操作数栈的深度都不会超过在 max_stacks 数据项中设定的最大值。
    当一个方法刚刚开始执行的时候,这个方法的操作数栈是空的,在方法的执行过程中,会有各种字节码指令往操作数栈中写入和提取内容,也就是出栈和入栈操作。譬如在做算术运算的时候是通过将运算涉及的操作数栈压入栈顶后调用运算指令来进行的,又譬如在调用其他方法的时候是通过操作数栈来进行方法参数的传递。举个例子,例如整数加法的字节码指令 iadd,这条指令在运行的时候要求操作数栈中最接近栈顶的两个元素已经存入了两个 int 型的数值,当执行这个指令时,会把这两个 int 值出栈并相加,然后将相加的结果重新入栈。
    操作数栈中元素的数据类型必须与字节码指令的序列严格匹配,在编译程序代码的时候,编译器必须要严格保证这一点,在类校验阶段的数据流分析中还要再次验证这一点。再以上面的 iadd 指令为例,这个指令只能用于整型数的加法,它在执行时,最接近栈顶的两个元素的数据类型必须为 int 型,不能出现一个 long 和一个 float 使用 iadd 命令相加的情况。
    另外在概念模型中,两个不同栈帧作为不同方法的虚拟机栈的元素,是完全相互独立的。但是在大多虚拟机的实现里都会进行一些优化处理,令两个栈帧出现一部分重叠。让下面栈帧的部分操作数栈与上面栈帧的部分局部变量表重叠在一起,这样做不仅节约了一些空间,更重要的是在进行方法调用时就可以直接共用一部分数据,无须进行额外的参数复制传递了,重叠的过程如图 8-2 所示。
    Java 虚拟机的解释执行引擎被称为“基于栈的执行引擎”,里面的“栈”就是操作数栈。后文会对基于栈的代码执行过程进行更详细的讲解,介绍它与更常见的基于寄存器的执行引擎有哪些差别。
    在这里插入图片描述

    8.2.3 动态连接

    每个栈帧都包含一个指向运行时常量池中该栈帧所属方法的引用,持有这个引用是为了支持方法调用过程中的动态连接(Dynamic Linking)。

    通过第 6 章的讲解,我们知道 Class 文件的常量池中存有大量的符号引用,字节码中的方法调用指令就以常量池里指向方法的符号引用作为参数。这些符号引用一部分会在类加载阶段或者第一次使用的时候就被转化为直接引用,这种转化被称为静态解析。另外一部分将在每一次运行期间都转化为直接引用,这部分就称为动态连接。关于这两个转化过程的具体过程,将在8.3 节中再详细讲解。

    8.2.4 方法返回地址

    当一个方法开始执行后,只有两种方式退出这个方法。第一种方式是执行引擎遇到任意一个方法返回的字节码指令,这时候可能会有返回值传递给上层的方法调用者(调用当前方法的方法称为调用者或者主调方法),方法是否有返回值以及返回值的类型将根据遇到何种方法返回指令来决定,这种退出方法的方式称为“正常调用完成”(Normal Method Invocation Completion)。
    另外一种退出方式是在方法执行的过程中遇到了异常,并且这个异常没有在方法体内得到妥善处理。无论是 Java 虚拟机内部产生的异常,还是代码中使用 athrow 字节码指令产生的异常,只要在本方法的异常表中没有搜索到匹配的异常处理器,就会导致方法退出,这种退出方法的方式称为“异常调用完成(Abrupt Method Invocation Completion)”。一个方法使用异常完成出口的方式退出,是不会给它的上层调用者提供任何返回值的。
    无论采用何种退出方式,在方法退出之后,都必须返回到最初方法被调用时的位置,程序才能继续执行,方法返回时可能需要在栈帧中保存一些信息,用来帮助恢复它的上层主调方法的执行状态。一般来说,方法正常退出时,主调方法的 PC 计数器的值就可以作为返回地址,栈帧中很可能会保存这个计数器值。而方法异常退出时,返回地址是要通过异常处理器表来确定的,栈帧中就一般不会保存这部分信息。
    方法退出的过程实际上等同于把当前栈帧出栈,因此退出时可能执行的操作有:恢复上层方法的局部变量表和操作数栈,把返回值(如果有的话)压入调用者栈帧的操作数栈中,调整 PC 计数器的值以指向方法调用指令后面的一条指令等。笔者这里写的“可能”是由于这是基于概念模型的讨论,只有具体到某一款 Java 虚拟机实现,会执行哪些操作才能确定下来。

    8.2.5 附加信息

    《Java 虚拟机规范》允许虚拟机实现增加一些规范里没有描述的信息到栈帧之中,例如与调试、性能收集相关的信息,这部分信息完全取决于具体的虚拟机实现,这里不再详述。

    在讨论概念时,一般会把动态连接、方法返回地址与其他附加信息全部归为一类,称为栈帧信息。

    8.3 方法调用

    方法调用并不等同于方法中的代码被执行,方法调用阶段唯一的任务就是确定被调用方法的版本(即调用哪一个方法),暂时还未涉及方法内部的具体运行过程。
    在程序运行时,进行方法调用是最普遍、最频繁的操作之一,但第 7 章中已经讲过,Class 文件的编译过程中不包含传统程序语言编译的连接步骤,一切方法调用在 Class 文件里面存储的都只是符号引用,而不是方法在实际运行时内存布局中的入口地址(也就是之前说的直接引用)。这个特性给 Java 带来了更强大的动态扩展能力,但也使得 Java 方法调用过程变得相对复杂,某些调用需要在类加载期间,甚至到运行期间才能确定目标方法的直接引用。

    8.3.1 解析

    所有方法调用的目标方法在 Class 文件里面都是一个常量池中的符号引用,在类加载的解析阶段,会将其中的一部分符号引用转化为直接引用,这种解析能够成立的前提是:方法在程序真正运行之前就有一个可确定的调用版本,并且这个方法的调用版本在运行期是不可改变的。换句话说,调用目标在程序代码写好、编译器进行编译那一刻就已经确定下来。这类方法的调用被称为解析(Resolution)。

    在 Java 语言中 符合“编译期可知,运行期不可变”这个要求的方法,主要有静态方法和私有方法两大类,前者与类型直接关联,后者在外部不可被访问,这两种方法各自的特点决定了它们都不可能通过继承或别的方式重写出其他版本,因此它们都适合在类加载阶段进行解析。
    调用不同类型的方法,字节码指令集里设计了不同的指令。在 Java 虚拟机支持以下5 条方法调用字节码指令,分别是:
    ·invokestatic。用于调用静态方法。
    ·invokespecial。用于调用实例构造器()方法、私有方法和父类中的方法。
    ·invokevirtual。用于调用所有的虚方法。
    ·invokeinterface。用于调用接口方法,会在运行时再确定一个实现该接口的对象。
    ·invokedynamic。先在运行时动态解析出调用点限定符所引用的方法,然后再执行该方法。前面 4 条调用指令,分派逻辑都固化在 Java 虚拟机内部,而 invokedynamic 指令的分派逻辑是由用户设定的引导方法来决定的。
    只要能被 invokestatic 和 invokespecial 指令调用的方法,都可以在解析阶段中确定唯一的调用版本, Java 语言里符合这个条件的方法共有静态方法、私有方法、实例构造
    器、父类方法 4 种,再加上被 final 修饰的方法(尽管它使用 invokevirtual 指令调用),这 5 种方法调用会在类加载的时候就可以把符号引用解析为该方法的直接引用。这些方法统称为“非虚方法”(Non-Virtual Method),与之相反,其他方法就被称为“虚方法”(Virtual Method)。
    代码清单 8-5 演示了一种常见的解析调用的例子,该样例中,静态方法 sayHello()只可能属于类型 StaticResolution,没有任何途径可以覆盖或隐藏这个方法。

    • 代码清单 8-5 方法静态解析演示
    /**
    * 方法静态解析演示
    *
    * @author zzm
    */
    public class StaticResolution {
     public static void sayHello() {
     System.out.println("hello world");
     }
     public static void main(String[] args) {
     StaticResolution.sayHello();
     }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    使用 javap 命令查看这段程序对应的字节码,会发现的确是通过 invokestatic 命令来调用 sayHello()方法,而且其调用的方法版本已经在编译时就明确以常量池项的形式固化在字节码指令的参数之中(代码里的 31 号常量池项):

    javap -verbose StaticResolution public static void main(java.lang.String[]);
     Code:
     Stack=0, Locals=1, Args_size=1
     0: invokestatic #31; //Method sayHello:()V
     3: return
     LineNumberTable:
     line 15: 0 line 16: 3
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    Java 中的非虚方法除了使用 invokestatic、invokespecial 调用的方法之外还有一种,就是被 final 修饰的实例方法。虽然由于历史设计的原因,final 方法是使用 invokevirtual指令来调用的,但是因为它也无法被覆盖,没有其他版本的可能,所以也无须对方法接收者进行多态选择,又或者说多态选择的结果肯定是唯一的。在《Java 语言规范》中明确定义了被 final 修饰的方法是一种非虚方法。
    解析调用一定是个静态的过程,在编译期间就完全确定,在类加载的解析阶段就会把涉及的符号引用全部转变为明确的直接引用,不必延迟到运行期再去完成。而另一种主要的方法调用形式:分派(Dispatch)调用则要复杂许多,它可能是静态的也可能是动态的,按照分派依据的宗量数可分为单分派和多分派。这两类分派方式两两组合就构成了静态单分派、静态多分派、动态单分派、动态多分派 4 种分派组合情况,下面我们来看看虚拟机中的方法分派是如何进行的。

    8.3.2 分派

    众所周知,Java 是一门面向对象的程序语言,因为 Java 具备面向对象的 3 个基本特征:继承、封装和多态 。本节讲解的分派调用过程将会揭示多态性特征的一些最基本的体现,如“重载”和“重写”在 Java 虚拟机之中是如何实现的,这里的实现当然不是语法上该如何写,我们关心的依然是虚拟机如何确定正确的目标方法。

    1.静态分派

    在开始讲解静态分派前,笔者先声明一点,“分派”(Dispatch)这个词本身就具有动态性,一般不应用在静态语境之中,这部分原本在英文原版的《Java 虚拟机规范》和《Java 语言规范》里的说法都是“Method Overload Resolution”,即应该归入 8.2 节的“解析”里去讲解,但部分其他外文资料和国内翻译的许多中文资料都将这种行为称为“静态分派”,所以笔者在此特别说明一下,以免读者阅读英文资料时遇到这两种说法产生疑惑。
    为了解释静态分派和重载(Overload),笔者准备了一段经常出现在面试题中的程序代码,读者不妨先看一遍,想一下程序的输出结果是什么。后面的话题将围绕这个类的方法来编写重载代码,以分析虚拟机和编译器确定方法版本的过程。程序如代码清单 8-6 所示。

    • 代码清单 8-6 方法静态分派演示
    package org.fenixsoft.polymorphic;
    /**
    * 方法静态分派演示
    *
    * @author zzm
    */
    public class StaticDispatch {
        static abstract class Human {
        }
        static class Man extends Human {
        }
        static class Woman extends Human {
        }
        public void sayHello(Human guy) {
            System.out.println("hello,guy!");
        }
        public void sayHello(Man guy) {
            System.out.println("hello,gentleman!");
        }
        public void sayHello(Woman guy) {
            System.out.println("hello,lady!");
        }
        public static void main(String[] args) {
            Human man = new Man();
            Human woman = new Woman();
            StaticDispatch sr = new StaticDispatch();
            sr.sayHello(man);
            sr.sayHello(woman);
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30

    运行结果:

    hello,guy!
    hello,guy!
    
    • 1
    • 2

    代码清单 8-6 中的代码实际上是在考验阅读者对重载的理解程度,相信对 Java 稍有经验的程序员看完程序后都能得出正确的运行结果,但为什么虚拟机会选择执行参数类型为 Human 的重载版本呢?在解决这个问题之前,我们先通过如下代码来定义两个关键概念:

    Human man = new Man();
    
    • 1

    我们把上面代码中的“Human”称为变量的“静态类型”(Static Type),或者叫“外观类型”(Apparent Type),后面的“Man”则被称为变量的“实际类型”(Actual Type)或者叫“运行时类型”(Runtime Type)。静态类型和实际类型在程序中都可能会发生变化,区别是静态类型的变化仅仅在使用时发生,变量本身的静态类型不会被改变,并且最终的静态类型是在编译期可知的;而实际类型变化的结果在运行期才可确定,编译器在编译程序的时候并不知道一个对象的实际类型是什么。笔者猜想上面这段话读者大概会不太好理解,那不妨通过一段实际例子来解释,譬如有下面的代码:

    // 实际类型变化
    Human human = (new Random()).nextBoolean() ? new Man() : new Woman();
    // 静态类型变化
    sr.sayHello((Man) human) sr.sayHello((Woman) human)
    
    • 1
    • 2
    • 3
    • 4

    对象 human 的实际类型是可变的,编译期间它完全是个“薛定谔的人”,到底是 Man还是 Woman,必须等到程序运行到这行的时候才能确定。而 human 的静态类型是Human,也可以在使用时(如 sayHello()方法中的强制转型)临时改变这个类型,但这个改变仍是在编译期是可知的,两次 sayHello() 方法的调用,在编译期完全可以明确转型的是 Man 还是 Woman。
    解释清楚了静态类型与实际类型的概念,我们就把话题再转回到代码清单 8-6 的样例代码中。
    main()里面的两次 sayHello()方法调用,在方法接收者已经确定是对象“sr”的前提下,使用哪个重载版本,就完全取决于传入参数的数量和数据类型。代码中故意定义了两个静态类型相同,而实际类型不同的变量,但虚拟机(或者准确地说是编译器)在重载时是通过参数的静态类型而不是实际类型作为判定依据的。由于静态类型在编译期可知,所以在编译阶段,Javac 编译器就根据参数的静态类型决定了会使用哪个重载版本,因此选择了 sayHello(Human)作为调用目标,并把这个方法的符号引用写到 main()方法里的两条 invokevirtual 指令的参数中。
    所有依赖静态类型来决定方法执行版本的分派动作,都称为静态分派。静态分派的最典型应用表现就是方法重载。静态分派发生在编译阶段,因此确定静态分派的动作实际上不是由虚拟机来执行的,这点也是为何一些资料选择把它归入“解析”而不是“分派”的原因。
    需要注意 Javac 编译器虽然能确定出方法的重载版本,但在很多情况下这个重载版本并不是“唯一”的,往往只能确定一个“相对更合适的”版本。这种模糊的结论在由 0 和1 构成的计算机世界中算是个比较稀罕的事件,产生这种模糊结论的主要原因是字面量天生的模糊性,它不需要定义,所以字面量就没有显式的静态类型,它的静态类型只能通过语言、语法的规则去理解和推断。代码清单 8-7 演示了何谓“更加合适的”版本。

    • 代码清单 8-7 重载方法匹配优先级
    package org.fenixsoft.polymorphic;
    import java.io.Serializable;
    public class Overload {
        public static void sayHello(Object arg) {
            System.out.println("hello Object");
        }
        public static void sayHello(int arg) {
            System.out.println("hello int");
        }
        public static void sayHello(long arg) {
            System.out.println("hello long");
        }
        public static void sayHello(Character arg) {
            System.out.println("hello Character");
        }
        public static void sayHello(char arg) {
            System.out.println("hello char");
        }
        public static void sayHello(char... arg) {
            System.out.println("hello char ...");
        }
        public static void sayHello(Serializable arg) {
            System.out.println("hello Serializable");
        }
        public static void main(String[] args) {
            sayHello('a');
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    上面的代码运行后会输出:

    hello char
    
    • 1

    这很好理解,'a’是一个 char 类型的数据,自然会寻找参数类型为 char 的重载方法,如果注释掉 sayHello(char arg)方法,那输出会变为:

    hello int
    
    • 1

    这时发生了一次自动类型转换,'a’除了可以代表一个字符串,还可以代表数字 97(字符’a’的 Unicode 数值为十进制数字 97),因此参数类型为 int 的重载也是合适的。我们继续注释掉 sayHello(int arg)方法,那输出会变为:

    hello long
    
    • 1

    这时发生了两次自动类型转换,'a’转型为整数 97 之后,进一步转型为长整数 97L,匹配了参数类型为 long 的重载。笔者在代码中没有写其他的类型如 float、double 等的重载,不过实际上自动转型还能继续发生多次,按照 char>int>long>float>double 的顺序转型进行匹配,但不会匹配到 byte 和 short 类型的重载,因为 char 到 byte 或 short 的转型是不安全的。我们继续注释掉 sayHello(long arg)方法,那输出会变为:

    hello Character
    
    • 1

    这时发生了一次自动装箱,'a’被包装为它的封装类型 java.lang.Character,所以匹配到了参数类型为 Character 的重载,继续注释掉 sayHello(Character arg)方法,那输出会变为:

    hello Serializable
    
    • 1

    这个输出可能会让人摸不着头脑,一个字符或数字与序列化有什么关系?出现 hello Serializable,是因为 java.lang.Serializable 是 java.lang.Character 类实现的一个接口,当自动装箱之后发现还是找不到装箱类,但是找到了装箱类所实现的接口类型,所以紧接着又发生一次自动转型。char 可以转型成 int,但是 Character 是绝对不会转型为 Integer的,它只能安全地转型为它实现的接口或父类。Character 还实现了另外一个接口java.lang.Comparable,如果同时出现两个参数分别为 Serializable 和 Comparable的重载方法,那它们在此时的优先级是一样的。编译器无法确定要自动转型为哪种类型,会提示“类型模糊”(Type Ambiguous),并拒绝编译。程序必须在调用时显式地指定字面量的静态类型,如:sayHello((Comparable)‘a’),才能编译通过。但是如果读者愿意花费一点时间,绕过 Javac 编译器,自己去构造出表达相同语义的字节码,将会发现这是能够通过 Java 虚拟机的类加载校验,而且能够被 Java 虚拟机正常执行的,但是会选择 Serializable 还是 Comparable的重载方法则并不能事先确定,这是《Java 虚拟机规范》所允许的,在第 7 章介绍接口方法解析过程时曾经提到过。下面继续注释掉 sayHello(Serializable arg)方法,输出会变为:

    Hello Object
    
    • 1

    这时是 char 装箱后转型为父类了,如果有多个父类,那将在继承关系中从下往上开始搜索,越接上层的优先级越低。即使方法调用传入的参数值为 null 时,这个规则仍然适用。我们把 sayHello(Object arg)也注释掉,输出将会变为:

    Hello char
    • 1

    7 个重载方法已经被注释得只剩 1 个了,可见变长参数的重载优先级是最低的,这时候字符’a’被当作了一个 char[]数组的元素。笔者使用的是 char 类型的变长参数,读者在验证时还可以选择 int 类型、 Character 类型、Object 类型等的变长参数重载来把上面的过程重新折腾一遍。但是要注意的是,有一些在单个参数中能成立的自动转型,如char 转型为 int,在变长参数中是不成立的。
    代码清单 8-7 演示了编译期间选择静态分派目标的过程,这个过程也是 Java 语言实现方法重载的本质。演示所用的这段程序无疑是属于很极端的例子,除了用作面试题为难求职者之外,在实际工作中几乎不可能存在任何有价值的用途,笔者拿来做演示仅仅是用于讲解重载时目标方法选择的过程,对绝大多数下进行这样极端的重载都可算作真正的“关于茴香豆的茴有几种写法的研究”。无论对重载的认识有多么深刻,一个合格的程序员都不应该在实际应用中写这种晦涩的重载代码。
    另外还有一点读者可能比较容易混淆:笔者讲述的解析与分派这两者之间的关系并不是二选一的排他关系,它们是在不同层次上去筛选、确定目标方法的过程。例如前面说过静态方法会在编译期确定、在类加载期就进行解析,而静态方法显然也是可以拥有重载版本的,选择重载版本的过程也是通过静态分派完成的。

    2.动态分派

    了解了静态分派,我们接下来看一下 Java 语言里动态分派的实现过程,它与 Java 语言多态性的另外一个重要体现——重写(Override)有着很密切的关联。我们还是用前面的 Man 和 Woman 一起 sayHello 的例子来讲解动态分派,请看代码清单8-8 中所示的代码。

    • 代码清单 8-8 方法动态分派演示
    package org.fenixsoft.polymorphic;
    /**
    * 方法动态分派演示
    *
    * @author zzm
    */
    public class DynamicDispatch {
        static abstract class Human {
            protected abstract void sayHello();
        }
        static class Man extends Human {
            @Override
            protected void sayHello() {
                System.out.println("man say hello");
            }
        }
        static class Woman extends Human {
            @Override
            protected void sayHello() {
                System.out.println("woman say hello");
            }
        }
        public static void main(String[] args) {
            Human man = new Man();
            Human woman = new Woman();
            man.sayHello();
            woman.sayHello();
            man = new Woman();
            man.sayHello();
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31

    运行结果:

    man say hello woman say hello woman say hello
    
    • 1

    这个运行结果相信不会出乎任何人的意料,对于习惯了面向对象思维的 Java 程序员们会觉得这是完全理所当然的结论。我们现在的问题还是和前面的一样,Java 虚拟机是如何判断应该调用哪个方法的?
    显然这里选择调用的方法版本是不可能再根据静态类型来决定的,因为静态类型同样都是 Human 的两个变量 man 和 woman 在调用 sayHello()方法时产生了不同的行为,甚至变量 man 在两次调用中还执行了两个不同的方法。导致这个现象的原因很明显,是因为这两个变量的实际类型不同,Java 虚拟机是如何根据实际类型来分派方法执行版本的呢?我们使用 javap 命令输出这段代码的字节码,尝试从中寻找答案,输出结果如代码清单 8-9 所示。

    • 代码清单 8-9 main()方法的字节码
    public static void main(java.lang.String[]); 
     Code:
     Stack=2, Locals=3, Args_size=1
     0: new #16; //class org/fenixsoft/polymorphic/DynamicDispatch$Man 
     3: dup
     4: invokespecial #18; //Method org/fenixsoft/polymorphic/Dynamic Dispatch$Man."":()V 
     7: astore_1
     8: new #19; //class org/fenixsoft/polymorphic/DynamicDispatch$Woman 
     11: dup
     12: invokespecial #21; //Method org/fenixsoft/polymorphic/DynamicDispatch$Woman."":()V
     15: astore_2
     16: aload_1
     17: invokevirtual #22; //Method org/fenixsoft/polymorphic/Dynamic Dispatch$Human.sayHello:()V 
     20: aload_2
     21: invokevirtual #22; //Method org/fenixsoft/polymorphic/Dynamic Dispatch$Human.sayHello:()V
     24: new #19; //class org/fenixsoft/polymorphic/DynamicDispatch$Woman 
     27: dup
     28: invokespecial #21; //Method org/fenixsoft/polymorphic/DynamicDispatch$Woman."":()V
     31: astore_1
     32: aload_1
     33: invokevirtual #22; //Method org/fenixsoft/polymorphic/Dynamic Dispatch$Human.sayHello:()V 
     36: return
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    0~15 行的字节码是准备动作,作用是建立 man 和 woman 的内存空间、调用 Man和 Woman 类型的实例构造器,将这两个实例的引用存放在第 1、2 个局部变量表的变量槽中,这些动作实际对应了 Java 源码中的这两行:

    Human man = new Man();
    Human woman = new Woman();
    
    • 1
    • 2

    接下来的 16~21 行是关键部分,16 和 20 行的 aload 指令分别把刚刚创建的两个对象的引用压到栈顶,这两个对象是将要执行的 sayHello()方法的所有者,称为接收者(Receiver);17 和 21 行是方法调用指令,这两条调用指令单从字节码角度来看,无论是指令(都是 invokevirtual)还是参数(都是常量池中第 22 项的常量,注释显示了这个常量是 Human.sayHello()的符号引用)都完全一样,但是这两句指令最终执行的目标方法并不相同。那看来解决问题的关键还必须从 invokevirtual 指令本身入手,要弄清楚它是如何确定调用方法版本、如何实现多态查找来着手分析才行。根据《Java 虚拟机规范》, invokevirtual 指令的运行时解析过程[4]大致分为以下几步:

    1. 找到操作数栈顶的第一个元素所指向的对象的实际类型,记作 C。
    2. 如果在类型 C 中找到与常量中的描述符和简单名称都相符的方法,则进行访问权限校验,如果通过则返回这个方法的直接引用,查找过程结束;不通过则返回 java.lang.IllegalAccessError 异常。
    3. 否则,按照继承关系从下往上依次对 C 的各个父类进行第二步的搜索和验证过程。
    4. 如果始终没有找到合适的方法,则抛出 java.lang.AbstractMethodError 异常。

    正是因为 invokevirtual 指令执行的第一步就是在运行期确定接收者的实际类型,所以两次调用中的 invokevirtual 指令并不是把常量池中方法的符号引用解析到直接引用上就结束了,还会根据方法接收者的实际类型来选择方法版本,这个过程就是 Java 语言中方法重写的本质。我们把这种 在运行期根据实际类型确定方法执行版本的分派过程称为动态分派
    既然这种多态性的根源在于虚方法调用指令 invokevirtual 的执行逻辑,那自然我们得出的结论就只会对方法有效,对字段是无效的,因为字段不使用这条指令。事实上,在 Java 里面只有虚方法存在,字段永远不可能是虚的,换句话说,字段永远不参与多态,哪个类的方法访问某个名字的字段时,该名字指的就是这个类能看到的那个字段。
    当子类声明了与父类同名的字段时,虽然在子类的内存中两个字段都会存在,但是子类的字段会遮蔽父类的同名字段。为了加深理解,笔者又编撰了一份“劣质面试题式”的代码片段,请阅读代码清单 8-10,思考运行后会输出什么结果。

    • 代码清单 8-10 字段没有多态性
    package org.fenixsoft.polymorphic;
    /**
    * 字段不参与多态
    *
    * @author zzm
    */
    public class FieldHasNoPolymorphic {
        static class Father {
            public int money = 1;
            public Father() {
                money = 2;
                showMeTheMoney();
            }
            public void showMeTheMoney() {
                System.out.println("I am Father, i have $" + money);
            }
        }
        static class Son extends Father {
            public int money = 3;
            public Son() {
                money = 4;
                showMeTheMoney();
            }
            public void showMeTheMoney() {
                System.out.println("I am Son, i have $" + money);
            }
        }
        public static void main(String[] args) {
            Father gay = new Son();
            System.out.println("This gay has $" + gay.money);
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32

    运行后输出结果为:

    I am Son, i have $0
    I am Son, i have $4
    This gay has $2
    
    • 1
    • 2
    • 3

    输出两句都是“I am Son”,这是因为 Son 类在创建的时候,首先隐式调用了 Father 的构造函数,而 Father 构造函数中对 showMeTheMoney()的调用是一次虚方法调用,实际执行的版本是 Son::showMeTheMoney()方法,所以输出的是“I am Son”,这点经过前面的分析相信读者是没有疑问的了。而这时候虽然父类的 money 字段已经被初始化成 2 了,但 Son::showMeTheMoney()方法中访问的却是子类的 money 字段,这时候结果自然还是 0,因为它要到子类的构造函数执行时才会被初始化。 main()的最后一句通过静态类型访问到了父类中的 money,输出了 2。

    3.单分派与多分派

    方法的接收者与方法的参数统称为方法的宗量,这个定义最早应该来源于著名的《Java 与模式》一书。根据分派基于多少种宗量,可以将分派划分为单分派和多分派两种。单分派是根据一个宗量对目标方法进行选择,多分派则是根据多于一个宗量对目标方法进行选择。
    单分派和多分派的定义读起来拗口,从字面上看也比较抽象,不过对照着实例看并不难理解其含义,代码清单 8-11 中举了一个 Father 和 Son 一起来做出“一个艰难的决定”的例子。

    • 代码清单 8-11 单分派和多分派
    /**
    * 单分派、多分派演示
    *
    * @author zzm
    */
    public class Dispatch {
        static class QQ {
        }
        static class _360 {
        }
        public static class Father {
            public void hardChoice(QQ arg) {
                System.out.println("father choose qq");
            }
            public void hardChoice(_360 arg) {
                System.out.println("father choose 360");
            }
        }
        public static class Son extends Father {
            public void hardChoice(QQ arg) {
                System.out.println("son choose qq");
            }
            public void hardChoice(_360 arg) {
                System.out.println("son choose 360");
            }
        }
        public static void main(String[] args) {
            Father father = new Father();
            Father son = new Son();
            father.hardChoice(new _360());
            son.hardChoice(new QQ());
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33

    运行结果:

    father choose 360
    son choose qq
    
    • 1
    • 2

    在 main()里调用了两次 hardChoice()方法,这两次 hardChoice()方法的选择结果在程序输出中已经显示得很清楚了。我们关注的首先是编译阶段中编译器的选择过程,也就是静态分派的过程。这时候选择目标方法的依据有两点:一是静态类型是 Father 还是 Son,二是方法参数是 QQ 还是 360。这次选择结果的最终产物是产生了两条 invokevirtual 指令,两条指令的参数分别为常量池中指向 Father::hardChoice(360)及 Father::hardChoice(QQ)方法的符号引用。因为是根据两个宗量进行选择,所以 Java 语言的静态分派属于多分派类型。
    再看看运行阶段中虚拟机的选择,也就是动态分派的过程。在执行“son.hardChoice(new QQ())”这行代码时,更准确地说,是在执行这行代码所对应的 invokevirtual 指令时,由于编译期已经决定目标方法的签名必须为 hardChoice(QQ),虚拟机此时不会关心传递过来的参数“QQ”到底是“腾讯 QQ”还是“奇瑞 QQ”,因为这时候参数的静态类型、实际类型都对方法的选择不会构成任何影响,唯一可以影响虚拟机选择的因素只有该方法的接受者的实际类型是 Father 还是 Son。因为只有一个宗量作为选择依据,所以 Java 语言的动态分派属于单分派类型。
    根据上述论证的结果,我们可以总结一句:如今(直至本书编写的 Java 12 和预览版的 Java 13)的 Java 语言是一门静态多分派、动态单分派的语言。强调“如今的 Java 语言”是因为这个结论未必会恒久不变,C#在 3.0 及之前的版本与 Java 一样是动态单分派语言,但在 C#4.0 中引入了 dynamic 类型后,就可以很方便地实现动态多分派。JDK 10时 Java 语法中新出现 var 关键字,但请读者切勿将其与 C#中的 dynamic 类型混淆,事实上 Java 的 var 与 C#的 var 才是相对应的特性,它们与 dynamic 有着本质的区别:var 是在编译时根据声明语句中赋值符右侧的表达式类型来静态地推断类型,这本质是一种语法糖;而 dynamic 在编译时完全不关心类型是什么,等到运行的时候再进行类型判断。
    Java 语言中与 C#的 dynamic 类型功能相对接近(只是接近,并不是对等的)的应该是在JDK 9 时通过 JEP 276 引入的 jdk.dynalink 模块[6],使用 jdk.dynalink 可以实现在表达式中使用动态类型,Javac 编译器会将这些动态类型的操作翻译为 invokedynamic 指令的调用点。
    按照目前 Java 语言的发展趋势,它并没有直接变为动态语言的迹象,而是通过内置动态语言(如 JavaScript)执行引擎、加强与其他 Java 虚拟机上动态语言交互能力的方式来间接地满足动态性的需求。但是作为多种语言共同执行平台的 Java 虚拟机层面上则不是如此,早在 JDK 7 中实现的 JSR-292[7] 里面就已经开始提供对动态语言的方法调用支持了,JDK 7 中新增的 invokedynamic 指令也成为最复杂的一条方法调用的字节码指令,稍后笔者将在本章中专门开一节来讲解这个与 Java 调用动态语言密切相关的特性。

    4.虚拟机动态分派的实现

    前面介绍的分派过程,作为对 Java 虚拟机概念模型的解释基本上已经足够了,它已经解决了虚拟机在分派中“会做什么”这个问题。但如果问 Java 虚拟机“具体如何做到”的,答案则可能因各种虚拟机的实现不同会有些差别。
    动态分派是执行非常频繁的动作,而且动态分派的方法版本选择过程需要运行时在接收者类型的方法元数据中搜索合适的目标方法,因此,Java 虚拟机实现基于执行性能的考虑,真正运行时一般不会如此频繁地去反复搜索类型元数据。面对这种情况,一种基础而且常见的优化手段是为类型在方法区中建立一个虚方法表(Virtual Method Table,也称为 vtable,与此对应的,在 invokeinterface 执行时也会用到接口方法表——Interface Method Table,简称 itable),使用虚方法表索引来代替元数据查找以提高性能。我们先看看代码清单 8-11 所对应的虚方法表结构示例,如图 8-3 所示。

    • 图 8-3 方法表结构
      在这里插入图片描述

    虚方法表中存放着各个方法的实际入口地址。如果某个方法在子类中没有被重写,那子类的虚方法表中的地址入口和父类相同方法的地址入口是一致的,都指向父类的实现入口。如果子类中重写了这个方法,子类虚方法表中的地址也会被替换为指向子类实现版本的入口地址。在图 8-3 中,Son 重写了来自 Father 的全部方法,因此 Son 的方法表没有指向 Father 类型数据的箭头。但是 Son 和 Father 都没有重写来自 Object 的方法,所以它们的方法表中所有从 Object 继承来的方法都指向了 Object 的数据类型。
    为了程序实现方便,具有相同签名的方法,在父类、子类的虚方法表中都应当具有一样的索引序号,这样当类型变换时,仅需要变更查找的虚方法表,就可以从不同的虚方法表中按索引转换出所需的入口地址。虚方法表一般在类加载的连接阶段进行初始化,准备了类的变量初始值后,虚拟机会把该类的虚方法表也一同初始化完毕。
    上文中笔者提到了查虚方法表是分派调用的一种优化手段,由于 Java 对象里面的方法默认(即不使用 final 修饰)就是虚方法,虚拟机除了使用虚方法表之外,为了进一步提高性能,还会使用类型继承关系分析(Class Hierarchy Analysis,CHA)、守护内联(Guarded Inlining)、内联缓存(Inline Cache)等多种非稳定的激进优化来争取更大的性能空间,关于这几种优化技术的原理和运作过程,读者可以参考第 11 章中的相关内容。

    8.4 动态类型语言支持

    8.5 基于栈的字节码解释执行引擎

    第 12 章 Java 内存模型与线程

    12.2 硬件的效率与一致性

    由于计算机的存储设备与处理器的运算速度有着几个数量级的差距,所以现代计算机系统都不得不加入一层或多层读写速度尽可能接近处理器运算速度的高速缓存(Cache)来作为内存与处理器之间的缓冲:将运算需要使用的数据复制到缓存中,让运算能快速进行,当运算结束后再从缓存同步回内存之中,这样处理器就无须等待缓慢的内存读写了。
    基于高速缓存的存储交互很好地解决了处理器与内存速度之间的矛盾,但是也为计算机系统带来更高的复杂度,它引入了一个新的问题:缓存一致性(Cache Coherence)。在多路处理器系统中,每个处理器都有自己的高速缓存,而它们又共享同一主内存(Main Memory),这种系统称为共享内存多核系统(Shared Memory Multiprocessors System),如图 12-1 所示。当多个处理器的运算任务都涉及同一块主内存区域时,将可能导致各自的缓存数据不一致。如果真的发生这种情况,那同步回到主内存时该以谁的缓存数据为准呢?为了解决一致性的问题,需要各个处理器访问缓存时都遵循一些协议,在读写时要根据协议来进行操作,这类协议有 MSI、MESI(Illinois Protocol)、MOSI、Synapse、Firefly 及 Dragon Protocol 等。从本章开始,我们将会频繁见到“内存模型”一词,它可以理解为在特定的操作协议下,对特定的内存或高速缓存进行读写访问的过程抽象。不同架构的物理机器可以拥有不一样的内存模型,而 Java 虚拟机也有自己的内存模型,并且与这里介绍的内存访问操作及硬件的缓存访问操作具有高度的可类比性。

    • 图 12-1 处理器、高速缓存、主内存间的交互关系
      在这里插入图片描述

    除了增加高速缓存之外,为了使处理器内部的运算单元能尽量被充分利用,处理器可能会对输入代码进行乱序执行(Out-Of-Order Execution)优化,处理器会在计算之后将乱序执行的结果重组,保证该结果与顺序执行的结果是一致的,但并不保证程序中各个语句计算的先后顺序与输入代码中的顺序一致,因此如果存在一个计算任务依赖另外一个计算任务的中间结果,那么其顺序性并不能靠代码的先后顺序来保证。与处理器的乱序执行优化类似,Java 虚拟机的即时编译器中也有指令重排序(Instruction Reorder)优化。

    12.3 Java 内存模型

    《Java 虚拟机规范》[1]中曾试图定义一种“Java 内存模型”(Java Memory Model,JMM)来屏蔽各种硬件和操作系统的内存访问差异,以实现让 Java 程序在各种平台下都能达到一致的内存访问效果。
    定义 Java 内存模型并非一件容易的事情,这个模型必须定义得足够严谨,才能让Java 的并发内存访问操作不会产生歧义;但是也必须定义得足够宽松,使得虚拟机的实现能有足够的自由空间去利用硬件的各种特性(寄存器、高速缓存和指令集中某些特有的指令)来获取更好的执行速度。经过长时间的验证和修补,直至 JDK 5(实现了 JSR-133[3])发布后,Java 内存模型才终于成熟、完善起来了。

    12.3.1 主内存与工作内存

    Java 内存模型的主要目的是定义程序中各种变量的访问规则,即关注在虚拟机中把变量值存储到内存和从内存中取出变量值这样的底层细节。此处的变量(Variables)与Java 编程中所说的变量有所区别,它包括了实例字段、静态字段和构成数组对象的元素,但是不包括局部变量与方法参数,因为后者是线程私有的,不会被共享,自然就不会存在竞争问题。为了获得更好的执行效能,Java 内存模型并没有限制执行引擎使用处理器的特定寄存器或缓存来和主内存进行交互,也没有限制即时编译器是否要进行调整代码执行顺序这类优化措施。
    Java 内存模型规定了所有的变量都存储在主内存(Main Memory)中(此处的主内存与介绍物理硬件时提到的主内存名字一样,两者也可以类比,但物理上它仅是虚拟机内存的一部分)。每条线程还有自己的工作内存(Working Memory,可与前面讲的处理器高速缓存类比),线程的工作内存中保存了被该线程使用的变量的主内存副本,线程对变量的所有操作(读取、赋值等)都必须在工作内存中进行,而不能直接读写主内存中的数据。不同的线程之间也无法直接访问对方工作内存中的变量,线程间变量值的传递均需要通过主内存来完成,线程、主内存、工作内存三者的交互关系如图 12-2 所示,注意与图 12-1 进行对比。
    在这里插入图片描述

    12.3.2 内存间交互操作

    关于主内存与工作内存之间具体的交互协议,即一个变量如何从主内存拷贝到工作内存、如何从工作内存同步回主内存这一类的实现细节,Java 内存模型中定义了以下 8种操作来完成。Java 虚拟机实现时必须保证下面提及的每一种操作都是原子的、不可再分的(对于 double 和 long 类型的变量来说, load、store、read 和 write 操作在某些平台上允许有例外,这个问题在 12.3.4 节会专门讨论)。
    ·lock(锁定):作用于主内存的变量,它把一个变量标识为一条线程独占的状态。
    ·unlock(解锁):作用于主内存的变量,它把一个处于锁定状态的变量释放出来,释放后的变量才可以被其他线程锁定。
    ·read(读取):作用于主内存的变量,它把一个变量的值从主内存传输到线程的工作内存中,以便随后的 load 动作使用。
    ·load(载入):作用于工作内存的变量,它把 read 操作从主内存中得到的变量值放入工作内存的变量副本中。
    ·use(使用):作用于工作内存的变量,它把工作内存中一个变量的值传递给执行引擎,每当虚拟机遇到一个需要使用变量的值的字节码指令时将会执行这个操作。
    ·assign(赋值):作用于工作内存的变量,它把一个从执行引擎接收的值赋给工作内存的变量,每当虚拟机遇到一个给变量赋值的字节码指令时执行这个操作。
    ·store(存储):作用于工作内存的变量,它把工作内存中一个变量的值传送到主内存中,以便随后的 write 操作使用。
    ·write(写入):作用于主内存的变量,它把 store 操作从工作内存中得到的变量的值放入主内存的变量中。
    如果要把一个变量从主内存拷贝到工作内存,那就要按顺序执行 read 和 load 操作,如果要把变量从工作内存同步回主内存,就要按顺序执行 store 和 write 操作。注意,Java 内存模型只要求上述两个操作必须按顺序执行,但不要求是连续执行。也就是说 read 与 load 之间、store 与 write 之间是可插入其他指令的,如对主内存中的变量 a、b进行访问时,一种可能出现的顺序是 read a、read b、load b、load a。除此之外,Java 内存模型还规定了在执行上述 8 种基本操作时必须满足如下规则:
    ·不允许 read 和 load、store 和 write 操作之一单独出现,即不允许一个变量从主内存读取了但工作内存不接受,或者工作内存发起回写了但主内存不接受的情况出现。
    ·不允许一个线程丢弃它最近的 assign 操作,即变量在工作内存中改变了之后必须把该变化同步回主内存。
    ·不允许一个线程无原因地(没有发生过任何 assign 操作)把数据从线程的工作内存同步回主内存中。
    ·一个新的变量只能在主内存中“诞生”,不允许在工作内存中直接使用一个未被初始化(load 或 assign)的变量,换句话说就是对一个变量实施 use、store 操作之前,必须先执行 assign 和 load 操作。
    ·一个变量在同一个时刻只允许一条线程对其进行 lock 操作,但 lock 操作可以被同一条线程重复执行多次,多次执行 lock 后,只有执行相同次数的 unlock 操作,变量才会被解锁。
    ·如果对一个变量执行 lock 操作,那将会清空工作内存中此变量的值,在执行引擎使用这个变量前,需要重新执行 load 或 assign 操作以初始化变量的值。
    ·如果一个变量事先没有被 lock 操作锁定,那就不允许对它执行 unlock 操作,也不允许去 unlock 一个被其他线程锁定的变量。
    ·对一个变量执行 unlock 操作之前,必须先把此变量同步回主内存中(执行 store、write 操作)。
    这 8 种内存访问操作以及上述规则限定,再加上稍后会介绍的专门针对 volatile 的一些特殊规定,就已经能准确地描述出 Java 程序中哪些内存访问操作在并发下才是安全的。这种定义相当严谨,但也是极为烦琐,实践起来更是无比麻烦。可能部分读者阅读到这里已经对多线程开发产生恐惧感了,后来 Java 设计团队大概也意识到了这个问题,
    将 Java 内存模型的操作简化为 read、write、lock 和 unlock 四种,但这只是语言描述上的等价化简,Java 内存模型的基础设计并未改变,即使是这四操作种,对于普通用户来说阅读使用起来仍然并不方便。不过读者对此无须过分担忧,除了进行虚拟机开发的团队外,大概没有其他开发人员会以这种方式来思考并发问题,我们只需要理解 Java 内存模型的定义即可。12.3.6 节将介绍这种定义的一个等效判断原则——先行发生原则,用来确定一个操作在并发环境下是否安全的。

    12.3.3 对于 volatile 型变量的特殊规则

    关键字 volatile 可以说是 Java 虚拟机提供的最轻量级的同步机制,但是它并不容易被正确、完整地理解,以至于许多程序员都习惯去避免使用它,遇到需要处理多线程数据竞争问题的时候一律使用 synchronized 来进行同步。了解 volatile 变量的语义对后面理解多线程操作的其他特性很有意义,在本节中我们将多花费一些篇幅介绍 volatile 到底意味着什么。
    Java 内存模型为 volatile 专门定义了一些特殊的访问规则,在介绍这些比较拗口的规则定义之前,先用一些不那么正式,但通俗易懂的语言来介绍一下这个关键字的作用。
    当一个变量被定义成 volatile 之后,它将具备两项特性:第一项是保证此变量对所有线程的可见性,这里的“可见性”是指当一条线程修改了这个变量的值,新值对于其他线程来说是可以立即得知的。而普通变量并不能做到这一点,普通变量的值在线程间传递时均需要通过主内存来完成。比如,线程 A 修改一个普通变量的值,然后向主内存进行回写,另外一条线程 B 在线程 A 回写完成了之后再对主内存进行读取操作,新变量值才会对线程 B 可见。
    关于 volatile 变量的可见性,经常会被开发人员误解,他们会误以为下面的描述是正确的:“volatile 变量对所有线程是立即可见的,对 volatile 变量所有的写操作都能立刻反映到其他线程之中。
    换句话说,volatile 变量在各个线程中是一致的,所以基于volatile 变量的运算在并发下是线程安全的”。这句话的论据部分并没有错,但是由其论据并不能得出“基于 volatile 变量的运算在并发下是线程安全的”这样的结论。volatile 变量在各个线程的工作内存中是不存在一致性问题的(从物理存储的角度看,各个线程的工作内存中 volatile 变量也可以存在不一致的情况,但由于每次使用之前都要先刷新,执行引擎看不到不一致的情况,因此可以认为不存在一致性问题),但是 Java 里面的运算操作符并非原子操作,这导致 volatile 变量的运算在并发下一样是不安全的,我们可以通过一段简单的演示来说明原因,请看代码清单 12-1 中演示的例子。

    • 代码清单 12-1 volatile 的运算
    /**
    * volatile 变量自增运算测试
    *
    * @author zzm
    */
    public class VolatileTest {
        public static volatile int race = 0;
        public static void increase() {
            race++;
        }
        private static final int THREADS_COUNT = 20;
        public static void main(String[] args) {
            Thread[] threads = new Thread[THREADS_COUNT];
            for (int i = 0; i < THREADS_COUNT; i++) {
                threads[i] = new Thread(new Runnable() {
                    @Override
                    public void run() {
                        for (int i = 0; i < 10000; i++) {
                            increase();
                        }
                    }
                });
                threads[i].start();
            }
            // 等待所有累加线程都结束
            while (Thread.activeCount() > 1)
                Thread.yield();
            System.out.println(race);
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30

    这段代码发起了 20 个线程,每个线程对 race 变量进行 10000 次自增操作,如果这段代码能够正确并发的话,最后输出的结果应该是 200000。读者运行完这段代码之后,并不会获得期望的结果,而且会发现每次运行程序,输出的结果都不一样,都是一个小于 200000 的数字。这是为什么呢?
    问题就出在自增运算“race++”之中,我们用 Javap 反编译这段代码后会得到代码清单 12-2 所示,发现只有一行代码的 increase()方法在 Class 文件中是由 4 条字节码指令构成(return 指令不是由 race++产生的,这条指令可以不计算),从字节码层面上已经很容易分析出并发失败的原因了:当 getstatic 指令把 race 的值取到操作栈顶时,volatile 关键字保证了 race 的值在此时是正确的,但是在执行 iconst_1、iadd 这些指令的时候,其他线程可能已经把 race 的值改变了,而操作栈顶的值就变成了过期的数据,所以 putstatic指令执行后就可能把较小的 race 值同步回主内存之中。

    • 代码清单 12-2 VolatileTest 的字节码
    public static void increase();
     Code:
     Stack=2, Locals=0, Args_size=0
     0: getstatic #13; //Field race:I
     3: iconst_1
     4: iadd
     5: putstatic #13; //Field race:I
     8: return
     LineNumberTable:
     line 14: 0 line 15: 8
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    实事求是地说,笔者使用字节码来分析并发问题仍然是不严谨的,因为即使编译出来只有一条字节码指令,也并不意味执行这条指令就是一个原子操作。一条字节码指令在解释执行时,解释器要运行许多行代码才能实现它的语义。如果是编译执行,一条字节码指令也可能转化成若干条本地机器码指令。此处使用-XX:+PrintAssembly 参数输出反汇编来分析才会更加严谨一些,但是考虑到读者阅读的方便性,并且字节码已经能很好地说明问题,所以此处使用字节码来解释。
    由于 volatile 变量只能保证可见性,在不符合以下两条规则的运算场景中,我们仍然要通过加锁(使用 synchronized、java.util.concurrent 中的锁或原子类)来保证原子性:
    ·运算结果并不依赖变量的当前值,或者能够确保只有单一的线程修改变量的值。
    ·变量不需要与其他的状态变量共同参与不变约束。
    而在像代码清单 12-3 所示的这类场景中就很适合使用 volatile 变量来控制并发,当shutdown()方法被调用时,能保证所有线程中执行的 doWork()方法都立即停下来。

    • 代码清单 12-3 volatile 的使用场景
    volatile boolean shutdownRequested;
    public void shutdown() {
     shutdownRequested = true;
    }
    public void doWork() {
     while (!shutdownRequested) { // 代码的业务逻辑
     }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    使用 volatile 变量的第二个语义是禁止指令重排序优化,普通的变量仅会保证在该方法的执行过程中所有依赖赋值结果的地方都能获取到正确的结果,而不能保证变量赋值操作的顺序与程序代码中的执行顺序一致。因为在同一个线程的方法执行过程中无法感知到这点,这就是 Java 内存模型中描述的所谓“线程内表现为串行的语义”(WithinThread As-If-Serial Semantics)。
    上面描述仍然比较拗口难明,我们还是继续通过一个例子来看看为何指令重排序会干扰程序的并发执行。演示程序如代码清单 12-4 所示。

    • 代码清单 12-4 指令重排序
    public static void main(String[] args) {
        Map configOptions;
        char[] configText;
        // 此变量必须定义为 volatile
        volatile boolean initialized = false;
        // 假设以下代码在线程 A 中执行
        // 模拟读取配置信息,当读取完成后
        // 将 initialized 设置为 true,通知其他线程配置可用
        configOptions = new HashMap();
        configText = readConfigFile(fileName);
        processConfigOptions(configText, configOptions);
        initialized = true;
        // 假设以下代码在线程 B 中执行
        // 等待 initialized 为 true,代表线程 A 已经把配置信息初始化完成
        while (!initialized) {
            sleep();
        }
        // 使用线程 A 中初始化好的配置信息
        doSomethingWithConfig();
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    代码清单 12-4 中所示的程序是一段伪代码,其中描述的场景是开发中常见配置读取过程,只是我们在处理配置文件时一般不会出现并发,所以没有察觉这会有问题。读者试想一下,如果定义 initialized 变量时没有使用 volatile 修饰,就可能会由于指令重排序的优化,导致位于线程 A 中最后一条代码“initialized=true”被提前执行(这里虽然使用Java 作为伪代码,但所指的重排序优化是机器级的优化操作,提前执行是指这条语句对应的汇编代码被提前执行),这样在线程 B 中使用配置信息的代码就可能出现错误,而
    volatile 关键字则可以避免此类情况的发生。
    指令重排序是并发编程中最容易导致开发人员产生疑惑的地方之一,除了上面伪代码的例子之外,笔者再举一个可以实际操作运行的例子来分析 volatile 关键字是如何禁止指令重排序优化的。代码清单 12-5 所示是一段标准的双锁检测(Double Check Lock,DCL)单例[3]代码,可以观察加入 volatile 和未加入 volatile 关键字时所生成的汇编代码的差别(如何获得即时编译的汇编代码?请参考第 4 章关于 HSDIS 插件的介绍)。

    • 代码清单 12-5 DCL 单例模式
    public class Singleton {
     private volatile static Singleton instance;
     public static Singleton getInstance() {
     if (instance == null) {
     synchronized (Singleton.class) {
     if (instance == null) {
     instance = new Singleton();
     }
     }
     }
     return instance;
     }
     public static void main(String[] args) {
     Singleton.getInstance();
     }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    编译后,这段代码对 instance 变量赋值的部分如代码清单 12-6 所示。代码清单 12-6对 instance 变量赋值

    0x01a3de0f: mov $0x3375cdb0,%esi ;...beb0cd75 33
     ; {oop('Singleton')}
    0x01a3de14: mov %eax,0x150(%esi) ;...89865001 0000
    0x01a3de1a: shr $0x9,%esi ;...c1ee09
    0x01a3de1d: movb $0x0,0x1104800(%esi) ;...c6860048 100100
    0x01a3de24: lock addl $0x0,(%esp) ;...f0830424 00
     ;*putstatic instance
     ; - Singleton::getInstance@24
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    通过对比发现,关键变化在于有 volatile 修饰的变量,赋值后(前面 mov%eax,0x150(%esi)这句便是赋值操作)多执行了一个“lock addl$0x0,(%esp)”操作,这个操作的作用相当于一个内存屏障(Memory Barrier 或 Memory Fence,指重排序时不能把后面的指令重排序到内存屏障之前的位置,注意不要与第 3 章中介绍的垃圾收集器用于捕获变量访问的内存屏障互相混淆),只有一个处理器访问内存时,并不需要内存屏障;但如果有两个或更多处理器访问同一块内存,且其中有一个在观测另一个,就需要内存屏障来保证一致性了。
    这句指令中的“addl$0x0,(%esp)”(把 ESP 寄存器的值加 0)显然是一个空操作,之所以用这个空操作而不是空操作专用指令 nop,是因为 IA32 手册规定 lock 前缀不允许配合 nop 指令使用。这里的关键在于 lock 前缀,查询 IA32 手册可知,它的作用是将本处理器的缓存写入了内存,该写入动作也会引起别的处理器或者别的内核无效化(Invalidate)其缓存,这种操作相当于对缓存中的变量做了一次前面介绍 Java 内存模式中所说的“store 和 write”操作。所以通过这样一个空操作,可让前面 volatile 变量的修改对其他处理器立即可见。
    那为何说它禁止指令重排序呢?从硬件架构上讲,指令重排序是指处理器采用了允许将多条指令不按程序规定的顺序分开发送给各个相应的电路单元进行处理。但并不是说指令任意重排,处理器必须能正确处理指令依赖情况保障程序能得出正确的执行结果。譬如指令 1 把地址 A 中的值加 10,指令 2 把地址 A 中的值乘以 2,指令 3 把地址 B 中的值减去 3,这时指令 1 和指令 2 是有依赖的,它们之间的顺序不能重排——(A+10)2 与 A2+10 显然不相等,但指令 3 可以重排到指令 1、2 之前或者中间,只要保证处理器执行后面依赖到 A、B 值的操作时能获取正确的 A 和 B 值即可。所以在同一个处理器中,重排序过的代码看起来依然是有序的。因此,lock addl$0x0,(%esp)指令把修改同步到内存时,意味着所有之前的操作都已经执行完成,这样便形成了“指令重排序无法越过内存屏障”的效果。
    解决了 volatile 的语义问题,再来看看在众多保障并发安全的工具中选用 volatile 的意义——它能让我们的代码比使用其他的同步工具更快吗?在某些情况下,volatile 的同步机制的性能确实要优于锁(使用 synchronized 关键字或 java.util.concurrent 包里面的锁),但是由于虚拟机对锁实行的许多消除和优化,使得我们很难确切地说 volatile 就会比 synchronized 快上多少。如果让 volatile 自己与自己比较,那可以确定一个原则:volatile 变量读操作的性能消耗与普通变量几乎没有什么差别,但是写操作则可能会慢上一些,因为它需要在本地代码中插入许多内存屏障指令来保证处理器不发生乱序执行。不过即便如此,大多数场景下 volatile 的总开销仍然要比锁来得更低。我们在 volatile 与锁中选择的唯一判断依据仅仅是 volatile 的语义能否满足使用场景的需求。
    本节的最后,我们再回头来看看 Java 内存模型中对 volatile 变量定义的特殊规则的定义。假定 T 表示一个线程,V 和 W 分别表示两个 volatile 型变量,那么在进行 read、load、use、assign、store 和 write 操作时需要满足如下规则:
    ·只有当线程 T 对变量 V 执行的前一个动作是 load 的时候,线程 T 才能对变量 V 执行 use 动作;并且,只有当线程 T 对变量 V 执行的后一个动作是 use 的时候,线程 T 才能对变量 V 执行 load 动作。线程 T 对变量 V 的 use 动作可以认为是和线程 T 对变量 V的 load、read 动作相关联的,必须连续且一起出现。
    这条规则要求在工作内存中,每次使用 V 前都必须先从主内存刷新最新的值,用于保证能看见其他线程对变量 V 所做的修改。
    ·只有当线程 T 对变量 V 执行的前一个动作是 assign 的时候,线程 T 才能对变量 V执行 store 动作;并且,只有当线程 T 对变量 V 执行的后一个动作是 store 的时候,线程T才能对变量 V 执行 assign 动作。线程 T 对变量 V 的 assign 动作可以认为是和线程 T 对变量 V 的 store、write 动作相关联的,必须连续且一起出现。
    这条规则要求在工作内存中,每次修改 V 后都必须立刻同步回主内存中,用于保证其他线程可以看到自己对变量 V 所做的修改。
    ·假定动作 A 是线程 T 对变量 V 实施的 use 或 assign 动作,假定动作 F 是和动作 A相关联的 load 或 store 动作,假定动作 P 是和动作 F 相应的对变量 V 的 read 或 write 动作;与此类似,假定动作 B 是线程 T 对变量 W 实施的 use 或 assign 动作,假定动作 G是和动作 B 相关联的 load 或 store 动作,假定动作 Q 是和动作 G 相应的对变量 W 的read 或 write 动作。如果 A 先于 B,那么 P 先于 Q。

    12.3.4 针对 long 和 double 型变量的特殊规则

    Java 内存模型要求 lock、unlock、read、load、assign、use、store、write 这八种操作都具有原子性,但是对于 64 位的数据类型(long 和 double),在模型中特别定义了一条宽松的规定:允许虚拟机将没有被 volatile 修饰的 64 位数据的读写操作划分为两次 32位的操作来进行,即允许虚拟机实现自行选择是否要保证 64 位数据类型的 load、store、read 和 write 这四个操作的原子性,这就是所谓的“long 和 double 的非原子性协定”(Non-Atomic Treatment of double and long Variables)。
    如果有多个线程共享一个并未声明为 volatile 的 long 或 double 类型的变量,并且同时对它们进行读取和修改操作,那么某些线程可能会读取到一个既不是原值,也不是其他线程修改值的代表了“半个变量”的数值。不过这种读取到“半个变量”的情况是非常罕见的,经过实际测试[1],在目前主流平台下商用的 64 位 Java 虚拟机中并不会出现非原子性访问行为,但是对于 32 位的 Java 虚拟机,譬如比较常用的 32 位 x86 平台下的HotSpot 虚拟机,对 long 类型的数据确实存在非原子性访问的风险。从 JDK 9 起,HotSpot 增加了一个实验性的参数-XX:+AlwaysAtomicAccesses(这是 JEP 188 对 Java内存模型更新的一部分内容)来约束虚拟机对所有数据类型进行原子性的访问。而针对double 类型,由于现代中央处理器中一般都包含专门用于处理浮点数据的浮点运算器(Floating Point Unit,FPU),用来专门处理单、双精度的浮点数据,所以哪怕是 32 位虚拟机中通常也不会出现非原子性访问的问题,实际测试也证实了这一点。笔者的看法是,在实际开发中,除非该数据有明确可知的线程竞争,否则我们在编写代码时一般不需要因为这个原因刻意把用到的 long 和 double 变量专门声明为 volatile。

    12.3.5 原子性、可见性与有序性

    Java 内存模型是围绕着在并发过程中如何处理原子性、可见性和有序性这三个特征来建立的,我们逐个来看一下哪些操作实现了这三个特性。

    1.原子性(Atomicity)

    由 Java 内存模型来直接保证的原子性变量操作包括 read、load、assign、use、store和 write 这六个,我们大致可以认为,基本数据类型的访问、读写都是具备原子性的(例外就是 long 和 double 的非原子性协定,读者只要知道这件事情就可以了,无须太过在意这些几乎不会发生的例外情况)。
    如果应用场景需要一个更大范围的原子性保证(经常会遇到),Java 内存模型还提供了 lock 和 unlock 操作来满足这种需求,尽管虚拟机未把 lock 和 unlock 操作直接开放给用户使用,但是却提供了更高层次的字节码指令 monitorenter 和 monitorexit 来隐式地使用这两个操作。这两个字节码指令反映到 Java 代码中就是同步块——synchronized 关键字,因此在 synchronized 块之间的操作也具备原子性。

    2.可见性(Visibility)

    可见性就是指当一个线程修改了共享变量的值时,其他线程能够立即得知这个修改。Java 内存模型是通过在变量修改后将新值同步回主内存,在变量读取前从主内存刷新变量值这种依赖主内存作为传递媒介的方式来实现可见性的,无论是普通变量还是 volatile 变量都是如此。普通变量与 volatile 变量的区别是,volatile 的特殊规则保证了新值能立即同步到主内存,以及每次使用前立即从主内存刷新。因此我们可以说 volatile 保证了多线程操作时变量的
    可见性,而普通变量则不能保证这一点。除了 volatile 之外,Java 还有两个关键字能实现可见性,它们是 synchronized 和 final。同步块的可见性是由“对一个变量执行 unlock 操作之前,必须先把此变量同步回主内存中(执行 store、write 操作)”这条规则获得的。而 final 关键字的可见性是指:被final 修饰的字段在构造器中一旦被初始化完成,并且构造器没有把“this”的引用传递出去(this 引用逃逸是一件很危险的事情,其他线程有可能通过这个引用访问到“初始化了一半”的对象),那么在其他线程中就能看见 final 字段的值。如代码清单 12-7 所示,变量 i 与 j 都具备可见性,它们无须同步就能被其他线程正确访问。

    • 代码清单 12-7 final 与可见性
    public static final int i;
    public final int j;
    static {
     i = 0;
     // 省略后续动作
    }
    {
     // 也可以选择在构造函数中初始化
     j = 0;
     // 省略后续动作
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    3.有序性(Ordering)

    Java 内存模型的有序性在前面讲解 volatile 时也比较详细地讨论过了,Java 程序中天然的有序性可以总结为一句话:如果在本线程内观察,所有的操作都是有序的;如果在一个线程中观察另一个线程,所有的操作都是无序的。前半句是指“线程内似表现为串行的语义”(Within-Thread As-If-Serial Semantics),后半句是指“指令重排序”现象和“工作内存与主内存同步延迟”现象。
    Java 语言提供了 volatile 和 synchronized 两个关键字来保证线程之间操作的有序性,volatile 关键字本身就包含了禁止指令重排序的语义,而 synchronized 则是由“一个变量在同一个时刻只允许一条线程对其进行 lock 操作”这条规则获得的,这个规则决定了持有同一个锁的两个同步块只能串行地进入。

    介绍完并发中三种重要的特性,读者是否发现 synchronized 关键字在需要这三种特性的时候都可以作为其中一种的解决方案?看起来很“万能”吧?的确,绝大部分并发控制操作都能使用 synchronized 来完成。synchronized 的“万能”也间接造就了它被程序员滥用的局面,越“万能”的并发控制,通常会伴随着越大的性能影响,关于这一点我们将在下一章讲解虚拟机锁优化时再细谈。

    12.3.6 先行发生原则

    如果 Java 内存模型中所有的有序性都仅靠 volatile 和 synchronized 来完成,那么有很多操作都将会变得非常啰嗦,但是我们在编写 Java 并发代码的时候并没有察觉到这一点,这是因为 Java 语言中有一个“先行发生”(Happens-Before)的原则。这个原则非常重要,它是判断数据是否存在竞争,线程是否安全的非常有用的手段。依赖这个原则,我们可以通过几条简单规则一揽子解决并发环境下两个操作之间是否可能存在冲突的所有问题,而不需要陷入 Java 内存模型苦涩难懂的定义之中。

    先行发生是 Java 内存模型中定义的两项操作之间的偏序关系,比如说操作 A 先行发生于操作 B,其实就是说在发生操作 B 之前,操作 A 产生的影响能被操作 B 观察到,“影响”包括修改了内存中共享变量的值、发送了消息、调用了方法等。

    这句话不难理解,但它意味着什么呢?我们可以举个例子来说明一下。如代码清单 12-8 所示的这三条伪代码。

    • 代码清单 12-8 先行发生原则示例 1
    // 以下操作在线程 A 中执行 i = 1;
    // 以下操作在线程 B 中执行 j = i;
    // 以下操作在线程 C 中执行 i = 2;
    
    • 1
    • 2
    • 3

    假设线程 A 中的操作“i=1”先行发生于线程 B 的操作“j=i”,那我们就可以确定在线程 B 的操作执行后,变量 j 的值一定是等于 1,得出这个结论的依据有两个:一是根据先行发生原则,“i=1”的结果可以被观察到;二是线程 C 还没登场,线程 A 操作结束之后没有其他线程会修改变量 i 的值。现在再来考虑线程 C,我们依然保持线程 A 和 B 之间的先行发生关系,而 C 出现在线程 A 和 B 的操作之间,但是 C 与 B 没有先行发生关系,那 j 的值会是多少呢?答案是不确定!1 和 2 都有可能,因为线程 C 对变量 i 的影响可能会被线程 B 观察到,也可能不会,这时候线程 B 就存在读取到过期数据的风险,不具备多线程安全性。
    下面是 Java 内存模型下一些“天然的”先行发生关系,这些先行发生关系无须任何同步器协助就已经存在,可以在编码中直接使用。如果两个操作之间的关系不在此列,并且无法从下列规则推导出来,则它们就没有顺序性保障,虚拟机可以对它们随意地进行重排序。
    ·程序次序规则(Program Order Rule):在一个线程内,按照控制流顺序,书写在前面的操作先行发生于书写在后面的操作。注意,这里说的是控制流顺序而不是程序代码顺序,因为要考虑分支、循环等结构。
    ·管程锁定规则(Monitor Lock Rule):一个 unlock 操作先行发生于后面对同一个锁的 lock 操作。这里必须强调的是“同一个锁”,而“后面”是指时间上的先后。
    ·volatile 变量规则(Volatile Variable Rule):对一个 volatile 变量的写操作先行发生于后面对这个变量的读操作,这里的“后面”同样是指时间上的先后。
    ·线程启动规则(Thread Start Rule):Thread 对象的 start()方法先行发生于此线程的每一个动作。
    ·线程终止规则(Thread Termination Rule):线程中的所有操作都先行发生于对此线程的终止检测,我们可以通过 Thread::join()方法是否结束、Thread::isAlive()的返回值等手段检测线程是否已经终止执行。
    ·线程中断规则(Thread Interruption Rule):对线程 interrupt()方法的调用先行发生于被中断线程的代码检测到中断事件的发生,可以通过 Thread::interrupted()方法检测到是否有中断发生。
    ·对象终结规则(Finalizer Rule):一个对象的初始化完成(构造函数执行结束)先行发生于它的 finalize()方法的开始。
    ·传递性(Transitivity):如果操作 A 先行发生于操作 B,操作 B 先行发生于操作C,那就可以得出操作 A 先行发生于操作 C 的结论。
    Java 语言无须任何同步手段保障就能成立的先行发生规则有且只有上面这些,下面演示一下如何使用这些规则去判定操作间是否具备顺序性,对于读写共享变量的操作来说,就是线程是否安全。读者还可以从下面这个例子中感受一下“时间上的先后顺序”与“先行发生”之间有什么不同。演示例子如代码清单 12-9 所示。

    • 代码清单 12-9 先行发生原则示例 2
    private int value = 0;
    public void setValue(int value) {
     this.value = value;
    }
    public int getValue() {
     return value;
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    代码清单 12-9 中显示的是一组再普通不过的 getter/setter 方法,假设存在线程 A 和 B,线程 A 先(时间上的先后)调用了 setValue(1),然后线程 B 调用了同一个对象的 getValue(),那么线程 B 收到的返回值是什么?
    我们依次分析一下先行发生原则中的各项规则。由于两个方法分别由线程 A 和 B 调用,不在一个线程中,所以程序次序规则在这里不适用;由于没有同步块,自然就不会发生 lock 和 unlock 操作,所以管程锁定规则不适用;由于 value 变量没有被 volatile 关键字修饰,所以 volatile 变量规则不适用;后面的线程启动、终止、中断规则和对象终结规则也和这里完全没有关系。因为没有一个适用的先行发生规则,所以最后一条传递性也无从谈起,因此我们可以判定,尽管线程 A 在操作时间上先于线程 B,但是无法确定线程 B 中 getValue()方法的返回结果,换句话说,这里面的操作不是线程安全的。
    那怎么修复这个问题呢?我们至少有两种比较简单的方案可以选择:要么把 getter/setter 方法都定义为 synchronized 方法,这样就可以套用管程锁定规则;要么把 value 定义为 volatile 变量,由于 setter 方法对 value 的修改不依赖 value 的原值,满足 volatile 关键字使用场景,这样就可以套用 volatile 变量规则来实现先行发生关系。通过上面的例子,我们可以得出结论:一个操作“时间上的先发生”不代表这个操作会是“先行发生”。那如果一个操作“先行发生”,是否就能推导出这个操作必定是“时间上的先发生”呢?很遗憾,这个推论也是不成立的。一个典型的例子就是多次提到的“指令重排序”,演示例子如代码清单 12-10 所示。

    • 代码清单 12-10 先行发生原则示例 3
    // 以下操作在同一个线程中执行
    int i = 1; int j = 2;
    
    • 1
    • 2

    代码清单 12-10 所示的两条赋值语句在同一个线程之中,根据程序次序规则,“int i=1”的操作先行发生于“int j=2”,但是“int j=2”的代码完全可能先被处理器执行,这并不影响先行发生原则的正确性,因为我们在这条线程之中没有办法感知到这一点。
    上面两个例子综合起来证明了一个结论:时间先后顺序与先行发生原则之间基本没有因果关系,所以我们衡量并发安全问题的时候不要受时间顺序的干扰,一切必须以先行发生原则为准。

    12.4 Java 与线程

    12.4.1 线程的实现

    我们知道,线程是比进程更轻量级的调度执行单位,线程的引入,可以把一个进程的资源分配和执行调度分开,各个线程既可以共享进程资源(内存地址、文件 I/O 等),又可以独立调度。目前线程是 Java 里面进行处理器资源调度的最基本单位。
    主流的操作系统都提供了线程实现,Java 语言则提供了在不同硬件和操作系统平台下对线程操作的统一处理,每个已经调用过 start()方法且还未结束的 java.lang.Thread 类的实例就代表着一个线程。我们注意到 Thread 类与大部分的 Java 类库 API 有着显著差别,它的所有关键方法都被声明为 Native。在 Java 类库 API 中,一个 Native 方法往往就意味着这个方法没有使用或无法使用平台无关的手段来实现(当然也可能是为了执行效率而使用 Native 方法,不过通常最高效率的手段也就是平台相关的手段)。正因为这个原因,本节的标题被定为“线程的实现”而不是“Java 线程的实现”,在稍后介绍的实现方式中,我们也先把 Java 的技术背景放下,以一个通用的应用程序的角度来看看线程是如何实现的。
    实现线程主要有三种方式:使用内核线程实现(1:1 实现),使用用户线程实现(1:N 实现),使用用户线程加轻量级进程混合实现(N:M 实现)。

    Java 线程的实现

    从 JDK 1.3 起,“主流”平台上的“主流”商用Java 虚拟机的线程模型普遍都被替换为基于操作系统原生线程模型来实现,即采用 1:1的线程模型。
    以 HotSpot 为例,它的每一个 Java 线程都是直接映射到一个操作系统原生线程来实现的,而且中间没有额外的间接结构,所以 HotSpot 自己是不会去干涉线程调度的(可以设置线程优先级给操作系统提供调度建议),全权交给底下的操作系统去处理,所以何时冻结或唤醒线程、该给线程分配多少处理器执行时间、该把线程安排给哪个处理器核心去执行等,都是由操作系统完成的,也都是由操作系统全权决定的。

    12.4.2 Java 线程调度

    线程调度是指系统为线程分配处理器使用权的过程,调度主要方式有两种,分别是 协同式 (Cooperative Threads-Scheduling)线程调度和 抢占式 (Preemptive ThreadsScheduling)线程调度。
    如果使用抢占式调度的多线程系统,那么每个线程将由系统来分配执行时间,线程的切换不由线程本身来决定。譬如在 Java 中,有 Thread::yield()方法可以主动让出执行时间,但是如果想要主动获取执行时间,线程本身是没有什么办法的。在这种实现线程调度的方式下,线程的执行时间是系统可控的,也不会有一个线程导致整个进程甚至整个系统阻塞的问题。Java 使用的线程调度方式就是抢占式调度。

    12.4.3 状态转换

    Java 语言定义了 6 种线程状态,在任意一个时间点中,一个线程只能有且只有其中的一种状态,并且可以通过特定的方法在不同状态之间转换。这 6 种状态分别是:

    • 新建(New):创建后尚未启动的线程处于这种状态。
    • 运行(Runnable):包括操作系统线程状态中的 Running 和 Ready,也就是处于此状态的线程有可能正在执行,也有可能正在等待着操作系统为它分配执行时间。
    • 无限期等待(Waiting):处于这种状态的线程不会被分配处理器执行时间,它们要等待被其他线程显式唤醒。
      以下方法会让线程陷入无限期的等待状态:
      • 没有设置 Timeout 参数的 Object::wait()方法;
      • 没有设置 Timeout 参数的 Thread::join()方法;
      • LockSupport::park()方法。
    • 限期等待(Timed Waiting):处于这种状态的线程也不会被分配处理器执行时间,不过无须等待被其他线程显式唤醒,在一定时间之后它们会由系统自动唤醒。
      以下方法会让线程进入限期等待状态:
      • Thread::sleep()方法;
      • 设置了 Timeout 参数的 Object::wait()方法;
      • 设置了 Timeout 参数的 Thread::join()方法;
      • LockSupport::parkNanos()方法;
      • LockSupport::parkUntil()方法。
    • 阻塞(Blocked):线程被阻塞了,“阻塞状态”与“等待状态”的区别是“阻塞状态”在等待着获取到一个排它锁,这个事件将在另外一个线程放弃这个锁的时候发生;而“等待状态”则是在等待一段时间,或者唤醒动作的发生。在程序等待进入同步区域的时候,线程将进入这种状态。
    • 结束(Terminated):已终止线程的线程状态,线程已经结束执行。

    上述 6 种状态在遇到特定事件发生的时候将会互相转换,它们的转换关系如图 12-6所示。
    在这里插入图片描述

    第 13 章 线程安全与锁优化

    13.2 线程安全

    当多个线程同时访问一个对象时,如果不用考虑这些线程在运行时环境下的调度和交替执行,也不需要进行额外的同步,或者在调用方进行任何其他的协调操作,调用这个对象的行为都可以获得正确的结果,那就称这个对象是线程安全的。
    这个定义就很严谨而且有可操作性,它要求线程安全的代码都必须具备一个共同特征:代码本身封装了所有必要的正确性保障手段(如互斥同步等),令调用者无须关心多线程下的调用问题,更无须自己实现任何措施来保证多线程环境下的正确调用。

    13.2.1 Java 语言中的线程安全

    我们可以将Java 语言中各种操作共享的数据分为以下五类:不可变、绝对线程安全、相对线程安全、线程兼容和线程对立。

    1.不可变

    在 Java 语言里面(特指 JDK 5 以后,即 Java 内存模型被修正之后的 Java 语言),不可变(Immutable)的对象一定是线程安全的,无论是对象的方法实现还是方法的调用者,都不需要再进行任何线程安全保障措施。在第 10 章里我们讲解“final 关键字带来的可见性”时曾经提到过这一点:只要一个不可变的对象被正确地构建出来(即没有发生this 引用逃逸的情况),那其外部的可见状态永远都不会改变,永远都不会看到它在多个线程之中处于不一致的状态。“不可变”带来的安全性是最直接、最纯粹的。
    Java 语言中,如果多线程共享的数据是一个基本数据类型,那么只要在定义时使用final 关键字修饰它就可以保证它是不可变的。如果共享数据是一个对象,由于 Java 语言目前暂时还没有提供值类型的支持,那就需要对象自行保证其行为不会对其状态产生任何影响才行。如果读者没想明白这句话所指的意思,不妨类比 java.lang.String 类的对象实例,它是一个典型的不可变对象,用户调用它的 substring()、replace()和 concat()这些方法都不会影响它原来的值,只会返回一个新构造的字符串对象。
    保证对象行为不影响自己状态的途径有很多种,最简单的一种就是把对象里面带有状态的变量都声明为 final,这样在构造函数结束之后,它就是不可变的,例如代码清单13-1 中所示的 java.lang.Integer 构造函数,它通过将内部状态变量 value 定义为 final 来保障状态不变。

    • 代码清单 13-1 JDK 中 Integer 类的构造函数
    /**
    * The value of the Integer.
    *
    * @serial
    */
    private final int value;
    /**
    * Constructs a newly allocated Integer object that
    * represents the specified int value.
    *
    * @param value the value to be represented by the
    * Integer object.
    */
    public Integer(int value) {
     this.value = value;
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    在 Java 类库 API 中符合不可变要求的类型,除了上面提到的 String 之外,常用的还有枚举类型及 java.lang.Number 的部分子类,如 Long 和 Double 等数值包装类型、BigInteger 和 BigDecimal 等大数据类型。但同为 Number 子类型的原子类 AtomicInteger和 AtomicLong 则是可变的,读者不妨看看这两个原子类的源码,想一想为什么它们要设计成可变的。

    2.绝对线程安全

    一个类要达到“不管运行时环境如何,调用者都不需要任何额外的同步措施”可能需要付出非常高昂的,甚至不切实际的代价。在 Java API 中标注自己是线程安全的类,大多数都不是绝对的线程安全。我们可以通过 Java API 中一个不是“绝对线程安全”的“线程安全类型”来看看这个语境里的“绝对”究竟是什么意思。
    如果说 java.util.Vector 是一个线程安全的容器,相信所有的 Java 程序员对此都不会有异议,因为它的 add()、get()和 size()等方法都是被 synchronized 修饰的,尽管这样效率不高,但保证了具备原子性、可见性和有序性。不过,即使它所有的方法都被修饰成synchronized,也不意味着调用它的时候就永远都不再需要同步手段了,请看看代码清单13-2 中的测试代码。

    • 代码清单 13-2 对 Vector 线程安全的测试
    private static Vector<Integer> vector = new Vector<Integer>();
    public static void main(String[] args) {
        while (true) {
            for (int i = 0; i < 10; i++) {
                vector.add(i);
            }
            Thread removeThread = new Thread(new Runnable() {
                @Override
                public void run() {
                    for (int i = 0; i < vector.size(); i++) {
                        vector.remove(i);
                    }
                }
            });
            Thread printThread = new Thread(new Runnable() {
                @Override
                public void run() {
                    for (int i = 0; i < vector.size(); i++) {
                        System.out.println((vector.get(i)));
                    }
                }
            });
            removeThread.start();
            printThread.start();
            //不要同时产生过多的线程,否则会导致操作系统假死
            while (Thread.activeCount() > 20) ;
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    运行结果如下:

    Exception in thread "Thread-132" java.lang.ArrayIndexOutOfBoundsException:
    Array index out of range: 17
     at java.util.Vector.remove(Vector.java:777)
     at org.fenixsoft.mulithread.VectorTest$1.run(VectorTest.java:21) 
     at java.lang.Thread.run(Thread.java:662)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    很明显,尽管这里使用到的 Vector 的 get()、remove()和 size()方法都是同步的,但是在多线程的环境中,如果不在方法调用端做额外的同步措施,使用这段代码仍然是不安全的。因为如果另一个线程恰好在错误的时间里删除了一个元素,导致序号 i 已经不再可用,再用 i 访问数组就会抛出一个 ArrayIndexOutOfBoundsException 异常。如果要保证这段代码能正确执行下去,我们不得不把 removeThread 和 printThread 的定义改成代码清单 13-3 所示的这样。

    • 代码清单 13-3 必须加入同步保证 Vector 访问的线程安全性
    Thread removeThread = new Thread(new Runnable() {
        @Override
        public void run() {
            synchronized (vector) {
                for (int i = 0; i < vector.size(); i++) {
                    vector.remove(i);
                }
            }
        }
    });
    Thread printThread = new Thread(new Runnable() {
        @Override
        public void run() {
            synchronized (vector) {
                for (int i = 0; i < vector.size(); i++) {
                    System.out.println((vector.get(i)));
                }
            }
        }
    });
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    假如 Vector 一定要做到绝对的线程安全,那就必须在它内部维护一组一致性的快照访问才行,每次对其中元素进行改动都要产生新的快照,这样要付出的时间和空间成本都是非常大的。

    3.相对线程安全

    相对线程安全就是我们通常意义上所讲的线程安全,它需要保证对这个对象单次的操作是线程安全的,我们在调用的时候不需要进行额外的保障措施,但是对于一些特定顺序的连续调用,就可能需要在调用端使用额外的同步手段来保证调用的正确性。代码清单 13-2 和代码清单 13-3 就是相对线程安全的案例。
    在 Java 语言中,大部分声称线程安全的类都属于这种类型,例如 Vector、HashTable、Collections 的 synchronizedCollection()方法包装的集合等。

    4.线程兼容

    线程兼容是指对象本身并不是线程安全的,但是可以通过在调用端正确地使用同步手段来保证对象在并发环境中可以安全地使用。我们平常说一个类不是线程安全的,通常就是指这种情况。Java 类库 API 中大部分的类都是线程兼容的,如与前面的 Vector 和 HashTable 相对应的集合类 ArrayList 和 HashMap 等。

    5.线程对立

    线程对立是指不管调用端是否采取了同步措施,都无法在多线程环境中并发使用代码。由于 Java 语言天生就支持多线程的特性,线程对立这种排斥多线程的代码是很少出现的,而且通常都是有害的,应当尽量避免。
    一个线程对立的例子是 Thread 类的 suspend()和 resume()方法。如果有两个线程同时持有一个线程对象,一个尝试去中断线程,一个尝试去恢复线程,在并发进行的情况下,无论调用时是否进行了同步,目标线程都存在死锁风险——假如 suspend()中断的线程就是即将要执行 resume()的那个线程,那就肯定要产生死锁了。也正是这个原因,suspend()和 resume()方法都已经被声明废弃了。常见的线程对立的操作还有System.setIn()、Sytem.setOut()和 System.runFinalizersOnExit()等。

    13.2.2 线程安全的实现方法

    1.互斥同步

    互斥同步(Mutual Exclusion & Synchronization)是一种最常见也是最主要的并发正确性保障手段。同步是指在多个线程并发访问共享数据时,保证共享数据在同一个时刻只被一条(或者是一些,当使用信号量的时候)线程使用。而互斥是实现同步的一种手段,临界区(Critical Section)、互斥量(Mutex)和信号量(Semaphore)都是常见的互斥实现方式。因此在“互斥同步”这四个字里面,互斥是因,同步是果;互斥是方法,同步是目的。
    在 Java 里面,最基本的互斥同步手段就是 synchronized 关键字,这是一种块结构(Block Structured)的同步语法。synchronized 关键字经过 Javac 编译之后,会在同步块的前后分别形成 monitorenter 和 monitorexit 这两个字节码指令。这两个字节码指令都需要一个 reference 类型的参数来指明要锁定和解锁的对象。如果 Java 源码中的synchronized 明确指定了对象参数,那就以这个对象的引用作为 reference;如果没有明确指定,那将根据 synchronized 修饰的方法类型(如实例方法或类方法),来决定是取代码所在的对象实例还是取类型对应的 Class 对象来作为线程要持有的锁。
    根据《Java 虚拟机规范》的要求,在执行 monitorenter 指令时,首先要去尝试获取对象的锁。如果这个对象没被锁定,或者当前线程已经持有了那个对象的锁,就把锁的计数器的值增加一,而在执行 monitorexit 指令时会将锁计数器的值减一。一旦计数器的值为零,锁随即就被释放了。如果获取对象锁失败,那当前线程就应当被阻塞等待,直到请求锁定的对象被持有它的线程释放为止。
    从功能上看,根据以上《Java 虚拟机规范》对 monitorenter 和 monitorexit 的行为描述,我们可以得出两个关于 synchronized 的直接推论,这是使用它时需特别注意的:

    • 被 synchronized 修饰的同步块对同一条线程来说是可重入的。这意味着同一线程反复进入同步块也不会出现自己把自己锁死的情况。
    • 被 synchronized 修饰的同步块在持有锁的线程执行完毕并释放锁之前,会无条件地阻塞后面其他线程的进入。这意味着无法像处理某些数据库中的锁那样,强制已获取锁的线程释放锁;也无法强制正在等待锁的线程中断等待或超时退出。

    从执行成本的角度看,持有锁是一个重量级(Heavy-Weight)的操作。synchronized 是 Java语言中一个重量级的操作,有经验的程序员都只会在确实必要的情况下才使用这种操作。
    从上面的介绍中我们可以看到 synchronized 的局限性,除了 synchronized 关键字以外,自 JDK 5 起,Java 类库中新提供了 java.util.concurrent 包(下文称 J.U.C 包),其中的 java.util.concurrent.locks.Lock 接口便成了 Java 的另一种全新的互斥同步手段。基于 Lock 接口,用户能够以非块结构(Non-Block Structured)来实现互斥同步,从而摆脱了语言特性的束缚,改为在类库层面去实现同步,这也为日后扩展出不同调度算法、不同特征、不同性能、不同语义的各种锁提供了广阔的空间。
    重入锁(ReentrantLock)是 Lock 接口最常见的一种实现,顾名思义,它与synchronized 一样是可重入的。在基本用法上,ReentrantLock 也与 synchronized 很相似,只是代码写法上稍有区别而已。不过,ReentrantLock 与 synchronized 相比增加了一些高级功能,主要有以下三项:等待可中断、可实现公平锁及锁可以绑定多个条件。

    • 等待可中断:是指当持有锁的线程长期不释放锁的时候,正在等待的线程可以选择放弃等待,改为处理其他事情。可中断特性对处理执行时间非常长的同步块很有帮助。
    • 公平锁:是指多个线程在等待同一个锁时,必须按照申请锁的时间顺序来依次获得锁;而非公平锁则不保证这一点,在锁被释放时,任何一个等待锁的线程都有机会获得锁。synchronized 中的锁是非公平的,ReentrantLock 在默认情况下也是非公平的,但可以通过带布尔值的构造函数要求使用公平锁。不过一旦使用了公平锁,将会导致ReentrantLock 的性能急剧下降,会明显影响吞吐量。
    • 锁绑定多个条件:是指一个 ReentrantLock 对象可以同时绑定多个 Condition 对象。

    在 synchronized 中,锁对象的 wait()跟它的 notify()或者 notifyAll()方法配合可以实现一个隐含的条件,如果要和多于一个的条件关联的时候,就不得不额外添加一个锁;而ReentrantLock 则无须这样做,多次调用 newCondition()方法即可。

    基于以下理由,笔者仍然推荐在 synchronized 与 ReentrantLock 都可满足需要时优先使用 synchronized

    • synchronized 是在 Java 语法层面的同步,足够清晰,也足够简单。每个 Java 程序员都熟悉 synchronized,但 J.U.C 中的 Lock 接口则并非如此。因此在只需要基础的同步功能时,更推荐 synchronized。
    • Lock 应该确保在 finally 块中释放锁,否则一旦受同步保护的代码块中抛出异常,则有可能永远不会释放持有的锁。这一点必须由程序员自己来保证,而使用synchronized 的话则可以由 Java 虚拟机来确保即使出现异常,锁也能被自动释放。
    • 尽管在 JDK 5 时代 ReentrantLock 曾经在性能上领先过 synchronized,但这已经是十多年之前的胜利了。从长远来看,Java 虚拟机更容易针对 synchronized 来进行优化,因为 Java 虚拟机可以在线程和对象的元数据中记录 synchronized 中锁的相关信息,而使用 J.U.C 中的 Lock 的话,Java 虚拟机是很难得知具体哪些锁对象是由特定线程锁持有的。
    2.非阻塞同步

    互斥同步面临的主要问题是进行线程阻塞和唤醒所带来的性能开销,因此这种同步也被称为阻塞同步(Blocking Synchronization)。从解决问题的方式上看,互斥同步属于一种悲观的并发策略,其总是认为只要不去做正确的同步措施(例如加锁),那就肯定会出现问题,无论共享的数据是否真的会出现竞争,它都会进行加锁(这里讨论的是概念模型,实际上虚拟机会优化掉很大一部分不必要的加锁),这将会导致用户态到核心态转换、维护锁计数器和检查是否有被阻塞的线程需要被唤醒等开销。随着硬件指令集的发展,我们已经有了另外一个选择:

    基于冲突检测的乐观并发策略,通俗地说就是不管风险,先进行操作,如果没有其他线程争用共享数据,那操作就直接成功了;如果共享的数据的确被争用,产生了冲突,那再进行其他的补偿措施,最常用的补偿措施是不断地重试,直到出现没有竞争的共享数据为止。

    这种乐观并发策略的实现不再需要把线程阻塞挂起,因此这种同步操作被称为非阻塞同步(Non-Blocking Synchronization),使用这种措施的代码也常被称为无锁(Lock-Free)编程。
    我们必须要求操作和冲突检测这两个步骤具备原子性。靠什么来保证原子性?如果这里再使用互斥同步来保证就完全失去意义了,所以我们只能靠硬件来实现这件事情,硬件保证某些从语义上看起来需要多次操作的行为可以只通过一条处理器指令就能完成,这类指令常用的有:
    ·测试并设置(Test-and-Set);
    ·获取并增加(Fetch-and-Increment);
    ·交换(Swap);
    ·比较并交换(Compare-and-Swap,下文称 CAS);
    ·加载链接/条件储存(Load-Linked/Store-Conditional,下文称 LL/SC)。

    CAS 指令需要有三个操作数,分别是内存位置(在 Java 中可以简单地理解为变量的内存地址,用 V 表示)、旧的预期值(用 A 表示)和准备设置的新值(用 B 表示)。
    CAS 指令执行时,当且仅当 V 符合 A 时,处理器才会用 B 更新 V 的值,否则它就不执行更新。但是,不管是否更新了 V 的值,都会返回 V 的旧值,上述的处理过程是一个原子操作,执行期间不会被其他线程中断。
    在 JDK 5 之后,Java 类库中才开始使用 CAS 操作,该操作由 sun.misc.Unsafe 类里面的 compareAndSwapInt()和 compareAndSwapLong()等几个方法包装提供。HotSpot 虚拟机在内部对这些方法做了特殊处理,即时编译出来的结果就是一条平台相关的处理器CAS 指令,没有方法调用的过程,或者可以认为是无条件内联进去了。不过由于Unsafe 类在设计上就不是提供给用户程序调用的类(Unsafe::getUnsafe()的代码中限制了只有启动类加载器(Bootstrap ClassLoader)加载的 Class 才能访问它),因此在 JDK 9 之前只有 Java 类库可以使用 CAS,譬如 J.U.C 包里面的整数原子类,其中的compareAndSet()和 getAndIncrement()等方法都使用了 Unsafe 类的 CAS 操作来实现。而
    如果用户程序也有使用 CAS 操作的需求,那要么就采用反射手段突破 Unsafe 的访问限制,要么就只能通过 Java 类库 API 来间接使用它。直到 JDK 9 之后,Java 类库才在VarHandle 类里开放了面向用户程序使用的 CAS 操作。
    下面笔者将用一段在前面章节中没有解决的问题代码来介绍如何通过 CAS 操作避免阻塞同步。测试的代码如代码清单 12-1 所示,为了节省版面笔者就不重复贴到这里了。这段代码里我们曾经通过 20 个线程自增 10000 次的操作来证明 volatile 变量不具备原子性,那么如何才能让它具备原子性呢?之前我们的解决方案是把 race++操作或increase()方法用同步块包裹起来,这毫无疑问是一个解决方案,但是如果改成代码清单13-4 所示的写法,效率将会提高许多。

    • 代码清单 13-4 Atomic 的原子自增运算
    /**
    * Atomic 变量自增运算测试
    *
    * @author zzm
    */
    public class AtomicTest {
        public static AtomicInteger race = new AtomicInteger(0);
        public static void increase() {
            race.incrementAndGet();
        }
        private static final int THREADS_COUNT = 20;
        public static void main(String[] args) throws Exception {
            Thread[] threads = new Thread[THREADS_COUNT];
            for (int i = 0; i < THREADS_COUNT; i++) {
                threads[i] = new Thread(new Runnable() {
                    @Override
                    public void run() {
                        for (int i = 0; i < 10000; i++) {
                            increase();
                        }
                    }
                });
                threads[i].start();
            }
            while (Thread.activeCount() > 1) Thread.yield();
            System.out.println(race);
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    运行结果如下:

    200000
    
    • 1

    使用 AtomicInteger 代替 int 后,程序输出了正确的结果,这一切都要归功于incrementAndGet()方法的原子性。它的实现其实非常简单,如代码清单 13-5 所示。

    • 代码清单 13-5 incrementAndGet()方法的 JDK 源码
    /**
    * Atomically increment by one the current value.
    *
    * @return the updated value
    */
    public final int incrementAndGet() {
     for (; ; ) {
     int current = get();
     int next = current + 1;
     if (compareAndSet(current, next)) return next;
     }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    incrementAndGet()方法在一个无限循环中,不断尝试将一个比当前值大一的新值赋值给自己。如果失败了,那说明在执行 CAS 操作的时候,旧值已经发生改变,于是再次循环进行下一次操作,直到设置成功为止。
    尽管 CAS 看起来很美好,既简单又高效,但显然这种操作无法涵盖互斥同步的所有使用场景,并且 CAS 从语义上来说并不是真正完美的,它存在一个逻辑漏洞:如果一个变量 V 初次读取的时候是 A 值,并且在准备赋值的时候检查到它仍然为 A 值,那就能说明它的值没有被其他线程改变过了吗?这是不能的,因为如果在这段期间它的值曾经被改成 B,后来又被改回为 A,那 CAS 操作就会误认为它从来没有被改变过。这个漏洞称为 CAS 操作的“ABA 问题”。J.U.C 包为了解决这个问题,提供了一个带有标记的原子引用类 AtomicStampedReference,它可以通过控制变量值的版本来保证 CAS 的正确性。不过目前来说这个类处于相当鸡肋的位置,大部分情况下 ABA 问题不会影响程序并发的正确性,如果需要解决 ABA 问题,改用传统的互斥同步可能会比原子类更为高效。

    3.无同步方案

    要保证线程安全,也并非一定要进行阻塞或非阻塞同步,同步与线程安全两者没有必然的联系。同步只是保障存在共享数据争用时正确性的手段,如果能让一个方法本来就不涉及共享数据,那它自然就不需要任何同步措施去保证其正确性,因此会有一些代码天生就是线程安全的,笔者简单介绍其中的两类。
    可重入代码(Reentrant Code):这种代码又称纯代码(Pure Code),是指可以在代码执行的任何时刻中断它,转而去执行另外一段代码(包括递归调用它本身),而在控制权返回后,原来的程序不会出现任何错误,也不会对结果有所影响。在特指多线程的上下文语境里(不涉及信号量等因素),我们可以认为可重入代码是线程安全代码的一个真子集,这意味着相对线程安全来说,可重入性是更为基础的特性,它可以保证代码线程安全,即所有可重入的代码都是线程安全的,但并非所有的线程安全的代码都是可重入的。
    可重入代码有一些共同的特征,例如,不依赖全局变量、存储在堆上的数据和公用的系统资源,用到的状态量都由参数中传入,不调用非可重入的方法等。我们可以通过一个比较简单的原则来判断代码是否具备可重入性:如果一个方法的返回结果是可以预测的,只要输入了相同的数据,就都能返回相同的结果,那它就满足可重入性的要求,当然也就是线程安全的。
    线程本地存储(Thread Local Storage):如果一段代码中所需要的数据必须与其他代码共享,那就看看这些共享数据的代码是否能保证在同一个线程中执行。如果能保证,我们就可以把共享数据的可见范围限制在同一个线程之内,这样,无须同步也能保证线程之间不出现数据争用的问题。

    Java 语言中,如果一个变量要被多线程访问,可以使用 volatile 关键字将它声明为“易变的”;如果一个变量只要被某个线程独享,我们可以通过 java.lang.ThreadLocal类来实现线程本地存储的功能。每一个线程的 Thread 对象中都有一个 ThreadLocalMap对象,这个对象存储了一组以 ThreadLocal.threadLocalHashCode 为键,以本地线程变量为值的 K-V 值对,ThreadLocal 对象就是当前线程的 ThreadLocalMap 的访问入口,每一个 ThreadLocal 对象都包含了一个独一无二的 threadLocalHashCode 值,使用这个值就可以在线程 K-V 值对中找回对应的本地线程变量。

    13.3 锁优化

    高效并发是从 JDK 5 升级到 JDK 6 后一项重要的改进项,HotSpot 虚拟机开发团队在这个版本上花费了大量的资源去实现各种锁优化技术,如适应性自旋(Adaptive Spinning)、锁消除(Lock Elimination)、锁膨胀(Lock Coarsening)、轻量级锁(Lightweight Locking)、偏向锁(Biased Locking)等,这些技术都是为了在线程之间更高效地共享数据及解决竞争问题,从而提高程序的执行效率。

    13.3.1 自旋锁与自适应自旋

    前面我们讨论互斥同步的时候,提到了互斥同步对性能最大的影响是阻塞的实现,挂起线程和恢复线程的操作都需要转入内核态中完成,这些操作给 Java 虚拟机的并发性能带来了很大的压力。同时,虚拟机的开发团队也注意到在许多应用上,共享数据的锁定状态只会持续很短的一段时间,为了这段时间去挂起和恢复线程并不值得。现在绝大多数的个人电脑和服务器都是多路(核)处理器系统,如果物理机器有一个以上的处理器或者处理器核心,能让两个或以上的线程同时并行执行,我们就可以让后面请求锁的那个线程“稍等一会”,但不放弃处理器的执行时间,看看持有锁的线程是否很快就会释放锁。为了让线程等待,我们只须让线程执行一个忙循环(自旋),这项技术就是所谓的自旋锁。
    自旋等待不能代替阻塞,且先不说对处理器数量的要求,自旋等待本身虽然避免了线程切换的开销,但它是要占用处理器时间的,所以如果锁被占用的时间很短,自旋等待的效果就会非常好,反之如果锁被占用的时间很长,那么自旋的线程只会白白消耗处理器资源,而不会做任何有价值的工作,这就会带来性能的浪费。因此自旋等待的时间必须有一定的限度,如果自旋超过了限定的次数仍然没有成功获得锁,就应当使用传统的方式去挂起线程。自旋次数的默认值是十次,用户也可以使用参数-XX:PreBlockSpin 来自行更改。
    不过无论是默认值还是用户指定的自旋次数,对整个 Java 虚拟机中所有的锁来说都是相同的。在 JDK 6 中对自旋锁的优化,引入了自适应的自旋。自适应意味着自旋的时间不再是固定的了,而是由前一次在同一个锁上的自旋时间及锁的拥有者的状态来决定的。如果在同一个锁对象上,自旋等待刚刚成功获得过锁,并且持有锁的线程正在运行中,那么虚拟机就会认为这次自旋也很有可能再次成功,进而允许自旋等待持续相对更长的时间,比如持续 100 次忙循环。另一方面,如果对于某个锁,自旋很少成功获得过锁,那在以后要获取这个锁时将有可能直接省略掉自旋过程,以避免浪费处理器资源。
    有了自适应自旋,随着程序运行时间的增长及性能监控信息的不断完善,虚拟机对程序锁的状况预测就会越来越精准,虚拟机就会变得越来越“聪明”了。

    13.3.2 锁消除

    锁消除是指虚拟机即时编译器在运行时,对一些代码要求同步,但是对被检测到不可能存在共享数据竞争的锁进行消除。锁消除的主要判定依据来源于逃逸分析的数据支持(第 11 章已经讲解过逃逸分析技术),如果判断到一段代码中,在堆上的所有数据都不会逃逸出去被其他线程访问到,那就可以把它们当作栈上数据对待,认为它们是线程私有的,同步加锁自然就无须再进行。
    也许读者会有疑问,变量是否逃逸,对于虚拟机来说是需要使用复杂的过程间分析才能确定的,但是程序员自己应该是很清楚的,怎么会在明知道不存在数据争用的情况下还要求同步呢?这个问题的答案是:有许多同步措施并不是程序员自己加入的,同步的代码在 Java 程序中出现的频繁程度也许超过了大部分读者的想象。我们来看看如代码清单 13-6 所示的例子,这段非常简单的代码仅仅是输出三个字符串相加的结果,无论是源代码字面上,还是程序语义上都没有进行同步。

    • 代码清单 13-6 一段看起来没有同步的代码
    public String concatString(String s1, String s2, String s3) {
     return s1 + s2 + s3;
    }
    
    • 1
    • 2
    • 3

    我们也知道,由于 String 是一个不可变的类,对字符串的连接操作总是通过生成新的 String 对象来进行的,因此 Javac 编译器会对 String 连接做自动优化。在 JDK 5 之前,字符串加法会转化为 StringBuffer 对象的连续 append()操作,在 JDK 5 及以后的版本中,会转化为 StringBuilder 对象的连续 append()操作。即代码清单 13-6 所示的代码可能会变成代码清单 13-7 所示的样子。

    • 代码清单 13-7 Javac 转化后的字符串连接操作
    public String concatString(String s1, String s2, String s3) {
     StringBuffer sb = new StringBuffer();
     sb.append(s1);
     sb.append(s2);
     sb.append(s3);
     return sb.toString();
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    现在大家还认为这段代码没有涉及同步吗?每个 StringBuffer.append()方法中都有一个同步块,锁就是 sb 对象。虚拟机观察变量 sb,经过逃逸分析后会发现它的动态作用域被限制在 concatString()方法内部。也就是 sb 的所有引用都永远不会逃逸到concatString()方法之外,其他线程无法访问到它,所以这里虽然有锁,但是可以被安全地消除掉。在解释执行时这里仍然会加锁,但在经过服务端编译器的即时编译之后,这段代码就会忽略所有的同步措施而直接执行。

    13.3.3 锁粗化

    原则上,我们在编写代码的时候,总是推荐将同步块的作用范围限制得尽量小——只在共享数据的实际作用域中才进行同步,这样是为了使得需要同步的操作数量尽可能变少,即使存在锁竞争,等待锁的线程也能尽可能快地拿到锁。
    大多数情况下,上面的原则都是正确的,但是如果一系列的连续操作都对同一个对象反复加锁和解锁,甚至加锁操作是出现在循环体之中的,那即使没有线程竞争,频繁地进行互斥同步操作也会导致不必要的性能损耗。
    代码清单 13-7 所示连续的 append()方法就属于这类情况。如果虚拟机探测到有这样一串零碎的操作都对同一个对象加锁,将会把加锁同步的范围扩展(粗化)到整个操作序列的外部,以代码清单 13-7 为例,就是扩展到第一个 append()操作之前直至最后一个append()操作之后,这样只需要加锁一次就可以了。

    13.3.4 轻量级锁

    轻量级锁是 JDK 6 时加入的新型锁机制,它名字中的“轻量级”是相对于使用操作系统互斥量来实现的传统锁而言的,因此传统的锁机制就被称为“重量级”锁。不过,需要强调一点,轻量级锁并不是用来代替重量级锁的,它设计的初衷是在没有多线程竞争的前提下,减少传统的重量级锁使用操作系统互斥量产生的性能消耗。
    要理解轻量级锁,以及后面会讲到的偏向锁的原理和运作过程,必须要对 HotSpot虚拟机对象的内存布局(尤其是对象头部分)有所了解。HotSpot 虚拟机的对象头(Object Header)分为两部分,第一部分用于存储对象自身的运行时数据,如哈希码(HashCode)、GC 分代年龄(Generational GC Age)等。这部分数据的长度在 32 位和64 位的 Java 虚拟机中分别会占用 32 个或 64 个比特,官方称它为“Mark Word”。这部分是实现轻量级锁和偏向锁的关键。另外一部分用于存储指向方法区对象类型数据的指针,如果是数组对象,还会有一个额外的部分用于存储数组长度。这些对象内存布局的详细内容,我们已经在第 2 章中学习过,在此不再赘述,只针对锁的角度做进一步细化。
    由于对象头信息是与对象自身定义的数据无关的额外存储成本,考虑到 Java 虚拟机的空间使用效率,Mark Word 被设计成一个非固定的动态数据结构,以便在极小的空间内存储尽量多的信息。它会根据对象的状态复用自己的存储空间。例如在 32 位的HotSpot 虚拟机中,对象未被锁定的状态下, Mark Word 的 32 个比特空间里的 25 个比特将用于存储对象哈希码,4 个比特用于存储对象分代年龄,2 个比特用于存储锁标志位,还有 1 个比特固定为 0(这表示未进入偏向模式)。对象除了未被锁定的正常状态外,还有轻量级锁定、重量级锁定、GC 标记、可偏向等几种不同状态,这些状态下对象头的存储内容如表 13-1 所示。
    在这里插入图片描述
    我们简单回顾了对象的内存布局后,接下来就可以介绍轻量级锁的工作过程了:在代码即将进入同步块的时候,如果此同步对象没有被锁定(锁标志位为“01”状态),虚拟机首先将在当前线程的栈帧中建立一个名为锁记录(Lock Record)的空间,用于存储锁对象目前的 Mark Word 的拷贝(官方为这份拷贝加了一个 Displaced 前缀,即Displaced Mark Word),这时候线程堆栈与对象头的状态如图 13-3 所示。
    在这里插入图片描述
    然后,虚拟机将使用 CAS 操作尝试把对象的 Mark Word 更新为指向 Lock Record 的指针。如果这个更新动作成功了,即代表该线程拥有了这个对象的锁,并且对象 Mark Word 的锁标志位(Mark Word 的最后两个比特)将转变为“00”,表示此对象处于轻量级锁定状态。这时候线程堆栈与对象头的状态如图 13-4 所示。
    如果这个更新操作失败了,那就意味着至少存在一条线程与当前线程竞争获取该对象的锁。虚拟机首先会检查对象的 Mark Word 是否指向当前线程的栈帧,如果是,说明当前线程已经拥有了这个对象的锁,那直接进入同步块继续执行就可以了,否则就说明这个锁对象已经被其他线程抢占了。如果出现两条以上的线程争用同一个锁的情况,那轻量级锁就不再有效,必须要膨胀为重量级锁,锁标志的状态值变为“10”,此时 Mark Word 中存储的就是指向重量级锁(互斥量)的指针,后面等待锁的线程也必须进入阻塞状态。
    在这里插入图片描述
    上面描述的是轻量级锁的加锁过程,它的解锁过程也同样是通过 CAS 操作来进行的,如果对象的 Mark Word 仍然指向线程的锁记录,那就用 CAS 操作把对象当前的Mark Word 和线程中复制的 Displaced Mark Word 替换回来。假如能够成功替换,那整个同步过程就顺利完成了;如果替换失败,则说明有其他线程尝试过获取该锁,就要在释放锁的同时,唤醒被挂起的线程。
    轻量级锁能提升程序同步性能的依据是“对于绝大部分的锁,在整个同步周期内都是不存在竞争的”这一经验法则。如果没有竞争,轻量级锁便通过 CAS 操作成功避免了使用互斥量的开销;但如果确实存在锁竞争,除了互斥量的本身开销外,还额外发生了CAS 操作的开销。因此在有竞争的情况下,轻量级锁反而会比传统的重量级锁更慢。

    13.3.5 偏向锁

    偏向锁也是 JDK 6 中引入的一项锁优化措施,它的目的是消除数据在无竞争情况下的同步原语,进一步提高程序的运行性能。如果说轻量级锁是在无竞争的情况下使用CAS 操作去消除同步使用的互斥量,那偏向锁就是在无竞争的情况下把整个同步都消除掉,连 CAS 操作都不去做了。
    偏向锁中的“偏”,就是偏心的“偏”、偏袒的“偏”。它的意思是这个锁会偏向于第一个获得它的线程,如果在接下来的执行过程中,该锁一直没有被其他的线程获取,则持有偏向锁的线程将永远不需要再进行同步。
    如果读者理解了前面轻量级锁中关于对象头 Mark Word 与线程之间的操作过程,那偏向锁的原理就会很容易理解。假设当前虚拟机启用了偏向锁(启用参数-XX:+UseBiased Locking,这是自 JDK 6 起 HotSpot 虚拟机的默认值),那么当锁对象第一次被线程获取的时候,虚拟机将会把对象头中的标志位设置为“01”、把偏向模式设置为“1”,表示进入偏向模式。同时使用 CAS 操作把获取到这个锁的线程的 ID 记录在对象的Mark Word 之中。如果 CAS 操作成功,持有偏向锁的线程以后每次进入这个锁相关的同步块时,虚拟机都可以不再进行任何同步操作(例如加锁、解锁及对 Mark Word 的更新操作等)。
    一旦出现另外一个线程去尝试获取这个锁的情况,偏向模式就马上宣告结束。根据锁对象目前是否处于被锁定的状态决定是否撤销偏向(偏向模式设置为“0”),撤销后标志位恢复到未锁定(标志位为“01”)或轻量级锁定(标志位为“00”)的状态,后续的同步操作就按照上面介绍的轻量级锁那样去执行。偏向锁、轻量级锁的状态转化及对象Mark Word 的关系如图 13-5 所示。
    在这里插入图片描述
    细心的读者看到这里可能会发现一个问题:当对象进入偏向状态的时候,Mark Word 大部分的空间(23 个比特)都用于存储持有锁的线程 ID 了,这部分空间占用了原有存储对象哈希码的位置,那原来对象的哈希码怎么办呢?
    在 Java 语言里面一个对象如果计算过哈希码,就应该一直保持该值不变(强烈推荐但不强制,因为用户可以重载 hashCode()方法按自己的意愿返回哈希码),否则很多依赖对象哈希码的 API 都可能存在出错风险。而作为绝大多数对象哈希码来源的Object::hashCode()方法,返回的是对象的一致性哈希码(Identity Hash Code),这个值是能强制保证不变的,它通过在对象头中存储计算结果来保证第一次计算之后,再次调用该方法取到的哈希码值永远不会再发生改变。因此,当一个对象已经计算过一致性哈希码后,它就再也无法进入偏向锁状态了;而当一个对象当前正处于偏向锁状态,又收到需要计算其一致性哈希码请求时,它的偏向状态会被立即撤销,并且锁会膨胀为重量级锁。在重量级锁的实现中,对象头指向了重量级锁的位置,代表重量级锁的ObjectMonitor 类里有字段可以记录非加锁状态(标志位为“01”)下的 Mark Word,其中自然可以存储原来的哈希码。
    偏向锁可以提高带有同步但无竞争的程序性能,但它同样是一个带有效益权衡(Trade Off)性质的优化,也就是说它并非总是对程序运行有利。如果程序中大多数的锁都总是被多个不同的线程访问,那偏向模式就是多余的。在具体问题具体分析的前提下,有时候使用参数-XX:-UseBiasedLocking 来禁止偏向锁优化反而可以提升性能。

  • 相关阅读:
    可靠传输具体实现
    用户体验与响应式字体二三事|rem单位与flexible.js、rpx单位与css媒体查询
    尺取法知识点讲解
    c++和java中关于类的第几部分详解
    调味品行业数据分析
    基于springboot的家装平台设计与实现
    语音识别接口试用
    TensorFlow和Pytorch是什么?干什么用的?
    长列表优化:用 React 实现虚拟列表
    【Vue项目】通过设置全局的异常处理来统一处理后端返回的异常
  • 原文地址:https://blog.csdn.net/weixin_41827053/article/details/133950150