声明:问题从网上搜集,自己补充了答案,不保证准确。
作者:执杭
链接:https://www。nowcoder。com/discuss/543533?type=all&order=recall&pos=&page=1&ncTraceId=&channel=-1&source_id=search_all_nctrack&gio_id=7ECACE7605534464872AA4CD0FF6C741-1659189061018
来源:牛客网
欢迎点击此处关注公众号,每天分享大数据面经。
见之前的文章。
MapReduce 原理

Read 阶段:MapTask 通过 InputFormat 获得的 RecordReader,从输入 InputSplit 中解析出一个个 key/value。
Map 阶段:该节点主要是将解析出的 key/value 交给用户编写 map() 函数处理,并产生一系列新的 key/value。
Collect 收集阶段:在用户编写 map() 函数中,当数据处理完成后,一般会调用 OutputCollector.collect() 输出结果。在该函数内部,它会将生成的 key/value 分区(调用 Partitioner),并写入一个环形内存缓冲区中。
Spill 阶段:即“溢写”,当环形缓冲区满后,MapReduce 会将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要时对数据进行合并、压缩等操作。溢写阶段详情:
步骤 1:利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号 Partition 进行排序,然后按照 key 进行排序。这样,经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照 key 有序。
步骤 2:按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件 output /spillN.out(N表示当前溢写次数)中。如果用户设置了 Combiner,则写入文件之前,对每个分区中的数据进行一次聚集操作。
步骤 3:将分区数据的元信息写到内存索引数据结构 SpillRecord 中,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过 1MB,则将内存索引写到文件 output /spillN.out.index 中。
Merge 阶段:当所有数据处理完成后,MapTask 对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。
当所有数据处理完后,MapTask 会将所有临时文件合并成一个大文件,并保存到文件 output/file.out 中,同时生成相应的索引文件 output/file.out.index。
在进行文件合并过程中,MapTask 以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并 mapreduce. task.io.sort.factor(默认10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。
让每个 MapTask 最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

Map 方法之后,Reduce 方法之前的数据处理过程称之为 Shuffle。
MapTask 收集 map() 方法输出的 kv 对,放到内存缓冲区中。
Shuffle 中的缓冲区大小会影响到 MapReduce 程序的执行效率,原则上说,缓冲区越大,磁盘 io 的次数越少,执行速度就越快。
环形缓冲区使用率达到阈值会进行快速排序。
从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件。
数据处理完成后会对磁盘上所有文件进行归并排序。
多个溢出文件会被合并成大的溢出文件。
在溢出过程及合并的过程中,都要调用 Partitioner 进行分区和针对 key 进行排序。
默认分区是根据 key 的 hashCode 对 ReduceTask 的个数取模得到的。用户无法控制哪个 key 存储到哪个分区。
可以自定义 Partitioner,控制分区代码逻辑。
ReduceTask 根据自己的分区号,去各个 MapTask 机器上取相应的结果分区数据。
ReduceTask 会抓取到同一个分区的来自不同 MapTask 的结果文件,ReduceTask 会将这些文件再进行合并(归并排序)。
合并成大文件后,Shuffle 的过程也就结束了,后面进入 ReduceTask 的逻辑运算过程(从文件中取出一个一个的键值对 Group,调用用户自定义的 reduce() 方法)。

Copy 阶段:ReduceTask 从各个 MapTask 上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。
Merge 阶段:在远程拷贝数据的同时,ReduceTask 启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。
Sort 阶段:按照 MapReduce 语义,用户编写 reduce() 函数输入数据是按 key 进行聚集的一组数据。为了将 key相同的数据聚在一起,Hadoop 采用了基于排序的策略。由于各个 MapTask 已经实现对自己的处理结果进行了局部排序,因此,ReduceTask 只需对所有数据进行一次归并排序即可。
Reduce 阶段:reduce() 函数将计算结果写到 HDFS 上。
Combiner 是 Mapper 和 Reducer 之外的一种组件,其父类是 Reducer。
Combiner 和 Reducer 的区别是 Combiner 运行在每一个 MapTask 所在的节点。
作用是进行局部汇总,减少网络的传输量。
数据输出的接口。实现类包括:
TextOutputFormat。
SequenceOutputFormat。
自定义 OutputFormat。
合并操作在 Reduce 阶段完成,Reduce 端处理压力大,Map 端运算负载低,资源利用率不高,容易发生数据倾斜。
适用于一张小表,一张大表。
这里简答说一下怎么回答。毕竟是面试题,不可能回答到所有细节,所以需要回答到关键词,然后串联起来,比较通顺即可。总结如下就是:
这是结论。抛出结论后,可以简单阐述原因:
(1)事务有四个特性:
(2)要实现上面的特性,需要用到下面的技术:
a。undo log:回滚日志,用于记录数据被修改前的信息。在发生错误时回滚之前的操作,需要将之前的操作都记录下来,然后在发生错误时才可以回滚。保证了未提交事务的原子性。
b。redo log:重做日志,用来记录已成功提交事务的修改信息,并且会把 redo log 持久化到磁盘,系统重启之后在读取 redo log 恢复最新数据。redo log 用来恢复数据,用于保障已提交事务的持久化特性。
c。MySQL 锁技术:通过读写锁,可以做到读读可以并行,但是不能做到写读,写写并行。事务的隔离性就是根据读写锁来实现的。
d。MVCC 基础:MVCC (MultiVersion Concurrency Control) 叫做多版本并发控制。通过在每行记录的后面保存两个隐藏的列来实现的。这两个列,一个保存了行的创建时间,一个保存了行的过期时间,当然存储的并不是实际的时间值,而是系统版本号。MVCC 在 MySQL 中的实现依赖的是 undo log 与 read view。
问题不太清晰。如果是指数据类型,那么应该是数字类型、字符串类型、日期时间类型、二进制类型、空间数据类型。
如果是存储引擎的数据结构,那应该是 B+Tree。MySQL 将所有的数据都放到了叶子节点中,而根节点和非叶子节点中放的都是冗余的索引 Key,树高度只有 3,就是说我们只需要三次磁盘的 io 就可以完成查找,还可以将根节点放到磁盘中,这样就只需要两次,速度也是相当于快。非叶子节点存储索引和下一个子节点的地址,叶子结点存储所有的索引和数据。
索引的优势:提高查询效率(降低 IO 使用率),降低 CPU 使用率。
索引的分类:单值索引,唯一索引,联合索引,主键索引。
索引要加对才能提高速度。这里举一个例子:
大学选认课老师,需要创建一个关系对应表,有三个字段 id、student_id、teacher_id,想要查询某个老师和某个学生是否存在师生关系。
分析:一个学生会选几十个老师,一个老师会带几百个学生 。 对于 select * from tb where student_id='S123’ and teacher_id='T123',有以下两种方式建立索引。
(1)student_id 和 teacher_id 各自单独建立索引
这种情况下,不管 MySQL 选用了哪个索引字段用来查询,都会一次查询出多个记录然后逐一遍历。比如查询中使用了 student_id 列的索引,那么就会查询出 S123 和多个教师编号的对应关系,然后再一条条遍历找到教师编号 T123。
(2)student_id 和 teacher_id 的联合索引
这种索引的切合度最好,MySQL 会直接选用这个索引。而且联合索引会在相同的 student_id 下将 teacher_id 排好序。使定位学生和教师的关联关系更加高效。
总结:索引加在经常查找的查询中 where 过滤条件的字段上。
没理解问题想问什么。可以看之前的文章。
类加载机制:java 虚拟机将编译后的 class 文件加载到内存中,进行校验、转换、解析和初始化,到最终的使用。这就是 java 类加载机制。包括加载(Loading)、验证(Verification)、准备(Preparation)、解析(Resolution)、初始化(Initialization)、使用(Using)、卸载(Unloading)等阶段。
重点是类加载器,系统提供的 3 种类加载器如下:
1)启动类加载器(Bootstrap ClassLoader):负责将存放在
2)扩展类加载器(Extension ClassLoader):负责加载
3)应用程序类加载器(Application ClassLoader):负责加载用户路径(ClassPath)上所指定的类库,开发者可以直接使用这个类加载器,一般情况下该类加载是程序中默认的类加载器。
类加载器的执行顺序采用双亲委派模型:如果一个类加载器收到类加载的请求,他首先不会自己去尝试加载这个类,而是把请求委派给父类加载器去完成,每一层次的类加载器都是这样,因此所有的加载请求最终都应该传送到底层的启动类加载器中,只有当父类加载器反馈自己无法完成这个加载请求时(在它的加载路径下没有找到所需加载的Class),子类加载器才会尝试去加载。
好处:
1)避免重复加载同一个类;
2)防止用户任意修改 java 中的类。
1。新建状态(new)
使用 new 创建一个线程对象,仅仅在堆中分配内存空间,在调用 start 方法之前。 新建状态下,线程压根就没有启动,仅仅只是存在一个线程对象而已。Thread t = new Thread();此时t就属于新建状态当新建状态下的线程对象调用了 start 方法,此时从新建状态进入可运行状态。线程对象的start方法只能调用一次,否则报错:IllegalThreadStateException。
2。可运行状态(runnable)
分成两种状态,ready 和 running。分别表示就绪状态和运行状态。
3。阻塞状态(blocked)
正在运行的线程因为某些原因放弃CPU,暂时停止运行,就会进入阻塞状态。此时JVM不会给线程分配CPU,直到线程重新进入就绪状态,才有机会转到运行状态。阻塞状态只能先进入就绪状态,不能直接进入运行状态。阻塞状态的两种情况:
4。等待状态(waiting):等待状态只能被其他线程唤醒
此时使用的无参数的 wait 方法,当线程处于运行过程时,调用了 wait() 方法,此时 JVM 把当前线程存在对象等待池中。
5。计时等待状态(timed waiting):使用了带参数的wait方法或者sleep方法
6。终止状态(terminated)
通常称为死亡状态,表示线程终止。
例如两个矩阵 A 和 B 相乘得到 C,实际上是 A 的行和 B 的列相乘。关键之处是设计 key,让参与运算的值传递到同一个 Reducer 中。分析:
因此,
在 Shuffle 阶段,相同 key 的 value 会被加入到同一个列表中,形成
1.x 和 2.x:
2.x 和 3.x:
Java运行环境升级为1.8;
HDFS 支持纠删码:纠删码相比于副本机制节省了一半以上的存储空间,普通副本机制需要3倍存储空间而这种机制只需1.4倍即可。
YARN时间线服务
支持多余 2 个以上的 NameNode:3.0 支持单 active namenod e+ 多 standby namenode 部署方式进一步提升了可用性。
MapReduce 本地优化,性能提升了30%。
HDFS HA 功能通过配置 Active/Standby 两个 NameNodes 实现在集群中对 NameNode 的热备来。
看是否真的是计算密集型任务太多。kill 掉一些任务。
管道:所谓的管道,就是内核里面的一串缓存,从管道的一端写入的数据,实际上是缓存在内核中的,另一端读取,也就是从内核中读取这段数据。另外,管道传输的数据是无格式的流且大小受限。先进先出,单向的,效率低,不适合进程间频繁地交换数据。
消息队列:消息队列是保存在内核中的消息链表,A 进程要给 B 进程发送消息,A 进程把数据放在对应的消息队列后就可以正常返回了,B 进程需要的时候再去读取数据就可以了。消息队列不适合比较大数据的传输。消息队列通信过程中,存在用户态与内核态之间的数据拷贝开销。
共享内存:共享内存的机制,就是拿出一块虚拟地址空间来,映射到相同的物理内存中。不需要拷贝来拷贝去,大大提高了进程间通信的速度。
信号量:信号量其实是一个整型的计数器,主要用于实现进程间的互斥与同步,而不是用于缓存进程间通信的数据。通过 PV 操作防止多个进程同时修改同一个共享内存。
信号:上面说的进程间通信,都是常规状态下的工作模式。对于异常情况下的工作模式,就需要用「信号」的方式来通知进程。信号是进程间通信机制中唯一的异步通信机制,因为可以在任何时候发送信号给某一进程,一旦有信号产生,我们就有下面这几种,用户进程对信号的处理方式。
Socket:用于跨网络与不同主机上的进程之间通信。
看一下 Spark 的内存模型。
Storage 内存是存储 broadcast,cache,persist 数据的地方。
Other 内存是程序执行时预留给自己的内存。
OOM 的问题通常出现在 execution 这块内存中,因为 storage 这块内存在存放数据满了之后,会直接丢弃内存中旧的数据,对性能有影响但是不会有 OOM 的问题。
Spark 中的 OOM 问题不外乎以下三种情况:
窄依赖举例:map。
宽依赖举例:groupByKey。
从 shuffle 的角度:reduceByKey 和 groupByKey 都存在 shuffle 的操作,但是 reduceByKey 可以在 shuffle 前对分区内相同 key 的数据进行预聚合(combine)功能,这样会减少落盘的数据量,而 groupByKey 只是进行分组,不存在数据量减少的问题,reduceByKey 性能比较高。
从功能的角度:reduceByKey 其实包含分组和聚合的功能。groupByKey 只能分组,不能聚合,所以在分组聚合的场合下,推荐使用 reduceByKey,如果仅仅是分组而不需要聚合。那么还是只能使用 groupByKey。
可以看下面两篇文章。
【Hadoop】MapReduce 原理
【Spark】Spark Shuffle 原理
Shuffle 过程本质上都是将 Map 端获得的数据使用分区器进行划分,并将数据发送给对应的 Reducer 的过程。
区别:
GC 算法:
GMS 和 G1:
CMS(Concurrent Mark Sweep)收集器是一种以获取最短回收停顿时间为目标的收集器,基于并发“标记清理”实现,在标记清理过程中不会导致用户线程无法定位引用对象。仅作用于老年代收集。
G1 收集器弱化了 CMS 原有的分代模型(分代可以是不连续的空间),将堆内存划分成一个 个Region 1MB~32MB,默认 2048 个分区),这么做的目的是在进行收集时不必在全堆范围内进行。它主要特点在于达到可控的停顿时间,用户可以指定收集操作在多长时间内完成,即 G1提供了接近实时的收集特性。它的步骤如下:
Region 中有一种特殊的 Humongous Region,专门用来存储大对象。G1 收集器规定只要对象的大小超过了 Region 大小的一般就会被认为是巨型对象 。每个 Region 的大小可以通过 -XX:G1HeapRegionSize 来调整(1MB-32MB,且为 2 的 N 次幂)。G1 收集器通常把 Humongous Region 看做老年代的一部分。对象划分的规则:
对象大小小于一半 Region,直接存储到标记为 Eden 的 Region;
对象大小大于一半 Region 但是小于一个 Region,存储到标记为 Humongous 的 Region 中;
对象大小超过一个 Region 大小,存储到标记为 Humongous 的多个连续 Region 中。
MyISAM:
InnoDB:
聚簇索引和非聚集索引:
事务有四个特性:
分布式事务:
分布式事务指事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上,且属于不同的应用,分布式事务需要保证这些操作要么全部成功,要么全部失败。本质上来说,分布式事务就是为了保证不同数据库的数据一致性。
问题:在分布式系统中,为了保证数据的高可用,通常会将数据保留多个副本(replica),这些副本会放置在不同的物理的机器上。在数据有多份副本的情况下,如果网络、服务器或者软件出现故障,会导致部分副本写入成功,部分副本写入失败。这就造成各个副本之间的数据不一致,数据内容冲突,造成事实上的数据不一致。
解决:增加一个协调机制来解决数据不一致问题。两阶段提交和三阶段提交都是通过引入一个协调者来进行协调。
两阶段提交:
请求阶段:事务协调者通知每个参与者准备提交或取消事务,然后进入表决过程,参与者要么在本地执行事务,写本地的 redo 和 undo 日志,但不提交,到达一种"万事俱备,只欠东风"的状态。请求阶段,参与者将告知协调者自己的决策:同意(事务参与者本地作业执行成功)或取消(本地作业执行故障)。
提交阶段:在该阶段,写调整将基于第一个阶段的投票结果进行决策: 提交或取消。当且仅当所有的参与者同意提交事务,协调者才通知所有的参与者提交事务,否则协调者将通知所有的参与者取消事务。参与者在接收到协调者发来的消息后将执行响应的操作。
解决了哪些问题:在正常的情况下,如果第一阶段某些参与者出现问题,那么其他所有参与者都能够知道事务失败了,可以执行取消操作,数据保持了一致性。如果所有的参与者都能够执行成功,那么在提交阶段,所有事务提交,数据也是一致的。
还有哪些问题:
三阶段提交:三阶段提交协议在协调者和参与者中都引入超时机制,并且把两阶段提交协议的第一个阶段分成了两步: 询问,然后再锁资源,最后真正提交。
快排的运行时间依赖于划分是否平衡。在分解时每次选择的主元素都是最大或最小元素时最差,比如在基本有序时,每次选择最左边的元素为主元素。
基本有序时选择直接插入排序。
冒泡排序也可以考虑,设置一个标志位,没有发生移动就提前结束排序。
满二叉树:指深度为 k 且有 2^k-1 个结点的二叉树。即最后一层全为叶子结点,其它层都是非叶子结点。
完全二叉树:当二叉树的深度为 h 时,它的 h 层节点必须都是连续靠左并不可隔开的(满二叉树也符合),并且 1~h-1 层的结点数都达到最大个数(即 1~h-1 层为一个满二叉树)。
区别如下:
性能区别:
synchronized 原始采用的是 CPU 悲观锁机制,即线程获得的是独占锁。独占锁意味着其他线程只能依靠阻塞来等待线程释放锁。而在 CPU 转换线程阻塞时会引起线程上下文切换,当有很多线程竞争锁的时候,会引起 CPU 频繁的上下文切换导致效率很低。
而 Lock 用的是乐观锁方式。所谓乐观锁就是,每次不加锁而是假设没有冲突而去完成某项操作,如果因为冲突失败就重试,直到成功为止。乐观锁实现的机制就是 CAS 操作(Compare and Swap)。我们可以进一步研究 ReentrantLock 的源代码,会发现其中比较重要的获得锁的一个方法是 compareAndSetState。这里其实就是调用的CPU提供的特殊指令。现代的 CPU 提供了指令,可以自动更新共享数据,而且能够检测到其他线程的干扰,而 compareAndSet() 就用这些代替了锁定。这个算法称作非阻塞算法,意思是一个线程的失败或者挂起不应该影响其他线程的失败或挂起的算法。
notify() 和 notifyAll() 都是 Object 对象用于通知处在等待该对象的线程的方法。两者的最大区别在于: