向上扩展,垂直扩展
向外扩展,横向扩展
读写分离
复制:每个节点都有相同的数据集,向外扩展,基于二进制日志的单向复制
读写分离,基本的原理是:让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。
数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。
每个事物更新数据完成之前,master在二进制文件记录这些数据。写入二进制日志完成后,master通知存储引擎提交事务。
【两个日志,三个线程】
两个日志:Binary log:二进制日志;relay log:中继日志
三个线程:从服务器的I/O线程、SQL线程、主服务器的dump线程
通俗易懂版本:
Binary log:二进制日志;relay log:中继日志
主服务器会把数据写进二进制文件里面---》
然后从服务器的i/o线程向dump发出同步请求,dump把数据发送给i/o线程,然后i/o写入到本地的中继日志---》
然后通过mysql从服务器的sql线程来读取中继日志,实现`重放`的功能,同步到自己的数据库中
最终实现mysql主从复制同步
Dump thread:是一个监听的线程【要么是
等待线程
,要么是睡眠线程
】
Dump线程平时是不干活的,只有在io线程监听到有新的数据写入时,需要通过dump线程来进行相应,响应请求并传输数据。
就相当于: 搬货的员工,没有货的时候员工可以休息,当货来的时候,员工才开始干活。
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下
会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能。
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力
。
有点类似于rsync,但是不同的是rsync是对磁盘文件做备份
,而mysql主从复制是对数据库中的数据、语句做备份。
读写分离就是只在主服务器上写,只在从服务器上读
。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。
异步复制(asynchronous)
搭建简单,使用非常广泛,从mysql诞生之初,就产生了这种架构,性能非常好,可为非常成熟。但是这种架构数据是异步的,所以有丢书数据库的风险
。
主服务器不需要等待从服务器是否把二进制文件拷入到中继日志中,就开始读取新的请求了。
同步复制(sync replication)
同步复制提供了最佳安全性,保证数据安全,不丢数据,损失性能
主服务器需要等待从服务器把二进制文件拷入到中继日志中,并且还要从库中执行完成,主服务器才能开始读取新的请求了。
半同步复制(Semi synchronous)
性能、功能都介于异步和全同步之间。从mysql5.5开始诞生,目的是为了折中
上述两种架构性能已优缺点。
主服务器需要等待从服务器是否把二进制文件拷入到中继日志中,不管你是否在从库中执行完成,就开始读取新的请求了。
无损复制,增强版的半同步复制(lossless replication)
数据零丢失,性能好,mysql5.7诞生
(1)STATEMENT:基于语句的复制
(2)ROW:基于行的复制
(3)MIXED:混合类型的复制
**
1)基于程序代码内部实现
在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。
优点是
性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;
缺点是
需要开发人员来实现,运维人员无从下手。
但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。
2)基于中间代理层实现
代理一般位于客户端和服务器
之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。
由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。
Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层。
客户端发送读写操作到Amoeba服务器,Amoeba服务器将写的操作发送到主服务器,主服务器将写的操作记录到二进制日志中,从服务器有两个线程,一个I/O线程一个SQL线程,从服务器的I/O线程会在 Master 上打开一个普通的连接,Binlog dump线程会从Master的二进制日志中读取事件,I/O线程将这些事件写入中继日志,中继日志运行在缓存中,SQL线程读取中继日志中的事件,并在自己的数据库中进行重放,Amoeba对两个从服务器进行读操作,读取从服务器同步的事件。
(1)在每个事务更新数据完成之前,Master在二进制日志(Binary log)记录这些改变。写入二进制日志完成后,Master通知存储引擎提交事务。
(2)Slave将Master的复制到其中继日志(Relay log)。首先slave开始一个工作线程(I/O),I/O线程在Master上打开一个普通的连接,然开始Binlog dump process。Binlog dump process从Master的二进制日志中读取事件,如果以及跟上Master,它会睡眠并等待Master产生新的事件,I/O线程将这些事件写入中继日志。
(3)SQL slave thread(SQL从线程)处理该线程的最后一步,SQL线程从中继日志中读取事件,并重放其中的事件而更新slave数据,使其与master的数据保持一致,只要该线程与I/O线程保持一致,中继日志通常会位于OS缓存中,所以中继日志的开销很小。
复制过程有一个和重要的限制,即复制在Slave上是串行化的,也就是说Master上的并行更新操作不能在Slave上并行操作。
注:
● 中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。
● 复制过程有一个很重要的限制,即复制在 Slave上是串行化的,也就是说 Master上的并行更新操作不能在 Slave上并行操作。
面试题:
如果出现高并发的时候,发生了I/O阻塞时,你一般会怎么办??
在服务器中加上一个slave中继,用来分担主服务器的压力,写入数据时数据量如果过大的话,有可能会造成阻塞,此时通过slave中继来分担,它是用来解决高并发情况下,解决I/O阻塞的问题。
master服务器: 192.168.10.10 mysql5.7
slave1服务器: 192.168.10.12 mysql5.7
slave2服务器: 192.168.10.17
前提准备:
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
yum install ntp -y
vim /etc/ntp.conf
--末尾添加--
server 127.127.10.0 #设置本地是时钟源127.127 ,注意修改网段 10网段
fudge 127.127.10.0 stratum 8 #设置时间层级为8(限制在15内)
service ntpd start
yum install ntp ntpdeta -y
service ntpd start
/usr/sbin/ntpdate 192.168.10.10 #进行时间同步
crontab -e
*/30 * * * * /usr/sbin/ntpdate 192.168.10.10
从服务器配置192.168.10.17(第二台)
yum install ntp ntpdeta -y
service ntpd start
/usr/sbin/ntpdate 192.168.10.10 #进行时间同步
crontab -e
*/30 * * * * /usr/sbin/ntpdate 192.168.10.10
vim /etc/my.cnf
server-id = 1
log-bin=master-bin #添加,主服务器开启二进制日志
binlog_format = MIXED
log-slave-updates=true #添加,允许slave从master复制数据时可以写入到自己的二进制日志
systemctl restart mysqld
mysql -u root -pabc123
GRANT REPLICATION SLAVE ON *.* TO 'myslvae'@'192.168.10.%' IDENTIFIED BY 'abc123'; #给从服务器授权
FLUSH PRIVILEGES; ## 刷新权限
show master status;
vim /etc/my.cnf
server-id = 2 #修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin #添加,开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=slave-relya-bin.index #添加,定义中继日志文件的位置和名称,一般和relay-log在同一目录
relay_log_recovery = 1 #选配项
#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log,并且重新从 master 上获取日志,这样就保证了relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。
systemctl restart mysqld
mysql -u root -p123456
CHANGE master to master_host='192.168.10.10',master_user='myslave',master_password='abc123',master_log_file='master-bin.000001',master_log_pos=603; #配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致
start slave; #启动同步,如有报错执行 reset slave;
show slave status\G #查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes #负责与主机的io通信
Slave_SQL_Running: Yes #负责自己的slave mysql进程
vim /etc/my.cnf
server-id = 3 #修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin #添加,开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=slave-relya-bin.index #添加,定义中继日志文件的位置和名称,一般和relay-log在同一目录
relay_log_recovery = 1 #选配项
#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log,并且重新从 master 上获取日志,这样就保证了relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。
systemctl restart mysqld
mysql -u root -p123456
CHANGE master to master_host='192.168.10.10',master_user='myslave',master_password='abc123',master_log_file='master-bin.000001',master_log_pos=603; #配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致
start slave; #启动同步,如有报错执行 reset slave;
show slave status\G #查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes #负责与主机的io通信
Slave_SQL_Running: Yes #负责自己的slave mysql进程
#一般 Slave_IO_Running: No 的可能性:
1、网络不通
2、my.cnf配置有问题
3、密码、file文件名、pos偏移量不对
4、防火墙没有关闭
主服务器上进入执行 create database db_test;
去从服务器上查看 show databases;
注:如数据中途加入主从复制的库 需要导出主服务器库 的库文件并且导入到从服务器中
以上就是主从复制的所有内容!!!!