目录
一、主从复制原理
1、mysql 支持的复制类型
2、主从复制的工作过程
3.MySQL四种同步方式
3.1、异步复制(Async Replication)
3.2、同步复制(Sync Replication)
3.3、 半同步复制(Semi-Sync Replication)
3.4、增强半同步复制(lossless Semi-Sync Replication、无损复制)
4.MySQL主从复制延迟
二、主从复制实验
1、Mysql主从服务器时间同步
1.1 主服务时间同步
1.2 从服务器时间同步?
2、主服务器的mysql配置 (192.168.80.10)
3、 slave从服务器的配置(192.168.80.20? 192.168.80.30)
5.验证主从复制效果
6.从服务器的故障问题解决
6.1遇到Slave_IO_Running:NO的情况
6.2遇到Slave_SQL_Running:NO的情况
三、读写分离原理
1.什么是读写分离
2.为什么要读写分离
3.什么时候要读写分离
4.主从复制与读写分离
5.MySQL读写分离类型
5.1基于程序代码内部实现
5.2基于中间代理层实现
四、读写分离实验
1.实验环境
2.Amoeba服务搭建(192.168.80.40)
2.1JDK环境安装
2.2安装Amoeba软件
2.3配置Amoeba读写分离,两个slave读负载均衡
?2.4修改主配置文件 amoeba.xml
2.5?修改数据库配置文件 dbServers.xml
2.6?启动amoeba服务
3、客户机测试验证?
3.1 验证写入是否从master主机写入
3.2 测试是否读写分离
3.3 测试读的时候,是否是以轮询方法?
四、总结
1、主从复制
2、读写分离
一、主从复制原理
在企业应用中,成熟的业务通常数据量都比较大。单台MySQL在安全性、高可用性和高并发高并发方面都无法满足实际的需求。配置多台主从数据库服务器以实现读写分离。
mysql 的主从复制和mysql的读写分离两者有着紧密联系,首先要部署主从复制, 只有主从复制完成了,才能在此基础上进行数据的读写分离。
1、mysql 支持的复制类型
基于语句的复制(STATEMENT)。 在主服务器上执行的 SQL 语句,在从服务器上执行同样的语句。mysql 默认采用基于语句的复制,效率比较高。
基于行的复制(ROW)。 把改变的内容复制过去,而不是把命令在从服务器上执行一遍。
混合类型的复制(MIXED)。 默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。
2、主从复制的工作过程
核心:两个日志,三个线程
两日志
二进制日志:?记录数据库变动的信息(语句、变动记录)master
中继日志文件:?用于临时存放二进制文件内容。 slaves
三线程
master上: dump线程
slave上: i/o线程 sql线程
dump线程: 1)监听本地二进制日志 2)记录I/O线程对应的slave位置 3)同步二进制日志更新内容给I/O线程
I/O线程: 1)监听master的dump线程 2)将slave信息发送给master:从服务器位置、日志的position(记录位置)、超时时间 3)接收master的dump线程传递过来的更新信息 4)写入relay-log中
SQL线程: 1)监听中继日志 2)将中继日志中的更新内容执行到自己的数据库中(保证从库与主库执行相同操作)
?
MySQL主从复制的过程 (1)在每个事务更新数据完成之前,Master在二进制日志(Binary log)记录这些改变。写入二进制日志完成后,Master通知存储引擎提交事务 (2)Slave将Master的二进制日志(Binary log)复制到其中继日志(Relay log),首先slave开始一个工作线程(I/O),I/O线程在Master上打开一个普通的连接,然后开始Binlog dump process。Binlog dump process 从Master的二进制日志中读取事件,如果已经跟上Master,它会睡眠并等待Master产生新的事件,I/O线程将这些事件写入中继日志 (3)SQL slave thread(SQL从线程)处理该过程的最后一步,SQL线程从中继日志读取事件,并重放其中的事件而更新salve数据,使其与Master中的数据一致,只要该线程与I/O保持一致,中继日志通常会位于OS缓存中,所以中继日志的开销很小
?复制过程有一个很重要的限制,即复制在Salve上是串行化的,也就是说Master上的并行更新操作不能在Salve上并行操作
3.MySQL四种同步方式
MySQL有四种同步方式: 1.异步复制(Async Replication) 2.同步复制(sync Replication) 3.半同步复制(Async Replication) 4.增强半同步复制(lossless Semi-Sync Replication)、无损复制
3.1、异步复制(Async Replication)
主库将更新写入Binlog日志文件后,不需要等待数据更新是否已经复制到从库中,就可以继续处理更多的请求。Master将事件写入binlog,但并不知道Slave是否或何时已经接收且已处理。在异步复制的机制的情况下,如果Master宕机,事务在Master上已提交,但很可能这些事务没有传到任何的Slave上。假设有Master->Salve故障转移的机制,此时Slave也可能会丢失事务。MySQL复制默认是异步复制,异步复制提供了最佳性能。
3.2、同步复制(Sync Replication)
主库将更新写入Binlog日志文件后,需要等待数据更新已经复制到从库中,并且已经在从库执行成功,然后才能返回继续处理其它的请求。同步复制提供了最佳安全性,保证数据安全,数据不会丢失,但对性能有一定的影响。
3.3、 半同步复制(Semi-Sync Replication)
写入一条数据请求到master,从服务器只要有一台接收到写入自己的中继日志,会给客户端返回一条接收成功的信息。 **主库提交更新写入二进制日志文件后,等待数据更新写入了从服务器中继日志中,然后才能再继续处理其它请求。该功能确保至少有1个从库接收完主库传递过来的binlog内容已经写入到自己的relay log里面了,才会通知主库上面的等待线程,**该操作完毕。 半同步复制,是最佳安全性与最佳性能之间的一个折中。 MySQL 5.5版本之后引入了半同步复制功能,主从服务器必须安装半同步复制插件,才能开启该复制功能。如果等待超时,超过rpl_semi_sync_master_timeout参数设置时间(默认值为10000,表示10秒),则关闭半同步复制,并自动转换为异步复制模式。当master dump线程发送完一个事务的所有事件之后,如果在rpl_semi_sync_master_timeout内,收到了从库的响应,则主从又重新恢复为增强半同步复制。 ACK (Acknowledge character)即是确认字符。
3.4、增强半同步复制(lossless Semi-Sync Replication、无损复制)
增强半同步是在MySQL 5.7引入,其实半同步可以看成是一个过渡功能,因为默认的配置就是增强半同步,所以,大家一般说的半同步复制其实就是增强的半同步复制,也就是无损复制。 增强半同步和半同步不同的是,等待ACK时间不同 rpl_semi_sync_master_wait_point = AFTER_SYNC(默认) 半同步的问题是因为等待ACK的点是Commit之后,此时Master已经完成数据变更,用户已经可以看到最新数据,当Binlog还未同步到Slave时,发生主从切换,那么此时从库是没有这个最新数据的,用户看到的是老数据。 增强半同步将等待ACK的点放在提交Commit之前,此时数据还未被提交,外界看不到数据变更,此时如果发送
4.MySQL主从复制延迟
- Master服务器肝病发,形成大量事务
- 网络延迟
- 主从硬件设备导致(cpu主频、内存I/O、硬盘I/O)
- MySQL默认使用异步复制。可以优化MySQL参数。比如innodb_buffer_pool_size,让更多操作在MySQL内存中完成。主库还可以使用高性能主句,包括cpu强悍、内存加大,避免使用虚拟云主机,使用物理主机,这样升级了I/O方面。还可以将从库使用SSD磁盘。网络优化,避免跨机房使用
主从切换,新库依然还是老数据,不存在数据不一致的问题。
二、主从复制实验
systemctl stop firewalld systemctl disable firewalld setenforce 0
1、Mysql主从服务器时间同步
1.1 主服务时间同步
主从三台机器执行一下,进行时间同步
yum -y install ntp ??下载更新时间同步工具
ntpdate ntp1.aliyun.com? 同步阿里云时间
systemctl start ntpd;? 开启同步服务
或者设置本地时间源
vim /etc/ntp.conf? 在末尾添加
server 127.127.0.0 #设置本地时钟源(网段与本机相同) fudge 127.127.0.0 stratum 8 ? #设置时间层级为8(限制在15以为) ?层级环
设置本机的时间层级为8级,0级表示层级为0级,是向其他服务器时间同步源的意思,不要设置为0级
systemctl start ntpd;? 开启同步服务
?
1.2 从服务器时间同步?
?yum -y install ntp ??下载更新时间同步工具
ntpdate ntp1.aliyun.com? 同步阿里云时间
systemctl start ntpd;? 开启同步服务
或者同步指定的服务器
ntpdate 192.168.80.10?#指定同步NTP服务器
systemctl start ntpd;? 开启同步服务
设置周期性计划同步主服务日志
crontab -e * 1 * * 1 ?/usr/sbin/ntpdate 192.168.80.10
?
2、主服务器的mysql配置 (192.168.80.10)
vim /etc/my.cnf
[mysqld] 在这里插入
server-id = 1
log-bin=master-bin?? ??? ??? ??? ??? ??? ??? ?#添加,主服务器开启二进制日志 log-slave-updates=true?? ??? ??? ??? ??? ??? ?#添加,允许从服务器更新二进制日志
systemctl restart mysqld? 重启
?修改配置文件 vim? ?/etec/my.cnf
?重启MySQL服务
?
mysql -uroot -p #登录数据库
授权,允许192.168.80.10网段主机使用myslave账号及密码登录并使用数据库
grant replication slave on *.* to 'myslave'@'192.168.80.%' identified by '123456';
flush privileges; #将用户和权限配置保存在内存中
show master status;? #查看master服务器当前正在执行的二进制日志位置,和列偏移量
?
注意:给从服务器授权时,可能会出现密码不符合当前策略要求
ERROR 1819 (HY000): Your password does not satisfy the current policy requirements 您的密码不符合当前策略要求 解决方法: 在数据库配置文件中添加一行,关闭密码策略
vim /etc/my.cnf
[mysqld] 在这里插入
validate_password=off
配置好之后重启就好了
3、 slave从服务器的配置(192.168.80.20? 192.168.80.30)
#从服务器192.168.80.20
vim /etc/my.cnf server-id=2?? #修改,id不能与master相同,两个slave也不能相同 relay-log=relay-log-bin?? #添加,开启中继日志,从服务器上同步master服务器日志文件到本地 relay-log-index=slave-relay-bin.index??#添加,定义中继日志文件的位置和名称 relay_log_recovery=1?? #当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log,并且重新从 master 上获取日志,这样就保证了relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启
systemctl restart mysqld??#启动mysqld服务器
#从服务器192.168.80.30
vim /etc/my.cnf
server-id = 3
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
systemctl restart mysqld #重启MySQL
?开启从服务器功能
mysql -uroot -pngs123. #登录数据库
change master to master_host='192.168.80.10',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=2503;
#配置同步,注意master_log_file和master_log_pos的值要与master查询的一致
start slave; #开启同步
show slave status\G #查看slave状态(查看I/O和SQL都为YES)
#确保I/O和SQL线程都是YES,代表同步正常
Slave_IO_Running: Yes #负责与主机的io通信
Slave_SQL_Running: Yes #负责自己的slave mysql进程
?192.168.80.20
??192.162.80.30
5.验证主从复制效果
在master服务器上创建sen库
?
?两台从服务器上进行查看,可以查看到master服务器上所创建的库
192.168.80.20
192.162.80.30?
?
6.从服务器的故障问题解决
如果在查看服务器上slave状态时,出现NO的问题。就是执行: show slave status\G,查看的结果,可以往下看,或查看到各个对应的报错的信息。
6.1遇到Slave_IO_Running:NO的情况
分析:可以向下查看对应的报错的信息。
- 先总览看 : last_Error(报错数量) Last_Error(报错原因) 。
- 再看IO的报错: Last_IO_Errno: 、Last_IO_Error: 他们之间的信息
6.2遇到Slave_SQL_Running:NO的情况
分析:可以向下查看对应的报错的信息。
- 先总览看 : last_Error(报错数量) Last_Error(报错原因) 。
- 再看IO的报错: Last_SQL_Errno: 、Last_SQL_Error: 他们之间的信息
#问题:slave_IO_Running:NO 1、网络不通 2、my.cnf配置文件有问题 3、change中配置出错,密码、file文件名、pos偏移量与master不相符 4、防火墙没有关闭
#问题:slave_SQL_Running:NO 1、程序可能在slave上进行了写操作 2、也可能是slave机器重起后,事务回滚造成的. 执行这个:set GLOBAL SQL_SLAVE_SKIP_COUNTER=1; ?
三、读写分离原理
读写分离就是只在主服务器上写,只在从服务器上读 基本的原理是让主数据库处理事务操作,而从数据库处理select查询,数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库
1.什么是读写分离
读写分离,基本的原理就是让主数据库处理事务性增、删、改操作,而从数据库处理select查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库
2.为什么要读写分离
因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。 但是数据库的“读”(读10000条数据可能只要5秒钟)。 所以读写分离,解决的是,数据库的写入,影响了查询的效率。
3.什么时候要读写分离
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能
4.主从复制与读写分离
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求。无论是在安全性、高可用还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份
5.MySQL读写分离类型
5.1基于程序代码内部实现
1.在代码中根据select、insert进行路由分类,这类方法也是目前生产环境应用最广泛的 2.优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支 3.缺点是需要开发人员来实现,运维人员无从下手 4.但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大
5.2基于中间代理层实现
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序 1.MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。 2.Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。 3.Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。
由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Peotocol 的人来说是非常困难的 Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层
Amoeba:是一个以mysql为底层的数据存储,并对应提供mysql协议接口的proxy(代理),外号变形虫。
- 读取请求发送给从服务器是采用轮询调度算法。
- amoeba使用的java语言编写,配置文件为xml
- amoeba主要负责对外的一个代理ip
- 访问这个ip时,发送的请求为“写”请求,则会转给主服务器。
- 当发送的请求为“读”时,会通过调度转发给从服务器,使用轮询算法,轮流分配给两台从服务器。
- amoeba可以视为调度器,如果主服务器挂掉(单点故障),则会有HMA解决这个问题。。
四、读写分离实验
做读写分离必须要做好主从复制的环境,因为读写分离是基于主从复制的基础上去执行的架构
1.实验环境
服务器 | IP |
---|
主服务器 | 192.168.80.10 | 从服务器1 | 192.168.80.20 | 从服务器2 | 192.168.80.30 | Amoeba | 192.168.80.40 | 客户端 | 192.168.80.50 |
关闭防火墙,关闭核心防护
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
2.Amoeba服务搭建(192.168.80.40)
2.1JDK环境安装
Amoeba服务是基于JDK1.5开发的,所以要使用jdk1.5或jdk1.6的版本,不建议使用高版本
cp jdk-6u14-linux-x64.bin /usr/local/
#将jdk安装包复制到/usr/local目录下
cd /usr/local/
#进入local目录
chmod +x jdk-6u14-linux-x64.bin
#给安装包执行文件
./jdk-6u14-linux-x64.bin
#安装jdk(按空格到最后一行,输入yes按回车)
mv jdk1.6.0_14/ jdk1.6
#安装好之后在本地目录下生成jdk1.6.0_14目录,将其该名,方便后续操作
vim /etc/profile #编辑全局配置文件
export JAVA_HOME=/usr/local/jdk1.6 #输出定义java的工作目录
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib #输出指定的java类文件
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin #将java加入工作环境
export AMOEBA_HOME=/usr/local/amoeba #输出定义的amoeba工作目录
export PATH=$PATH:$AMOEBA_HOME/bin #加入路径环境变量
source /etc/profile
#执行群居配置文件
java -version
#查看java版本信息
?
?
?
?
2.2安装Amoeba软件
mkdir /usr/local/amoeba
#创建amoeba的安装目录
tar -zxf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
#将amoeba的安装包解压到/usr/local/amoeba目录中
chmod -R 755 /usr/local/amoeba/
#给amoeba目录755的权限
/usr/local/amoeba/bin/amoeba
#开启amoeba(如果显示amoeba start |stop,则说明完成)
amoeba start|stop
2.3配置Amoeba读写分离,两个slave读负载均衡
配置前需要给Master、Slave1和Slave2的MySQL上开放权限给amoeba访问
grant all on *.* to 'amoeba'@'192.168.80.%' identified by '123456';
?2.4修改主配置文件 amoeba.xml
cd /usr/local/amoeba/conf
#进入配置文件
cp amoeba.xml amoeba.xml.bak
#备份配置文件
vim amoeba.xml #修改配置文件
30行 <property name="user">amoeba</property>
#客户端访问amoeba使用的账号
32行 <property name="password">123456</property>
#这里是数据库访问amoeba服务器时使用账号时登录的密码
115行 <property name="defaultPool">master</property>
#修改默认池
118行 <property name="writePool">master</property>
#设置数据库写的池
129行 <property name="readPool">slaves</property>
#设置数据库读的池
小结:amoeba.xml定义的是
用户通过amoeba访问数据库时“登录amoeba代理的账户,密码”。
定义amoeba代理的“读池”和“写池”的名称(读是:slaves,写是:master)
#注意:这是第一个账户:定义的是client登录使用amoeba
?
2.5?修改数据库配置文件 dbServers.xml
cp dbServers.xml dbServer.xml.bak
#备份数据库配置文件
vim dbServers.xml
#23行 作用:注释!默认进入test库 以防mysql中没有test库时,会报错
<!--?mysql schema?
<property name="schema">test</property>
-->?
#26修改 作用:访问mysql的账号
<!-- mysql user -->
<property name="user">amoeba</property>
#28-30去掉注释 作用:访问mysql的密码
<property name="password">123456</property>
#45修改,设置主服务器的名Master,作用:后端数据的一个节点名称
<dbServer name="master" ?parent="abstractServer">
#48修改,设置主服务器的地址
<property name="ipAddress">192.168.80.10</property>?
#52修改,设置从服务器1的名slave1
<dbServer name="slave1" ?parent="abstractServer">
#55修改,设置从服务器1的地址
<property name="ipAddress">192.168.100.20</property>
#58 复制上面6行粘贴(52开始复制),设置从服务器2的名slave2和地址
<dbServer name="slave2" ?parent="abstractServer">
<property name="ipAddress">192.168.100.30</property>
#65修改,作用:定义从服务器的池,因为有多个从服务器,主服务器不用,因为只有一个
<dbServer name="slaves" virtual="true">
#71修改,作用:定义具体的从服务器的地址池的名称,跟52和58行要一致
<property name="poolNames">slave1,slave2</property>
#67行 ,作用,定义了三种不同的分流模式,68行按序号选择模式
1、轮序模式,2、提权模式,3、高可用模式
----------------------------------------------------------------------
#小结:dbServers.xml 主要定义了:
amoeba访问mysql数据库的用户和密码
定义了后端的mysql服务器具有的角色及其地址
定义了read poll读池有哪些。
?
2.6?启动amoeba服务
/usr/local/amoeba/bin/amoeba start &? 防止后台启动amoeba
jobs? 查看后台运行程序
netstat -natp |grep java netstat -natp |grep 8066
?
?
3、客户机测试验证?
systemctl stop firewalld setenforce 0
yum -y install mariadb #下载数据库(centos7 默认的数据库)
mysql -u amoeba -p123456 -h 192.168.100.50 -P8066 #登录到amoeba服务器,-h:指定ip,-P:指定端口
?
3.1 验证写入是否从master主机写入
#验证目的结果:主要为了验证从客户端登录可以进行可以写入数据到数据库中,而且是通过master服务器写入的。
?
?去master和两台slave上查看是否可以看到创建的表?
?
?
?
3.2 测试是否读写分离
?测试目的结果:主要验证写是靠matser写入数据,而读取数据时靠两台从服务器(slave)进行读取
?
?
??在客户端上进行插入一条数据到的用户
?
?去master主机上查看数据是否写入成功
?去两台slave从服务器查看数据,查看不到?
?
?
?且在客户端上进行登录也查看不到数据?
?
3.3 测试读的时候,是否是以轮询方法?
验证目的结果:验证在读取数据库内容时,以轮询的方式读取数据库中的内容。
?
?
?在客户端进行读写数据库中的内容?
?
四、总结
1、主从复制
主从复制,简单理解就是2个日志文件,三个线程。
两日志
二进制文件: 记录数据库变动的信息(语句、变动记录) 中继日志文件: 用于临时存放二进制文件内容。 三线程
dump线程: ①监听I/O线程请求。②将二进制日志文件更新的数据发送给slave的I/O线程。 I/O线程: ①监听master主机的二进制文件。②向master的dump线程发出同步请求 SQL线程: 读取中继日志中的文件,更新到本机的数据库。
2、读写分离
读写分离,简单来说,就是基于主从复制来进行读和写的操作,但是读和写是分开来的,读是在slave服务器上,写是在master服务器上,这样做的 目的可以很好的缓解master的压力,而且在生产环境中,读的频率要高,所以salva服务器可以设置多套服务器,使用轮询,权重、哈希的分流策略进行分摊压力。
|