mirror of
https://github.com/qiurunze123/miaosha.git
synced 2023-11-19 22:41:03 +08:00
提交标注
This commit is contained in:
parent
56cab77aae
commit
9b6978bc8f
|
@ -10,7 +10,7 @@
|
||||||
[![Travis](https://img.shields.io/badge/language-Java-yellow.svg)](https://github.com/qiurunze123)
|
[![Travis](https://img.shields.io/badge/language-Java-yellow.svg)](https://github.com/qiurunze123)
|
||||||
高并发大流量如何进行秒杀架构,我对这部分知识做了一个系统的整理,写了一套系统。本GitHub还有许多其他的知识,随时欢迎探讨与骚扰!本文还在更新如果文章出现瑕疵请及时与我联系!
|
高并发大流量如何进行秒杀架构,我对这部分知识做了一个系统的整理,写了一套系统。本GitHub还有许多其他的知识,随时欢迎探讨与骚扰!本文还在更新如果文章出现瑕疵请及时与我联系!
|
||||||
|
|
||||||
文章还有许多不足,我仍在不断改进! ps: 本文章基础思路来自于若鱼老师!大家可以关注老师的课和博客很不错! 谢谢大家 !
|
文章还有许多不足,我仍在不断改进! ps: 本文章基础思路来自于若鱼老师1919!大家可以关注老师的课和博客很不错,老师很nice! 谢谢大家 !
|
||||||
|
|
||||||
一点小建议:学习本系列知识之前,如果你完全没接触过 `MQ`、`SpringBoot`、`Redis`、`Dubbo`、`ZK` 、`Maven`等,那么我建议你可以先在网上搜一下每一块知识的快速入门,也可以下载本项目边做边学习,然后再开始每一块知识的学习。这样效果更好噢~
|
一点小建议:学习本系列知识之前,如果你完全没接触过 `MQ`、`SpringBoot`、`Redis`、`Dubbo`、`ZK` 、`Maven`等,那么我建议你可以先在网上搜一下每一块知识的快速入门,也可以下载本项目边做边学习,然后再开始每一块知识的学习。这样效果更好噢~
|
||||||
|
|
||||||
|
|
|
@ -1,41 +0,0 @@
|
||||||
## 面试题
|
|
||||||
你们有没有做 MySQL 读写分离?如何实现 MySQL 的读写分离?MySQL 主从复制原理的是啥?如何解决 MySQL 主从同步的延时问题?
|
|
||||||
|
|
||||||
## 面试官心理分析
|
|
||||||
高并发这个阶段,肯定是需要做读写分离的,啥意思?因为实际上大部分的互联网公司,一些网站,或者是 app,其实都是读多写少。所以针对这个情况,就是写一个主库,但是主库挂多个从库,然后从多个从库来读,那不就可以支撑更高的读并发压力了吗?
|
|
||||||
|
|
||||||
## 面试题剖析
|
|
||||||
### 如何实现 MySQL 的读写分离?
|
|
||||||
其实很简单,就是基于主从复制架构,简单来说,就搞一个主库,挂多个从库,然后我们就单单只是写主库,然后主库会自动把数据给同步到从库上去。
|
|
||||||
|
|
||||||
### MySQL 主从复制原理的是啥?
|
|
||||||
主库将变更写入 binlog 日志,然后从库连接到主库之后,从库有一个 IO 线程,将主库的 binlog 日志拷贝到自己本地,写入一个 relay 中继日志中。接着从库中有一个 SQL 线程会从中继日志读取 binlog,然后执行 binlog 日志中的内容,也就是在自己本地再次执行一遍 SQL,这样就可以保证自己跟主库的数据是一样的。
|
|
||||||
|
|
||||||
![mysql-master-slave](/img/mysql-master-slave.png)
|
|
||||||
|
|
||||||
这里有一个非常重要的一点,就是从库同步主库数据的过程是串行化的,也就是说主库上并行的操作,在从库上会串行执行。所以这就是一个非常重要的点了,由于从库从主库拷贝日志以及串行执行 SQL 的特点,在高并发场景下,从库的数据一定会比主库慢一些,是**有延时**的。所以经常出现,刚写入主库的数据可能是读不到的,要过几十毫秒,甚至几百毫秒才能读取到。
|
|
||||||
|
|
||||||
而且这里还有另外一个问题,就是如果主库突然宕机,然后恰好数据还没同步到从库,那么有些数据可能在从库上是没有的,有些数据可能就丢失了。
|
|
||||||
|
|
||||||
所以 MySQL 实际上在这一块有两个机制,一个是**半同步复制**,用来解决主库数据丢失问题;一个是**并行复制**,用来解决主从同步延时问题。
|
|
||||||
|
|
||||||
这个所谓**半同步复制**,也叫 `semi-sync` 复制,指的就是主库写入 binlog 日志之后,就会将**强制**此时立即将数据同步到从库,从库将日志写入自己本地的 relay log 之后,接着会返回一个 ack 给主库,主库接收到**至少一个从库**的 ack 之后才会认为写操作完成了。
|
|
||||||
|
|
||||||
所谓**并行复制**,指的是从库开启多个线程,并行读取 relay log 中不同库的日志,然后**并行重放不同库的日志**,这是库级别的并行。
|
|
||||||
|
|
||||||
### MySQL 主从同步延时问题(精华)
|
|
||||||
以前线上确实处理过因为主从同步延时问题而导致的线上的 bug,属于小型的生产事故。
|
|
||||||
|
|
||||||
是这个么场景。有个同学是这样写代码逻辑的。先插入一条数据,再把它查出来,然后更新这条数据。在生产环境高峰期,写并发达到了 2000/s,这个时候,主从复制延时大概是在小几十毫秒。线上会发现,每天总有那么一些数据,我们期望更新一些重要的数据状态,但在高峰期时候却没更新。用户跟客服反馈,而客服就会反馈给我们。
|
|
||||||
|
|
||||||
我们通过 MySQL 命令:
|
|
||||||
```sql
|
|
||||||
show status
|
|
||||||
```
|
|
||||||
查看 `Seconds_Behind_Master`,可以看到从库复制主库的数据落后了几 ms。
|
|
||||||
|
|
||||||
一般来说,如果主从延迟较为严重,有以下解决方案:
|
|
||||||
- 分库,将一个主库拆分为多个主库,每个主库的写并发就减少了几倍,此时主从延迟可以忽略不计。
|
|
||||||
- 打开 MySQL 支持的并行复制,多个库并行复制。如果说某个库的写入并发就是特别高,单库写并发达到了 2000/s,并行复制还是没意义。
|
|
||||||
- 重写代码,写代码的同学,要慎重,插入数据时立马查询可能查不到。
|
|
||||||
- 如果确实是存在必须先插入,立马要求就查询到,然后立马就要反过来执行一些操作,对这个查询**设置直连主库**。**不推荐**这种方法,你这么搞导致读写分离的意义就丧失了。
|
|
|
@ -1,4 +1,4 @@
|
||||||
### 秒杀tomcat优化
|
xiu修改### 秒杀tomcat优化
|
||||||
|
|
||||||
有问题或者宝贵意见联系我的QQ,非常希望你的加入!
|
有问题或者宝贵意见联系我的QQ,非常希望你的加入!
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue
Block a user