一份热乎的字节面试真题!(附答案)
面试题目如下:
-
说说 Redis 为什么快
-
Redis 有几种数据结构,底层分别是怎么存储的
-
Redis 挂了怎么办?Redis 有几种持久化方式
-
多线程情况下,如何保证线程安全?
-
用过 volatile 吗?底层原理是?
-
MySQL 的索引结构,聚簇索引和非聚簇索引的区别
-
MySQL 有几种高可用方案,你们用的是哪一种
-
说说你做过最有挑战性的项目
-
秒杀采用什么方案
-
聊聊分库分表,需要停服嘛
-
你怎么防止优惠券有人重复刷?
-
抖音评论系统怎么设计
-
怎么设计一个短链地址
-
有一个数组,里面元素非重复,先升序再降序,找出里面最大的值
01 说说 Redis 为什么快
| 基于内存存储实现
内存读写是比在磁盘快很多的,Redis 基于内存存储实现的数据库,相对于数据存在磁盘的 MySQL 数据库,省去磁盘 I/O 的消耗。
| 高效的数据结构
MySQL 索引为了提高效率,选择了 B+ 树的数据结构。其实合理的数据结构,就是可以让你的应用/程序更快。
先看下 Redis 的数据结构&内部编码图:
SDS 简单动态字符串:
-
字符串长度处理:Redis 获取字符串长度,时间复杂度为 O(1),而 C 语言中,需要从头开始遍历,复杂度为 O(n);
-
空间预分配:字符串修改越频繁的话,内存分配越频繁,就会消耗性能,而 SDS 修改和空间扩充,会额外分配未使用的空间,减少性能损耗。
-
惰性空间释放:SDS 缩短时,不是回收多余的内存空间,而是 free 记录下多余的空间,后续有变更,直接使用 free 中记录的空间,减少分配。
字典:Redis 作为 K-V 型内存数据库,所有的键值就是用字典来存储。字典就是哈希表,比如 HashMap,通过 key 就可以直接获取到对应的 value。而哈希表的特性,在 O(1) 时间复杂度就可以获得对应的值。
跳跃表如上图:
-
跳跃表是 Redis 特有的数据结构,就是在链表的基础上,增加多级索引提升查找效率。
-
跳跃表支持平均 O(logN),最坏 O(N) 复杂度的节点查找,还可以通过顺序性操作批量处理节点。
| 合理的数据编码
Redis 支持多种数据类型,每种基本类型,可能对多种数据结构。什么时候,使用什么样数据结构,使用什么样编码,是 Redis 设计者总结优化的结果。
-
String:如果存储数字的话,是用 int 类型的编码;如果存储非数字,小于等于 39 字节的字符串,是 embstr;大于 39 个字节,则是 raw 编码。
-
List:如果列表的元素个数小于 512 个,列表每个元素的值都小于 64 字节(默认),使用 ziplist 编码,否则使用 linkedlist 编码。
-
Hash:哈希类型元素个数小于 512 个,所有值小于 64 字节的话,使用 ziplist 编码,否则使用 hashtable 编码。
-
Set:如果集合中的元素都是整数且元素个数小于 512 个,使用 intset 编码,否则使用 hashtable 编码。
-
Zset:当有序集合的元素个数小于 128 个,每个元素的值小于 64 字节时,使用 ziplist 编码,否则使用 skiplist(跳跃表)编码。
| 合理的线程模型
I/O 多路复用:
多路 I/O 复用技术可以让单个线程高效的处理多个连接请求,而 Redis 使用用 epoll 作为 I/O 多路复用技术的实现。
并且,Redis 自身的事件处理模型将 epoll 中的连接、读写、关闭都转换为事件,不在网络 I/O 上浪费过多的时间。
02 Redis 有几种数据结构,底层分别是怎么存储的
常用的 Redis 有以下这五种基本类型:
-
String(字符串)
-
Hash(哈希)
-
List(列表)
-
Set(集合)
-
zset(有序集合)
它还有三种特殊的数据结构类型:
-
Geospatial
-
Hyperloglog
-
Bitmap
| Redis 的五种基本数据类型
String(字符串):
-
简介:String 是 Redis 最基础的数据结构类型,它是二进制安全的,可以存储图片或者序列化的对象,值最大存储为 512M
-
简单使用举例:set key value、get key 等
-
应用场景:共享session、分布式锁,计数器、限流
-
内部编码有 3 种,int(8 字节长整型)/embstr(小于等于 39 字节字符串)/raw(大于 39 个字节字符串)
Hash(哈希):
-
简介:在 Redis 中,哈希类型是指 v(值)本身又是一个键值对(k-v)结构
-
简单使用举例:hset key field value 、hget key field
-
内部编码:ziplist(压缩列表) 、hashtable(哈希表)
-
应用场景:缓存用户信息等
List(列表):
-
简介:列表(list)类型是用来存储多个有序的字符串,一个列表最多可以存储 2^32-1 个元素
-
简单实用举例:lpush key value [value ...] 、lrange key start end
-
内部编码:ziplist(压缩列表)、linkedlist(链表)
-
应用场景:消息队列,文章列表
Set(集合):
-
简介:集合(set)类型也是用来保存多个的字符串元素,但是不允许重复元素
-
简单使用举例:sadd key element [element ...]、smembers key
-
内部编码:intset(整数集合)、hashtable(哈希表)
-
应用场景:用户标签,生成随机数抽奖、社交需求
有序集合(zset):
-
简介:已排序的字符串集合,同时元素不能重复
-
简单格式举例:zadd key score member [score member ...],zrank key member
-
底层内部编码:ziplist(压缩列表)、skiplist(跳跃表)
-
应用场景:排行榜,社交需求(如用户点赞)。
| Redis 的三种特殊数据类型
如下:
-
Geo:Redis 3.2 推出的,地理位置定位,用于存储地理位置信息,并对存储的信息进行操作。
-
HyperLogLog:用来做基数统计算法的数据结构,如统计网站的 UV。
-
Bitmaps:用一个比特位来映射某个元素的状态,在 Redis 中,它的底层是基于字符串类型实现的,可以把 bitmaps 成作一个以比特位为单位的数组。
03 Redis 挂了怎么办?Redis 有几种持久化方式
Redis 是基于内存的非关系型 K-V 数据库,既然它是基于内存的,如果 Redis 服务器挂了,数据就会丢失。为了避免数据丢失了,Redis 提供了持久化,即把数据保存到磁盘。
Redis 提供了 RDB 和 AOF 两种持久化机制,它持久化文件加载流程如下:
| RDB
RDB,就是把内存数据以快照的形式保存到磁盘上。
什么是快照?可以这样理解,给当前时刻的数据,拍一张照片,然后保存下来。
RDB 持久化,是指在指定的时间间隔内,执行指定次数的写操作,将内存中的数据集快照写入磁盘中,它是 Redis 默认的持久化方式。
执行完操作后,在指定目录下会生成一个 dump.rdb 文件,Redis 重启的时候,通过加载 dump.rdb 文件来恢复数据。
RDB 触发机制主要有以下几种:
RDB 的优点:适合大规模的数据恢复场景,如备份,全量复制等。
RDB 缺点:没办法做到实时持久化/秒级持久化;新老版本存在 RDB 格式兼容问题
| AOF
AOF(append only file) 持久化,采用日志的形式来记录每个写操作,追加到文件中,重启时再重新执行 AOF 文件中的命令来恢复数据。它主要解决数据持久化的实时性问题。默认是不开启的。
AOF 的工作流程如下:
AOF的优点:数据的一致性和完整性更高。
AOF 的缺点:AOF 记录的内容越多,文件越大,数据恢复变慢。
04 多线程情况下,如何保证线程安全?
加锁,比如悲观锁 select for update,sychronized 等,如,乐观锁,乐观锁如 CAS 等,还有 redis 分布式锁等等。
05 用过 volatile 吗?它是如何保证可见性的,原理是什么
volatile 关键字是 Java 虚拟机提供的的最轻量级的同步机制,它作为一个修饰符, 用来修饰变量。它保证变量对所有线程可见性,禁止指令重排,但是不保证原子性。
我们先来看下 java 内存模型(jmm):
-
Java 虚拟机规范试图定义一种 Java 内存模型,来屏蔽掉各种硬件和操作系统的内存访问差异,以实现让 Java 程序在各种平台上都能达到一致的内存访问效果。
-
Java 内存模型规定所有的变量都是存在主内存当中,每个线程都有自己的工作内存。这里的变量包括实例变量和静态变量,但是不包括局部变量,因为局部变量是线程私有的。
-
线程的工作内存保存了被该线程使用的变量的主内存副本,线程对变量的所有操作都必须在工作内存中进行,而不能直接操作操作主内存。并且每个线程不能访问其他线程的工作内存。
volatile 变量,保证新值能立即同步回主内存,以及每次使用前立即从主内存刷新,所以我们说 volatile 保证了多线程操作变量的可见性。
volatile 保证可见性跟内存屏障有关。我们来看一段 volatile 使用的 demo 代码:
public class Singleton { private volatile static Singleton instance; private Singleton (){} public static Singleton getInstance() { if (instance == null) { synchronized (Singleton.class) { if (instance == null) { instance = new Singleton(); } } } return instance; } }
编译后,对比有 volatile 关键字和没有 volatile 关键字时所生成的汇编代码,发现有 volatile 关键字修饰时,会多出一个 lock addl $0x0,(%esp),即多出一个 lock 前缀指令,lock 指令相当于一个内存屏障。
lock 指令相当于一个内存屏障,它保证以下这几点:
-
重排序时不能把后面的指令重排序到内存屏障之前的位置
-
将本处理器的缓存写入内存
-
如果是写入动作,会导致其他处理器中对应的缓存无效
第 2 点和第 3 点就是保证 volatile 保证可见性的体现嘛。
06 MySQL 的索引结构,聚簇索引和非聚簇索引的区别
如下:
-
一个表中只能拥有一个聚集索引,而非聚集索引一个表可以存在多个。
-
索引是通过二叉树的数据结构来描述的,我们可以这么理解聚簇索引:索引的叶节点就是数据节点。而非聚簇索引的叶节点仍然是索引节点,只不过有一个指针指向对应的数据块。
-
聚集索引:物理存储按照索引排序;非聚集索引:物理存储不按照索引排序。
07 MySQL 有几种高可用方案,你们用的是哪一种
如下:
-
主从或主主半同步复制
-
半同步复制优化
-
高可用架构优化
-
共享存储
-
分布式协议
| 主从或主主半同步复制
用双节点数据库,搭建单向或者双向的半同步复制。架构如下:
通常会和 proxy、keepalived 等第三方软件同时使用,即可以用来监控数据库的健康,又可以执行一系列管理命令。如果主库发生故障,切换到备库后仍然可以继续使用数据库。
这种方案优点是架构、部署比较简单,主机宕机直接切换即可。
缺点是完全依赖于半同步复制,半同步复制退化为异步复制,无法保证数据一致性;另外,还需要额外考虑 haproxy、keepalived 的高可用机制。
| 半同步复制优化
半同步复制机制是可靠的,可以保证数据一致性的。但是如果网络发生波动,半同步复制发生超时会切换为异步复制,异复制是无法保证数据的一致性的。
因此,可以在半同复制的基础上优化一下,尽可能保证半同复制。如双通道复制方案:
-
优点:这种方案架构、部署也比较简单,主机宕机也是直接切换即可。比方案 1 的半同步复制,更能保证数据的一致性。
-
缺点:需要修改内核源码或者使用 mysql 通信协议,没有从根本上解决数据一致性问题。
| 高可用架构优化
保证高可用,可以把主从双节点数据库扩展为数据库集群。
Zookeeper可以作为集群管理,它使用分布式算法保证集群数据的一致性,可以较好的避免网络分区现象的产生:
-
优点:保证了整个系统的高可用性,扩展性也较好,可以扩展为大规模集群。
-
缺点:数据一致性仍然依赖于原生的 mysql 半同步复制;引入 Zookeeper 使系统逻辑更复杂。
| 共享存储
共享存储实现了数据库服务器和存储设备的解耦,不同数据库之间的数据同步不再依赖于 MySQL 的原生复制功能,而是通过磁盘数据同步的手段,来保证数据的一致性。
DRBD 磁盘复制:DRBD 是一个用软件实现的、无共享的、服务器之间镜像块设备内容的存储复制解决方案。
主要用于对服务器之间的磁盘、分区、逻辑卷等进行数据镜像,当用户将数据写入本地磁盘时,还会将数据发送到网络中另一台主机的磁盘上,这样的本地主机(主节点)与远程主机(备节点)的数据就可以保证实时同步。
常用架构如下:
当本地主机出现问题,远程主机上还保留着一份相同的数据,即可以继续使用,保证了数据的安全。
-
优点:部署简单,价格合适,保证数据的强一致性
-
缺点:对 IO 性能影响较大,从库不提供读操作
| 分布式协议
分布式协议可以很好解决数据一致性问题。常见的部署方案就是 MySQL cluster,它是官方集群的部署方案,通过使用 NDB存储引擎实时备份冗余数据,实现数据库的高可用性和数据一致性。
如上图:
-
优点:不依赖于第三方软件,可以实现数据的强一致性
-
缺点:配置较复杂;需要使用 NDB 储存引擎;至少三节点
08 说说你做过最有挑战性的项目,你负责那个模块,哪些最有挑战性,说说你做了哪些优化
项目这块的话,大家可以结合自己实际做的项目说哈。
09 秒杀采用什么方案
设计一个秒杀系统,需要考虑这些问题:
如何解决这些问题呢?
-
页面静态化
-
按钮至灰控制
-
服务单一职责
-
秒杀链接加盐
-
限流
-
分布式锁
-
MQ 异步处理
-
限流&降级&熔断
| 页面静态化
秒杀活动的页面,大多数内容都是固定不变的,如商品名称,商品图片等等,可以对活动页面做静态化处理,减少访问服务端的请求。
秒杀用户会分布在全国各地,有的在上海,有的在深圳,地域相差很远,网速也各不相同。
为了让用户最快访问到活动页面,可以使用 CDN(Content Delivery Network,内容分发网络)。CDN 可以让用户就近获取所需内容。
| 按钮至灰控制
秒杀活动开始前,按钮一般需要置灰的。只有时间到了,才能变得可以点击。这是防止,秒杀用户在时间快到的前几秒,疯狂请求服务器,然后秒杀时间点还没到,服务器就自己挂了。
| 服务单一职责
我们都知道微服务设计思想,也就是把各个功能模块拆分,功能那个类似的放一起,再用分布式的部署方式。
如用户登录相关的,就设计个用户服务,订单相关的就搞个订单服务,再到礼物相关的就搞个礼物服务等等。那么,秒杀相关的业务逻辑也可以放到一起,搞个秒杀服务,单独给它搞个秒杀数据库。” 服务单一职责有个好处:如果秒杀没抗住高并发的压力,秒杀库崩了,服务挂了,也不会影响到系统的其他服务。
| 秒杀链接加盐
链接如果明文暴露的话,会有人获取到请求 Url,提前秒杀了。因此,需要给秒杀链接加盐。可以把 URL 动态化,如通过 MD5 加密算法加密随机的字符串去做 url。
| 限流
一般有两种方式限流:nginx 限流和 redis 限流。
-
为了防止某个用户请求过于频繁,我们可以对同一用户限流
-
为了防止黄牛模拟几个用户请求,我们可以对某个 IP 进行限流
-
为了防止有人使用代理,每次请求都更换 IP 请求,我们可以对接口进行限流
-
为了防止瞬时过大的流量压垮系统,还可以使用阿里的 Sentinel、Hystrix 组件进行限流
| 分布式锁
可以使用 redis 分布式锁解决超卖问题。使用 Redis 的 SET EX PX NX + 校验唯一随机值,再删除释放锁。
if(jedis.set(key_resource_id, uni_request_id, "NX", "EX", 100s) == 1){ //加锁 try { do something //业务处理 }catch(){ } finally { //判断是不是当前线程加的锁,是才释放 if (uni_request_id.equals(jedis.get(key_resource_id))) { jedis.del(lockKey); //释放锁 } } }
在这里,判断是不是当前线程加的锁和释放锁不是一个原子操作。如果调用 jedis.del() 释放锁的时候,可能这把锁已经不属于当前客户端,会解除他人加的锁。
为了更严谨,一般也是用 lua 脚本代替。lua 脚本如下:
if redis.call('get',KEYS[1]) == ARGV[1] then return redis.call('del',KEYS[1]) else return 0 end;
| MQ 异步处理
如果瞬间流量特别大,可以使用消息队列削峰,异步处理。用户请求过来的时候,先放到消息队列,再拿出来消费。
| 限流&降级&熔断
如下:
-
限流,就是限制请求,防止过大的请求压垮服务器
-
降级,就是秒杀服务有问题了,就降级处理,不要影响别的服务
-
熔断,服务有问题就熔断,一般熔断降级是一起出现
10 聊聊分库分表,分表为什么要停服这种操作,如果不停服可以怎么做
分库分表方案:
-
水平分库:以字段为依据,按照一定策略(hash、range 等),将一个库中的数据拆分到多个库中。
-
水平分表:以字段为依据,按照一定策略(hash、range 等),将一个表中的数据拆分到多个表中。
-
垂直分库:以表为依据,按照业务归属不同,将不同的表拆分到不同的库中。
-
垂直分表:以字段为依据,按照字段的活跃性,将表中字段拆到不同的表(主表和扩展表)中。
常用的分库分表中间件:
-
sharding-jdbc(当当)
-
Mycat
-
TDDL(淘宝)
-
Oceanus(58 同城数据库中间件)
-
vitess(谷歌开发的数据库中间件)
-
Atlas(Qihoo 360)
分库分表可能遇到的问题:
-
事务问题:需要用分布式事务啦
-
跨节点 Join 的问题:解决这一问题可以分两次查询实现
-
跨节点的 count,order by,group by 以及聚合函数问题:分别在各个节点上得到结果后在应用程序端进行合并
-
数据迁移,容量规划,扩容等问题
-
ID 问题:数据库被切分后,不能再依赖数据库自身的主键生成机制啦,最简单可以考虑 UUID
-
跨分片的排序分页问题(后台加大 pagesize 处理?)
分表要停服嘛?不停服怎么做?
不用。不停服的时候,应该怎么做呢,分五个步骤:
-
编写代理层,加个开关(控制访问新的 DAO 还是老的 DAO,或者是都访问),灰度期间,还是访问老的 DAO。
-
发版全量后,开启双写,既在旧表新增和修改,也在新表新增和修改。日志或者临时表记下新表 ID 起始值,旧表中小于这个值的数据就是存量数据,这批数据就是要迁移的。
-
通过脚本把旧表的存量数据写入新表。
-
停读旧表改读新表,此时新表已经承载了所有读写业务,但是这时候不要立刻停写旧表,需要保持双写一段时间。
-
当读写新表一段时间之后,如果没有业务问题,就可以停写旧表啦。
11 你怎么防止优惠券有人重复刷?
对于重复请求,要考虑接口幂等和接口防重。防刷的话,可以限流以及加入黑名单处理。
-
为了防止某个用户请求优惠券过于频繁,我们可以对同一用户限流。
-
为了防止黄牛等模拟几个用户请求,我们可以对某个 IP 进行限流。
-
为了防止有人使用代理,每次请求都更换 IP 请求,我们可以对接口进行限流。
12 抖音评论系统怎么设计,如果加入好友关系呢?
需要考虑性能,以及可扩展性。大家平时有没有做过评论、好友关注等项目需求呀,发挥你聪明的小脑袋瓜,怎么去回答好这道题吧。
13 怎么设计一个短链地址,要考虑跨机房部署问题
| 为什么需要短连接?
为什么需要短连接呢?长链接不香吗?因为有些平台有长度限制,并且链接太长容易被识别为超链接等等。
| 短链接的原理
其实就是一个 302 重定向而已。
302 状态码表示临时重定向。
| 短链接生成的方法
可以用哈希算法生成短链,但是会存在哈希冲突。怎么解决呢?可以用布隆过滤器。
有没有别的方案?自增序列算法,每次收到一个长链时,就分配一个 ID,并转成 62 进制拼接到短域后面。因为高并发下,ID 自增生成器可能成为瓶颈。
一般有四种分布式 ID 生成方法:
-
uuid,它保证对在同一时空中的所有机器都是唯一的,但是这种方式生成的 id 比较长,并且是无序的,插入浪费空间。
-
Snowflake 雪花算法,这种方案不错,但是如果某台机器的系统时钟回拨,有可能造成 ID 冲突重复,或者 ID 乱序(考虑跨机房部署问题)。
-
MySQL 自增主键,在高并发下,db 的写压力会很大
-
用 Redis 做自增 id 生成器,性能高,但要考虑持久性的问题;或者改造雪花算法,通过改造 workId 解决时钟回拨的问题)
14 有一个整型数组,数组元素不重复,数组元素先升序后降序,找出最大值
例如:1,3,5,7,9,8,6,4,2,请写一个函数找出数组最大的元素
这道题大家都会觉得很简单,因为用快速排序排一下,时间复杂是 O(nlgn),面试官可能不是很满意。其实可以用二分查找法,只要找到升序最后一个元素即可。
我们以 1,6,5,4,2 为例子,用二分法图解一下哈:
如何用二分法缩小空间呢?只要比较中间元素与其下一个元素大小即可:
如果中间元素大于其下一个元素大小,证明最大值在左侧,因此右指针左移;
如果中间元素小于其下一个元素大小,证明最大值在左侧,因此右指针左移
因为 nums[mid]=5>nums[mid+1]=4,因此右指针左移,right=mid-1=2-1=1。
mid=left+(right-left)/2=left=0,因为 nums[mid]=1<nums[mid+1]=6,所以左指针右移,left=mid+1=1。
最后得出最大值是 nums[left]=nums[1]=6,实现代码如下:
class Solution { public static void main(String[] args) { int[] nums = {1,3,5,7,9,8,6,4,2}; System.out.println(getLargestNumInArray(nums)); } private static int getLargestNumInArray(int[] nums) { if (nums == null || nums.length == 0) { return -1; } int left = 0, right = nums.length - 1; while (left <= right) { int mid = left + ((right - left) / 2); if (nums[mid] < nums[mid + 1]) { left = mid + 1; } else { right = mid - 1; } } return nums[left]; } }
参考:
捡田螺的小男孩
https://mp.weixin.qq.com/s/ADflq-kUSK5ZVF1zeVLoCw