[软件设计&系统建模] Web软件通用能力模块

0 基础工具

1 日志

2 权限

3 文件处理(下载/上传)

4 对象池

  • 对象池
  • Apache Common Pool2
  • 数据库连接池
  • 线程池

5 微服务

服务网关

随着微服务的不断增多,不同的微服务一般会有不同的网络地址,而外部客户端可能需要调用多个服务的接口才能完成一个业务需求,如果让客户端直接与各个微服务通信可能出现:

  • 客户端会多次请求不同的微服务,增加了客户端的复杂性
  • 存在跨域请求,在一定场景下处理相对复杂
  • 身份认证问题,每个微服务需要独立身份认证
  • 难以重构,随着项目的迭代,可能需要重新划分微服务
  • 某些微服务可能使用了防火墙/浏览器不友好的协议,直接访问会有一定的困难

针对这些问题,API网关顺势而生。

API 网关字面意思是将所有 API 调用统一接入到 API 网关层,由网关层统一接入和输出。
一个网关的基本功能有:统一接入、安全防护、协议适配、流量管控、长短连接支持、容错能力。
有了网关之后,各个 API 服务提供团队可以专注于自己的的业务逻辑处理,而 API 网关更专注于安全、流量、路由等问题。

Zuul

Spring Cloud Gateway

负载均衡

  • 服务高可用的保证手段,为了保证高可用,每一个微服务都需要部署多个服务实例来提供服务,此时就需要根据不同的负载均衡策略对服务进行调用。

  • 负载均衡策略

1 轮询策略

实现原理:轮询策略表示每次都顺序取下一个 provider,比如一共有 5 个 provider,第 1 次取第 1 个,第 2 次取第 2 个,第 3 次取第 3 个,以此类推。

2 权重轮询策略

根据每个 provider 的响应时间分配一个权重,响应时间越长,权重越小,被选中的可能性越低。
原理:一开始为轮询策略,并开启一个计时器,每 30 秒收集一次每个 provider 的平均响应时间,当信息足够时,给每个 provider 附上一个权重,并按权重随机选择 provider,高权越重的 provider 会被高概率选中。

3 随机策略

实现原理:从 provider 列表中随机选择一个。

4 最少并发数策略

实现原理:选择正在请求中的并发数最小的 provider,除非这个 provider 在熔断中。

5 重试策略

实现原理:其实就是轮询策略的增强版,轮询策略服务不可用时不做处理,重试策略服务不可用时会重新尝试集群中的其他节点。

6 可用性敏感策略

实现原理:过滤性能差的 provider
第一种:过滤掉在 Eureka 中处于一直连接失败的 provider。
第二种:过滤掉高并发(繁忙)的 provider。

7 区域敏感性策略

以一个区域为单位考察可用性,对于不可用的区域整个丢弃,从剩下区域中选可用的 provider。
如果这个 ip 区域内有一个或多个实例不可达或响应变慢,都会降低该 ip 区域内其他 ip 被选中的权 重。

客户端负载均衡解决方案 : Ribbon

  • Ribbon实现客户端的负载均衡,负载均衡器提供很多对http和tcp的行为控制。

Spring cloud Feign已经集成Ribbon,所以注解@FeignClient的类,默认实现了ribbon的功能。

  • 主要包含如下组件:
  • IRule:根据特定算法中从服务列表中选取一个要访问的服务
  • IPing:在后台运行的一个组件,用于检查服务列表是否都活
  • ServerList:存储服务列表。分为静态和动态。如果是动态的,后台有个线程会定时刷新和过滤服务列表;
  • ServerListFilter:DynamicServerListLoadBalancer用于过滤从ServerList实现返回的服务器的组件
  • ServerListUpdater:被DynamicServerListLoadBalancer用于动态的更新服务列表
  • IClientConfig:定义各种配置信息,用来初始化ribbon客户端和负载均衡器
  • ILoadBalancer:定义软件负载平衡器操作的接口。动态更新一组服务列表及根据指定算法从现有服务器列表中选择一个服务
  • 作用
  • 服务器发现
  • 选择服务器操作
  • 获取所有的服务器列表------不再硬编码服务的地址
  • 服务监听
  • Ribbon是一个为客户端提供负载均衡功能的服务,它内部提供了一个叫做ILoadBalance的接口代表负载均衡器的操作。

我们可以在配置文件中Load Balancer后面的所有机器,Ribbon会自动的帮助你基于某种规则(如简单轮询,随机连接等)去连接这些机器。

服务调用

通信协议: REST(HTTP) Vs. RPC(TCP)

在微服务架构中,通常存在多个服务之间的远程调用的需求。目前主流的远程调用技术有基于 HTTP 的 RESTful 接口和基于 TCP 的 RPC 协议。以上两种都属于同步通信,还有基于队列模式的异步通信。

  • REST(Representational State Transfer):一种 HTTP 调用的格式,更标准,更通用,无论哪种语言都支持 http 协议。
  • RPC(Remote Promote Call):一种进程间通信方式,允许像调用本地服务一样调用远程服务。RPC 框架的主要目标就是让远程服务调用更简单、透明。RPC 框架负责屏蔽底层的传输方式、序列化方式和通信细节。开发人员在使用的时候只需要了解谁在什么位置提供了什么样的远程服务接口即可,并不需要关心底层通信细节和调用过程。
比较项 REST RPC
通讯协议 HTTP 一般为TCP
性能 略低 较高
灵活度
应用架构 一般为微服务架构 一般为 SOA 架构

Feign

  • github

https://github.com/OpenFeign/feign

服务治理:服务注册

服务治理就是进行服务的自动化管理,其核心是服务的自动注册与发现。

  • 服务注册:服务实例将自身服务信息注册到注册中心。
  • 服务发现:服务实例通过注册中心,获取注册到其中的服务实例的信息,通过这些信息去请求它们提供的服务。
  • 服务剔除/服务注销:服务注册中心将出问题的服务自动剔除到可用列表之外,使其不会被调用到。

Nacos Discovery

Eureka

服务治理:服务发现

Nacos Discovery

Eureka

Eureka是spring cloud中的一个负责服务注册与发现的组件。遵循着CAP理论中的A(可用性)P(分区容错性)。

一个Eureka中分为eureka server和eureka client。其中eureka server是作为服务的注册与发现中心。eureka client既可以作为服务的生产者,又可以作为服务的消费者。具体结构如下图:

  • 首先,会启动一个或多个Eureka server,这些eureka server同步保留着所有的服务信息。
  • 然后,我们启动不同的eureka client,向服务端发起服务注册和服务查询。
  • 不论我们是向那个eureka server进行的注册,最终都会同步给所有配置好的eureka server。

我们获取的服务信息,也同样都是一致的。

服务治理:服务注销

服务容错:服务熔断 / 服务降级 / 服务限流

  • 在微服务中,一个请求经常会涉及到调用多个服务,如果其中某个服务不可用,没有做服务容错的话,极有可能会造成一连串的服务不可用,这就是雪崩效应。最终的结果就是:一个服务不可用,导致一系列服务的不可用。

  • 造成雪崩的原因可以归结为以下三点:

  • 服务提供者不可用(硬件故障,程序 BUG,缓存击穿,用户大量请求等)
  • 重试加大流量(用户重试,代码逻辑重试)
  • 服务消费者不可用(同步等待造成的资源耗尽)
  • 我们没法预防雪崩效应的发生,只能尽可能去做好容错。服务容错的三个核心思想是:
  • 不被外界环境影响
  • 不被上游请求压垮
  • 不被下游响应拖垮

Netflix Hystrix(熔断/降级/限流)

在分布式系统中,远程系统或服务不可避免的调用失败(超时或者异常)。假设客户端依赖多个服务,在一次请求中,某一个服务出现异常,则整个请求会处理失败;当某一服务等待时间过长,则所有的请求都会阻塞在这个服务的请求上。这样因为一个服务就导致了整个系统的可用性。Netflix 的组件Hystrix可以将这些请求隔离,针对服务限流,当服务不可用时能够熔断并降级,防止级联故障。

链路追踪

Skywalking

随着微服务架构的流行,服务按照不同的维度进行拆分,一次请求往往需要涉及到多个服务。互联网应用构建在不同的软件模块集上,这些软件模块,有可能是由不同的团队开发、可能使用不同的编程语言来实现、有可能布在了几千台服务器,横跨多个不同的数据中心。因此,就需要对一次请求涉及的多个服务链路进行日志记录,性能监控等等。单纯的理解链路追踪,就是指一次任务的开始到结束,期间调用的所有系统及耗时(时间跨度)都可以完整记录下来。

链路追踪系统做好了,链路数据有了,借助前端解析和渲染工具,可以达到下图中的效果:

配置中心

配置文件是我们再熟悉不过的,在微服务系统中,每个微服务不仅仅只有代码,还需要连接其他资源,例如数据库的配置或功能性的开关 MySQL、Redis 、Security 等相关的配置。除了项目运行的基础配置之外,还有一些配置是与我们业务有关系的,比如说七牛存储、短信和邮件相关,或者一些业务上的开关。
但是随着微服务系统的不断迭代,整个微服务系统可能会成为一个网状结构,这个时候就要考虑整个微服务系统的扩展性、伸缩性、耦合性等等。其中一个很重要的环节就是配置管理的问题。

  • 常规配置管理解决方案缺点:
  • 硬编码(需要修改代码、繁琐、风险大)
  • properties 或者 yml(集群环境下需要替换和重启)
  • xml(重新打包和重启)

由于常规配置管理有很大的缺点,所以采用 Spring Cloud ConfigConsulApolloNacos 等配置中心集中式的来管理每个服务的配置信息。

Nacos Config

健康检测

Actuator

Promethus

Prometheus 是一款基于时序数据库的开源监控告警系统,非常适合Kubernetes集群的监控。Prometheus的基本原理是通过HTTP协议周期性抓取被监控组件的状态,任意组件只要提供对应的HTTP接口就可以接入监控。不需要任何SDK或者其他的集成过程。这样做非常适合做虚拟化环境监控系统,比如VM、Docker、Kubernetes等。输出被监控组件信息的HTTP接口被叫做exporter 。目前互联网公司常用的组件大部分都有exporter可以直接使用,比如Varnish、Haproxy、Nginx、MySQL、Linux系统信息(包括磁盘、内存、CPU、网络等等)。Promethus有以下特点:

  • 支持多维数据模型:由度量名和键值对组成的时间序列数据
  • 内置时间序列数据库TSDB
  • 支持PromQL查询语言,可以完成非常复杂的查询和分析,对图表展示和告警非常有意义
  • 支持HTTP的Pull方式采集时间序列数据
  • 支持PushGateway采集瞬时任务的数据
  • 支持服务发现和静态配置两种方式发现目标
  • 支持接入Grafana

安全认证

单体应用架构分布式应用架构,再到微服务架构,应用的安全访问在不断的经受考验。为了适应架构的变化、需求的变化,身份认证与鉴权方案也在不断的变革。面对数十个甚至上百个微服务之间的调用,如何保证高效安全的身份认证?面对外部的服务访问,该如何提供细粒度的鉴权方案?

David Borsos 在伦敦的微服务大会上提出了四种解决方案:

解决方案: 单点登录(SSO) | Keycloak / ...

这种方案意味着每个面向用户的服务都必须与认证服务交互,这会产生大量非常琐碎的网络流量和重复的工作,随着微服务应用的增多,这种方案的弊端会更加明显。

解决方案: 分布式 Session 方案 | Redis Session Key

分布式会话方案原理主要是将关于用户认证的信息存储在共享存储中,且通常由用户会话作为 Key 来实现的简单分布式哈希映射。当用户访问微服务时,用户数据可以从共享存储中获取。这种方案的缺点在于共享存储需要一定保护机制,因此需要通过安全连接来访问,这时解决方案的实现就通常具有相当高的复杂性了。

解决方案: 客户端 Token 方案

令牌在客户端生成,由身份验证服务进行签名,并且必须包含足够的信息,以便可以在所有微服务中建立用户身份。
令牌会附加到每个请求上,为微服务提供用户身份验证,这种解决方案的安全性相对较好,但身份验证注销是一个大问题,缓解这种情况的方法可以使用短期令牌和频繁检查认证服务等。
对于客户端令牌的编码方案,David Borsos 更喜欢使用 JSON Web Tokens(JWT),它足够简单且库支持程度也比较好。

  • 客户端 Token 与 API 网关结合
    这个方案意味着所有请求都通过网关,从而有效地隐藏了微服务。 在请求时,网关将原始用户令牌转换为内部会话 ID 令牌。在这种情况下,注销就不是问题,因为网关可以在注销时撤销用户的令牌。

总结

在微服务架构下,我们更倾向于 David Borsos 所建议的 JWT 方案,将 OAuth2 和 JWT 结合使用,OAuth2 一般用于第三方接入的场景,管理对外的权限,所以比较适合和 API 网关结合,针对于外部的访问进行鉴权(当然,底层 Token 标准采用 JWT 也是可以的)。

JWT 更加轻巧,在微服务之间进行认证&鉴权已然足够,并且可以避免和身份认证服务直接打交道。当然,从能力实现角度来说,类似于分布式 Session 在很多场景下也是完全能满足需求,具体怎么去选择鉴权方案,还是要结合实际的需求来。

分布式事务

Alibaba Seata

Seata框架是一个业务层的XA(两阶段提交)解决方案。

Seata的分布式事务解决方案是业务层面的解决方案,只依赖于单台数据库的事务能力。Seata框架中一个分布式事务包含3中角色:

  • Transaction Coordinator (TC): 事务协调器,维护全局事务的运行状态,负责协调并驱动全局事务的提交或回滚。
  • Transaction Manager (TM): 控制全局事务的边界,负责开启一个全局事务,并最终发起全局提交或全局回滚的决议。
  • Resource Manager (RM): 控制分支事务,负责分支注册、状态汇报,并接收事务协调器的指令,驱动分支(本地)事务的提交和回滚。

其中,TM是一个分布式事务的发起者和终结者,TC负责维护分布式事务的运行状态,而RM则负责本地事务的运行。如下图所示:

一个分布式事务在Seata中的执行流程:

  • TM 向 TC 申请开启一个全局事务,全局事务创建成功并生成一个全局唯一的 XID。
  • XID 在微服务调用链路的上下文中传播。
  • RM 向 TC 注册分支事务,接着执行这个分支事务并提交(重点:RM在第一阶段就已经执行了本地事务的提交/回滚),最后将执行结果汇报给TC。
  • TM 根据 TC 中所有的分支事务的执行情况,发起全局提交或回滚决议。
  • TC 调度 XID 下管辖的全部分支事务完成提交或回滚请求。

6 缓存

本地缓存

远程缓存

Redis缓存

7 消息队列

Kafka

8 任务调度

Spring Schedule

XXL-Job

Apache Dolphin Scheduler

9 HTTP请求框架

HttpURLConnection

Apache HttpComponnets

OkHttp3

Netty

Http Client

JSoup

10 工作流

osworkflow

jbpm

activiti

flowable

camunda

K 软件工程

版本管理

查看版本信息

  • git / maven / ...

Y 业务相关

用户模块

注册
  基于手机短信验证码
    发送短信验证码
    基于短信验证码注册账号
  基于邮箱验证码
    发送邮箱验证码
    基于邮箱验证码注册账号
  基于第三方账户绑定注册(短信/邮箱/微信/QQ/Github)
登录
  基于手机短信验证码
    发送短信验证码
    基于短信验证码登录
  基于邮箱验证码
    发送邮箱验证码
    基于邮箱验证码登录
  第三方登录/单点登录
账号登出
重置密码


查看账号与安全信息

后台管理模块

偏前端、UI

推荐模块

X 参考文献

posted @ 2023-01-30 10:36  千千寰宇  阅读(56)  评论(0编辑  收藏  举报