概述
详细
1. Sharding-JDBC 简介
Sharding-Sphere 是一套开源的分布式数据库中间件解决方案组成的生态圈,它由 Sharding-JDBC、Sharding-Proxy和Sharding-Sidecar(计划中) 这3款相互独立的产品组成。他们均提供标准化的数据分片、分布式事务和数据库治理功能,可适用于如Java同构、异构语言、容器、 云原生等各种多样化的应用场景。
ShardingSphere 定位为关系型数据库中间件,旨在充分合理地在分布式的场景下利用关系型数据库的计算和存储能力, 而并非实现一个全新的关系型数据库。下面是 Sharding-Sphere 的架构图。
Sharding-JDBC 定位为轻量级 Java 框架,在 Java 的 JDBC 层提供的额外服务。 它使用客户端直连数据库,以jar包形式提供服务, 无需额外部署和依赖,可理解为增强版的JDBC驱动,完全兼容JDBC和各种ORM框架。
- 适用于任何基于Java的ORM框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template或直接使用JDBC。
- 基于任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, Druid, HikariCP等。
- 支持任意实现JDBC规范的数据库。目前支持MySQL,Oracle,SQLServer和PostgreSQL。
2. 概念解释
在快速开始之前我们先要对后面要用到的一些概念进行一些解释。
逻辑表
水平拆分的数据库(表)的相同逻辑和数据结构表的总称。例:订单数据根据主键尾数拆分为10 张表, 分别是t_order_0到t_order_9,他们的逻辑表名为t_order。
真实表
在分片的数据库中真实存在的物理表。即上个示例中的t_order_0到t_order_9。
数据节点
数据分片的最小单元。由数据源名称和数据表组成,例:ds_0.t_order_0。
绑定表
指分片规则一致的主表和子表。例如:t_order表和t_order_item表,均按照order_id分片,则此两张表互为绑定表关系。 绑定表之间的多表关联查询不会出现笛卡尔积关联,关联查询效率将大大提升。举例说明,如果SQL为:
SELECT i.* FROM t_order o JOIN t_order_item i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
在不配置绑定表关系时,假设分片键order_id将数值10路由至第0片,将数值11路由至第1片,那么路由后的SQL应该为4条,它们呈现为笛卡尔积:
SELECT i.* FROM t_order_0 o JOIN t_order_item_0 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11); SELECT i.* FROM t_order_0 o JOIN t_order_item_1 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11); SELECT i.* FROM t_order_1 o JOIN t_order_item_0 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11); SELECT i.* FROM t_order_1 o JOIN t_order_item_1 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
在配置绑定表关系后,路由的SQL应该为2条:
SELECT i.* FROM t_order_0 o JOIN t_order_item_0 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11); SELECT i.* FROM t_order_1 o JOIN t_order_item_1 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
其中 t_order 在 FROM 的最左侧,ShardingSphere 将会以它作为整个绑定表的主表。所有路由计算将会只使用主表的策略, 那么t_order_item 表的分片计算将会使用 t_order 的条件。
如何将两个表绑定呢?很简单,只要把他们的分区(包括分表和分库)键设置为同一个就可以了。
分片键
简单来说就是用于分片的数据库字段,是将数据库(表)水平拆分的关键字段。例:将订单表中的订单主键的尾数取模分片,则订单主键为分片字段。 SQL中如果无分片字段,将执行全路由,性能较差。 除了对单分片字段的支持,ShardingSphere也支持根据多个字段进行分片。
快速开始
1. 建库、建表
假设我们有个业务逻辑表 t_user 现在要分表分库,假设我们分成两个库(demo_ds_0,demo_ds_1), 每个库中又把 user 表水平拆分成 t_user_0, t_user_1。
CREATE DATABASE demo_ds_0 CHARSET=utf8; use demo_ds_0; DROP TABLE IF EXISTS `t_user_0`; CREATE TABLE `t_user_0` ( `user_id` bigint(20) AUTO_INCREMENT, `username` varchar(30) NOT NULL, `password` varchar(30) DEFAULT NULL, PRIMARY KEY (`user_id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; DROP TABLE IF EXISTS `t_user_1`; CREATE TABLE `t_user_1` ( `user_id` bigint(20) AUTO_INCREMENT, `username` varchar(30) NOT NULL, `password` varchar(30) DEFAULT NULL, PRIMARY KEY (`user_id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; CREATE DATABASE demo_ds_1 CHARSET=utf8; use demo_ds_1; DROP TABLE IF EXISTS `t_user_0`; CREATE TABLE `t_user_0` ( `user_id` bigint(20) AUTO_INCREMENT, `username` varchar(30) NOT NULL, `password` varchar(30) DEFAULT NULL, PRIMARY KEY (`user_id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; DROP TABLE IF EXISTS `t_user_1`; CREATE TABLE `t_user_1` ( `user_id` bigint(20) AUTO_INCREMENT, `username` varchar(30) NOT NULL, `password` varchar(30) DEFAULT NULL, PRIMARY KEY (`user_id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
2、新建 SpringBoot 项目
a. 项目结构
b. 在pom中添加相关的依赖
<dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>io.shardingsphere</groupId> <artifactId>sharding-jdbc-spring-boot-starter</artifactId> <version>3.1.0</version> </dependency> <dependency> <groupId>org.mybatis.spring.boot</groupId> <artifactId>mybatis-spring-boot-starter</artifactId> <version>2.1.0</version> </dependency> <dependency> <groupId>com.alibaba</groupId> <artifactId>druid</artifactId> <version>1.1.6</version> </dependency> <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> </dependencies>
c. 配置文件application.properties
# 数据库连接池配置变量 initialSize=5 minIdle=5 maxIdle=100 maxActive=20 maxWait=60000 timeBetweenEvictionRunsMillis=60000 minEvictableIdleTimeMillis=300000 #################################### # configuration of DataSource #################################### sharding.jdbc.datasource.names=ds0,ds1 sharding.jdbc.datasource.ds0.type=com.alibaba.druid.pool.DruidDataSource sharding.jdbc.datasource.ds0.driver-class-name=com.mysql.jdbc.Driver sharding.jdbc.datasource.ds0.url=jdbc:mysql://localhost:3306/demo_ds_0 sharding.jdbc.datasource.ds0.username=root sharding.jdbc.datasource.ds0.password=root # 初始连接数 sharding.jdbc.datasource.ds0.initialSize=${initialSize} # 最小连接数 sharding.jdbc.datasource.ds0.minIdle=${minIdle} # 最大连接池数量 sharding.jdbc.datasource.ds0.maxActive=${maxActive} # 配置获取连接等待超时的时间 sharding.jdbc.datasource.ds0.maxWait=${maxWait} # 用来检测连接是否有效的sql sharding.jdbc.datasource.ds0.validationQuery=SELECT 1 FROM DUAL # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 sharding.jdbc.datasource.ds0.timeBetweenEvictionRunsMillis=${timeBetweenEvictionRunsMillis} # 配置一个连接在池中最小生存的时间,单位是毫秒 sharding.jdbc.datasource.ds0.minEvictableIdleTimeMillis=${minEvictableIdleTimeMillis} sharding.jdbc.datasource.ds1.type=com.alibaba.druid.pool.DruidDataSource sharding.jdbc.datasource.ds1.driver-class-name=com.mysql.jdbc.Driver sharding.jdbc.datasource.ds1.url=jdbc:mysql://localhost:3306/demo_ds_1 sharding.jdbc.datasource.ds1.username=root sharding.jdbc.datasource.ds1.password=root # 初始连接数 sharding.jdbc.datasource.ds1.initialSize=${initialSize} # 最小连接数 sharding.jdbc.datasource.ds1.minIdle=${minIdle} # 最大连接池数量 sharding.jdbc.datasource.ds1.maxActive=${maxActive} # 配置获取连接等待超时的时间 sharding.jdbc.datasource.ds1.maxWait=${maxWait} # 用来检测连接是否有效的sql sharding.jdbc.datasource.ds1.validationQuery=SELECT 1 FROM DUAL # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 sharding.jdbc.datasource.ds1.timeBetweenEvictionRunsMillis=${timeBetweenEvictionRunsMillis} # 配置一个连接在池中最小生存的时间,单位是毫秒 sharding.jdbc.datasource.ds1.minEvictableIdleTimeMillis=${minEvictableIdleTimeMillis} #################################### # 分库分表配置 #################################### #actual-data-nodes:真实数据节点,由数据源名 + 表名组成,以小数点分隔。多个表以逗号分隔,支持inline表达式 sharding.jdbc.config.sharding.tables.t_user.actual-data-nodes=ds${0..1}.t_user_${0..1} # 数据库分片列名称 sharding.jdbc.config.sharding.default-database-strategy.inline.sharding-column=user_id # 分库算法表达式(取模 , HASH , 分块等) sharding.jdbc.config.sharding.default-database-strategy.inline.algorithm-expression=ds${user_id % 2} # 分表字段 sharding.jdbc.config.sharding.tables.t_user.table-strategy.inline.sharding-column=user_id # 分表策略,这里不能跟分库策略一样,否则会导致有一半数据表没有机会插入数据 sharding.jdbc.config.sharding.tables.t_user.table-strategy.inline.algorithm-expression=t_user_${(user_id % 5) % 2} # 配置自动生成主键 sharding.jdbc.config.sharding.tables.t_user.key-generator-column-name=user_id # 配置生成自增ID的雪花算法,单台服务器可以不配置 spring.shardingsphere.sharding.tables.t_user.key-generator.column=user_id spring.shardingsphere.sharding.tables.t_user.key-generator.type=SNOWFLAKE spring.shardingsphere.sharding.tables.t_user.key-generator.props.worker.id=1 spring.shardingsphere.sharding.tables.t_user.key-generator.props.max.tolerate.time.difference.milliseconds=0 spring.shardingsphere.props.sql.show=true # open debug mode for mybatis,print SQL in console logging.level.org.rockyang.shardingjdbc.common.mapper=DEBUG logging.level.org.springframework=INFO mybatis.configuration.cache-enabled=false
d. SpringbootShardingJdbcDemoApplication启动类
package com.example.demo; import org.mybatis.spring.annotation.MapperScan; import org.springframework.boot.SpringApplication; import org.springframework.boot.autoconfigure.SpringBootApplication; @SpringBootApplication @MapperScan("com.example.demo.mapper") public class SpringbootShardingJdbcDemoApplication { public static void main(String[] args) { SpringApplication.run(SpringbootShardingJdbcDemoApplication.class, args); } }
e. 用户相关类及接口
使用最简单的用户类及相关方法来进行演示测试
User model
只说明关键属性
```javapublic final class User { private Long userId; private String username; private String password; }
**User Service**
```java
public interface UserService { /** * add a new user * @param user * @return */ Integer add(User user); /** * select all users * @return */ List<User> selectAll(); }
User Service Implementation
@Service public class UserServiceImpl implements UserService { @Resource UserMapper userMapper; @Override public Integer add(User user) { return userMapper.insert(user); } @Override public List<User> selectAll() { List<User> list=userMapper.selectAll(); return list; } }
User Mapper
@Mapper public interface UserMapper { /** * add a new user * @param model * @return */ Integer insert(User model); /** * select all users * @return */ List<User> selectAll(); }
3. 测试
a. 测试类
@RunWith(SpringRunner.class) @SpringBootTest public class UserServiceTest { private static Logger logger = LoggerFactory.getLogger(UserServiceTest.class); @Autowired private UserService userService; /* 添加一条数据 */ @Test public void testAdd() { String username = StringUtil.generateRandomString(2); String password = StringUtil.generateRandomString(2); User user = new User(username, password); userService.add(user); logger.info("userId: {}", user.getUserId()); } /* 批量添加数据 */ @Test public void testAddBatch() { String username; String password; for (int i = 0; i < 50; i++) { username = StringUtil.generateRandomString(20); password = StringUtil.generateRandomString(20); User user = new User(username, password); userService.add(user); logger.info("userId: {}", user.getUserId()); } } /* 测试查询 */ @Test public void testSelect() { List<User> users = userService.selectAll(); logger.info("Total records: {}", users.size()); for (User user : users) { logger.info("{}", user); } } }
b. 测试
对方法testAddBatch()进行测试,查看数据库如下:
库demo_ds_0
库demo_ds_1
4. 总结
- 分表的策略不能跟分库一样,比如都用 userid 取模的话,那么就会出现每个数据库中都有一半的数据表没有数据,比如 demo_ds_0 中的 t_user_1 表,demo_ds_1 中的 t_user_0, 所以我们这里分表采取了 t_user${(user_id % 5) % 2} 这种先对一个基数取模来解决这个问题。
- Sharding-JDBC 的查询是使用归并的形式,将从各个数据节点获取的多数据结果集,组合成为一个结果集并正确的返回至请求客户端。详细的算法 请参考官方文档归并引擎