原版leaf已于2020-04-12停更,我基于自身需求fork后改动,主要改动点如下(不包括雪花算法部分):
- 精简core模块,单元测试移动到server。
- 增加spring-boot-starter(没有上传中央仓库,需要自行安装并引入)。
- 修改打包脚本,打包到
deploy目录下,并生成启动脚本start-server.sh。 - 修改server启动方式,将属性移动到启动参数,通过
-Dk=v传入。 - 不再限制号段表表名和字段名,由用户自行实现
IDAllocDao接口,可以是mybatis 映射,也可以是服务组件@Service或@Component。 - 增加id长度限制功能,通过
max_number限制id长度,比如999999代表最大长度是6。 - 增加日期变化时重置id功能。
- 增加带静态方法的工具类
LeafSegmentGenerator。
将项目通过mvn install安装到本地后,在新项目引入,注册一个IDAllocDao的实现类,可以是mybatis接口,也可以是服务组件,然后配置
leaf.segment.enable=true即可自动配置一个SegmentIDGenImplbean和静态工具类LeafSegmentGenerator。
我们提供了一个基于spring boot的HTTP服务来获取ID
Leaf 提供两种生成的ID的方式(号段模式和snowflake模式),你可以同时开启两种方式,也可以指定开启某种方式(默认两种方式为关闭状态)。
Leaf Server的配置都在leaf-server/src/main/resources/leaf.properties中
| 配置项 | 含义 | 默认值 |
|---|---|---|
| leaf.name | leaf 服务名 | |
| leaf.segment.enable | 是否开启号段模式 | false |
| leaf.jdbc.url | 数据库库地址 | |
| leaf.jdbc.username | 数据库用户名 | |
| leaf.jdbc.password | 数据库密码 | |
| leaf.snowflake.enable | 是否开启snowflake模式 | false |
| leaf.snowflake.zk.address | snowflake模式下的zk地址 | |
| leaf.snowflake.port | snowflake模式下的服务注册端口 |
如果使用号段模式,需要建立DB表,并配置leaf.jdbc.url, leaf.jdbc.username, leaf.jdbc.password。
如果不想使用该模式配置leaf.segment.enable=false即可。
-- mysql
DROP TABLE IF EXISTS `leaf_alloc`;
CREATE TABLE `leaf_alloc` (
`biz_tag` varchar(128) NOT NULL DEFAULT '',
`prefix` varchar(4) not null default '',
`max_id` bigint(20) NOT NULL DEFAULT '1',
`step` int(11) NOT NULL,
`description` varchar(256) DEFAULT NULL,
`max_number` bigint(20) not null default 999999,
`update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
PRIMARY KEY (`biz_tag`)
);
-- pgsql
-- pgsql没有on update,因此要手动更新。
CREATE TABLE leaf_alloc
(
biz_tag varchar(128) NOT NULL DEFAULT '' primary key,
prefix varchar(4) not null default '',
max_id bigint NOT NULL DEFAULT 1,
step int NOT NULL,
description varchar(256) DEFAULT NULL,
max_number bigint not null default 999999,
update_time timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP
);
insert into leaf_alloc
(biz_tag, prefix, max_id, step, description, max_number)
values('test', 'test', 1, 100, '测试', '999999');在leaf.properties中配置leaf.jdbc.url, leaf.jdbc.username, leaf.jdbc.password参数
算法取自twitter开源的snowflake算法。
如果不想使用该模式配置leaf.snowflake.enable=false即可。
在leaf.properties中配置leaf.snowflake.zk.address,配置leaf 服务监听的端口leaf.snowflake.port。
git clone [email protected]:cpupg/leaf.git
//按照上面的号段模式在工程里面配置好
cd leaf
sh deploy.sh注意:首先得先配置好数据库表或者zk地址
cd deploy;
sh start-server.sh#segment
curl http://localhost:8080/api/segment/get/leaf-segment-test
#snowflake
curl http://localhost:8080/api/snowflake/get/test号段模式:http://localhost:8080/cache
当然,为了追求更高的性能,需要通过RPC Server来部署Leaf 服务,那仅需要引入leaf-core的包,把生成ID的API封装到指定的RPC框架中即可。
注意现在leaf使用snowflake模式的情况下 其获取ip的逻辑直接取首个网卡ip【特别对于会更换ip的服务要注意】避免浪费workId