Spring实战
[第十六章、使用Spring Boot
Actuator](#第十六章使用spring-boot-actuator)
第一部分、Spring基础
第一章、Spring起步
Spring的发展历程:
最常见的应用形式是基于浏览器的Web应用,后端由关系型数据库作为支撑。尽管这种形式的开发依然有它的价值,Spring也为这种应用提供了良好的支持,但是我们现在感兴趣的还包括如何开发面向云的由微服务组成的应用,这些应用会将数据保存到各种类型的数据库中。另外一个崭新的关注点是反应式编程,它致力于通过非阻塞操作提供更好的扩展性并提升性能。
Spring的核心是一个容器,也被称为应用上下文(Application Context),它们会创建和管理应用组件。这些组件也可以称为bean,会在Spring应用上下文中装配在一起,从而形成一个完整的应用程序。
配置类中:默认情况下,这些bean所对应的bean ID与定义它们的方法名称是相同的
创建第一个项目:
启动类:
@SpringBootApplication包含:
@Target({ElementType.TYPE})
@Retention(RetentionPolicy.RUNTIME)
@Documented
@Inherited
@SpringBootConfiguration
@EnableAutoConfiguration
@ComponentScan(
excludeFilters = {@Filter(
type = FilterType.CUSTOM,
classes = {TypeExcludeFilter.class}
), @Filter(
type = FilterType.CUSTOM,
classes = {AutoConfigurationExcludeFilter.class}
)}
)
实际上有用的:
SpringBootConfiguration:@Configuration注解的特殊形式
EnableAutoConfiguration:启动SpringBoot的自动装配
ComponentScan:启用组件扫描。扫描\@Component、@Service这种注解声明的其他类,并将他们注册到Spring应用上下文中
SpringApplication.run(TacoCloudApplication.class, args);
创建Spring应用上下文,一个是配置类,一个是启动参数(尽管传递的配置类不一定要和引导类相同,但这是最便利和最经典的做法,尽管也可以在引导类中配置一两个组件,但是还是建议单独创建一个配置类)
测试类:
主要就是\@SpringBootTest注解了,提供SpringBoot的测试环境,相当于调用了引导类的SpringApplication.run()方法
也可以在测试类上面加上\@Runwith注解(Junit提供的)以前的测试类头上会带上这个注解\@Runwith(SpringRunner.class),现在好像都没有这个注解了(SpringBoot 2.3.0)
可以跑空的测试类来判断是否能启动应用上下文
编写一个控制类:
@Controller
public class HomeController {
@GetMapping("/")
public String home() {
return "home";
}
}
@Controller注解:并没有做太多事情,仅仅只是让当前类被扫描,装载到容器中
@GetMapping注解:针对"/"发送的HTTP GET请求,那么这个方法将会处理请求
返回值会交给thymeleaf去进行视图解析,加上前缀"/templates/"和后缀".html"。拼接成"/templates/home.html"
编写一个视图页面:
<!DOCTYPE html>
<html lang="en" xmlns:th="https://www.thymeleaf.org/">
<head>
<meta charset="UTF-8">
<title>Taco Cloud</title>
</head>
<body>
<h1>Welcome to</h1>
<img th:src="@{/images/Logo.png}">
</body>
</html>
要手动引入th标签,要不然报错
唯一需要注意的是th:src="@{/images/Logo.png}"
,这里的意思是读取"/static/images/Logo.png"这张图片
测试器:对HTML页面的内容断言是很困难的,SpringMVC提供了强大的测试。感觉蛮不好用的,浏览器测试更好
Spring Boot DevTools
作用:
代码变更后自动重启(依赖更新后无效,需要重启,配置文件修改了之后有效)
面向浏览器的资源(HTML,JS)发生变化时候自动刷新浏览器(需要安装LiveReload插件)
自动禁用模板缓存
如果使用H2数据库,内置了H2的控制台
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<scope>runtime</scope>
<optional>true</optional>
</dependency>
默认指定打包之后就没用了(只在生产环境有效)
实现了两个类加载器,一个加载Java代码,属性和项目中基本所有的内容,另一个去加载依赖的库,每次发生改变的时候,只需要重启一个类加载器即可,另一个相对稳定的类加载器(加载依赖的那一个)就不会动了。
如果使用了H2数据库,会生成一个URL为http://localhost:8080/h2-console的控制台
第二章、开发Web应用
主要是MVC层的数据绑定
章节概括:
在浏览器中展现模型数据
处理和校验表单输入
选择视图模板库
REST API:是指控制器直接返回Model对象,不进行页面渲染。
Demo:
实体类
@RequiredArgsConstructor
@Data
public class Ingredient {
private final Integer id;
private final String name;
private final Type type;
public static enum Type{
/**
* 字段注释
*/
WRAP,PROTEIN,VEGGIES,CHEESE,SAUCE
}
}
Controller层:
@Slf4j
@Controller
@RequestMapping("/design")
public class DesignTacoController {
/**
* 默认就是@GetMapping("")
*/
@GetMapping
public String showDesignForm(Model model) {
List<Ingredient> list = Arrays.asList(
new Ingredient(1, "Lettuce", Ingredient.Type.PROTEIN),
new Ingredient(2, "Lettuces", Ingredient.Type.SAUCE),
new Ingredient(3, "Lettuces", Ingredient.Type.CHEESE),
new Ingredient(4, "Lettuces", Ingredient.Type.WRAP)
);
Ingredient.Type[] types = Ingredient.Type.values();
for (Ingredient.Type type : types) {
model.addAttribute(type.toString().toLowerCase(),filterByType(list,type));
}
return "design";
}
private List<Ingredient> filterByType(List<Ingredient> ingredients, Ingredient.Type type) {
return ingredients.stream().filter(x->x.getType().equals(type)).collect(Collectors.toList());
}
}
作者的编码太厉害了
Thymeleaf这种视图解析器很明显是和特定的Web框架解耦的,那么是如何获取数据的呢?显然无法直接访问到Model对象,是在到达控制器的时候就将数据从Model复制到了request里面,就可以访问到了。
在HTML中使用th:each标签去遍历结果集即可。一般都是${}
访问request,如果取到的是一个对象,则直接使用对象的toString方法变成字符串展示在页面上。
数据校验
Spring支持Java的Bean校验API(Bean Validation API,JSR-303)
具体支持注解看常见错误&基础结论
如果要写视图控制器,去继承WebMvcConfigurer,重写addViewControllers方法。也就是取代那些需要直接返回view的controller,感觉没啥用。
本章学习了强大的Web框架------Spring MVC
基于注解的,支持校验,支持视图解析
第三章、使用数据
使用Spring对JDBC的支持(Java DataBase Connectivity)消除样式代码(什么Class.forName()这种代码),最后使用JPA(Java Presistence API)重写数据,消除更多冗杂代码
JDBCTemplate仅仅只是省去了大量的模板创建,依然需要自定义SQL,但是可以帮你把返回值按照字段名称自动注入到对象中去,占位符依旧使用?,跟原来的JDBC一模一样。
在插入的时候可以使用Spring提供的封装性较高的SimpleJdbcInsert
Spring Data有很多子项目支持不同的数据库:
Spring Data
JPA:基于关系型数据库进行JPA持久化(直接屏蔽掉了底层关系型数据库的类型,让开发人员不用和数据库打交道了)
Spring Data MongoDB
Spring Data Neo4j
Spring Data Redis...
JPA底层的默认实现就是Hibernate,可以改变(在jpa里面排除hibernate)引入你需要的即可。
创建的Repository中的方法会根据方法名来自动实现(如果条件复杂可以使用\@Query注解,然后自定义方法名)
Demo:
application.yml
spring:
datasource:
url: jdbc:mysql://localhost:3306/test?serverTimezone=UTC
driver-class-name: com.mysql.cj.jdbc.Driver
username: root
password: 123456
jpa:
hibernate:
ddl-auto: update
open-in-view: false
这里需要设置ddl,默认不会创建表的,会报错
实体类:
@Entity
@Data
public class TechStack {
@Id
@GeneratedValue(strategy = GenerationType.AUTO)
private Integer id;
private String techName;
}
repo:
public interface TechStackRepo extends CrudRepository<TechStack,Integer> {
List<TechStack> findByTechNameLike(String name);
}
这里的方法都会根据方法名自动实现
第四章、保护Spring
启动Spring Security来保护Spring
引入这个配置之后,会自动进行安全的基本配置
访问网站需要输入用户名和密码:用户名默认为user,密码为控制台输出的一个字符串,也是通过浏览器的JSESSIONID来匹配到服务器中的Session域的,如果清除了Cookie就需要重新登录。
默认安全信息:
所有HTTP请求都需要认证
不需要特定的角色和权限
没有登录页面(默认页面是HTTP basic认证的框)
默认只有一个用户user
增加用户:
1.用户数据量不大,修改次数少。直接存内存:
@Configuration
@EnableWebSecurity
public class SecurityConfig extends WebSecurityConfigurerAdapter {
@Override
protected void configure(AuthenticationManagerBuilder auth) throws Exception {
//需要加密方式
auth.inMemoryAuthentication().passwordEncoder(new BCryptPasswordEncoder())
.withUser("buzz").password(new BCryptPasswordEncoder().encode("222")).roles("USER");
}
}
要指定密码加密方式
具体的加密方式:
•BCryptPasswordEncoder:使用bcrypt强哈希加密。
•NoOpPasswordEncoder:不进行任何转码。
•Pbkdf2PasswordEncoder:使用PBKDF2加密。
•SCryptPasswordEncoder:使用scrypt哈希加密。
•StandardPasswordEncoder:使用SHA-256哈希加密。
2.存储到数据库中,是使用JDBC来存储的,可以百度下
都是指定好的,用起来极其不方便
自定义用户认证:
依靠Spring Data JPA
对比了下Mybatis+Shiro,突然知道为什么大多数国内的厂商都倾向于Shiro了,Spring Security提供了太多的功能了(然而这些功能大多数情况下都用不上)。
第五章、使用配置属性
细粒度的自动配置
配置类中的\@Bean方法,将返回值注入,很容易测试:
@Bean
public String hello(){
String a = "hello world";
System.out.println(a);
return a;
}
在配置类中加入这一行即可,会明显的看到hello world的输出

Spring完成的自动属性注入
例如Server.port=8080可以在任何一个阶段设置(JVM参数,命令行参数,操作系统环境变量(命名格式需要改变,Spring会自动适配))
接下来讲述了一些常规的可配置项,
数据库配置:例如spring.datasource
嵌入式服务器配置:例如:Server.port=0(随便选择一个可用端口)在不关心应用在哪个端口启动的情况非常重要,如成为一个服务注册到注册中心去
指定配置文件(在主配置文件里面指定):
spring:
profiles:
active: dev
配置文件命名:application-{profiles}.yaml
这是设置的最糟糕的一种方式,会直接使用指定的配置文件(无论是在开发环境还是在生产环境都是一样)。无法享受到生产环境和开发环境不同所带来的便利
可以在IDE中手动指定:

或者使用命令行的方式:

日志的级别设置:
logging:
level:
root: debug
file:
# 好像路径没用,都直接输出到项目的根目录下面了
path: D://
name: Test.log
必须使用到root上面去,要不然报错
配置类的写法:
@Configuration
@ConfigurationProperties("greeting")
@Setter
public class HelloConfig {
private String hello;
@Bean
public String bean() {
System.out.println(hello);
return hello;
}
}
一定要setter注解,要不然属性注入不进去
只要是被扫描到的,无论是使用Copeonent系列的还是Configuration,里面被标注了bean方法都会被加载,返回值进入到IOC容器中。因为COnfiguration也就相当于是Component的变种(标注在配置类上面)
可以根据当前profiles的不同来选择配置(如果指定的是dev,但dev配置没有这个属性,就会再回去读取默认的配置)和指定是否创建bean
@Configuration
@ConfigurationProperties("greeting")
@Data
@Profile("!dev")
public class HelloConfig {
private String hello;
@Bean
@Profile("!dev")
public String hello() {
System.out.println(hello);
return hello;
}
}
如果是以下配置@Profile({"!dev","!dev2"})
,是表示只要满足其中一个条件即可
第二部分、Spring集成
Spring应用与其他应用集成的话题
第六章、创建REST服务
REST API就是如今常说的前后端分离的后端API,只进行数据传输,而不去管页面的事情。

PUT和Patch的区别(语义层面):
PUT应该是对资源的整体覆盖,哪怕是有空字段,也是采取直接覆盖的态度
Patch是完成资源的局部更新,更新非null字段
@RestController:
能够使得组件被扫描发现
控制器中处理方法的返回值要被直接写入响应体(Response
Body)中,而不是将值放入模型(Request)中传递给视图进行渲染
@RequestMapping有个produces属性,指定产生的消息头,可以使用consumes指定接收的消息头
待验证:Spring提供@CrossOrigin
注解来突破域限制,加在需要被消费的类上即可
直接弹出这个错误消息的方法:

@ResponseBody
@GetMapping("/{id}")
public ResponseEntity<String> findById(@PathVariable("id") Integer id) {
if (id == 2) {
//是直接跳ERROR界面了,不是返回的数据
return new ResponseEntity<>(HttpStatus.NOT_FOUND);
}
return new ResponseEntity<>("hello",HttpStatus.ACCEPTED);
}
使用ResponseEntity这个实体类即可。
不过不推荐在REST客户端上这样做,建议统一消息回复即可。
指定消息返回的Code(默认是200 OK):
使用\@RequestStatus注解
@GetMapping("/")
@ResponseStatus(HttpStatus.ACCEPTED)
public String hello() {
return "hello world";
}
映射到业务层的String对象一般不会为null(无论是从数据库来的还是从前端来的),一般都是empty。
后面就是:在请求体中动态的插入超链接,如查询所有商品的时候顺便在每个商品后面带上修改商品的URL。Spring提供了这个功能,感觉对于现在实际意义不大。
小结:
主要就是RestController,ResponseBody,RequestBody的使用。
第七章、消费REST服务
前面学会了创建REST API提供给客户端去调用,但Spring对另外一个API发起请求并不罕见,特别是在微服务领域的热度的增加。
主要方式:
RestTemplate:Spring提供的简单的、同步的REST客户端
Traversion:对上一章结尾讲述的动态生成的超链接的调用,依旧感觉意义不大
WebClient:Spring
5提供的反应式、异步REST客户端(先推迟下,因为反应式的Web框架都没讲)
主要就关注RestTemplate即可
RestTemplate可以直接new就行了,但麻烦且资源利用率低,建议写个bean方法直接创建一个RestTemplate注入到容器中
发送一个HTTP请求会有太多的样板代码,于是Spring简化了这些代码,就像JDBCTemplate一样

表7.1中的大多数操作都以3种方法的形式进行了重载。
•使用String作为URL格式,并使用可变参数列表指明URL参数。
•使用String作为URL格式,并使用Map\指明URL参数。
•使用java.net.URI作为URL格式,不支持参数化URL。
1.Get请求:
主要有两个方法可以调用:
getForObject
getForEntity
两者区别:getForEntity会包含响应头,响应体的全部信息,即整个RequestEntity对象
而getForObject只会包含响应体里面的信息,在你比较关注响应体的信息的时候建议使用这个
测试如下:
测试环境是因为:在启动项目时候指定使用dev环境,在运行时候无法指定参数,默认使用8080端口,不会产生端口冲突,完美解决。
被调用代码:
@RestController
@RequestMapping("/test")
public class TestController {
@GetMapping("/get")
@ResponseStatus(HttpStatus.ACCEPTED)
public String hello() {
return "hello world";
}
}
调用代码:
@Test
void contextLoads() {
String s = restTemplate.getForObject("http://localhost:8090/test/get", String.class);
System.out.println(s);
}
调用成功
2.post请求:
有三个:
postForObejct
postForEntity
postForLocation
关系:postForEntity =|= postForObejct(响应数据)+postForLocation(响应地址)+xx
被调用代码:
@RestController
@RequestMapping("/test")
public class TestController {
@PostMapping("/post")
public String hello2(@RequestBody Data hello) {
System.out.println(hello);
return hello.getName();
}
调用代码:
@Test
void test() {
TestController.Data data = new TestController.Data();
data.setId(1);
data.setName("hello fuben");
String s = restTemplate.postForObject("http://localhost:8090/test/post", data, String.class);
System.out.println(s);
}
一定要将POST的参数加上RequestBody注解才能有效,如果不加的话就是null了,好像使用了POST就必然会使用RequestBody域了。
其他就非常类似了。
小结:
客户端使用RestTemplate针对REST API发送HTTP请求
第八章、发送异步消息
前面提到的REST等类似的同步通信并不是唯一的方式。异步消息就是另一种方式。
主要的三种方式:
JMS(Java Message Service)
RabbitMQ
kafka
就相当于是增加了中间件嘛
JMS:
JMS是一个Java的标准,消息代理的通用API,类似于JDBC为数据库提供了通用的接口一样
Spring再次帮我们做了封装------JMSTemplate
默认实现:Apache ActiveMQ,但由于ActiveMQ快被淘汰了,Apache推出了ActiveMQ Artemis方案来作为下一代的ActiveMQ。(好像社区是真的不活跃,Docker Hub都没有对应的镜像,而RabbitMQ的镜像更新时间为37min前)
就了解下,通读下书
主要是对JMSTemplate的使用
在听雷丰阳老师讲SpringBoot的时候就说到了JMS是要不如AMQP的,因为平台相关性太强
使用RabbitMQ和AMQP
RabbitMQ可以说是AMQP最杰出的实现了
RabbitMQ的原理:
直接看我的这篇博客就好了:
https://blog.csdn.net/LuckyCurve/article/details/104534265
实践:引入amqp依赖
一个最简洁的Demo:
可以登录15672管理界面来查看Exchange,Binding,Queue是否创建成功以及消息发送情况
@SpringBootTest
public class RabbitMQTest {
@Autowired
AmqpAdmin amqpAdmin;
@Autowired
RabbitTemplate rabbitTemplate;
@Test
void test() {
//创建Exchange
DirectExchange exchange = new DirectExchange("admin.exchange");
amqpAdmin.declareExchange(exchange);
//创建Queue
Queue queue = new Queue("admin.queue");
amqpAdmin.declareQueue(queue);
//创建Binding
Binding binding = new Binding("admin.queue", Binding.DestinationType.QUEUE,"admin.exchange","amqp.haha",null);
amqpAdmin.declareBinding(binding);
}
@Test
void test2() {
String info = "hello";
rabbitTemplate.convertAndSend("admin.exchange","amqp.haha",info);
}
@Test
void test3() {
String info = (String) rabbitTemplate.receiveAndConvert("admin.queue");
System.out.println(info);
}
}
上面是手动接收,下面是监听功能,要使用@EnableRabbit
注解:
@Component
public class MessageHandler {
@RabbitListener(queues = "admin.queue")
public void handler(Message message) {
byte[] body = message.getBody();
System.out.println(new String(body));
}
}
kafka:
仅仅只支持主题形式的发送订阅模型,看似比RabbitMQ的功能要少,但是由于其天生涉及出来就支持集群部署,每个节点都负责一个主题(存在多个节点负责一个主题的情况)。每个节点可划分为多个分区。【即单个节点被划分成多个分区,这些分区又被分配到各个代理去处理各个主题的事务】

由于完整的kafka集群需要搭建Zookeeper,且KafkaTemplate的操作与大多数Template大同小异,就不做过多的赘述了。
小结:
异步消息需要中间件的支持,能解耦和增大应用的扩展性
第九章、Spring集成
使用Spring Integration创建集成流。应用程序可能需要读取或发送Email、与外部API交互或者对写入数据库的数据做出反应。
使用Spring Integration,要明确需要接收和发送哪些数据到应用程序之外的资源。
一种常见的资源就是文件系统:
通用集成的依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-integration</artifactId>
</dependency>
集成文件资源的一个插件:
<dependency>
<groupId>org.springframework.integration</groupId>
<artifactId>spring-integration-file</artifactId>
</dependency>
有能力与文件系统进行交互(读取和写入)
1.声明一个网关:
/**
* @author LuckyCurve
* @date 2020/5/23 10:51
* 为了能够接收到数据并写入集成流中
*/
//声明消息网关,告诉Spring Integration在运行时候自动生成接口的实现
//指定发送到textInChannel的消息通道中
@MessagingGateway(defaultRequestChannel = "textInChannel")
public interface FileWriterGateway {
/**
* @param fileName 用Header注解修饰,表示传递给当前对象的值在消息头中
* @param data
*/
void writeToFile(@Header(FileHeaders.FILENAME) String fileName, String data);
}
2.集成流
声明集成流有三种方式:
XML
Java配置
DSL的Java配置
因为Integration有很长时间的使用XML的历史。
Spring引入一个XML文件的最简单的方式:在某个注解类的头上加上@ImportResources("classpath:/filewriter-config.xml")
使用Java配置
/**
* @author LuckyCurve
* @date 2020/5/23 11:12
* 定义一个集成流
*/
@Configuration
public class FileWriterIntegrationConfig {
//声明一个转换器,用来转换输入的消息
@Bean
@Transformer(inputChannel = "textInChannel",outputChannel = "fileWriterChannel")
public GenericTransformer<String,String> transformer(){
return String::toUpperCase;
}
//声明一个文件写入的消息处理器
@Bean
@ServiceActivator(inputChannel = "fileWriterChannel")
public FileWritingMessageHandler filewriter() {
FileWritingMessageHandler handler = new FileWritingMessageHandler(new File("D:/files"));
//不要期望有答复通道
handler.setExpectReply(false);
handler.setFileExistsMode(FileExistsMode.APPEND);
handler.setAppendNewLine(true);
return handler;
}
}
没有必要显式的声明通道,如果不存在会自动创建,当然也可以显式声明,使用如下格式
@Bean
public MessageChannel channel() {
return new DirectChannel();
}
3.使用Spring Integration的DSL配置(逐渐喜欢上了这种方式)
仍然还是要网关信息的,网关相当于是入口函数
不用单独创建多个Bean,而是使用一个bean来创建整个流
使用Spring Integration的DSL:
/**
* @author LuckyCurve
* @date 2020/5/23 11:12
* 定义一个集成流
*/
@Configuration
public class FileWriterIntegrationConfig {
@Bean
public IntegrationFlow flow() {
return IntegrationFlows.from(MessageChannels.direct("textInChannel"))
.<String, String>transform(new GenericTransformer<String, String>() {
@Override
public String transform(String s) {
return s.toUpperCase();
}
}).handle(Files.outboundAdapter(
new File("D:/files")).fileExistsMode(FileExistsMode.APPEND).appendNewLine(true)
).get();
}
}
这里的File指的是文件夹。
甚至不需要显示的声明channel。
目前还不知道咋用,哈哈。项目运行起来的时候会创建指定的D:/files文件夹
目前猜测的工作逻辑:通过网关传入数据,流入一个名为textInChannel的channel中,再由一个转换器从textInChannel取出数据,将其中的数据大写,再经过一个文件消息写入处理器(如果用传统的Java配置类,还在这之间加入了一个filewriterchannel的channel)写入到指定路径中
会用了,在测试方法中调用那个网关即可,(我们银河系真的太厉害了:玩梗)报错是无所谓的
@Autowired
FileWriterGateway fileWriterGateway;
@Test
void test() {
fileWriterGateway.writeToFile("haha.txt","happy birthday Java");
}
应该是生产者消费者者模式了,通过网关发布消息到集成流,再就不管了。收回这这句话,看到后面channel的时候就知道了,有些channel是执行同步调用的,不是异步调用的。
接下来告一段落,看一下Integration的整体的功能概述
因为Spring Integration继承了大量的使用场景,无法面面俱到。只能对其进行了解如何运行的
集成流是由一个或多个如下介绍的组件构成的:
通道(channel):将消息从一个元素传递到另一个元素
过滤器(filter):基于某些断言,条件化地允许某些消息通过流
转换器(transformer):改变消息的值或者是将消息载荷(body)从一种类型转换成另一种类型
路由器(router):将消息路由至一个或多个通道,通常会基于消息的头消息进行路由
切分器(splitter):将传入的消息切分成两个或者多个消息,再将每个消息发送至不同的信道
聚合器(aggregator):切分器的逆操作,将多个来自不同通道的多个消息合并成一个消息
服务激活器(service
activator):将消息传递给某个Java方法来进行处理,并将返回值发布到输出通道上
通道适配器(channel
adaptor):将通道接收到某些外部系统或传输方式,可以接受输入,也可以写入到外部系统
网关(gateway):通过接口将数据传递到集成流中
在上面的文件写入集成流中,我们已经见到了一些组件,如:
FileWriterGateway是一个网关,通过他,我们可以提交需要写入文件的文本
组件介绍:
channel、在RabbitMQ中被翻译成了信道,尽量关注英文名把
是消息流动的一种方式,是链接其他组成部分的通道

Spring Integration提供的channel实现:
直接参照使用DSL配置创建Channel的MessageChannels里面的方法来讲了
direct:消息只会发送到一个消费者,它会在与发送者相同的线程中调用消费者。允许事务跨通道
queue:会存储到一个FIFO的队列中,如果有多个消费者,只能有一个消费者接收到消息
executor:类似于direct,但是通过TaskExecutor实现,即实现了异步调用。不支持事务跨通道
rendezvous:类似于queue,但是发送者会一直阻塞通道,直到消费者接受到消息为止,即同步发送者和消费者
priority:类似于queue,但是不是基于FIFO的,消息会存在优先级的
publishSubscribe:发送到所有消费者中(如果存在多个消费者,他们都会接收到消息)
flux:反应式流的发布者消息通道,基于Reactor项目的Flux(第十章详细讨论)
因为Java配置和DSL的channel都是自动创建的,为direct,如果要使用其他的实现,创建并注入到IOC容器当中来即可,channel名字即为bean的名字即为方法名字(如果没指定的话)。
然后可以在Java配置类和DSL配置中使用如下方法指定:


特殊的:使用queue,在消费的时候要配置一个poller

表示每秒轮询orderChannel的这条channel。
filter、过滤器,位于channel的连接处,可以根据断言决定允许或拒绝进入流程的下一步

只允许偶数继续向前走:


transformer、转换器,简单的将String转换为对应的Integer,复杂的根据ISBN转书籍的详细信息

都是DSL配置,上面一个是简单的转换,下面是一个稍微复杂的转换
简单:

复杂:

转换器实现这个接口:
@FunctionalInterface
public interface GenericTransformer<S, T> {
T transform(S var1);
}
router、路由器,根据路由断言,实现集成流的分支

在DSL风格编程中,要使用lambda表达式,可以看下route方法

突然知道为什么那么多人喜欢DSL方式了,因为直接定义流程的,上图的route中后续不同的流程都可以自己去定义,非常的贴合开发者,比自己去理复杂的bean关系方便太多了
splitter、切分器,将一个消息切分成多个消息

两种基本的使用场景:
消息载荷中包含相同类型条目的一个列表,我们希望将它们作为单独的消息载荷来进行处理。例如:消息中携带了一个商品列表,我们可以将其切分成多个消息,每个消息的载荷分别对应一个商品
消息载荷所携带的信息尽管有所关联,但是可以拆分成两个或者更多不同类型的消息。以交给不同的子流程去处理
只能将切分出来的消息传输到一条channel上,如果需要分到多条channel上,还需要在该channel结尾处加上一个router
DSL配置:split配合route,中间就可以忽略掉channel了,因为会自动生成channel,不用我们管
service activator、服务激活器
突然感觉到了这个组件一般不是我们来写的,一般都是Spring 直接整合好的我们用就行了

将channel里的消息传递给一个MessageHandler的实现
Spring Integration提供了多个开箱即用的MessageHandler
例如我们前面使用的File Integration就是一个例子
使雍Java配置的最简单的一个打印Handler:

DEL:
如果不想让Handler成为终点,可以使用GenericHandler代替MessageHandler

尽量不要使用GenericHandler作为流的终点,如果迫不得已的话,就需要返回null
gateway、通过网关,用户完成和数据流的交互(从集成流中读取和写入数据)
网关会被声明为接口,借助Spring Integration的实现即可(或许注入的时候会报错,不用管)
例如一个简单的网关:传入String到集成流中,并从集成流中返回全大写的形式

简单的网关使用(返回传入的大写的String):
网关信息:
@MessagingGateway(defaultRequestChannel = "inChannel",defaultReplyChannel = "outChannel")
@Component
public interface UpperCaseGateway {
/**
* 返回大写String
* @param in 传入参数
* @return 返回upper String
*/
String upper(String in);
}
集成流定义信息:
@Configuration
public class FileWriterIntegrationConfig {
@Bean
public IntegrationFlow flow2() {
return IntegrationFlows.from(MessageChannels.direct("inChannel"))
.transform(new GenericTransformer<String, String>() {
@Override
public String transform(String s) {
return s.toUpperCase();
}
})
.channel(MessageChannels.direct("outChannel"))
.get();
}
}
非常简单的一个使用,调用的时候注入网关,调用方法即可
channel adaptor、通道适配器,代表着集成流的入口和出口
感觉网关也有相同的左右哦,暂时还没搞明白
感觉网关像是向一个写好的集成流里面插入和读取数据,而适配器更像是集成流的一部分

通常会使用服务激活器去作为通道适配器,Spring一般都是集成了端点模块,用来作为通道适配器的入口和出口(而不是我们手动编写,当然也支持手动编写)

如果自定义的话建议将自定义的通道适配器注入到IOC中,然后再通过DSL配置的方式引入。
开始时候已经看到了File集成流,现在我们看一下Email集成流,即使用Email作为端点
简而言之,入站通道适配器会使用Email端点模块

好像实践有点问题,大体上搞明白了
小结:
借助Spring Integration定义流,在进入和离开应用的时候对流进行处理
消息网关和通道适配器会作为集成流的入口和出口
消息通道连接流的各个组件
第三部分、反应式Spring
将讨论Spring对反应式的全新支持
第十章:Reactor的基础支持,是支撑Spring5反应式特征的反应式编程库
第十一章:重新介绍REST API,使用Spring WebFlux
第十二章:总结第三部分,实现反应式数据持久化
第十章、理解反应式编程
开发应用程序时候,可以编写两种风格的代码(反正没读懂):
命令式代码
由一组任务组成,每次只运行一项任务,每项任务又都依赖于前面的任务,数据会按批次进行处理,在前一项任务还没有完成对当前数据批次的处理时,不能将这些数据交给下一项处理任务
反应式代码
定义了一组用来处理数据的任务,但是这些任务可以并行的执行。每项任务处理数据的一部分子集,并将结果交给处理流程中的下一项任务,同时继续处理数据的另一部分子集
反应式编程对于某些场景来说的确是完美的,但在其他场景中可能不是那么适用
绝大多数开发者都是接触的命令式编程入行的,即顺序批量执行
直到遇到一个问题:执行任务的时候,特别是IO任务,发生了阻塞,在IO完成之前任何事情都做不了。坦白来说,阻塞线程是一种浪费.
当然,Java支持并发,但管理多线程中的并发极具挑战,而更多线程意味着更多的复杂度
==感觉这里更好理解反应式编程==
相比之下,反应式编程相较于描述一组任务将依次执行的步骤,反应式编程描述了数据将会流经的管道或者流。相对于要求将数据作为一个整体进行处理,反应式流可以在数据可用时候立即进行处理。实际上,传入的数据可能是无限的。
反应式流:有Netflix于2013年底开始制定的一种规范,反应式流旨在提供无阻塞回压的异步流处理标准
特征:
异步:并发执行任务,从而实现更高的可伸缩性
回压:限制想要处理的数据数量,避免被过快的数据源所淹没
Java流与反应式流
相同点:都提供处理数据的函数式API
不同点:
Java流通常是同步的,并且只能处理优先的数据集,从本质上来说,只是使用函数来对集合进行迭代的一种方式
反应式流支持异步处理任意大小的数据集,同样也包括无限数据集,通过回压来保证数据传输的速率的控制
反应式流规范总结为四个接口:Publisher、Subscribe、Subscription和Processor。
相当于Subscription是消息

Publisher:

Subscriber通过这个方法订阅Publisher
Subscriber:

Publisher通过第一个方法将Subscription传递给Subscriber

Subscription可以调用request去请求Publisher发送数据,并带参数n表示愿意接收多少数据。
或者调用cancel方法表明不再对数据感兴趣并取消订阅
一旦Subscriber请求数据,数据就会开始流经反应式流,Publisher开始调用onNext方法提交个subscriber,如果有错误,就调用onError方法,如果数据传输完成,调用onComplete犯法告知Subscriber结束了
至于processor,是Publisher和Subscriber的组合

当作为Subscriber时候,会接收数据并做处理。然后角色转变为Publisher,并将处理的结果发送给订阅了他的Subscriber上。
上述的就是反应式流的规范,非常简单
Publisher->Processor->Processor->Processor->Subscriber
下面来看看反应式流的实现------Reactor项目
<hr>
真真切切感受到了不一样的编程模型带来的乐趣了,只需要构建好数据流经的管道,而不用去描述每一步的步骤了。
使用反应式编程,我们无法判断数据会在哪个线程上执行。可能在同一个线程,也可能在不同的线程上执行
转换人名为大写
命令式编译模型

使用反应式编程

Mono是Reactor两种核心类型之一,另一个类型是Flux。都实现了反应流的Publisher接口
Flux 代表零个,一个或者多个(无限个)数据项的通道
Mono代表一种特殊的反应式类型,针对数据项不超过一项的场景进行了优化
实际上创建了三个Mono,Just创建了一个,发送到转大写的map,又创建了一个,进行字符串拼接,创建了第三个。
而结果调用第三个Mono上的subscribe方法输出。
环境搭建:
依赖引入
Reactor是Spring的基础框架,单独封装了
核心框架:
<dependency>
<groupId>io.projectreactor</groupId>
<artifactId>reactor-core</artifactId>
</dependency>
测试框架:
<dependency>
<groupId>io.projectreactor</groupId>
<artifactId>reactor-test</artifactId>
<scope>test</scope>
</dependency>
当然,需要SpringBoot来做依赖管理
Mono和Flux的探索:
是Reactor提供的最基础的构建块,而这两种类型所提供的操作符则是组合使用他们以构建数据流动管线的粘合剂,共有500多个操作,可以分类为:
创建操作
组合操作
转换操作
逻辑操作
大多以Flux操作为主,Mono也会有对应的操作
1.创建操作
提供了很多种。
调用Flux或Mono的静态just()方法即可创建Flux,使用subscribe()方法即可消费传入的数据
简单测试(输出1000个 hello world):
@Test
void contextLoads() {
LinkedList<String> list = new LinkedList<>();
for (int i = 0; i < 10000; i++) {
list.add("hello world");
}
//创建Flux
Flux<String> flux = Flux.just(list.toArray(new String[0]));
//给Flux添加一个订阅者
flux.subscribe(new Consumer<String>() {
@Override
public void accept(String s) {
System.out.println(s);
}
});
System.out.println("主线程操作完成");
}
即可查看控制台输出了1000行helloworld
:point_right:注意点:list.toArray默认会返回Object数组,不满足需求。使用list.toArray(new T[0])
即可获取T[]
。
这样的测试不太美观,最好的办法是使用Reactor提供的StepVerifier。对于给定的Flux或者Mono,StepVerifier会订阅该反应式类型,在数据流过时候对数据进行断言,从而更准确的判断是否达到了预期
@Test
void test2() {
Flux<String> flux = Flux.just("hello", "world", "java");
flux.subscribe(System.out::println);
StepVerifier.create(flux)
.expectNext("hello")
.expectNext("world")
.expectNext("java")
.verifyComplete();
}
如果与预期不相符(多了或是少了)都会报错,且不会影响后续输出等操作
如果是上面输出helloworld的断言,如下:
@Test
void contextLoads() {
LinkedList<String> list = new LinkedList<>();
for (int i = 0; i < 10000; i++) {
list.add("hello world");
}
//创建Flux
Flux<String> flux = Flux.just(list.toArray(new String[0]));
//给Flux添加一个订阅者
flux.subscribe(new Consumer<String>() {
@Override
public void accept(String s) {
System.out.println(s);
}
});
System.out.println("主线程操作完成");
StepVerifier.create(flux).expectNext(list.toArray(new String[0])).verifyComplete();
}
还可以根据数组创建Flux,实际上也就是我们第一种输出一千个helloworld的办法:

即直接显式的使用fromArray()去代替just()方法
如果是要根据List、Set或者其他Iterator的实现来创建Flux,可以直接使用
public static <T> Flux<T> fromIterable(Iterable<? extends T> it) {
return onAssembly((Flux)(new FluxIterable(it)));
}
来,如输出1000行Hello world的版本:
//输出1000行helloworld的简化版本
@Test
void test3() {
LinkedList<String> list = new LinkedList<>();
for (int i = 0; i < 1000; i++) {
list.add("hello world");
}
Flux.fromIterable(list).subscribe(System.out::println);
}
如果是Java Stream,也可以使用Flux.fromStream(javaStream)来实现,一样的。
如果要在Flux中存储n到m的连续整数,如12345,可以使用Flux.range(1,5)
,可以自己去测试下
如果需要创建一个每隔固定时间发送一个递增数据的Flux
@Test
void test5() {
Flux<Long> flux = Flux.interval(Duration.ofSeconds(1)).take(5);
flux.subscribe(System.out::println);
StepVerifier.create(flux)
.expectNext(0L)
.expectNext(1L)
.expectNext(2L)
.expectNext(3L)
.expectNext(4L)
.verifyComplete();
}
可以很明显的从控制台看到01234的输出,隔着一秒输出一个,如果interval没有使用take指定最大值,会一直运行下去
<hr>
==关于Flux和Mono的任何操作都会创建一个新的Flux出来==
上面研究完对单个Flux和Mono的操作。
下面了解下如何组合和拆分Flux和Mono

@Test
void test6() {
String[] flux1_ = {"霞","卡莎","金克斯"};
String[] flux2_ = {"卡特","卡萨丁","维克托"};
Flux<String> flux1 = Flux.just(flux1_)
.delayElements(Duration.ofMillis(500));
Flux<String> flux2 = Flux.just(flux2_)
.delaySubscription(Duration.ofMillis(250))
.delayElements(Duration.ofMillis(500));
//合并操作
Flux<String> flux = flux1.mergeWith(flux2);
//这里就是异步操作了,使用反应式编程就别去管同步异步了
flux.subscribe(System.out::println);
StepVerifier.create(flux)
.expectNext("霞")
.expectNext("卡特")
.expectNext("卡莎")
.expectNext("卡萨丁")
.expectNext("金克斯")
.expectNext("维克托")
.verifyComplete();
}
delayElements:每隔多少时间发布一个条目
delaySubscription:在被订阅后经过多少时间开始发布条目
将两个Flux中的对象压缩在一起(按照位置压缩,不会考虑发布时间的,如果A发布了对象,就会等B发布对象),形成一个条目,发送到新的Flux中

@Test
void test7() {
String[] flux1_ = {"霞","卡莎","金克斯"};
String[] flux2_ = {"卡特","卡萨丁","维克托"};
Flux<String> flux1 = Flux.just(flux1_);
Flux<String> flux2 = Flux.just(flux2_);
//压缩操作
Flux<Tuple2<String, String>> flux = Flux.zip(flux1, flux2);
flux.subscribe(System.out::println);
StepVerifier.create(flux)
.expectNextMatches(p-> Objects.equals("霞",p.getT1()) && Objects.equals("卡特",p.getT2()))
.expectNextMatches(p-> Objects.equals("卡莎",p.getT1()) && Objects.equals("卡萨丁",p.getT2()))
.expectNextMatches(p-> Objects.equals("金克斯",p.getT1()) && Objects.equals("维克托",p.getT2()))
.verifyComplete();
}
也可以使用zip方法提供的一个合并函数

@Test
void test8() {
String[] flux1_ = {"霞", "卡莎", "金克斯"};
String[] flux2_ = {"卡特", "卡萨丁", "维克托"};
Flux<String> flux1 = Flux.just(flux1_);
Flux<String> flux2 = Flux.just(flux2_);
//压缩操作,使用合并函数来处理
Flux<String> flux = Flux.zip(flux1, flux2, (a1, a2) -> a1 + " vs " + a2);
StepVerifier.create(flux)
.expectNext("霞 vs 卡特")
.expectNext("卡莎 vs 卡萨丁")
.expectNext("金克斯 vs 维克托")
.verifyComplete();
}
也可以使用显式声明内部类来代替lambda表达式
如果有两个flux需要合并(根据发布时间来合并,不是压缩),有这样的需求:选定发布第一个条目的Flux,并一直发布此Flux的后续条目,忽略另一个Flux
@Test
void test9() {
String[] flux1_ = {"霞", "卡莎", "金克斯"};
String[] flux2_ = {"卡特", "卡萨丁", "维克托"};
Flux<String> flux1 = Flux.just(flux1_);
Flux<String> flux2 = Flux.just(flux2_)
.delayElements(Duration.ofSeconds(1));
//选定第一个发布条目的Flux,忽略另一个Flux
Flux<String> flux = Flux.first(flux1, flux2);
StepVerifier.create(flux)
.expectNext("霞")
.expectNext("卡莎")
.expectNext("金克斯")
.verifyComplete();
}
真的就直接忽略了Flux2,项目秒运行完,都没等flux2发布完
转换和过滤反应式流
过滤反应式流:

@Test
void test10() {
String[] flux_ = {"霞", "卡莎", "金克斯","卡特", "卡萨丁", "维克托"};
Flux<String> flux = Flux.just(flux_);
Flux<String> skip = flux.skip(3);
StepVerifier.create(skip)
.expectNext("卡特")
.expectNext("卡萨丁")
.expectNext("维克托")
.verifyComplete();
}
指定时间过滤

@Test
void test11() {
String[] flux_ = {"霞", "卡莎", "金克斯","卡特", "卡萨丁", "维克托"};
Flux<String> flux = Flux.just(flux_).delayElements(Duration.ofSeconds(1));
Flux<String> skip = flux.skip(Duration.ofSeconds(4));
StepVerifier.create(skip)
.expectNext("卡特")
.expectNext("卡萨丁")
.expectNext("维克托")
.verifyComplete();
}
与Skip相反的操作------take,发布指定数量的条目,然后取消订阅,用法基本和Skip一样
@Test
void test12() {
String[] flux_ = {"霞", "卡莎", "金克斯","卡特", "卡萨丁", "维克托"};
Flux<String> flux = Flux.just(flux_).take(3);
StepVerifier.create(flux)
.expectNext("霞")
.expectNext("卡莎")
.expectNext("金克斯")
.verifyComplete();
}
@Test
void test13() {
String[] flux_ = {"霞", "卡莎", "金克斯","卡特", "卡萨丁", "维克托"};
Flux<String> flux = Flux.just(flux_).delayElements(Duration.ofSeconds(1)).take(Duration.ofMillis(3500));
StepVerifier.create(flux)
.expectNext("霞")
.expectNext("卡莎")
.expectNext("金克斯")
.verifyComplete();
}
Skip和take都是基于时间或者数量的过滤器。
Flux更通用的过滤操作是filter操作,使用起来也很简单
@Test
void test14() {
String[] flux_ = {"霞", "卡莎", "金克斯","卡特", "卡萨丁", "维克托"};
Flux<String> flux = Flux.just(flux_).filter(new Predicate<String>() {
@Override
public boolean test(String s) {
return s.length() > 2;
}
});
StepVerifier.create(flux)
.expectNext("金克斯")
.expectNext("卡萨丁")
.expectNext("维克托")
.verifyComplete();
}
distinct操作过滤重复的消息

@Test
void test15() {
String[] flux_ = {"霞", "霞", "卡莎", "金克斯", "卡特", "卡萨丁", "维克托"};
String[] flux2_ = {"霞", "卡莎", "金克斯", "卡特", "卡萨丁", "维克托"};
Flux<String> flux = Flux.just(flux_).distinct();
StepVerifier.create(flux)
.expectNext(flux2_)
.verifyComplete();
}
映射反应式数据
主要通过map和flatmap

@Test
void test16() {
String[] flux_ = {"1", "2", "3", "4", "5", "6", "7"};
Flux<Integer> flux = Flux.just(flux_).distinct().map(s -> Integer.parseInt(s));
StepVerifier.FirstStep<Integer> step = StepVerifier.create(flux);
for (int i = 1; i < 8; i++) {
step.expectNext(i);
}
step.verifyComplete();
}
map操作是同步执行的
如果想要异步的转换,使用flatmap(使用有门槛),转换过程中会形成Flux

使用异步调用
@Test
void test17() {
String[] flux_ = {"1", "2", "3", "4", "5", "6", "7"};
Flux<Integer> flux = Flux.just(flux_)
.flatMap(new Function<String, Publisher<Integer>>() {
@Override
public Publisher<Integer> apply(String s) {
Mono<Integer> mono = Mono.just(s).map(s1 -> Integer.parseInt(s1)).subscribeOn(Schedulers.parallel());
return mono;
}
});
StepVerifier.FirstStep<Integer> step = StepVerifier.create(flux);
List<Integer> integers = Arrays.asList(1, 2, 3, 4, 5, 6, 7);
for (int i = 1; i < 8; i++) {
step.expectNextMatches(integer -> integers.contains(integer));
}
step.verifyComplete();
}
重点代码:第八行的subscribeOn(Schedulers.parallel()声明可以并行运行,要不然和直接调用map没区别了。Schedulers可以指定的并发模型:

使用异步调用测试的时候一定注意,不会按照顺序返回的,直接使用集合的contains方法来验证就好了。
在流上缓存数据,将缓存的数据打包成一组发布到新的Flux上面去

@Test
void test18() {
String[] flux_ = {"霞", "卡莎", "金克斯", "卡特", "卡萨丁", "维克托"};
Flux<List<String>> flux = Flux.just(flux_).buffer(3);
StepVerifier.create(flux)
.expectNext(Arrays.asList("霞", "卡莎", "金克斯"))
.expectNext(Arrays.asList("卡特", "卡萨丁", "维克托"))
.verifyComplete();
}
如果需要将Flux发布的所有数据项收集到一个List中,可以使用不指定参数的buffer。
当然也可以使用CollectList操作实现相同的功能,不过此时会返回一个Mono,效率应该高一点。

@Test
void test19() {
String[] flux_ = {"霞", "卡莎", "金克斯", "卡特", "卡萨丁", "维克托"};
Mono<List<String>> list = Flux.just(flux_).collectList();
StepVerifier.create(list)
.expectNext(Arrays.asList(flux_))
.verifyComplete();
}
更有趣的是,使用collectMap来产生一个key由Function计算出来的,value为原来条目
@Test
void test20() {
String[] flux_ = {"霞", "卡莎", "金克斯"};
Mono<Map<Integer, String>> mono = Flux.just(flux_).collectMap(s -> s.length());
StepVerifier.create(mono)
.expectNextMatches(map -> map.size()==3 && map.get(1).equals("霞"))
.verifyComplete();
}
有时候我们需要知道Flux上的条目是否满足要求(无论是全部满足还是部分满足),不可能使用filter全部过滤出来吧,消耗太大了

使用all或者any来保证满足条件
@Test
void test21() {
String[] flux_ = {"霞", "卡莎", "金克斯"};
Flux<String> flux = Flux.just(flux_);
Mono<Boolean> mono1 = flux.all(s -> s.contains("霞"));
Mono<Boolean> mono2 = flux.any(s -> s.contains("霞"));
StepVerifier.create(mono1).expectNext(false).verifyComplete();
StepVerifier.create(mono2).expectNext(true).verifyComplete();
}
==数据是不会因为被消费而消除的,例如Flux被拿走了3个条目,订阅Flux的仍然可以获取到全部的条目==
小结:
反应式流的基本概念和规范
Reactor对反应流的规范的抽象
第十一章、开发反应式API
使用Spring WebFlux来编写程序
传统的基于Servlet的Web框架,如Spring MVC,本质上都是阻塞和多线程的。每个连接都会使用一个线程,在处理请求的时候,会在线程池中拉取一个工作者线程来对请求进行处理,同时,请求线程是阻塞的,直到工作者线程完成为止。(主要的性能消耗:从线程池中拉取线程,将线程还回到线程池中)
带来的后果:在大量请求下无法有效的拓展。以前流量少或许还无所谓,现在消费Web应用的客户端越来越多,可拓展性比以往任何时候都更加重要
异步的Web框架能够以更少的线程来获取更高的可拓展性,通常只需要与CPU核心数相同的线程,通过使用所谓的事件轮询机制,能够使用一个线程去处理多个请求,每次连接的成本更低

Spring5引入了一个非阻塞的,异步的Web框架,很大程度上是基于Reactor的。就是Spring WebFlux

左侧是Spring MVC技术栈,在Spring2.5时候引入的。是建立在Servlet API之上的,因此需要Tomcat等Servlet容器才能执行
右侧的Spring WebFlux不绑定Servlet API,是构建在Reactive HTTP API之上的,但Reactive HTTP API与Servlet API非常类似,但不会与Servlet API有耦合,所以底层不一定要是Servlet容器,可以是任意的非阻塞Web容器,如Netty,Tomcat,Jetty或任意Servlet3.1以上的容器
当然,左上角的注解是共用的
右上角的方框代表另一种编程规范,使用函数式编程规范来定义控制器,而不是使用注解
开始使用,导入依赖
选中Spring Reactive Web,即
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-webflux</artifactId>
</dependency>

直接启动Application.class,会发现WebFlux默认使用的是netty而不是Tomcat
Netty是一个异步的,事件驱动的服务器,非常适合Spring WebFlux这类反应式的Web框架
还有不同的是Spring WebFlux应该接收和返回Mono和Flux这类反应式类型,而不是传统的POJO对象
理想情况下的反应式流:

说白了就是在原来的POJO对象外面加一个FLux或者是Mono即可
使用Flux返回对象JSON格式,外层会默认嵌套一个数组
使用Mono就直接返回对象本身了。
和使用 Spring MVC的感觉差不多,只不过传输的对象更像是使用了Flux或者Mono修饰了
用起来确实有点爽
下面了解Spring 5 的新函数式编程风格创建反应式API(好像是为了取代注解模式)
Spring MVC基于注解的编程模型的缺陷:
注解的定义和实现有区别
有学习压力
感觉都是强扯淡的理由。。。就是为了引出函数式编程模型
主要是为了在不使用注解的情况下将请求映射到处理器代码上
感觉很麻烦,是使用一个配置类来实现请求映射模型的
下面到了测试反应式controller
更喜欢直接测试Service层,就使用上面的Reactor提供的测试工具。然后Controller使用Postman测试下就好了。
在程序内部消费反应式的REST API
如果是非反应式的REST API,使用Spring3.0提供的RestTemplate就可以了。但是反应式API怎么消费呢,其实前面已经提到过了,使用Spring 5提供的WebClient,使用起来与RestTemplate有很大的不同。RestTemplate会有多个方法处理不同类型的请求,而WebClient不同
通用使用模式:
创建WebClient实例
指定请求的HTTP方法
指定URL和头信息
提交请求
消费响应
Demo:
要消费的API:
@RestController
@RequestMapping("/hello")
public class HelloController {
/**
* //GetMapping这里最好不要使用/了
* 如果这时候再使用/的话,就需要访问/hello/才可以
*/
@GetMapping("/")
public Mono<Data> hello() {
Data data = Data.builder().id(1).username("LuckyCurve").build();
return Mono.just(data);
}
}
消费过程(加上了结果验证):
@Test
void contextLoads() {
//就消费了一个响应式Rest API了
Mono<Data> mono = WebClient.create("http://localhost:8080").get()
.uri("/hello/").retrieve().bodyToMono(Data.class);
Data data = Data.builder().id(1).username("LuckyCurve").build();
StepVerifier.create(mono)
.expectNext(data)
.verifyComplete();
}
也可以直接在uri中指定成http://localhost:8080/hello/
,结尾一定要带上/
retrieve会执行请求,最后调用bodyToMono/Flux取出数据(如果最后没有使用数据的话,即使是请求失败也不会出现任何异常)
如果是对一个站点进行频繁的访问,可以:
@Bean
public WebClient webClient() {
return WebClient.create("http://localhost:8080");
}
然后在需要的地方@Autowired
,再按照上述方法使用
在订阅之前指定timeout即可

@Test
void test() {
LinkedList<Data> list = new LinkedList<>();
for (int i = 0; i < 5; i++) {
Data data = Data.builder().id(i).username("LuckyCurve").build();
list.add(data);
}
Flux<Data> flux = Flux.just(list.toArray(new Data[0]));
Mono<List> mono = webClient.post().uri("/hello/post").body(flux, Data.class)
.retrieve().bodyToMono(List.class);
mono.subscribe(new Consumer<List>() {
@Override
public void accept(List list) {
System.out.println(list);
}
});
}
也可以这样(不想构建Flux或者Mono):Mono<List> mono = webClient.post().uri("/hello/post").bodyValue(list) .retrieve().bodyToMono(List.class);
小结:
Spring WebFlux提供了一个反应式的Web框架
使用WebClient进行消费反应式的REST API
第十二章、反应式持久化数据
是讲述的Spring Data对反应式编程的支持
由于实际中(仅限国内)还是普遍使用Mybatis的,这部分就先跳过了,为了保存章节的完整性,在这里列出。
第四部分、云原生Spring
拆分单体应用模型,介绍Spring Cloud和微服务的开发
十三章讨论服务发现
十四章讨论配置管理
十五章讨论断路器模式,让服务面对失败更有弹性
第十三章、服务注册与发现
内容简介:
思考微服务(感觉已经被国内教程洗脑了,看下作者的思路)
创建服务注册中心
注册和发现服务
具体的讲,你会看到Spring Cloud套件中一些最有用的组件
我们现在开发的大都是单体应用程序,很多功能集成在一块儿
单体应用的弊端:
难以理解
难以测试
容易出现库冲突
较于低效:如果想要拓展,只有将整个应用程序部署到更多的服务器上,即使应用中使用很少的部分也会部署多地
微服务的优势:
微服务易于理解:每个功能就是一个模块
易于测试
库不兼容的情况少
能够独立拓展
可以使用不同的语言平台,实际上使用Java编写的微程序和使用C#编写的微程序进行协同是完全合理的
但是也有缺陷:如网络延迟(很多次的远程调用会积累并降低应用的速度)
应该随着应用规模的增大再考虑微服务,比较单体架构已经存在了这么多年了,肯定有他的优势的地方
搭建服务注册中心
Spring Cloud是一个非常大的伞形项目,由多个独立的子项目构成
有一个子项目叫做Spring Cloud Netflix、他按照Spring的编码风格重新提供了Netflix的多个组件,这些组件就包括了Netflix的服务注册中心Eureka
据说Eureka最早是亚里士多德在浴缸里发现浮力时候发出的欢呼,因此就语义而言很适合做注册中心
Eureka会担任所有服务的注册中心,目的是让其他的服务能够相互发现
模型图(Other Service想要消费Some Service):

没有使用RestTemplate那种硬编码去消费,而是根据名字去Eureka查找some service,Eureka会返回所有已经注册了的some service实例
other service会选择哪一个someservice进行消费呢?为了避免一个some service被频繁的消费,需要做负载均衡。此时NetFlix的另一个项目Ribbon的用武之地了
使用Ribbon代替other service做出选择使用哪一个some service
Ribbon是一个客户端负载均衡器,不在Eureka上,相当于是去中心化了
那对比与中心化的负载均衡器,Ribbon又有什么优势呢?
主要可以根据当前客户端定制负载均衡算法,而不用所有的服务都是用相同的负载均衡算法
先创建注册中心,项目命名为service-registry,只需要一个依赖,导入server哈:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-eureka-server</artifactId>
</dependency>
会自动添加版本管理信息,如下:
<properties>
<java.version>1.8</java.version>
<spring-cloud.version>Hoxton.SR4</spring-cloud.version>
</properties>
......
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-dependencies</artifactId>
<version>${spring-cloud.version}</version>
<type>pom</type>
<scope>import</scope>
</dependency>
</dependencies>
</dependencyManagement>
使用注解开启Eureka服务器
@SpringBootApplication
@EnableEurekaServer
public class ServiceRegistryApplication {
public static void main(String[] args) {
SpringApplication.run(ServiceRegistryApplication.class, args);
}
}
此时启动项目,访问http://localhost:8080/即可看到(不用引入web模块的,先前还一直以为有依赖关系)

可以查看服务注册情况
由于还没有实例来注册,显示No instances available
此时控制台每隔三十秒就打印一个异常,不用担心,Eureka正在运行,添加一些配置来消除这些异常
Eureka相信服务器数量较多会更安全的理念,因此Eureka的默认行为是与其他Eureka服务器建立关联,尝试获取其他Eureka服务器的服务注册中心,甚至还会将自身注册为其他Eureka服务器的服务
在生产环境中时非常有价值的,但在开发环境中只需要一个单独的Eureka就足够了。上述的异常就是:Eureka服务器会每隔三十秒就尝试与另外的Eureka服务器建立关系,以注册自己并共享注册中心的信息。在日志中出现的异常就是抱怨自己处于孤独状态
com.netflix.discovery.shared.transport.TransportException: Cannot execute request on any known server
配置文件:
eureka:
instance:
# 告诉Eureka他正在运行在哪个主机上,是可选的,没输入的话Eureka会通过获取环境变量来得知
hostname: localhost
client:
# 是否从其他的Eureka实例获取注册信息,默认是true,报错的来源,但在生产环境下可以保证高可用
fetch-registry: false
# Eureka本身也是个微服务,是否将自身注册进eureka,默认是true
register-with-eureka: false
# 包含了zone名称和该zone下一个或多个Eureka服务器之间的映射关系
# defaultZone是一个特殊的key,如果没有指定所需的zone,就会使用这个zone,
# 因为现在只有一个Eureka,映射到默认zone的URL就是服务器本身,使用SpEL来获取本身URL
service-url:
defaultZone: http://${eureka.instance.hostname}:${server.port}/eureka
通常将端口号设置成8761防止默认端口被占用
等待90s,刷新页面:

产生原因:
依然是Eureka对生产环境的优化
Eureka会对已经注册上来的实例每隔三十秒发送一次注册更新的请求,如果Eureka在三个周期内没有接受到服务器的响应,就会注销服务。
在本例中:Eureka假定出现了网络问题,进入自我保护模式,所以不会注销服务实例
在生产环境中自我保护模式是很好的,可以保证不会因为Eureka网络问题而导致没有得到回应,从而所有还在活跃的服务被注销了,但在开发环境中可以禁用自我保护模式
eureka:
server:
enable-self-preservation: false
在开发环境中以上配置是极其有用的
但是会得到另一条异常:

不就毫无意义了吗?不是这样的
在开发环境中禁止自我保护是非常有用的。因为在开发环境下,我们会频繁的启动或关闭服务实例,如果是处于自我保护模式下的Eureka,会在关闭服务时候将已停止的注册项记录保留下来。这样当另一个服务访问已经不可用的服务时就会产生问题,禁用自动保护模式可以防止这个问题,但是代价就是看到上面的红字提醒(建议在开发时候关闭,在线上运行的时候必须开启,保证可用性)
多个Eureka之间的协同还没有做,以后有时间可以学习下
关于自我保护机制,参考:https://www.cnblogs.com/xishuai/p/spring-cloud-eureka-safe.html
注册和发现服务:
创建名字为ingredient-service的项目,引入Eureka client的starter

依赖详细信息(依然携带Spring Cloud的版本号):
<properties>
<java.version>1.8</java.version>
<spring-cloud.version>Hoxton.SR4</spring-cloud.version>
</properties>
<dependencies>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-eureka-client</artifactId>
</dependency>
</dependencies>
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-dependencies</artifactId>
<version>${spring-cloud.version}</version>
<type>pom</type>
<scope>import</scope>
</dependency>
</dependencies>
</dependencyManagement>
里面就包括了Eureka的客户端库以及Ribbon负载均衡器
当使用默认配置启动的时候,会默认尝试去连接本地8761端口号的Eureka Service(如果在尝试几次没连接上之后,就无法启动),默认的Application Name为UNKNOWN
实际上Client还要加上
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
要不然就虽然不会报错但是会直接shutdown掉
Completed shut down of DiscoveryClient

配置文件:
spring:
application:
# 设置Eureka中服务的名字(注册名),默认是UNKNOWN
name: ingredient-service
server:
# 避免潜在的端口冲突
port: 0
eureka:
client:
service-url:
# 代替使用默认读取本地的配置,指定多个,如果因为某种原因失败,他会使用下一个服务器进行注册
# 最终,如果出现故障的服务器重新恢复在线状态,他将会从对等的端上复制注册信息
defaultZone: http://192.168.56.1:8761/eureka,http://www.luckycurve.cn/eureka
如何消费服务呢
有两种方式消费从Eureka中查找到的服务:
支持负载均衡的RestTemplate
Feign生成的客户端接口
选择哪种方式完全取决于个人喜好
1.RestTemplate:
只需要在注入RestTemplate的时候加上@LoadBalanced
即可
@Bean
@LoadBalanced
public RestTemplate() {
return new RestTemplate();
}
@LoadBalanced注解的作用:
告诉Spring Cloud,这个RestTemplate要通过Ribbon来查找服务
也相当于是有了一个限定注入符(qualifier),如果存在多个RestTemplate,可以指定注入有负载均衡的那一个
在调用的时候就不用指定具体的主机名和端口号了,在主机名和端口号的位置上使用服务名,即提供服务的spring.application.name
即使是来消费的Service也需要以Eureka Client的方式注册到Eureka里面去。
小结:
借助自动配置和@EnableEurekaServer
注解,很容易创建出服务注册中心
微服务可以使用名字将它们自身注册到Eureka中,这样可以被其他服务发现
在客户端,作为客户端负载均衡器,Ribbon能够根据名称查找服务并选择实例
无论是作为服务消费者还是服务提供者,都需要注册进Eureka中,因为只有在产生消费的时候才会有明确的消费者和提供者之分
第十四章、配置管理
借助配置服务器,我们可以在一个地方管理所有的应用配置,避免任何重复
简单思考下单独配置微服务的问题,以及为什么中心化的配置会更好
配置不需要和应用程序代码一起打包和部署。这样在配置变化的情况下就不需要重启应用了
对多个微服务,如果属性出现变更,那么这些变更只需要在一个地方执行一次就可以作用到所有的微服务上了
敏感配置可以进行加密,并且能够与应用程序代码分开维护
创建配置服务器
Spring Cloud Config Server提供支持。与Eureka类似,可以将Config Server看做是另一个微服务,为应用中的其他服务提供配置数据
Config Server暴露REST API供消费
运行原理如图:

如果是私密数据,可以使用Gogs等客户端搭建在自己的服务器上
如果要保证数据完全私密,可以使用右下角提出的HashiCorp Vault
创建Config Server
<properties>
<java.version>1.8</java.version>
<spring-cloud.version>Hoxton.SR4</spring-cloud.version>
</properties>
<dependencies>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-config-server</artifactId>
</dependency>
</dependencies>
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-dependencies</artifactId>
<version>${spring-cloud.version}</version>
<type>pom</type>
<scope>import</scope>
</dependency>
</dependencies>
</dependencyManagement>
开启自动配置
@SpringBootApplication
@EnableConfigServer
public class ConfigServerApplication {
public static void main(String[] args) {
SpringApplication.run(ConfigServerApplication.class, args);
}
}
然后即可访问如下URL:

master可以不带,默认就是master
在Gitee上面添加配置文件application.yaml
server:
port: 0
eureka:
client:
service-url:
defaultZone: http://192.168.56.1:8761/eureka
再访问localhost:8888/application/default
可以看到如下页面:

配置已经出现在了source之中
例如有了新的需求:不将application.yaml放在根目录下,而是放在config文件夹下
则需要更改config-server的配置文件为:
spring:
cloud:
config:
server:
git:
# 指定配置存放路径,先去gitee上创建一个空仓库,以后填充
uri: https://gitee.com/LuckyCurve/cloud-config.git
search-paths: config
如果有多个路径,用,隔开即可
也可以使用通配符,如:
spring:
cloud:
config:
server:
git:
# 指定配置存放路径,先去gitee上创建一个空仓库,以后填充
uri: https://gitee.com/LuckyCurve/cloud-config.git
search-paths: config,more*
匹配/comfig和所有以more开头的子目录的配置
需求变换:不想使用默认的master分支:
创建了dev分支,并修改配置文件如下
server:
port: 0
spring:
application:
name: dev
# 这是dev分支独有的内容
eureka:
client:
service-url:
defaultZone: http://192.168.56.1:8761/eureka
增加了一行注释,但怕读不出来,于是修改了applicationname
但一般好像不会再中心化配置中加入applicationname,这里就当是演示了。
一般都在消费共享配置的yaml中提供config server的地址和applicationname
给config-server配置文件增加:
spring:
cloud:
config:
server:
git:
default-label: dev
其实直接修改访问config-server的url即可
这里的修改其实就相当于把http://localhost:8888/application/default/master的默认是/master换成了/dev
消费配置:
依赖引入:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-config</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
==任何的服务消费者都必须引入web模块,因为要向REST API发起请求==
配置文件:
spring:
application:
name: dev initialize5555
cloud:
config:
# 默认是localhost:8888
uri: http://192.168.56.1:8888
测试:
@Value("${spring.application.name}")
String info;
@Test
void contextLoads() {
System.out.println(info);
}
发现是config-server提供的配置,而不是本地的配置
可以将Eureka的配置直接放置在config-server里面,以免每个微服务都需要去配置Eureka的注册信息。
提供特定应用的属性,因为有些属性可能是某个应用程序私有的,不需要或者不应该与其他应用共享
是通过应用的application name来选定特定的配置,如在本地定义了application name 为user-service,就会去接收user-service.yaml的配置文件
不管服务应用的名称是什么,都会接收application.yaml的配置文件,不过优先级相比于application.name
的优先级较低
搞了几个小时,算是采坑之旅吧 、、、
总结:优先级:${application.name}-${profiles}>${application.name}>application
这里的application.name 我们配置的spring.application.name
:warning::但是这里的profile却是:spring.cloud.config.profile
,不是我们熟悉的spring.profiles.active,巨坑,搞了好久。
最终:
1、存放在git仓库的数据,用于结果测试(都标注了名字):
server:
port: 0
identify: application.yaml
server:
port: 9999
identify: client.yaml
server:
port: 10000
identify: client-dev.yaml
2、config server端配置:
spring:
cloud:
config:
server:
git:
# 指定配置存放路径,先去gitee上创建一个空仓库,以后填充
uri: https://gitee.com/LuckyCurve/cloud-config.git
username: luckycurvec@gmail.com
password: ily025123
# 指定存放路径,默认是根目录
search-paths: config
# 指定配置文件存放的分支,默认是master
default-label: dev
server:
# Config的推荐默认端口号,配置客户端就默认获取8888
port: 8888
3、消费端的配置文件(直接读取的是client-dev.yaml,如果想读取其他两个可以适当删去一些配置):
spring:
application:
name: client
#这里的配置只对于本地有效,对cloud的配置无效
profiles:
active: dev
cloud:
config:
# 默认是localhost:8888
uri: http://192.168.56.1:8888
# 指定cloud的profile,大坑
profile: dev
保证属性的私密性:
如密码和安全token
Config Server提供两种方式支持私密的配置属性:
在Git存储的属性文件中使用加密后的值
使用HashiCorp Vault作为Config Server的后端存储代替Git
感觉主要来第一种把
给Config Server设置秘钥来对Git中加密的数据进行解密
支持对称秘钥和非对称秘钥
有点麻烦,还得对JDK安装单独的插件,挖个坑有时间填
Vault需要自己搭建Vault服务器来保密存储
Spring Cloud Config Server提供两种方式去刷新:
手动刷新:Config
Server启用一个"/actuator/refresh"端口,对每个服务的这个端点发送HTTP
POST请求将会强制配置客户端从Config Server的后台检索最新的配置
自动刷新:涉及到另一个项目:Spring Cloud
Bus、Git仓库上的提交触发Config Server客户端服务的刷新操作。
各有优缺点:
能更基准的控制、后者每次push就会触发,对有些项目过于危险
1.手动刷新:
需要利用到Actuator的一个特性,而这个特性只有配置为Spring Cloud Config Server客户端的应用才有效。
其实上述说的端点就是由Actuator提供的
在Config Client再加入一个依赖:
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-actuator</artifactId>
</dependency>
原来只有一个Config Client和一个Web依赖(消费者都必须带有一个Web Starter用于发送请求)
修改配置文件让actuator暴露出refresh接口
management:
endpoints:
web:
exposure:
include: "*"
在需要重新加载的Controller类上加上 @RefreshScope
注解
测试:
1、部署项目
2、修改git配置文件
3、向http://localhost:10000/actuator/refresh发送post请求,可以使用curl命令行来发送
端口情况:Config Server:8888 Config Client: 10000
4、访问项目的接口,查看读取的配置文件是否更新了(成功)
自动通知客户端刷新配置文件:

原理:
在Git仓库上搭建钩子,当收到push请求的时候,Config Server会对hook的POST请求做出响应,借助某种消息代理以广播的形式进行变更,通知到对应的Config Client,让它们通过Config Server的新值刷新它们的环境
环境搭建就略去了
小结:
Spring Cloud Config Server提供了中心化的配置数据源
通过Git或者Vault仓库维护
除了全局属性,还可以提供给特定的应用特定的profile特定的配置
Spring Cloud Config Client提供手动或自动刷新得到的属性值,前者通过Actuator来实现,后者通过Spring Cloud Bus和Git webhooks来实现
第十五章、处理失败和延迟
断路器主要是解决我们编写代码可能失败的问题,即使失败,它也能够优雅的失败
非常类似于现实世界中的电路断路器。对调用失败的方法断开连接,就不会对失败的方法再去执行了。当然软件断路器有一个独到的优点:提供了后备行为和自校验功能

断路器打开了就相当于是断开连接了
如果被保护的方法在给定的失败阈值内发生了失败,那么可以调用一个后备方法代替它的位置。在断路器处于打开状态之后,几乎始终都会调用后备方法。处于打开状态的断路器偶尔会进入半开状态,并尝试调用发生失败的方法:如果依然失败,断路器就恢复为打开状态;如果调用成功,它会认为问题已经解决,断路器会回到闭合状态。图15.1阐述了软件断路器的流程。
以上阐述了断路器是作用于方法上的这个概念,具体应该作用于哪些方法呢?
调用REST的方法,即使用RestTemplate等消费其他REST
HTTP的方法,这些方法很可能会失败
执行数据库查询的方法,这些方法很有可能因为数据库不响应而失败
可能比较慢的方法,因为有一个失败阈值去判断方法时候失败,在调用时间超过这个阈值时候可能被判定为失败
具体实现:Netflix Hystrix。
在目标方法失败的时候触发后备方法,如果目标方法的失败率达到了某个阈值,那么所有请求都会转发至后备方法
Spring Cloud Netflix当然提供了对Hystrix的支持
项目搭建:
依赖引入
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-hystrix</artifactId>
</dependency>
主要就是这个依赖,为了模拟出错场景,还依赖了web模块,需要web模块来响应请求
在启动类上加上注解:
@SpringBootApplication
@EnableHystrix
public class HystrixTestApplication {
public static void main(String[] args) {
SpringApplication.run(HystrixTestApplication.class, args);
}
}
Spring Cloud的一系列Enable注解:
前面的服务注册与发现,配置中心都是只有server加上了\@Enable系列注解
还有就是这里,也可以理解为是一个服务端
在方法上声明断路器,使用@HystrixCommand
注解
实验代码
@RestController
public class HelloController {
@GetMapping("/")
@HystrixCommand(fallbackMethod = "backHello")
public String hello() throws InterruptedException {
TimeUnit.MINUTES.sleep(5);
return "hello方法执行";
}
/**
* 备用方法,失败时候调用
*/
public String backHello() {
return "back hello 方法执行";
}
}
@HystrixCommand注解的作用:
保证了异常留在了微服务中,而不是继续向上抛出,捕获当前异常并将请求转发到后备方法
在请求失败(方法抛出异常,调用时间超过阈值)就会触发备用方法,备用方法需要有与当前方法具有相同的方法标识(方法名除外)
如果后备方法也有可能失败,则后备方法还需要后备方法,直到永远不会失败
默认的超时值是1s
如果要调整断路器的超时值,使其响应更加迅速/缓慢,可以使用如下配置
@GetMapping("/")
@HystrixCommand(fallbackMethod = "backHello",
commandProperties = {
@HystrixProperty(
name = "execution.isolation.thread.timeoutInMilliseconds",
value = "5000")
})
public String hello() throws InterruptedException {
TimeUnit.MINUTES.sleep(5);
return "hello方法执行";
}
也可以在这里禁止超时功能(不推荐哈):

断路器的其他阈值:
默认情况下,如果断路器保护的方法调用超过20次,而且50%以上的调用在10秒的时间内发生失败,那么断路器就会进入打开状态。所有后续的调用都将会由后备方法处理。在5秒之后,断路器进入半开状态,将会再次尝试调用原始的方法。
设置方法与前面的差不多
Hystrix会进行失败监控,并且发布到一个HTTP流中,通过数据可以反映应用的健康状况
包括以下信息:
•方法被调用了多少次;
•调用成功了多少次;
•后备方法调用了多少次;
•方法超时了多少次。
Hystrix流是由Actuator提供的,这里要使用Hystrix的监控,需要加入Actuator依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-actuator</artifactId>
</dependency>
开放Actuator端点(默认情况下大多数是被禁用的)
management:
endpoints:
web:
exposure:
include: hystrix.stream
暴露Hystrix.stream流
访问这个即可:http://localhost:8080/actuator/hystrix.stream

没访问是空的,访问一次之后开始统计,数据杂乱无章,不便阅读
尝试使用Hystrix Dashboard(仪表盘)来代替hystrix
依赖从
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-hystrix</artifactId>
</dependency>
改成:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-hystrix-dashboard</artifactId>
</dependency>
这里可以不用web模块
启动注解,由原来的@EnableHystrix
变成@EnableHystrixDashboard
直接访问http://localhost:8080/hystrix即可看到:

可以用这个可视化界面去监控前面普通Hystrix提供的Hystrix stream
下面的用默认的配置就可以了
开始会Loading,需要你访问一次才会有数据
访问一次的时候熔断器的结果:

有用信息:

折线图的背景是一个大小和颜色会出现波动的圆圈。圆圈的大小表示当前的流量,圆圈越大,流量越大。圆圈的颜色表示它的健康状况:绿色表示健康的断路器,黄色表示偶尔发生故障的断路器,红色表示故障断路器。
Hystrix的线程模型
因为在非响应式的MVC模型中,每个请求就对应着Tomcat线程池里的一个线程,而被Hystrix标注的方法通常都会出现线程长时间处于阻塞状态,去等待响应,如果大量请求囤积,会导致无可用线程可用
为了避免这种现象,Hystrix为每个依赖都指派了一个线程池,让调用线程不会处于阻塞状态,而是让这些Hystrix提供的线程池处于阻塞状态,避免调用者线程的过早耗尽

右上角显示线程池的名称,其下方是线程池中的线程每秒钟处理请求的数量。线程池监视器的左下角显示如下信息。
•活跃线程:当前活跃线程的数量。
•排队线程:当前有多少线程在排队。默认情况下,队列功能是禁用的,所以这个值始终为0。
•线程池的大小:线程池中有多少线程。
在右下角显示线程池的其他信息:
•最大活跃线程:在当前的采样周期中,活跃线程的最大数量。
•执行次数:线程池中的线程被调用执行Hystrix命令的次数。
•线程队列大小:线程池队列的大小。线程队列功能默认是禁用的,所以这个值没有什么意义。

发现最大也只是10了,因为Controller层默认只有十个线程
Hystrix DashBoard的局限性:只能监控一个流(一个微服务对应一个Hystrix Stream)
可以使用Netflix的Trubine项目,不是hystrix的系列产品了
引入依赖:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-turbine</artifactId>
</dependency>
应该也不用引入web依赖了,对比与hystrix dashboard的
在主类添加注解@EnableTurbine
# 会聚合多个流,声明聚合的流,以逗号分隔的application name,会去Eureka里面查找
turbine:
app-config: hystrix-test
# 收集名为default集群中的所有聚合流,否则不会包含任意特定应用的聚合流数据
cluster-name-expression: "'default'"
是依赖于Eureka的
最后访问localhost:8080/turbine.stream即可
还没测试,估计有坑,Eureka的默认配置对开发者太不友好了
小结:
优雅的进行失败处理,而不是仅仅只是回复一个失败信息
Hystrix DashBoard和Turbine提供可视化的健康管理界面
第五部分、部署Spring
第十六章、使用Spring Boot Actuator
主要是为了窥探运行中的应用,查看他的行为,检测他的健康状况,触发影响它运行的各种操作
本章讨论Actuator,提供了生产环境可用的特性,包括监控Spring Boot应用和获取他的各项指标
Actuator提供了HTTP端点和JMX的端点,本章关注HTTP端点


这是在默认情况下的
都要在上一级加上/actuator
例如查看health:localhost:8080/actuator/health
默认只暴露health和info
开启和禁用actuator端点
一旦指定了,上面的默认配置就失效了,如开启:
management:
endpoints:
web:
exposure:
include: beans,conditions
开启了beans和conditions之后,默认的health和info就关闭了
如要开启所有:
management:
endpoints:
web:
exposure:
include: "*"
一般是暴露所有端点,排除一些端点:
management:
endpoints:
web:
exposure:
include: "*"
exclude: threaddump,heapdump
可以选择向actuator发送请求查看开启了哪些端口:http://localhost:8080/actuator
不仅限于上面的那几种,有些库可能贡献了自己的Actuator端点,如hystrix.stream端点就是hystrix贡献给actuator的
/info端口:
刚开始访问啥都没有,还感觉没啥用,不过后来感觉还是蛮有用的,可以为微服务提供基本信息,通过application配置文件的方式:
info:
username: LuckyCurve
Email: luckycurvec@gmail.com
createTime: 2020-05-28
applicationName: ${spring.application.name}
spring:
application:
name: hello world
访问info得到的结果:

相当于info是一块画布,开发者可以留一些信息给监控人员
如果没指定spring.application.name
,这上面就会显示
applicationName: ${spring.application.name}
还有其他几种方式填充info信息
/health端点:
初次访问:

实际上显示的是一个或多个健康指示器的聚合状态,健康指示器会报告应用与之交互的外部系统的健康状态,如数据库,消息队列,Spring Cloud组件如:Eureka、Config Server。可能的取值为:
UP:外部系统已经启用,可以访问
DOWN:外部系统停机,无法访问
UNKNOWN:外部系统的状态不清楚
OUT_OF_SERVICE:外部系统可以访问得到,但目前不可用
应用健康状况的聚合规则:
如果所有指示器都是UP,那么最终就是UP
如果一个或多个指示器是DOWN,那么应用的最终健康状况就是DOWN
如果一个或多个健康指示器是OUT_OF_SERVICE,那么健康状况就是OUT_OF_SERVICE
默认/health只包含聚合状态,可以指定如下配置来显示完整的健康状态:
management:
endpoint:
health:
show-details: always
management下的endpoint是对各个组件的详细设置,而endpoints则是选择开放的组件的设置
至少都有一个针对文件系统的健康指示器,名为diskSpace。如果部署的磁盘空间低于阈值就会报错。默认还提供很多健康指示器,很多第三方库也提供了自己的健康指示器,可以自定义
查看配置细节:
/beans端点
提供了JSON格式化的所有application-context的bean

大体结构:

查看下启动类的bean情况
"springBootActuatorTestApplication": {
"aliases": [
],
"scope": "singleton",
"type": "cn.luckycurve.springbootactuatortest.SpringBootActuatorTestApplication$$EnhancerBySpringCGLIB$$50d87a9d",
"resource": null,
"dependencies": [
]
}
没有别名,scope为singleton(单例模式)
/conditions端点:
阐述自动装配的过程
大体结构:

positiveMatches:匹配上的,即已经通过的条件化配置
negativeMatches:未匹配上的,失败的条件化配置
unconditionalClasses:无条件配置,Spring
Boot的基础,无条件的进行自动装配
主要通过@ConditionOnMissingBean
这种类型的注解来完成自动装配的条件判断,满足条件的就到了positive里面去了
/env端点:
包括了Spring应用中发挥作用的属性源,包含环境变量,JVM系统属性,application.yml等属性

总览:

activeProfiles列出处于激活状态的profile,如果没有指定就是空的
在proertySources里面就包含了系统变量的值,JVM变量的值,还有Spring application

/mappings:
为所有HTTP请求处理器提供了一站式的视图
包含了所有URL到处理器的映射,还包括一些过滤器的信息

/loggers
日志级别通常是基于Java包来进行设置的,使用这个HTTP GET请求可以查看各个包的日志级别
其他的都大同小异把
直接参照localhost:808/actuator就可以了

这两个到时蛮有意思的,可以获取应用程序的各种度量指标
访问第二个可以得到一些key,再用第一个去访问

最重要的key,第一个

包含总耗时,单个请求的最大耗时,性能优化的时候用得到
并不适合直接观看,在十七章会有UI页面,可以结合UI页面更加直观
自定义Actuator
为info端点添加信息,在配置文件中指定不是惟一的方式
主要使用InfoContributor接口:
@Component
public class MyInfoContributor implements InfoContributor {
@Override
public void contribute(Info.Builder builder) {
HashMap<String, Object> map = new HashMap<>();
map.put("Lucky","Curve");
List<Integer> list = Arrays.asList(1, 2, 3, 4);
map.put("list",list);
builder.withDetails(map);
}
}

可以与application里的info共存
Spring Boot也内置了一些InfoContributor实现,可以直接使用。例如添加BuildInfoContributor到/info中来,没成功,书上这样就行了
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<executions>
<execution>
<goals>
<goal>
build-image
</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
如果项目使用Git就行管理,还可以集成Git的Contributor
实现自定义的健康指示器
Spring Boot提供的健康指示器基本够用了,实现HealthIndicator
接口即可实现自定义
支持自定义端点(Endpoint)
并不依赖与MVC,MVC只能处理HTTP请求,这里还要实现与JMX的交互,具体的为:
@Component
@Endpoint(id = "notes", enableByDefault = true)
public class NotesEndpoint {
private List<Note> notes = new ArrayList<>();
@ReadOperation
public List<Note> notes() {
return notes;
}
@WriteOperation
public List<Note> addNote(String text) {
notes.add(new Note(text));
return notes;
}
@Getter
@RequiredArgsConstructor
private class Note {
private Date date = new Date();
private final String text;
}
}
如果只想暴露MBean端点,使用@JmxEndpoint
注解代替EndPoint注解即可
这里就不对应到具体的请求格式了,不像GetMapping,参数全部从请求体中获取。
测试成功,请求体为:
{
"text":"aaa"
}
安全问题:Actuator可以在运行时候修改环境变量等等、、、
所有端点默认集中在/actuator
基础路径下,可以使用mamagement.endpoints.web.base-path
属性进行修改。
可以用Shiro做权限管理,需要登录。
小结:
Actuator提供了HTTP和JMX MBean的形式
大多数的Actuator端点是禁用的,需要配置文件里面开启
有些端点,如/loggers和/env,允许写入操作,需要保护
第十七章、管理Spring
前一章我们调用HTTP端点,返回JSON数据响应
本章将看到Actuator端点构建的前端用户界面UI,从而使这些端点更易使用

首先搭建Admin服务器,以便于接收每个客户端的Actuator信息

这几章都是Ops(运营)的内容
依赖:
<dependency>
<groupId>de.codecentric</groupId>
<artifactId>spring-boot-admin-starter-server</artifactId>
</dependency>
主类:
@SpringBootApplication
@EnableAdminServer
public class SpringBootAdminServerTestApplication {
public static void main(String[] args) {
SpringApplication.run(SpringBootAdminServerTestApplication.class, args);
}
}
改端口为9090
直接访问:http://localhost:9090/applications
中文界面,做了国际化处理local,非常nice~

将应用注册进Spring Boot Admin Server的两种方案:
每个应用显式的向Admin服务器注册自身
Admin服务器通过Eureka服务注册中心发现服务
第一种:
添加Admin client依赖
<dependency>
<groupId>de.codecentric</groupId>
<artifactId>spring-boot-admin-starter-client</artifactId>
</dependency>
要加上web依赖,client,结论没有问题:)
指定Admin Server的路径和application name:
spring:
application:
name: admin-client
boot:
admin:
client:
url: http://localhost:9090
启动Server和Client,访问Admin Server即可:

好像引入了Admin Client就已经默认依赖了Actuator
查看实例:

开启actuator详细信息配置之后:
management:
endpoint:
health:
show-details: always
endpoints:
web:
exposure:
include: "*"

也太好用了吧,还集成了JVM的详细信息就离谱
使用Eureka:
只需要将Admin Server添加到Eureka里面去即可
引入Eureka Client依赖(还要Web依赖),会默认自动发现注册在Eureka中的服务并收集他们的Actuator数据
为了避免收集到自身的数据,可以使用:
eureka:
client:
register-with-eureka: false
service-url:
# 如果不是默认的话,默认localhost:8761
defaultZone: http://....
UI页面详细信息

可以把界面切换成英文,找了半天metrics,原来翻译之后就是指的性能
主要就来讲一下Metrics
可以选择过滤选项,不选则监控所有
数据都是实时数据,动态刷新的
与threaddump不同,Threads选项卡是实时更新的,不是只是dump一个时间的thread
它是持续更新的,展示每个线程的状态:线程可运行的话,是绿色的;等待的话,是黄色的;阻塞的话,是红色的。

引入Security模块保护Admin的安全
但是好像会导致Admin Client也无法将消息传入进来
要重写默认的拦截器,就不整了
小结:
Spring Boot Admin Server 和 Spring Boot Admin Client(感觉是对Spring Boot Actuator的一层封装)。
Spring Boot Admin Client有两种方式向Server注册自身
Admin提供可视化界面
第十八章、使用JMX监控Spring
通过暴露名为MBean(托管bean)的托管组件,外部的JMX客户端可以通过调用MBean中的操作,探查属性和监视事件来管理应用程序
Actuator很容易暴露MBean
使用JConsole可以在MBean查看到:

展开下面还有操作:

右边的按钮就相当于一个HTTP调用
不过MBean端点全部都是默认暴露的,不用向HTTP端点那样还要制定
management:
endpoint:
health:
show-details: always
endpoints:
web:
exposure:
include: "*"
exclude: threaddump,heapdump
如果想做JMX的端点控制的话:

上面是只暴露指定的端点
下面是暴露除了这些意外的所有端点
可以使用JMC,如果觉得JConsole的UI不好看,只要是JMX客户端都可以
注册到IOC里面的bean并不会直接全部被Spring暴露成MBean,要自己通过注解的方式暴露
暴露属性和操作:

展现在JMC上的UI
Demo:
@Service
@ManagedResource
public class HelloService {
List<Integer> list = new ArrayList<>();
{
list.add(1);
list.add(2);
list.add(3);
list.add(5);
list.add(4);
}
@ManagedAttribute
public List<Integer> getList() {
return list;
}
@ManagedOperation
public boolean add(Integer a) {
return list.add(a);
}
}
==Spring的ManagedAttribute是依赖于方法名字的,需要标准的Getter接口==,要不然是不会显示的,这里就好像没办法使用Lombok了:)
只要是方法名满足条件即可
例如,被\@ManagedAttribute修饰的方法可以改成:
@ManagedAttribute
public String getList() {
return list.toString();
}
可以通过MBean很容易看到内部属性,无论应用是在开发阶段还是在运维阶段,只要暴露MBean即可
MBean实现给客户端发送消息:通过NotificationPublisher接口:
@FunctionalInterface
public interface NotificationPublisher {
void sendNotification(Notification var1) throws UnableToSendNotificationException;
}
例如每两次调用add方法就发送通知:

试了下好像不行
小结:
大多数Actuator可以作为MBean使用,且都是默认开启的状态
Spring会自动启用JMX
添加注解实现自定义的MBean,都是标注在方法上,声明属性的方法要以get开头,因为使用到了反射机制
第十九章、部署Spring
在使用Spring Boot开发的基础上更进一步,学习如何部署这些应用
Spring Boot与传统的打war包部署不同,提供了多种解决方案(包括运行和部署):
在IDE中运行应用
通过命令行Maven spring-boot:run goal运行应用
使用Maven生成可执行的JAR文件,在命令行中运行
使用Maven生成WAR文件,部署到传统的Java应用服务器中
本章我们将关注三个部署场景:
以WAR包形式部署到Web服务器上
以JAR包形式推到云上运行
打包到Docker容器中
打包成WAR包的格式:其实Spring Initialier里面已经提供了打包方式的选项,选择之后会直接构建完整的项目:
pom.xml:
<packaging>war</packaging>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-tomcat</artifactId>
<scope>provided</scope>
</dependency>
单独把Tomcat拎出来,声明scope,让他在生产环境时候无法使用(排除他)
多了个类,有些资料是直接把他整理进了启动类上面去了,感觉单独拿出来好一点:
public class ServletInitializer extends SpringBootServletInitializer {
@Override
protected SpringApplicationBuilder configure(SpringApplicationBuilder application) {
return application.sources(SpringBootWarDeployApplication.class);
}
}
已经是硬编码了
其他的都一模一样了,已经测试过了
随着步入云时代,JAR文件可能是更好的选择
在docker容器中运行Spring Boot
在分发云中部署的各种应用时,Docker已经成为了事实标准
在windows平台使用docker打包项目还是比较麻烦的,使用linux环境安装docker,使用maven的docker插件来实现
虽然本书必须要结束了,但是你的Spring征程才刚刚开始。利用本书所学的知识,用Spring构建令人赞叹的应用吧!我迫不及待地想知道你们的成就。
最后更新于
这有帮助吗?