赞
踩
Java8特性主要是Stream流以及函数式接口的出现;本片文章主要对StreamApi中的常用方法进行讲解,再学习Stream流之前个人建议需要对函数式接口要有充分理解并能熟练掌握,对于函数式编程的学习大家可以参考:java 函数式编程(Function、Supplier、Predicate、Consumer)
本片文章主要讲解流相关的操作以及部分原理介绍;
Stream流本质上是一个执行计算的过程,将流当中的中间操作组成一个流管道的形式,流管道由源(可能是数组,集合,生成器函数,I / O通道等),零个或多个中间操作 (将流转换为另一个流,如filter(Predicate) )组成,以及终端操作 (产生结果或副作用,例如count()、forEach(Consumer) 、collect(?); 对于collect()方法来讲是Stream的重中之重,collect()方法的实现依赖于Collector,对于流的终端收集操作(Collector)会放在后续进行讲解;
流本身是由三个部分组成,分别是源、中间操作、终止操作;大家先看个例子:
int sum = widgets.stream()
.filter(w -> w.getColor() == RED)
.mapToInt(w -> w.getWeight())
.sum();
widgets认为是一个集合本身的引用,通过widgets.stream()则创建了一个源,中间的filter()和mapToInt() 操作是流的中间操作过程,sum是流的一个终端终止操作;
大家再来观察一下stream()方法;
default Stream<E> stream() {
return StreamSupport.stream(spliterator(), false);
}
public static <T> Stream<T> stream(Spliterator<T> spliterator, boolean parallel) {
Objects.requireNonNull(spliterator);
return new ReferencePipeline.Head<>(spliterator,
StreamOpFlag.fromCharacteristics(spliterator),
parallel);
}
stream() 是 Collection 中的 default 方法,实际上调用的是StreamSupport.stream() 方法,返回的是 ReferencePipeline.Head的实例;ReferencePipeline表示的是流阶段的中间阶段,ReferencePipeline.Head表示流的源阶段;一个流的只会创建一次源,而流的中间操作可以没有或者多个;ReferencePipeline.Head 的构造函数传递是 ArrayList 中实现的 spliterator 。常用的集合都实现了 Spliterator 接口以支持 Stream。可以这样理解,Spliterator 定义了数据集合流入流水线的方式。
接下来将对Stream的构造方法也就是流的的创建过程以及中间操作阶段的具体实现进行分析,来进一步理解流的创建以及流是怎么将每一个中间阶段链接起来并且怎么将每一个阶段的输出通知给下游流; 我们先分析stream()方法的最终实现:其实是AbstractPipeline,而ReferencePipeline继承了AbstractPipeline:
AbstractPipeline(Spliterator<?> source, int sourceFlags, boolean parallel) { //表示上一个阶段,如果这是源阶段,也就是流创建的阶段并没有上游所以这里为null。 this.previousStage = null; //流管道中的源拆分器;实际行为是和sourceSupplier配合将集合中的元素驶向流 this.sourceSpliterator = source; //流管道的源阶段 this.sourceStage = this; // 此管道对象表示的中间操作的操作标志 this.sourceOrOpFlags = sourceFlags & StreamOpFlag.STREAM_MASK; // The following is an optimization of: // StreamOpFlag.combineOpFlags(sourceOrOpFlags, StreamOpFlag.INITIAL_OPS_VALUE); //源和所有操作的组合源标志和操作标志,直到此流水线对象表示的操作为止(包括该流水线对象所代表的操作)。 在管道准备进行评估时有效。 this.combinedFlags = (~(sourceOrOpFlags << 1)) & StreamOpFlag.INITIAL_OPS_VALUE; //如果是顺序的,则此管道对象与流源之间的中间操作数;如果是并行的,则为先前有状态的中间操作数。 在管道准备进行评估时有效 this.depth = 0; //表示并行还是串行流 this.parallel = parallel; }
对于stream()的构造方法我认为previousStage 、sourceStage 、depth 三个属性即可,能更快捷的去了解流;
构造方法执行完成之后流的创建也完成了。创建了源;
好了~到目前为止,流的创建阶段也就完成了;我们再看看下游流是怎么创建的呢?(拿filter()举例)
@Override public final Stream<P_OUT> filter(Predicate<? super P_OUT> predicate) { Objects.requireNonNull(predicate); // 返回一个匿名无状态操作的管道 return new StatelessOp<P_OUT, P_OUT>(this, StreamShape.REFERENCE, StreamOpFlag.NOT_SIZED) { @Override // 下游生产线所需要的回调接口 Sink<P_OUT> opWrapSink(int flags, Sink<P_OUT> sink) { return new Sink.ChainedReference<P_OUT, P_OUT>(sink) { @Override public void begin(long size) { downstream.begin(-1); } // 真正执行操作的方法,依靠ChainedReference内置ReferencePipeline引用下游的回调 @Override public void accept(P_OUT u) { // 只有满足条件的元素才能被下游执行 if (predicate.test(u)) downstream.accept(u); } }; } }; }
StatelessOp是非常重要的,定义了流中无状态操作的属性;我这里直接点击到了StatelessOp中具体的构造方法大家再看看一下:
/** * previousStage入参表示流对象,我们上步骤创建好的流对象 */ AbstractPipeline(AbstractPipeline<?, E_IN, ?> previousStage, int opFlags) { if (previousStage.linkedOrConsumed) throw new IllegalStateException(MSG_STREAM_LINKED); // 表示如果该流管道被消费或者链接则为true,上面我们创建了stream()流,调用filter方法则表示我们将filter这个阶段已经连接到流 previousStage.linkedOrConsumed = true; // 流管道的下一个阶段,上步骤创建好的流对象下一个对象就是当前对象 previousStage.nextStage = this; // 此时该流管道中的上一个阶段便是源阶段 this.previousStage = previousStage; this.sourceOrOpFlags = opFlags & StreamOpFlag.OP_MASK; this.combinedFlags = StreamOpFlag.combineOpFlags(opFlags, previousStage.combinedFlags); // 源阶段只有一个仍然是previousStage.sourceStage; this.sourceStage = previousStage.sourceStage; if (opIsStateful()) sourceStage.sourceAnyStateful = true; // 新增了一个filter操作,深度便+1; this.depth = previousStage.depth + 1; }
在和源阶段的构造方法和下游流创建的构造方法拿出来对比会发现:
其实发现previousStage.nextStage = this previousStage.linkedOrConsumed = this; 通过连接上游流和指向下游流发现流的特性是很像一个双向链表
到目前为止,流的创建(源阶段以及中间阶段)就结束了,接下来我们再看一下ReferencePipeline.Head 代表流的源看看数据是怎么走向的呢?我们来观察一下ReferencePipeline.Head类:
/**
* Source stage of a ReferencePipeline.
*
* @param <E_IN> type of elements in the upstream source
* @param <E_OUT> type of elements in produced by this stage
* @since 1.8
*/
static class Head<E_IN, E_OUT> extends ReferencePipeline<E_IN, E_OUT> {
//方法目前已经省略便于观看;
}
其中有两个泛型参数E_IN、E_OUT,显而易见一个表示进,一个表示出,E_IN表示的是上游源的元素的类型,E_OUT表示的是当前阶段所生成的元素类型
比如我们使用steam: stream().map().filter()… 对于map()阶段来说,E_IN则是stream生成的源(Spliterator),E_OUT表示map()处理完之后生成的元素,这个元素可能是对象、集合等等。 对于filter()来说 filter()的输入元素就是map()所输出的元素,filter()的输出元素则会作为下一个中间动作的输入元素。。。。
流的创建以及数据流向已经介绍完了,接下来我们简单介绍流的每一个阶段是怎么进行通知的:Sink
Sink 这个接口,它继承自 Consumer 接口,又定义了begin()、end()、cancellationRequested() 方法。Sink 直译过来是水槽,如果把数据流比作水,那水槽就是水会流过的地方。begin() 用于通知水槽的水要过来了,里面会做一些准备工作,同样 end() 是做一些收尾工作。cancellationRequested() 是原来判断是不是可以停下来了。Consumer 里的accept() 是消费数据的地方。
每一个 Sink 都有自己的职责,但具体表现各有不同。无状态操作的 Sink 接收到通知或者数据,处理完了会马上通知自己的 下游。有状态操作的 Sink 则像有一个缓冲区一样,它会等要处理的数据处理完了才开始通知下游,并将自己处理的结果传递给下游。例如 sorted() 就是一个有状态的操作,一般会有一个属于自己的容器,用来记录处自己理过的数据的状态。sorted() 是在执行 begin 的时候初始化这个容器,在执行 accept 的时候把数据放到容器中,最后在执行 end 方法时才正在开始排序。排序之后再将数据,采用同样的方式依次传递给下游节点。最后数据流到终止节点,终止节点将数据收集起来就结束了。
好了~ ~ 流我们有了一个基础理念、并掌握函数式接口之后我们再来回顾一下Stream中常用方法~~~
Stream<T> filter(Predicate<? super T> predicate);
在对Api讲解时,将不再对流的原理进行介绍,只关注方法本身的入参,出参以及使用;
可以看到filter入参是Predicate(接受一个参数不返回值) 出参仍返回一个Stream,方法本身返回由此流中满足给定的Predicate行为后元素组成的流;
举个例子:集合中有四个元素分别是字符类型"supplier", “function”, “predicate”, “consumer”,需要将符合条件的元素捞取出来(其中符合元素的条件根据业务可调整)当前例子是将元素长度=8的元素过滤出来。。
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
list.stream().filter(item -> item.length() == 8).forEach(System.out::println);
}
打印结果为:supplier function consumer;结果中predicate元素长度等于9 不满足Predicate行为;
<R> Stream<R> map(Function<? super T, ? extends R> mapper);
返回一个流,包括将给定函数应用到该流元素的结果。 入参是一个Function(接受一个参数并返回值),出参是Stream
对于map()方法的使用我们需要将集合中的元素进行处理,处理完之后并返回新的结果时,便可使用map
举个例子:
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
//将list中每一个元素末尾加“~~”
list.stream().map(item -> item + "~~").forEach(System.out::println);
}
结果打印:supplier~~ function~~ predicate~~ consumer~~
<R> Stream<R> flatMap(Function<? super T, ? extends Stream<? extends R>> mapper);
将集合中的每一个元素铺开汇聚成新结果以Stream的形式返回
举个例子:有两个集合list1、list2 铺开形成一个list
@Test
void stream(){
// 有两个集合list1、list2需要两个集合中的元素长度等于10的元素收集起来并返回新的集合
List<String> list1 = Arrays.asList("supplier1", "function1", "predicate1", "consumer1");
List<String> list2 = Arrays.asList("supplier2", "function2", "predicate2", "consumer2");
List<List<String>> list = Arrays.asList(list1, list2);
List<String> collect = list.stream()
.flatMap(Collection::stream)
.filter(item -> item.length() == 10)
.collect(Collectors.toList());
collect.forEach(System.out::println);
}
输出结果:predicate1 predicate2
这样使用起来大家觉得可能用处比较少不属于常用方法,但对于oracle来讲对于批量查询如果数据过多会报错,需要对数据进行分片,分片之后在进行查询;
写一个方法大家应该就理解了
/**
* @param list string的列表,根据这个去数据库查
* @param function 具体的查询方法
* @param <T> 返回的list的对象
* @return 返回数据库查出的具体方法
*/
public static <T> List<T> partitionThousandGet(List<String> list, Function<List<String>, List<T>> function) {
return Lists.partition(list, 1000)
.stream()
.map(function)
.flatMap(Collection::stream)
.collect(Collectors.toList());
}
其中使用flatMap便可执行分片查询功能,在function参数中传入指定的dao层方法即可;
Stream<T> peek(Consumer<? super T> action);
peek的意思是偷看,入参是Consumer 返回一个Stream,返回由该流的元素组成的流,并在所提供的流中执行所提供的每个元素上的动作
举一个例子:
学生类有名字和分数两个属性; @Data public class Student { private String name; private int score; } @Test void stream(){ Student student1 = new Student("zhangsan", 21); Student student2 = new Student("lisi", 82); Student student3 = new Student("wangwu", 32); // 分别有三个学生;需要将lisi的分数改为100分 List<Student> list = Arrays.asList(student1, student3, student2); list.stream().peek(item -> { if (item.getName().equals("lisi")) { item.setScore(100); } }).forEach(System.out::println); } 打印结果为: Student(name=zhangsan, score=21) Student(name=wangwu, score=32) Student(name=lisi, score=100)
/**
T identity,输入元素
BinaryOperator<T> accumulator 累加器,接受两个相同结果的入参返回一个值;
BinaryOperator<U> combiner 合成器,在使用并行流时使用;
*/
T reduce(T identity, BinaryOperator<T> accumulator);
Optional<T> reduce(BinaryOperator<T> accumulator);
<U> U reduce(U identity,
BiFunction<U, ? super T, U> accumulator,
BinaryOperator<U> combiner);
reduce本身时汇聚的一个过程,可以将目标元素通过累加器合成最终目标结果元素;reduce 操作可以实现从Stream中生成一个值,其生成的值不是随意的,而是根据指定的计算模型。比如,之前提到count、min和max方法,因为常用而被纳入标准库中。事实上,这些方法都是reduce操作。
举个例子
学生类有名字和分数两个属性; @Data public class Student { private String name; private int score; } @Test void stream(){ Student student1 = new Student("zhangsan", 21); Student student2 = new Student("lisi", 82); Student student3 = new Student("wangwu", 32); //需要计算学生分数总和 List<Student> list = Arrays.asList(student1, student3, student2); int sum = list.stream().mapToInt(Student::getScore).reduce(Integer::sum).getAsInt(); System.out.println(sum); }
Optional<T> max(Comparator<? super T> comparator);
Optional<T> min(Comparator<? super T> comparator);
两个方法入参都是Comparator,出参是Optional对象;返回流中最大或者最小的元素
举个例子:
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
//获取流中最大的元素
String maxString = list.stream().max(String::compareToIgnoreCase).get();
System.out.println(maxString);
}
打印:supplier
Optional<T> findAny();
Optional<T> findFirst();
当流具有确定顺序的情况下(例如使用List创建的流),findFirst()和findAny()通常返回相同的结果。但是,在并行流操作中,由于并行执行的特性,findAny()可能更适合并行化操作,而且在某些情况下可能具有更好的性能。
举个例子:
@Test
void stream(){
//对于串行流来讲有序集合两个方法返回的都是同一个元素
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
String string1 = list.stream().findFirst().get();
String string2 = list.stream().findAny().get();
System.out.println(string1 + "--" + string2);
}
输出:supplier--supplier
但是对于并行流来讲findAny会随机返回一个元素:
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
String string1 = list.parallelStream().findFirst().get();
String string2 = list.parallelStream().findAny().get();
System.out.println(string1 + "--" + string2);
}
打印:supplier--predicate
boolean allMatch(Predicate<? super T> predicate);
boolean anyMatch(Predicate<? super T> predicate);
boolean noneMatch(Predicate<? super T> predicate);
三个方法都是接受一个Predicate参数返回boolean值;三个操作都是Stream中的终止操作
我们举个例子来说明:
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
String str = "supplier";
boolean anyMatchResult = list.stream().anyMatch(item -> item.equals(str));
boolean allMatchResult = list.stream().allMatch(item -> item.equals(str));
boolean noneMatchResult = list.stream().noneMatch(item -> item.equals(str));
System.out.println("anyMatchResult结果:" +anyMatchResult+ " allMatchResult结果:"
+ allMatchResult + " noneMatchResult结果: "+noneMatchResult);
}
运行结果为:anyMatchResult结果:true allMatchResult结果:false noneMatchResult结果:false
我们可以看到对于anyMatch方法 集合中有一个元素等于我们定义的字符串supplier,条件成立返回true,对于allMatch并不是所有元素都等于我们定义的字符串supplier,条件不成立返回false;对于noneMatch来讲并不是所有元素都不符合条件,返回false;
Stream<T> sorted();
Stream<T> sorted(Comparator<? super T> comparator);
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
list.stream().sorted().forEach(System.out::println);
}
输出 consumer
function
predicate
supplier
@Test
void stream(){
//根据字符串长度进行排序
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
list.stream().sorted(Comparator.comparing(String::length)).forEach(System.out::println);
}
输出:supplier
function
consumer
predicate
返回流中元素的个数
举个例子:
@Test
void stream(){
List<String> list = Arrays.asList("supplier", "function", "predicate", "consumer");
long count = list.stream().count();
System.out.println(count);
}
打印:4
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。