java.util.stream.Stream 接口中的常用方法

流模型的操作很丰富,下面介绍一些常用的API。这些方法可以被分成两种:

  1. 延迟方法

    返回值类型仍然是 Stream 接口自身类型的方法,因此支持链式调用。(除了终结方法外,其余方 法均为延迟方法。)

  2. 终结方法

    返回值类型不再是 Stream 接口自身类型的方法,因此不再支持类似 StringBuilder 那样的链式调 用。在这里介绍的终结方法包括 count 和 forEach 方法。

逐一处理:forEach

虽然方法名字叫 forEach ,但是与for循环中的“for-each”昵称不同。

void forEach(Consumer<? super T> action);

该方法接收一个 Consumer 接口函数,会将每一个流元素交给该函数进行处理。

java.util.function.Consumer<T>接口是一个消费型接口。
Consumer接口中包含抽象方法void accept(T t),意为消费一个指定泛型的数据。

基本使用:

import java.util.stream.Stream;

public class Demo06ForEach {

    public static void main(String[] args) {
        Stream<String> stream = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        stream.forEach(name-> System.out.println(name));
    }

}

这里调用的of()方法,方法签名:

@SafeVarargs
public static<T> Stream<T> of(T... values) {
    return Arrays.stream(values);
}

过滤:filter

可以通过 filter 方法将一个流转换成另一个子集流。方法签名:

Stream<T> filter(Predicate<? super T> predicate);

该接口接收一个 Predicate 函数式接口参数(可以是一个Lambda或方法引用)作为筛选条件。

java.util.stream.Predicate 接口是一个函数式接口,其中唯一的抽象方法为:

boolean test(T t);

该方法将会产生一个boolean值结果,代表指定的条件是否满足。如果结果为true,那么Stream流的 filter 方法将会留用元素;如果结果为false,那么 filter 方法将会舍弃元素。

基本使用

Stream流中的 filter 方法基本使用的代码如:

import java.util.stream.Stream;

public class Demo07StreamFilter {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.filter(s -> s.length() >= 5);
        result.forEach(System.out::println);
    }
}

运行程序,控制台输出:

Python
Hadoop
Spark

这个例子中,通过Lambda表达式来指定了筛选的条件:字符串的长度要大于等于5。

映射:map

如果需要将流中的元素映射到另一个流中,可以使用 map 方法。方法签名:

<R> Stream<R> map(Function<? super T, ? extends R> mapper);

该接口需要一个 Function 函数式接口参数,可以将当前流中的T类型数据转换为另一种R类型的流。

java.util.stream.Function 接口是一个函数式接口,其中唯一的抽象方法为:

R apply(T t);

这可以将一种T类型转换成为R类型,而这种转换的动作,就称为“映射”。

基本使用

Stream流中的 map 方法基本使用的代码如:

import java.util.stream.Stream;

public class Demo08StreamMap {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("100", "200", "300");
        Stream<Integer> result = original.map(str -> Integer.parseInt(str));
        result.forEach(System.out::println);
    }
}

运行程序,控制台输出:

100
200
300

这段代码中, map 方法的参数通过方法引用,将字符串类型转换成为了int类型(并自动装箱为 Integer 类对象)。然后调用Stream接口中的forEach方法,逐一输出结果。

统计个数:count

正如旧集合 Collection 当中的 size 方法一样,流提供 count 方法来数一数其中的元素个数:

long count();

该方法返回一个long值代表元素个数(不再像旧集合那样是int值)。

基本使用

import java.util.stream.Stream;

public class Demo09StreamCount {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.filter(s -> s.length() >= 5);
        System.out.println(result.count());
    }
}

运行程序,控制台输出:

3

取用前几个:limit

limit 方法可以对流进行截取,只取用前n个。方法签名:

Stream<T> limit(long maxSize);

参数是一个long型,如果集合当前长度大于参数则进行截取;否则不进行操作。

基本使用

import java.util.stream.Stream;

public class Demo10StreamLimit {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.limit(3);
        result.forEach(System.out::println);
    }
}

运行程序,控制台输出:

Java
C
Python

跳过前几个:skip

如果希望跳过前几个元素,可以使用 skip 方法获取一个截取之后的新流:

Stream<T> skip(long n);

如果流的当前长度大于n,则跳过前n个;否则将会得到一个长度为0的空流。

基本使用

import java.util.stream.Stream;

public class Demo11StreamSkip {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.skip(3);
        result.forEach(System.out::println);
    }
}

运行程序,控制台输出:

Hadoop
Spark

组合:concat

如果有两个流,希望合并成为一个流,那么可以使用 Stream 接口的静态方法 concat:

static <T> Stream<T> concat(Stream<? extends T> a, Stream<? extends T> b)
备注:这是一个静态方法,与 java.lang.String 当中的 concat 方法是不同的。

基本使用

import java.util.stream.Stream;

public class Demo12StreamConcat {
    public static void main(String[] args) {
        Stream<String> original1 = Stream.of("Java", "C", "Python");
        Stream<String> original2 = Stream.of("Hadoop", "Spark");
        Stream<String> result = Stream.concat(original1, original2);
        result.forEach(System.out::println);
    }
}

运行程序,控制台输出:

Java
C
Python
Hadoop
Spark

Stream 接口中的常用方法就介绍到这里,为了加深理解,可以看一下使用Stream方式完成的简单练习

posted @ 2020-02-13 00:56  LeeHua  阅读(2612)  评论(2编辑  收藏  举报