Java编程的逻辑 (92) - 函数式数据处理 (上)

本系列文章经补充和完善,已修订整理成书《Java编程的逻辑》,由机械工业出版社华章分社出版,于2018年1月上市热销,读者好评如潮!各大网店和书店有售,欢迎购买,京东自营链接http://item.jd.com/12299018.html


上节我们介绍了Lambda表达式和函数式接口,本节探讨它们的应用,函数式数据处理,针对常见的集合数据处理,Java 8引入了一套新的类库,位于包java.util.stream下,称之为Stream API,这套API操作数据的思路,不同于我们在38节55节介绍的容器类API,它们是函数式的,非常简洁、灵活、易读,具体有什么不同呢?由于内容较多,我们分为两节来介绍,本节先介绍一些基本的API,下节讨论一些高级功能。

基本概念

接口Stream类似于一个迭代器,但提供了更为丰富的操作,Stream API的主要操作就定义在该接口中。 Java 8给Collection接口增加了两个默认方法,它们可以返回一个Stream,如下所示:

default Stream<E> stream() {
    return StreamSupport.stream(spliterator(), false);
}

default Stream<E> parallelStream() {
    return StreamSupport.stream(spliterator(), true);
}

stream()返回的是一个顺序流,parallelStream()返回的是一个并行。顺序流就是由一个线程执行操作。而并行流背后可能有多个线程并行执行,与之前介绍的并发技术不同,使用并行流不需要显式管理线程,使用方法与顺序流是一样的。

下面,我们主要针对顺序流,学习Stream接口,包括其用法和基本原理,随后我们再介绍下并行流。先来看一些简单的示例。

基本示例

上节演示时使用了学生类Student和学生列表List<Student> lists,本节继续使用它们。

基本过滤

返回学生列表中90分以上的,传统上的代码一般是这样的:

List<Student> above90List = new ArrayList<>();
for (Student t : students) {
    if (t.getScore() > 90) {
        above90List.add(t);
    }
}

使用Stream API,代码可以这样:

List<Student> above90List = students.stream()
        .filter(t->t.getScore()>90)
        .collect(Collectors.toList());

先通过stream()得到一个Stream对象,然后调用Stream上的方法,filter()过滤得到90分以上的,它的返回值依然是一个Stream,为了转换为List,调用了collect方法并传递了一个Collectors.toList(),表示将结果收集到一个List中。

代码更为简洁易读了,这种数据处理方式被称为函数式数据处理,与传统代码相比,它的特点是:

  • 没有显式的循环迭代,循环过程被Stream的方法隐藏了
  • 提供了声明式的处理函数,比如filter,它封装了数据过滤的功能,而传统代码是命令式的,需要一步步的操作指令
  • 流畅式接口,方法调用链接在一起,清晰易读

基本转换

根据学生列表返回名称列表,传统上的代码一般是这样:

List<String> nameList = new ArrayList<>(students.size());
for (Student t : students) {
    nameList.add(t.getName());
}

使用Stream API,代码可以这样:

List<String> nameList = students.stream()
        .map(Student::getName)
        .collect(Collectors.toList());

这里使用了Stream的map函数,它的参数是一个Function函数式接口,这里传递了方法引用。       

基本的过滤和转换组合

返回90分以上的学生名称列表,传统上的代码一般是这样:

List<String> nameList = new ArrayList<>();
for (Student t : students) {
    if (t.getScore() > 90) {
        nameList.add(t.getName());
    }
}

使用函数式数据处理的思路,可以将这个问题分解为由两个基本函数实现:

  1. 过滤:得到90分以上的学生列表
  2. 转换:将学生列表转换为名称列表

使用Stream API,可以将基本函数filter()和map()结合起来,代码可以这样:

List<String> above90Names = students.stream()
        .filter(t->t.getScore()>90)
        .map(Student::getName)
        .collect(Collectors.toList());

这种组合利用基本函数、声明式实现集合数据处理功能的编程风格,就是函数式数据处理。

代码更为直观易读了,但你可能会担心它的性能有问题。filter()和map()都需要对流中的每个元素操作一次,一起使用会不会就需要遍历两次呢?答案是否定的,只需要一次。实际上,调用filter()和map()都不会执行任何实际的操作,它们只是在构建操作的流水线,调用collect才会触发实际的遍历执行,在一次遍历中完成过滤、转换以及收集结果的任务。

像filter和map这种不实际触发执行、用于构建流水线、返回Stream的操作被称为中间操作(intermediate operation),而像collect这种触发实际执行、返回具体结果的操作被称为终端操作(terminal operation)。Stream API中还有更多的中间和终端操作,下面我们具体来看下。

中间操作

除了filter和map,Stream API的中间操作还有distinct, sorted, skip, limit, peek, mapToLong, mapToInt, mapToDouble, flatMap等,我们逐个来看下。

distinct

distinct返回一个新的Stream,过滤重复的元素,只留下唯一的元素,是否重复是根据equals方法来比较的,distinct可以与其他函数如filter, map结合使用。

比如,返回字符串列表中长度小于3的字符串、转换为小写、只保留唯一的,代码可以为:

List<String> list = Arrays.asList(new String[]{"abc","def","hello","Abc"});
List<String> retList = list.stream()
        .filter(s->s.length()<=3)
        .map(String::toLowerCase)
        .distinct()
        .collect(Collectors.toList());
System.out.println(retList);

输出为:

[abc, def]

虽然都是中间操作,但distinct与filter和map是不同的,filter和map都是无状态的,对于流中的每一个元素,它的处理都是独立的,处理后即交给流水线中的下一个操作,但distinct不同,它是有状态的,在处理过程中,它需要在内部记录之前出现过的元素,如果已经出现过,即重复元素,它就会过滤掉,不传递给流水线中的下一个操作。

对于顺序流,内部实现时,distinct操作会使用HashSet记录出现过的元素,如果流是有顺序的,需要保留顺序,会使用LinkedHashSet

sorted

有两个sorted方法:

Stream<T> sorted()
Stream<T> sorted(Comparator<? super T> comparator)

它们都对流中的元素排序,都返回一个排序后的Stream,第一个方法假定元素实现了Comparable接口,第二个方法接受一个自定义的Comparator。

比如,过滤得到90分以上的学生,然后按分数从高到低排序,分数一样的,按名称排序,代码可以为:

List<Student> list = students.stream()
        .filter(t->t.getScore()>90)
        .sorted(Comparator.comparing(Student::getScore)
                .reversed()
                .thenComparing(Student::getName))
        .collect(Collectors.toList());

这里,使用了Comparator的comparing, reversed和thenComparing构建了Comparator。

与distinct一样,sorted也是一个有状态的中间操作,在处理过程中,需要在内部记录出现过的元素,与distinct不同的是,每碰到流中的一个元素,distinct都能立即做出处理,要么过滤,要么马上传递给下一个操作,但sorted不能,它需要先排序,为了排序,它需要先在内部数组中保存碰到的每一个元素,到流结尾时,再对数组排序,然后再将排序后的元素逐个传递给流水线中的下一个操作。

skip/limit

它们的定义为:

Stream<T> skip(long n)
Stream<T> limit(long maxSize)

skip跳过流中的n个元素,如果流中元素不足n个,返回一个空流,limit限制流的长度为maxSize。

比如,将学生列表按照分数排序,返回第3名到第5名,代码可以为:

List<Student> list = students.stream()
        .sorted(Comparator.comparing(
            Student::getScore).reversed())
        .skip(2)
        .limit(3)
        .collect(Collectors.toList());

skip和limit都是有状态的中间操作。对前n个元素,skip的操作就是过滤,对后面的元素,skip就是传递给流水线中的下一个操作。limit的一个特点是,它不需要处理流中的所有元素,只要处理的元素个数达到maxSize,后面的元素就不需要处理了,这种可以提前结束的操作被称为短路操作。

peek

peek的定义为:

Stream<T> peek(Consumer<? super T> action)

它返回的流与之前的流是一样的,没有变化,但它提供了一个Consumer,会将流中的每一个元素传给该Consumer。这个方法的主要目的是支持调试,可以使用该方法观察在流水线中流转的元素,比如:

List<String> above90Names = students.stream()
        .filter(t->t.getScore()>90)
        .peek(System.out::println)
        .map(Student::getName)
        .collect(Collectors.toList());

mapToLong/mapToInt/mapToDouble

map函数接受的参数是一个Function<T, R>,为避免装箱/拆箱,提高性能,Stream还有如下返回基本类型特定流的方法:

DoubleStream mapToDouble(ToDoubleFunction<? super T> mapper)
IntStream mapToInt(ToIntFunction<? super T> mapper)
LongStream mapToLong(ToLongFunction<? super T> mapper)

DoubleStream/IntStream/LongStream是基本类型特定的流,有一些专门的更为高效的方法。比如,求学生列表的分数总和,代码可以为:

double sum = students.stream()
        .mapToDouble(Student::getScore)
        .sum();

flatMap                

flatMap的定义为:

<R> Stream<R> flatMap(Function<? super T, ? extends Stream<? extends R>> mapper)

它接受一个函数mapper,对流中的每一个元素,mapper会将该元素转换为一个流Stream,然后把新生成流的每一个元素传递给下一个操作。比如:

List<String> lines = Arrays.asList(new String[]{
        "hello abc",
        "老马  编程"
    });
List<String> words = lines.stream()
        .flatMap(line -> Arrays.stream(line.split("\\s+")))
        .collect(Collectors.toList());
System.out.println(words);

这里的mapper将一行字符串按空白符分隔为了一个单词流,Arrays.stream可以将一个数组转换为一个流,输出为:

[hello, abc, 老马, 编程]

可以看出,实际上,flatMap完成了一个1到n的映射。

针对基本类型,flatMap还有如下类似方法:

DoubleStream flatMapToDouble(Function<? super T, ? extends DoubleStream> mapper)
IntStream flatMapToInt(Function<? super T, ? extends IntStream> mapper)
LongStream flatMapToLong(Function<? super T, ? extends LongStream> mapper)

终端操作

中间操作不触发实际的执行,返回值是Stream,而终端操作触发执行,返回一个具体的值,除了collect,Stream API的终端操作还有max, min, count, allMatch, anyMatch, noneMatch, findFirst, findAny, forEach, toArray, reduce等,我们逐个来看下。

max/min

max/min的定义为:

Optional<T> max(Comparator<? super T> comparator)
Optional<T> min(Comparator<? super T> comparator)

它们返回流中的最大值/最小值,值的注意的是,它的返回值类型是Optional<T>,而不是T。

java.util.Optional是Java 8引入的一个新类,它是一个泛型容器类,内部只有一个类型为T的单一变量value,可能为null,也可能不为null。Optional有什么用呢?它用于准确地传递程序的语义,它清楚地表明,其代表的值可能为null,程序员应该进行适当的处理。

Optional定义了一些方法,比如:

// value不为null时返回true
public boolean isPresent()
// 返回实际的值,如果为null,抛出异常NoSuchElementException
public T get()
// 如果value不为null,返回value,否则返回other
public T orElse(T other)
// 构建一个空的Optional,value为null
public static<T> Optional<T> empty()
// 构建一个非空的Optional, 参数value不能为null
public static <T> Optional<T> of(T value)
// 构建一个Optional,参数value可以为null,也可以不为null
public static <T> Optional<T> ofNullable(T value)

在max/min的例子中,通过声明返回值为Optional,我们就知道,具体的返回值不一定存在,这发生在流中不含任何元素的情况下。

看个简单的例子,返回分数最高的学生,代码可以为:

Student student = students.stream()
        .max(Comparator.comparing(Student::getScore).reversed())
        .get();

这里,假定students不为空。

count

count很简单,就是返回流中元素的个数。比如,统计大于90分的学生个数,代码可以为:

long above90Count = students.stream()
        .filter(t->t.getScore()>90)
        .count();

allMatch/anyMatch/noneMatch

这几个函数都接受一个谓词Predicate,返回一个boolean值,用于判定流中的元素是否满足一定的条件,它们的区别是:

  • allMatch: 只有在流中所有元素都满足条件的情况下才返回true
  • anyMatch: 只要流中有一个元素满足条件就返回true
  • noneMatch: 只有流中所有元素都不满足条件才返回true

如果流为空,这几个函数的返回值都是true。

比如,判断是不是所有学生都及格了(不小于60分),代码可以为:

boolean allPass = students.stream()
        .allMatch(t->t.getScore()>=60);

这几个操作都是短路操作,都不一定需要处理所有元素就能得出结果,比如,对于allMatch,只要有一个元素不满足条件,就能返回false。

findFirst/findAny

它们的定义为:

Optional<T> findFirst()
Optional<T> findAny()

它们的返回类型都是Optional,如果流为空,返回Optional.empty()。findFirst返回第一个元素,而findAny返回任一元素,它们都是短路操作。

随便找一个不及格的学生,代码可以为:

Optional<Student> student = students.stream()
        .filter(t->t.getScore()<60)
        .findAny();
if(student.isPresent()){
    // 不及格的学生....
}

forEach

有两个foreach方法:

void forEach(Consumer<? super T> action)
void forEachOrdered(Consumer<? super T> action)

它们都接受一个Consumer,对流中的每一个元素,传递元素给Consumer,区别在于,在并行流中,forEach不保证处理的顺序,而forEachOrdered会保证按照流中元素的出现顺序进行处理。

比如,逐行打印大于90分的学生,代码可以为:

students.stream()
        .filter(t->t.getScore()>90)
        .forEach(System.out::println);

toArray

toArray将流转换为数组,有两个方法:

Object[] toArray()
<A> A[] toArray(IntFunction<A[]> generator)

不带参数的toArray返回的数组类型为Object[],这经常不是期望的结果,如果希望得到正确类型的数组,需要传递一个类型为IntFunction的generator,IntFunction的定义为:

public interface IntFunction<R> {
    R apply(int value);
}

generator接受的参数是流的元素个数,它应该返回对应大小的正确类型的数组。

比如,获取90分以上的学生数组,代码可以为:

Student[] above90Arr = students.stream()
        .filter(t->t.getScore()>90)
        .toArray(Student[]::new);

Student[]::new就是一个类型为IntFunction<Student[]>的generator。

reduce

reduce代表归约或者叫折叠,它是max/min/count的更为通用的函数,将流中的元素归约为一个值,有三个reduce函数: 

Optional<T> reduce(BinaryOperator<T> accumulator);
T reduce(T identity, BinaryOperator<T> accumulator);
<U> U reduce(U identity,
    BiFunction<U, ? super T, U> accumulator,
    BinaryOperator<U> combiner); 

第一个基本等同于调用:

boolean foundAny = false;
T result = null;
for (T element : this stream) {
    if (!foundAny) {
        foundAny = true;
        result = element;
    }
    else
        result = accumulator.apply(result, element);
}
return foundAny ? Optional.of(result) : Optional.empty();

比如,使用reduce求分数最高的学生,代码可以为:

Student topStudent = students.stream().reduce((accu, t) -> {
    if (accu.getScore() >= t.getScore()) {
        return accu;
    } else {
        return t;
    }
}).get();

第二个reduce函数多了一个identity参数,表示初始值,它基本等同于调用:

T result = identity;
for (T element : this stream)
    result = accumulator.apply(result, element)
return result;

第一个和第二个reduce的返回类型只能是流中元素的类型,而第三个更为通用,它的归约类型可以自定义,另外,它多了一个combiner参数,combiner用在并行流中,用于合并子线程的结果,对于顺序流,它基本等同于调用:

U result = identity;
for (T element : this stream)
    result = accumulator.apply(result, element)
return result;

注意与第二个reduce函数相区分,它的结果类型不是T,而是U。比如,使用reduce函数计算学生分数的和,代码可以为:

double sumScore = students.stream().reduce(0d,
        (sum, t) -> sum += t.getScore(),
        (sum1, sum2) -> sum1 += sum2
    );

以上,可以看出,reduce虽然更为通用,但比较费解,难以使用,一般情况,应该优先使用其他函数。

collect函数比reduce更为通用、强大和易用,关于它,我们下节再详细介绍。

构建流

前面我们提到,可以通过Collection接口的stream/parallelStream获取流,还有一些其他的方式可以获取流。

Arrays有一些stream方法,可以将数组或子数组转换为流,比如: 

public static IntStream stream(int[] array)
public static DoubleStream stream(double[] array, int startInclusive, int endExclusive)
public static <T> Stream<T> stream(T[] array)

比如,输出当前目录下所有普通文件的名字,代码可以为:

File[] files = new File(".").listFiles();
Arrays.stream(files)
    .filter(File::isFile)    
    .map(File::getName)
    .forEach(System.out::println);

Stream也有一些静态方法,可以构建流:

//返回一个空流
public static<T> Stream<T> empty()
//返回只包含一个元素t的流
public static<T> Stream<T> of(T t)
//返回包含多个元素values的流
public static<T> Stream<T> of(T... values)
//通过Supplier生成流,流的元素个数是无限的
public static<T> Stream<T> generate(Supplier<T> s)
//同样生成无限流,第一个元素为seed,第二个为f(seed),第三个为f(f(seed)),依次类推
public static<T> Stream<T> iterate(final T seed, final UnaryOperator<T> f)

比如,输出10个随机数,代码可以为:

Stream.generate(()->Math.random())
    .limit(10)
    .forEach(System.out::println);

输出100个递增的奇数,代码可以为:

Stream.iterate(1, t->t+2)
    .limit(100)
    .forEach(System.out::println);

并行流

前面我们主要使用的是Collection的stream()方法,换做parallelStream()方法,就会使用并行流,接口方法都是通用的。但并行流内部会使用多线程,线程个数一般与系统的CPU核数一样,以充分利用CPU的计算能力。

进一步来说,并行流内部会使用Java 7引入的fork/join框架,简单来说,处理由fork和join两个阶段组成,fork就是将要处理的数据拆分为小块,多线程按小块进行并行计算,join就是将小块的计算结果进行合并,具体我们就不探讨了。使用并行流,不需要任何线程管理的代码,就能实现并行。

函数式数据处理思维

看的出来,使用Stream API处理数据集合,与直接使用容器类API处理数据的思路是完全不一样的。

流定义了很多数据处理的基本函数,对于一个具体的数据处理问题,解决的主要思路就是组合利用这些基本函数,实现期望的功能,这种思路就是函数式数据处理思维,相比直接利用容器类API的命令式思维,思考的层次更高。

Stream API的这种思路也不是新发明,它与数据库查询语言SQL是很像的,都是声明式地操作集合数据,很多函数都能在SQL中找到对应,比如filter对应SQL的where,sorted对应order by等。SQL一般都支持分组(group by)功能,Stream API也支持,但关于分组,我们下节再介绍。

Stream API也与各种基于Unix系统的管道命令类似,熟悉Unix系统的都知道,Unix有很多命令,大部分命令只是专注于完成一件事情,但可以通过管道的方式将多个命令链接起来,完成一些复杂的功能,比如:

cat nginx_access.log | awk '{print $1}' | sort | uniq -c | sort -rnk 1 | head -n 20

以上命令可以分析nginx访问日志,统计出访问次数最多的前20个IP地址及其访问次数。具体来说,cat命令输出nginx访问日志到流,一行为一个元素,awk输出行的第一列,这里为IP地址,sort按IP进行排序,"uniq -c"按IP统计计数,"sort -rnk 1"按计数从高到低排序,"head -n 20"输出前20行。

小结

本节初步介绍了Java 8引入的函数式数据处理类库,Stream API,它类似于Unix的管道命令,也类似于数据库查询语言SQL,通过组合利用基本函数,可以在更高的层次上思考问题,以声明式的方式简洁地实现期望的功能。

对于collect方法,本节只是演示了最基本的应用,它还有很多高级功能,比如实现类似SQL的group by功能,具体怎么实现?实现的原理是什么呢?

(与其他章节一样,本节所有代码位于 https://github.com/swiftma/program-logic,位于包shuo.laoma.java8.c92下)

----------------

未完待续,查看最新文章,敬请关注微信公众号“老马说编程”(扫描下方二维码),从入门到高级,深入浅出,老马和你一起探索Java编程及计算机技术的本质。用心原创,保留所有版权。

posted @ 2017-07-26 08:08  老马说编程  阅读(3035)  评论(1编辑  收藏  举报