本文翻译自官网: User-defined Sources & Sinks  https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/sourceSinks.html

Flink Table Api & SQL 翻译目录

TableSource提供对存储在外部系统(数据库,键值存储,消息队列)或文件中的数据的访问。在TableEnvironment中注册TableSource后,可以通过Table APISQL查询对其进行访问。

TableSink 将表发送到外部存储系统,例如数据库,键值存储,消息队列或文件系统(采用不同的编码,例如CSV,Parquet或ORC)。

TableFactory允许将与外部系统的连接的声明与实际实现分开。TableFactory 从标准化的基于字符串的属性创建表 source 和 sink 的已配置实例。可以使用Descriptor或通过SQL Client的 YAML配置文件以编程方式生成属性

看一下通用概念和API页面,详细了解如何注册TableSource以及如何通过TableSink发出表有关如何使用工厂的示例请参见内置的源,接收器和格式页面。

定义 TableSource

TableSource是一个通用接口,使 Table API 和 SQL 查询可以访问存储在外部系统中的数据。它提供了表结构以及与该表结构映射到行的记录。根据TableSource是在流查询还是批处理查询中使用,记录将生成为DataSetDataStream

如果TableSource在流查询中使用,则必须实现 StreamTableSource接口,如果在批处理查询中使用,则必须实现 BatchTableSource接口。TableSource还可以同时实现两个接口,并且可以在流查询和批处理查询中使用。

StreamTableSource 和 BatchTableSource扩展TableSource定义以下方法的基本接口

TableSource[T] {

  def getTableSchema: TableSchema

  def getReturnType: TypeInformation[T]

  def explainSource: String

}
  • getTableSchema():返回表结构,即表的字段的名称和类型。字段类型是使用Flink定义的TypeInformation(请参见Table API类型SQL类型)。

  • getReturnType():返回DataStreamStreamTableSource)或DataSetBatchTableSource的物理类型以及由产生的记录TableSource

  • explainSource():返回描述的字符串TableSource此方法是可选的,仅用于显示目的。

TableSource接口将逻辑表架构与返回的DataStream或DataSet的物理类型分开。 因此,表结构的所有字段(getTableSchema())必须映射到具有相应物理返回类型(getReturnType())类型的字段。 默认情况下,此映射是基于字段名称完成的。 例如,一个TableSource定义具有两个字段[name:String,size:Integer]的表结构,它需要TypeInformation至少具有两个字段,分别名为name和size,类型分别为String和Integer。 这可以是PojoTypeInfo或RowTypeInfo,它们具有两个名为name和size且具有匹配类型的字段。

但是,某些类型(例如Tuple或CaseClass类型)支持自定义字段名称。如果 TableSource返回具有固定字段名称的类型的 DataStream 或 DataSet,则它可以实现DefinedFieldMapping接口以将表结构中的字段名称映射到物理返回类型的字段名称。

定义BatchTableSource

BatchTableSource接口扩展了TableSource接口,并定义一个额外的方法:

BatchTableSource[T] extends TableSource[T] {

  def getDataSet(execEnv: ExecutionEnvironment): DataSet[T]
}
  • getDataSet(execEnv):返回带有表数据的DataSet。DataSet 的类型必须与 TableSource.getReturnType() 方法定义的返回类型相同。可以使用DataSet API的常规数据源创建DataSet通常, BatchTableSource是通过包装 InputFormat或 batch connector 实现的

定义StreamTableSource

StreamTableSource接口扩展了TableSource接口,并定义一个额外的方法:

StreamTableSource[T] extends TableSource[T] {

  def getDataStream(execEnv: StreamExecutionEnvironment): DataStream[T]
}
  • getDataStream(execEnv):返回带有表格数据的 DataStream 。DataStream 的类型必须与 TableSource.getReturnType() 方法定义的返回类型相同。可以使用DataSet API的常规数据源创建DataSet通常, StreamTableSource是通过包装 SourceFunctionbatch connector 实现的

使用时间属性定义TableSource

流 Table API和SQL查询的基于时间的操作(例如窗口聚合或 join)需要显式指定的时间属性。

TableSource在其表结构中将时间属性定义为Types.SQL_TIMESTAMP类型的字段。 与结构中的所有常规字段相反,时间属性不得与表 source 的返回类型中的物理字段匹配。 相反,TableSource通过实现某个接口来定义时间属性。

定义处理时间属性

处理时间属性通常用于流查询中。处理时间属性返回访问该属性的 operator 的当前挂钟时间。 TableSource通过实现 DefinedProctimeAttribute 接口来定义处理时间属性接口如下所示:

DefinedProctimeAttribute {

  def getProctimeAttribute: String
}
  • getProctimeAttribute():返回处理时间属性的名称。指定的属性必须 Types.SQL_TIMESTAMP 在表结构中定义为类型,并且可以在基于时间的操作中使用。DefinedProctimeAttribute表 source 无法通过返回null来定义任何处理时间属性。

注意两者StreamTableSource 和 BatchTableSource可以实现DefinedProctimeAttribute并定义的处理时间属性。BatchTableSource表扫描期间,使用当前时间戳初始化处理时间字段的情况。

定义行时间属性

行时间属性是类型的属性,TIMESTAMP在流查询和批处理查询中以统一的方式处理。

SQL_TIMESTAMP通过指定以下内容,可以将类型的表模式字段声明为rowtime属性:

  • 字段名称,
  • TimestampExtractor,计算实际值的属性(通常从一个或多个其他字段)
  • WatermarkStrategy 用于指定如何为rowtime属性生成水印的。

 TableSource通过实现DefinedRowtimeAttributes接口来定义行时间属性该接口如下所示:

DefinedRowtimeAttributes {

  def getRowtimeAttributeDescriptors: util.List[RowtimeAttributeDescriptor]
}
  • getRowtimeAttributeDescriptors():返回 RowtimeAttributeDescriptor 的列表 RowtimeAttributeDescriptor描述了具有以下属性的行时间属性:
    • attributeName:表结构中的 rowtime 属性的名称。该字段必须使用 Types.SQL_TIMESTAMP 类型定义 
    • timestampExtractor:时间戳提取器从具有返回类型的记录中提取时间戳。例如,它可以将Long字段转换为时间戳,或者解析String编码的时间戳。Flink带有一组 TimestampExtractor 针对常见用例的内置实现。也可以提供自定义实现。
    • watermarkStrategy:水印策略定义了如何使用 rowtime 属性生成水印。Flink带有一组WatermarkStrategy用于常见用例的内置实现。也可以提供自定义实现。

注意:尽管该 getRowtimeAttributeDescriptors() 方法返回一个描述符列表,但目前仅支持单个rowtime属性。我们计划将来删除此限制,并支持具有多个rowtime属性的表。

注意:两者,StreamTableSource 和 BatchTableSource,可以实现DefinedRowtimeAttributes并定义rowtime属性。无论哪种情况,都使用来提取rowtime字段TimestampExtractor。因此,实现StreamTableSource和BatchTableSource并定义rowtime属性的TableSource为流查询和批处理查询提供了完全相同的数据。

提供的时间戳提取器

Flink提供TimestampExtractor了常见用例的实现。

TimestampExtractor当前提供以下实现:

  • ExistingField(fieldName):从现有的LONG,SQL_TIMESTAMP或时间戳格式的STRING字段中提取rowtime属性的值。 这样的字符串的一个示例是“ 2018-05-28 12:34:56.000”。
  • StreamRecordTimestamp():从DataStream StreamRecord的时间戳中提取rowtime属性的值注意,这TimestampExtractor不适用于批处理表 source 。

TimestampExtractor可以通过实现相应的接口来定义定义。

提供的水印策略

Flink提供WatermarkStrategy了常见用例的实现。

WatermarkStrategy当前提供以下实现:

  • AscendingTimestamps:提升时间戳的水印策略。 时间戳不正确的记录将被视为较晚。
  • BoundedOutOfOrderTimestamps(delay):用于时间戳的水印策略,该时间戳最多按指定的延迟乱序。
  • PreserveWatermarks():指示应从基础DataStream中保留水印的策略

WatermarkStrategy可以通过实现相应的接口来定义定义。

使用投影下推定义TableSource

 TableSource通过实现ProjectableTableSource接口来支持投影下推该接口定义了一个方法:

ProjectableTableSource[T] {

  def projectFields(fields: Array[Int]): TableSource[T]
}
  • projectFields(fields):返回具有调整后的物理返回类型的TableSource的副本。 fields参数提供TableSource必须提供的字段的索引。 索引与物理返回类型的TypeInformation有关,而不与逻辑表模式有关。 复制的TableSource必须调整其返回类型以及返回的DataStream或DataSet。 复制的TableSource的TableSchema不得更改,即它必须与原始TableSource相同。 如果TableSource实现了DefinedFieldMapping接口,则必须将字段映射调整为新的返回类型

注意为了使Flink可以将投影下推表 source 与其原始形式区分开,必须重写 explainSource  方法以包括有关投影字段的信息。

ProjectableTableSource增加了对项目平面字段的支持。 如果TableSource定义了具有嵌套模式的表,则可以实现NestedFieldsProjectableTableSource以将投影扩展到嵌套字段。 NestedFieldsProjectableTableSource的定义如下:

NestedFieldsProjectableTableSource[T] {

  def projectNestedFields(fields: Array[Int], nestedFields: Array[Array[String]]): TableSource[T]
}
  • projectNestedField(fields, nestedFields):返回具有调整后的物理返回类型的TableSource的副本。 物理返回类型的字段可以删除或重新排序,但不得更改其类型。 此方法的约定与ProjectableTableSource.projectFields()方法的约定基本相同。 另外,nestedFields参数包含字段列表中每个字段索引的查询到的所有嵌套字段的路径列表。 所有其他嵌套字段都不需要在TableSource生成的记录中读取,解析和设置。

请注意,不得更改投影字段的类型,但未使用的字段可以设置为null或默认值。

使用过滤器下推定义TableSource

FilterableTableSource接口添加了对将过滤器下推到TableSource的支持。 扩展此接口的TableSource能够过滤记录,以便返回的DataStream或DataSet返回较少的记录。

该接口如下所示:

FilterableTableSource[T] {

  def applyPredicate(predicates: java.util.List[Expression]): TableSource[T]

  def isFilterPushedDown: Boolean
}
  • applyPredicate(predicates):返回带有添加谓词的TableSource的副本。 谓词参数是“提供”给TableSource的连接谓词的可变列表。 TableSource接受通过从列表中删除谓词来评估谓词。 列表中剩余的谓词将由后续的过滤器运算符评估
  • isFilterPushedDown():如果之前调用applyPredicate()方法,则返回true。 因此,对于从applyPredicate()调用返回的所有TableSource实例,isFilterPushedDown()必须返回true。

注意:为了使Flink能够将过滤器下推表源与其原始形式区分开来,必须重写explainSource方法以包括有关下推式过滤器的信息

定义用于查找的TableSource

注意这是一项实验功能。将来的版本中可能会更改 接口。仅 Blink planner 支持。

LookupableTableSource接口增加了对通过查找方式通过键列访问表的支持。 当用于与维表联接以丰富某些信息时,这非常有用。 如果要在查找模式下使用TableSource,则应在时态表联接语法中使用源。

该接口如下所示:

LookupableTableSource[T] extends TableSource[T] {

  def getLookupFunction(lookupKeys: Array[String]): TableFunction[T]

  def getAsyncLookupFunction(lookupKeys: Array[String]): AsyncTableFunction[T]

  def isAsyncEnabled: Boolean
}
  • getLookupFunction(lookupkeys):返回一个TableFunction,该函数用于通过查找键查找匹配的行。 lookupkeys是联接相等条件下LookupableTableSource的字段名称。 返回的TableFunction的eval方法参数应该按照定义的lookupkeys的顺序。 建议在varargs中定义参数(例如eval(Object ... lookupkeys)以匹配所有情况。 TableFunction的返回类型必须与TableSource.getReturnType()方法定义的返回类型相同。
  • getAsyncLookupFunction(lookupkeys): 可选的。与getLookupFunction类似,但是AsyncLookupFunction异步查找匹配的行。 AsyncLookupFunction的基础将通过Async I / O调用。 返回的AsyncTableFunction的eval方法的第一个参数应定义为java.util.concurrent.CompletableFuture以异步收集结果(例如eval(CompletableFuture <Collection <String >> result,Object ... lookupkeys))。 如果TableSource不支持异步查找,则此方法的实现可能引发异常
  • isAsyncEnabled():如果启用了异步查找,则返回true。 如果isAsyncEnabled返回true,则需要实现getAsyncLookupFunction(lookupkeys)

定义Table Sink

TableSink指定如何将表发送到外部系统或位置。 该接口是通用的,因此它可以支持不同的存储位置和格式。 批处理表和流式表有不同的表接收器。

接口如下所示:

TableSink[T] {

  def getOutputType: TypeInformation<T>

  def getFieldNames: Array[String]

  def getFieldTypes: Array[TypeInformation]

  def configure(fieldNames: Array[String], fieldTypes: Array[TypeInformation]): TableSink[T]
}

TableSink#configure 调用方法可将Table的结构(字段名称和类型)传递给TableSink该方法必须返回TableSink的新实例,该实例被配置为发出提供的Table模式。

BatchTableSink

定义外部TableSink来发出批处理表。

该接口如下所示:

BatchTableSink[T] extends TableSink[T] {

  def emitDataSet(dataSet: DataSet[T]): Unit
}

AppendStreamTableSink

定义一个外部TableSink以发出一个批处理表。

该接口如下所示:

AppendStreamTableSink[T] extends TableSink[T] {

  def emitDataStream(dataStream: DataStream[T]): Unit
}

如果还通过更新或删除更改来修改表,则将引发TableException。

RetractStreamTableSink

定义一个外部TableSink以发出具有插入,更新和删除更改的流表。

该接口如下所示:

RetractStreamTableSink[T] extends TableSink[Tuple2[Boolean, T]] {

  def getRecordType: TypeInformation[T]

  def emitDataStream(dataStream: DataStream[Tuple2[Boolean, T]]): Unit
}

该表将被转换为累积和撤消消息流,这些消息被编码为Java Tuple2。 第一个字段是指示消息类型的布尔标志(true表示插入,false表示删除)。 第二个字段保存请求的类型T的记录。

UpsertStreamTableSink

定义一个外部TableSink以发出具有插入,更新和删除更改的流表。

该接口如下所示:

UpsertStreamTableSink[T] extends TableSink[Tuple2[Boolean, T]] {

  def setKeyFields(keys: Array[String]): Unit

  def setIsAppendOnly(isAppendOnly: Boolean): Unit

  def getRecordType: TypeInformation[T]

  def emitDataStream(dataStream: DataStream[Tuple2[Boolean, T]]): Unit
}

该表必须具有唯一的键字段(原子键或复合键)或仅附加键。 如果表没有唯一键并且不是仅追加表,则将引发TableException。 该表的唯一键由UpsertStreamTableSink#setKeyFields()方法配置。

该表将转换为upsert和delete消息流,这些消息被编码为Java Tuple2。 第一个字段是指示消息类型的布尔标志。 第二个字段保存请求的类型T的记录。

具有 true 布尔值字段的消息是已配置密钥的upsert消息。 带有 false 标志的消息是已配置密钥的删除消息。 如果表是仅追加的,则所有消息都将具有true标志,并且必须将其解释为插入。

定义一个TableFactory

TableFactory允许从基于字符串的属性中创建与表相关的不同实例。 调用所有可用的工厂以匹配给定的属性集和相应的工厂类。

工厂利用Java的服务提供商接口(SPI)进行发现。 这意味着每个依赖项和JAR文件都应在META_INF / services资源目录中包含一个文件org.apache.flink.table.factories.TableFactory,该文件列出了它提供的所有可用表工厂。

每个表工厂都需要实现以下接口:

package org.apache.flink.table.factories;

interface TableFactory {

  Map<String, String> requiredContext();

  List<String> supportedProperties();
}
  • requiredContext():指定已为此工厂实现的上下文。该框架保证仅在满足指定的属性和值集的情况下才与此工厂匹配。典型的属性可能是connector.type,format.type或update-mode。 为将来的向后兼容情况保留了诸如connect.property-version和format.property-version之类的属性键。
  • supportedProperties():此工厂可以处理的属性键的列表。此方法将用于验证。如果传递了该工厂无法处理的属性,则将引发异常。该列表不得包含上下文指定的键。

为了创建特定实例,工厂类可以实现一个或多个接口,该接口提供org.apache.flink.table.factories

  • BatchTableSourceFactory:创建一个批处理表源。
  • BatchTableSinkFactory:创建一个批处理表接收器。
  • StreamTableSourceFactory:创建流表源。
  • StreamTableSinkFactory:创建一个流表接收器。
  • DeserializationSchemaFactory:创建反序列化架构格式。
  • SerializationSchemaFactory:创建序列化架构格式。

工厂的发现分为多个阶段:

  • 发现所有可用的工厂。
  • 按工厂类别(例如StreamTableSourceFactory过滤
  • 通过匹配上下文进行过滤。
  • 按支持的属性过滤。
  • 验证一个工厂是否完全匹配,否则抛出AmbiguousTableFactoryExceptionNoMatchingTableFactoryException

下面的示例演示如何为自定义流源提供附加的connector.debug属性标志以进行参数化。

import java.util
import org.apache.flink.table.sources.StreamTableSource
import org.apache.flink.types.Row

class MySystemTableSourceFactory extends StreamTableSourceFactory[Row] {

  override def requiredContext(): util.Map[String, String] = {
    val context = new util.HashMap[String, String]()
    context.put("update-mode", "append")
    context.put("connector.type", "my-system")
    context
  }

  override def supportedProperties(): util.List[String] = {
    val properties = new util.ArrayList[String]()
    properties.add("connector.debug")
    properties
  }

  override def createStreamTableSource(properties: util.Map[String, String]): StreamTableSource[Row] = {
    val isDebug = java.lang.Boolean.valueOf(properties.get("connector.debug"))

    # additional validation of the passed properties can also happen here

    new MySystemAppendTableSource(isDebug)
  }
}

在SQL客户端中使用TableFactory

在SQL Client环境文件中,先前提供的工厂可以声明为:

tables:
 - name: MySystemTable
   type: source
   update-mode: append
   connector:
     type: my-system
     debug: true

将YAML文件转换为扁平化的字符串属性,并使用描述与外部系统的连接的那些属性来调用表工厂: 

update-mode=append
connector.type=my-system
connector.debug=true

注意:table.#.name或table.#.type之类的属性是SQL Client的特定属性,不会传递给任何工厂。 根据执行环境,type属性决定是否需要发现BatchTableSourceFactory / StreamTableSourceFactory(对于source),BatchTableSinkFactory / StreamTableSinkFactory(对于 sink)还是同时发现两者(对于两者)

在Table&SQL API中使用TableFactory

 对于使用说明性Scaladoc / Javadoc的类型安全的编程方法,Table&SQL API在org.apache.flink.table.descriptor中提供了描述符,这些描述符可转换为基于字符串的属性。 请参阅源,接收器和格式的内置描述符作为参考。

import org.apache.flink.table.descriptors.ConnectorDescriptor
import java.util.HashMap
import java.util.Map

/**
  * Connector to MySystem with debug mode.
  */
class MySystemConnector(isDebug: Boolean) extends ConnectorDescriptor("my-system", 1, false) {
  
  override protected def toConnectorProperties(): Map[String, String] = {
    val properties = new HashMap[String, String]
    properties.put("connector.debug", isDebug.toString)
    properties
  }
}

然后可以在API中使用描述符,如下所示:

val tableEnv: StreamTableEnvironment = // ...

tableEnv
  .connect(new MySystemConnector(isDebug = true))
  .withSchema(...)
  .inAppendMode()
  .createTemporaryTable("MySystemTable")

欢迎关注Flink菜鸟公众号,会不定期更新Flink(开发技术)相关的推文

 

posted on 2019-11-26 21:28  Flink菜鸟  阅读(2591)  评论(0编辑  收藏  举报