跳到主要内容
版本:2.3.8

LocalFile

本地文件接收器

描述

将数据输出到本地文件。

:::提示

如果你使用的是 spark/flink,为了使用此连接器,你必须确保你的 spark/flink 集群已集成 hadoop。已测试的 hadoop 版本是 2.x。

如果你使用 SeaTunnel Engine,它会在下载和安装 SeaTunnel Engine 时自动集成 hadoop jar。你可以在 ${SEATUNNEL_HOME}/lib 下检查 jar 包以确认这一点。

:::

主要特性

默认情况下,我们使用 2PC 提交以确保精确一次

  • 文件格式类型
    • 文本
    • csv
    • parquet
    • orc
    • json
    • excel
    • xml
    • 二进制

选项

名称类型是否必需默认值描述
pathstring-目标目录路径
tmp_pathstring/tmp/seatunnel结果文件将首先写入临时路径,然后使用 mv 将临时目录提交到目标目录。
custom_filenamebooleanfalse是否需要自定义文件名
file_name_expressionstring"${transactionId}"仅在 custom_filename 为 true 时使用
filename_time_formatstring"yyyy.MM.dd"仅在 custom_filename 为 true 时使用
file_format_typestring"csv"文件格式类型
field_delimiterstring'\001'仅在 file_format_type 为 text 时使用
row_delimiterstring"\n"仅在 file_format_type 为 text 时使用
have_partitionbooleanfalse是否需要处理分区
partition_byarray-仅在 have_partition 为 true 时使用
partition_dir_expressionstring"${k0}=${v0}/${k1}=${v1}/.../${kn}=${vn}/"仅在 have_partition 为 true 时使用
is_partition_field_write_in_filebooleanfalse仅在 have_partition 为 true 时使用
sink_columnsarray当此参数为空时,所有字段都是 sink 列
is_enable_transactionbooleantrue是否启用事务
batch_sizeint1000000批量大小
compress_codecstringnone压缩编码
common-optionsobject-常见选项
max_rows_in_memoryint-仅在 file_format_type 为 excel 时使用
sheet_namestringSheet${随机数}仅在 file_format_type 为 excel 时使用
xml_root_tagstringRECORDS仅在 file_format 为 xml 时使用
xml_row_tagstringRECORD仅在 file_format 为 xml 时使用
xml_use_attr_formatboolean-仅在 file_format 为 xml 时使用
parquet_avro_write_timestamp_as_int96booleanfalse仅在 file_format 为 parquet 时使用
parquet_avro_write_fixed_as_int96array-仅在 file_format 为 parquet 时使用
enable_header_writebooleanfalse仅在 file_format_type 为 text,csv 时使用。
false:不写入表头,true:写入表头。
encodingstring"UTF-8"仅在 file_format_type 为 json,text,csv,xml 时使用

path [string]

目标目录路径是必需的,你可以通过使用 ${database_name}${table_name}${schema_name} 将上游的 CatalogTable 注入到路径中。

custom_filename [boolean]

是否自定义文件名

file_name_expression [string]

仅在 custom_filenametrue 时使用

file_name_expression 描述将创建到 path 中的文件表达式。我们可以在 file_name_expression 中添加变量 ${now}${uuid},例如 test_${uuid}_${now}${now} 表示当前时间,其格式可以通过指定 filename_time_format 选项来定义。

请注意,如果 is_enable_transactiontrue,我们将自动在文件名的头部添加 ${transactionId}_

filename_time_format [string]

仅在 custom_filenametrue 时使用

file_name_expression 参数中的格式为 xxxx-${now} 时,filename_time_format 可以指定路径的时间格式,默认值为 yyyy.MM.dd。常用的时间格式如下所示:

符号描述
y
M
d
H小时 (0-23)
m分钟
s

file_format_type [string]

我们支持以下文件类型:

text csv parquet orc json excel xml binary

请注意,最终的文件名将以 file_format_type 的后缀结尾,文本文件的后缀是 txt

field_delimiter [string]

数据行中列之间的分隔符。仅在 text 文件格式下需要。

row_delimiter [string]

文件中行之间的分隔符。仅在 text 文件格式下需要。

have_partition [boolean]

是否需要处理分区。

partition_by [array]

仅在 have_partitiontrue 时使用。

基于选定字段进行数据分区。

partition_dir_expression [string]

仅在 have_partitiontrue 时使用。

如果指定了 partition_by,我们将基于分区信息生成相应的分区目录,最终文件将放置在分区目录中。

默认的 partition_dir_expression${k0}=${v0}/${k1}=${v1}/.../${kn}=${vn}/k0 是第一个分区字段,v0 是第一个分区字段的值。

is_partition_field_write_in_file [boolean]

仅在 have_partitiontrue 时使用。

如果 is_partition_field_write_in_filetrue,分区字段及其值将写入数据文件。

例如,如果你想写入一个 Hive 数据文件,其值应该为 false

sink_columns [array]

需要写入文件的列,默认值为从 TransformSource 获取的所有列。字段的顺序决定了实际写入文件的顺序。

is_enable_transaction [boolean]

如果 is_enable_transaction 为 true,我们将确保数据在写入目标目录时不会丢失或重复。

请注意,如果 is_enable_transaction 为 true,我们将自动在文件名前添加 ${transactionId}_

目前仅支持 true

batch_size [int]

文件中的最大行数。对于 SeaTunnel Engine,文件中的行数由 batch_sizecheckpoint.interval 共同决定。如果 checkpoint.interval 的值足够大,sink writer 将在文件中的行数超过 batch_size 时写入文件。如果 checkpoint.interval 很小,当触发新检查点时,sink writer 将创建一个新文件。

compress_codec [string]

文件的压缩编码,支持的压缩编码如下所示:

  • txt: lzo none
  • json: lzo none
  • csv: lzo none
  • orc: lzo snappy lz4 zlib none
  • parquet: lzo snappy lz4 gzip brotli zstd none

提示:excel 类型不支持任何压缩格式

常见选项

Sink 插件的常见参数,请参阅 Sink 常见选项 获取详细信息。

max_rows_in_memory [int]

当文件格式为 Excel 时,内存中可以缓存的数据项最大数量。

sheet_name [string]

工作簿的表名。

xml

_root_tag [string]

指定 XML 文件中根元素的标签名。

xml_row_tag [string]

指定 XML 文件中数据行的标签名。

xml_use_attr_format [boolean]

指定是否使用标签属性格式处理数据。

parquet_avro_write_timestamp_as_int96 [boolean]

支持从时间戳写入 Parquet INT96,仅对 parquet 文件有效。

parquet_avro_write_fixed_as_int96 [array]

支持从 12 字节字段写入 Parquet INT96,仅对 parquet 文件有效。

enable_header_write [boolean]

仅在 file_format_type 为 text,csv 时使用。false:不写入表头,true:写入表头。

encoding [string]

仅在 file_format_type 为 json,text,csv,xml 时使用。文件写入的编码。该参数将通过 Charset.forName(encoding) 解析。

示例

对于 orc 文件格式的简单配置


LocalFile {
path = "/tmp/hive/warehouse/test2"
file_format_type = "orc"
}

对于带有 encoding 的 json、text、csv 或 xml 文件格式


LocalFile {
path = "/tmp/hive/warehouse/test2"
file_format_type = "text"
encoding = "gbk"
}

对于带有 sink_columns 的 parquet 文件格式


LocalFile {
path = "/tmp/hive/warehouse/test2"
file_format_type = "parquet"
sink_columns = ["name","age"]
}

对于带有 have_partitioncustom_filenamesink_columns 的 text 文件格式


LocalFile {
path = "/tmp/hive/warehouse/test2"
file_format_type = "text"
field_delimiter = "\t"
row_delimiter = "\n"
have_partition = true
partition_by = ["age"]
partition_dir_expression = "${k0}=${v0}"
is_partition_field_write_in_file = true
custom_filename = true
file_name_expression = "${transactionId}_${now}"
filename_time_format = "yyyy.MM.dd"
sink_columns = ["name","age"]
is_enable_transaction = true
}

对于带有 sheet_namemax_rows_in_memory 的 excel 文件格式


LocalFile {
path="/tmp/seatunnel/excel"
sheet_name = "Sheet1"
max_rows_in_memory = 1024
partition_dir_expression="${k0}=${v0}"
is_partition_field_write_in_file=true
file_name_expression="${transactionId}_${now}"
file_format_type="excel"
filename_time_format="yyyy.MM.dd"
is_enable_transaction=true
}

对于从上游提取源元数据,可以在路径中使用 ${database_name}${table_name}${schema_name}


LocalFile {
path = "/tmp/hive/warehouse/${table_name}"
file_format_type = "parquet"
sink_columns = ["name","age"]
}

更新日志

2.2.0-beta 2022-09-26

  • 新增本地文件接收器

2.3.0-beta 2022-10-20

  • [BugFix] 修复了 Windows 环境中路径错误的 bug (2980)
  • [BugFix] 修复了文件系统获取错误 (3117)
  • [BugFix] 解决了无法解析 '\t' 作为配置文件分隔符的 bug (3083)

下一个版本

  • [BugFix] 修复了以下导致数据写入文件失败的 bug (3258)
    • 当上游字段为 null 时会抛出 NullPointerException
    • Sink 列映射失败
    • 从状态恢复 writer 时直接获取事务失败
  • [Improve] 支持为每个文件设置批量大小 (3625)
  • [Improve] 支持文件压缩 (3899)