- 安装
- 文档
- 入门
- 连接
- 数据导入
- 客户端 API
- 概览
- ADBC
- C
- C++
- CLI
- Dart
- Go
- Java (JDBC)
- Julia
- Node.js (已弃用)
- Node.js (Neo)
- ODBC
- PHP
- Python
- R
- Rust
- Swift
- Wasm
- SQL
- 介绍
- 语句
- 概览
- ANALYZE
- ALTER TABLE
- ALTER VIEW
- ATTACH 和 DETACH
- CALL
- CHECKPOINT
- COMMENT ON
- COPY
- CREATE INDEX
- CREATE MACRO
- CREATE SCHEMA
- CREATE SECRET
- CREATE SEQUENCE
- CREATE TABLE
- CREATE VIEW
- CREATE TYPE
- DELETE
- DESCRIBE
- DROP
- EXPORT 和 IMPORT DATABASE
- INSERT
- LOAD / INSTALL
- PIVOT
- 性能分析
- SELECT
- SET / RESET
- SET VARIABLE
- SUMMARIZE
- 事务管理
- UNPIVOT
- UPDATE
- USE
- VACUUM
- 查询语法
- SELECT
- FROM 和 JOIN
- WHERE
- GROUP BY
- GROUPING SETS
- HAVING
- ORDER BY
- LIMIT 和 OFFSET
- SAMPLE
- 展开嵌套
- WITH
- WINDOW
- QUALIFY
- VALUES
- FILTER
- 集合操作
- 预处理语句
- 数据类型
- 表达式
- 函数
- 概览
- 聚合函数
- 数组函数
- 位字符串函数
- Blob 函数
- 日期格式化函数
- 日期函数
- 日期部分函数
- 枚举函数
- 间隔函数
- Lambda 函数
- 列表函数
- 映射函数
- 嵌套函数
- 数值函数
- 模式匹配
- 正则表达式
- 结构体函数
- 文本函数
- 时间函数
- 时间戳函数
- 带时区时间戳函数
- 联合函数
- 实用函数
- 窗口函数
- 约束
- 索引
- 元查询
- DuckDB 的 SQL 方言
- 示例
- 配置
- 扩展
- 核心扩展
- 概览
- 自动补全
- Avro
- AWS
- Azure
- Delta
- DuckLake
- 编码
- Excel
- 全文搜索
- httpfs (HTTP 和 S3)
- Iceberg
- ICU
- inet
- jemalloc
- MySQL
- PostgreSQL
- 空间
- SQLite
- TPC-DS
- TPC-H
- UI
- VSS
- 指南
- 概览
- 数据查看器
- 数据库集成
- 文件格式
- 概览
- CSV 导入
- CSV 导出
- 直接读取文件
- Excel 导入
- Excel 导出
- JSON 导入
- JSON 导出
- Parquet 导入
- Parquet 导出
- 查询 Parquet 文件
- 使用 file: 协议访问文件
- 网络和云存储
- 概览
- HTTP Parquet 导入
- S3 Parquet 导入
- S3 Parquet 导出
- S3 Iceberg 导入
- S3 Express One
- GCS 导入
- Cloudflare R2 导入
- 通过 HTTPS / S3 使用 DuckDB
- Fastly 对象存储导入
- 元查询
- ODBC
- 性能
- Python
- 安装
- 执行 SQL
- Jupyter Notebooks
- marimo Notebooks
- Pandas 上的 SQL
- 从 Pandas 导入
- 导出到 Pandas
- 从 Numpy 导入
- 导出到 Numpy
- Arrow 上的 SQL
- 从 Arrow 导入
- 导出到 Arrow
- Pandas 上的关系型 API
- 多个 Python 线程
- 与 Ibis 集成
- 与 Polars 集成
- 使用 fsspec 文件系统
- SQL 编辑器
- SQL 功能
- 代码片段
- 故障排除
- 术语表
- 离线浏览
- 操作手册
- 开发
- 内部结构
- 为什么选择 DuckDB
- 行为准则
- 发布日历
- 路线图
- 站点地图
- 在线演示
示例
将表写入 Parquet 文件的 Hive 分区数据集
COPY orders TO 'orders'
(FORMAT parquet, PARTITION_BY (year, month));
将表写入 CSV 文件的 Hive 分区数据集,允许覆盖
COPY orders TO 'orders'
(FORMAT csv, PARTITION_BY (year, month), OVERWRITE_OR_IGNORE);
将表写入 GZIP 压缩的 CSV 文件的 Hive 分区数据集,设置明确的数据文件扩展名
COPY orders TO 'orders'
(FORMAT csv, PARTITION_BY (year, month), COMPRESSION gzip, FILE_EXTENSION 'csv.gz');
分区写入
当为 COPY
语句指定 PARTITION_BY
子句时,文件将以 Hive 分区的文件夹层次结构写入。目标是根目录的名称(在上述示例中为:orders
)。文件按照文件层次结构中的顺序写入。目前,每个目录每个线程写入一个文件。
orders
├── year=2021
│ ├── month=1
│ │ ├── data_1.parquet
│ │ └── data_2.parquet
│ └── month=2
│ └── data_1.parquet
└── year=2022
├── month=11
│ ├── data_1.parquet
│ └── data_2.parquet
└── month=12
└── data_1.parquet
分区的值会自动从数据中提取。请注意,写入大量分区可能会非常昂贵,因为会创建许多文件。理想的分区数量取决于您的数据集大小。
要在使用 PARTITION_BY
写入时限制系统在刷新到磁盘前可以保持打开的最大文件数,请使用 partitioned_write_max_open_files
配置选项(默认值:100)。
SET partitioned_write_max_open_files = 10;
最佳实践 将数据写入许多小分区是昂贵的。通常建议每个分区至少包含
100 MB
的数据。
文件名模式
默认情况下,文件将命名为 data_0.parquet
或 data_0.csv
。通过 FILENAME_PATTERN
标志,可以定义包含 {i}
或 {uuid}
的模式来创建特定的文件名。
{i}
将被一个索引替换{uuid}
将被一个 128 位长的 UUID 替换
将表写入 Hive 分区的 .parquet 文件数据集,文件名中包含索引
COPY orders TO 'orders'
(FORMAT parquet, PARTITION_BY (year, month), OVERWRITE_OR_IGNORE, FILENAME_PATTERN 'orders_{i}');
将表写入 Hive 分区的 .parquet 文件数据集,文件名唯一
COPY orders TO 'orders'
(FORMAT parquet, PARTITION_BY (year, month), OVERWRITE_OR_IGNORE, FILENAME_PATTERN 'file_{uuid}');
覆盖
默认情况下,分区写入不允许覆盖现有目录。在本地文件系统上,OVERWRITE
和 OVERWRITE_OR_IGNORE
选项会删除现有目录。在远程文件系统上,不支持覆盖。
追加
要追加到现有的 Hive 分区目录结构中,请使用 APPEND
选项。
COPY orders TO 'orders'
(FORMAT parquet, PARTITION_BY (year, month), APPEND);
使用 APPEND
选项会产生与 OVERWRITE_OR_IGNORE, FILENAME_PATTERN '{uuid}'
选项类似的行为,但 DuckDB 会额外检查文件是否已存在,并在极少数情况下存在时重新生成 UUID(以避免冲突)。
处理列中的斜杠
要处理列名中的斜杠,请使用 url_encode
函数实现的百分比编码。