# **配置S3数据源**
在进行配置之前,请务必检查您的FTP数据源是否符合平台要求,参考如下:
| 数据源类型<p style="width:120px"></p> | 版本要求<p style="width:80px"></p> | 用户权限要求<p style="width:100px"></p> | 其他要求<p style="width:120px"></p> |
| --- | --- | --- | --- |
| S3 | 无 | SELECT 权限 | 无 |
确认完毕后,点击「新建数据源」,选择「S3」进行新建操作:
:-: 
* 数据源名称:是该数据源在DataPipeline的唯一标识
* Bucket:输入用户使用的Bucket。
* 地区:选择用户的S3服务器位置。
* 访问权限:您可以选择获取访问S3权限的方式,其中有
* Role:使用AWS角色委托授权以获取S3权限。
* Access Key:需要输入Access Key ID 和 Access Key
* SQS:输入用户使用的SQS名称
* 文件类型:CSV
* 表结构
* 静态:
1、指每个文件的表结构是一致的
2、支持同步到所有目的地类型
* 动态:
1、指允许同步表结构不一致的文件到目的地
2、支持的数据目的地类型:Kafka、FTP、Hive(未开启hive)、Greenplum
* 目录:要求输入数据源读取目录地址
* 编码方式:输入数据源数据的编码方式(支持所有合法的文件编码方式)。
* 文件分隔符(三选一)
* 逗号
* 水平制表
* 自定义
* 元数据管理:开启和关闭,默认是开启
* 开启提示文案:指该数据源允许编辑和查看元数据信息
* 关闭提示文案:指该数据源不允许编辑和查看元数据信息
* 点击连接后将验证数据源连接配置并同时检验数据源版本、权限等信息;
* 成功连接后将会自动打开该数据源的详情页:
:-: 
- DataPipeline产品手册
- 产品主要界面介绍
- 创建-数据任务
- 数据源
- 配置MySQL数据源
- BINLOG配置手册
- 配置Oracle数据源
- LOGMINER配置手册
- 配置SQL Server数据源
- Change Tracking配置手册
- 配置FTP数据源
- 配置Couchbase数据源
- 配置PostgreSQL数据源
- 配置S3数据源
- 配置API数据源
- 配置Kafka数据源
- 数据目的地
- 配置Redshift数据目的地
- 配置Oracle数据目的地
- 配置MySQL数据目的地
- 配置Kafka数据目的地
- 配置SQL Server数据目的地
- 配置FTP数据目的地
- 配置TIDB数据目的地
- 配置Greenplum数据目的地
- 配置Hive数据目的地
- Hive技术实现
- Hive目前支持情况
- 配置HybridDB for PostgreSQL
- 任务设置
- 选择同步内容
- 数据清洗
- 激活数据任务
- 管理-数据任务
- 数据任务列表
- 数据任务详情页
- 基本信息
- 概览信息
- 任务设置
- 错误队列
- 配置规则
- 消息列表
- 文件同步
- 文件源
- 配置S3文件源
- 配置FTP文件源
- 文件目的地
- 配置hdfs文件目的地
- 任务设置
- 激活文件任务
- 管理-文件任务
- 文件任务详情页
- 基本信息
- 概览信息
- 任务设置
- 消息列表
- 元数据管理
- 用户权限管理
- 系统设置
- 产品更新日志
- 常见问题
