# 数据目的地
## 1.什么是「数据目的地」?
「数据目的地」是存储从数据任务经过数据处理的数据载体。数据目的地可以是数据库、数据仓库、文件系统、文件或其他可存储数据的其他载体。
## 2.支持哪些数据目的地?
DataPipeline目前已支持的数据目的地包括:
* [Redshift](../chapter1/shu-ju-mu-de-di/pei-zhi-redshift-shu-ju-mu-de-di.md)
* [Oracle](../chapter1/shu-ju-mu-de-di/pei-zhi-oracle-shu-ju-mu-de-di.md)
* [MySQL](../chapter1/shu-ju-mu-de-di/pei-zhi-aws-rds-shu-ju-mu-de-di.md)
* [Kafka](../chapter1/shu-ju-mu-de-di/Kafka.md)
* [SQLServer](../chapter1/shu-ju-mu-de-di/SQLServer.md)
* [FTP](../chapter1/shu-ju-mu-de-di/FTP.md)
* [TIDB](../chapter1/shu-ju-mu-de-di/TIDB.md)
* [Greenplum](../chapter1/shu-ju-mu-de-di/Greenplum.md)
* [Hive](../chapter1/shu-ju-mu-de-di/Hive.md)
* [HybridDB for PostgreSQL](../chapter1/shu-ju-mu-de-di/HybridDBforPostgreSQL.md)
## 3.如何配置数据目的地?
新建数据源目的地,请先确认您的数据目的地配置是否符合平台要求,
具体要求参考下表:
| 目的地类型<p style="width:80px"></p> | 版本要求<p style="width:120px"></p> | 用户权限要求 <p style="width:280px"> | 其他要求 <p style="width:120px"></p> |
| --- | --- | --- | --- |
| AWS</br>Redshift | 无 | 无 | 无 |
| MySQL | 5.5或以上版本 | SELECT,</br>CREATE OBJECT,</br>INSERT/UPDATE/DELETE TABLE | 无 |
| Kafka | 0.8.2 或以上 | 无 | 无 |
| FTP(CSV、Log4j)| 无 | 登录、访问和写入权限 | 无 |
| Oracle | 10g或以上版本 | CREATE SESSION,</br>RESOURCE | 无 |
| SQL Server |2008或以上 | INSERT/UPDATE/DELETE/ALTER/EXEC/CREATE/REFERENCES/SELECT ON SCHEMA | 无 |
| TIDB | 2.0.5或以上 | SELECT,CREATE OBJECT,</br>INSERT/UPDATE/DELETE TABLE | 无 |
| Greenplum | 1.9.5 | SELECT权限,</br>CREATE OBJECT权限,</br>INSERT/UPDATE/DELETE TABLE | 无 |
| Hive | apche hadoop 2.7,hive 1.2.2 | 如果不开启hive的话需要拥有写入目录的读写权限;</br>如果开启hive的话需要hive home 目录的读写权限 | 不同版本兼容情况未知,需要注意不同版本兼容问题。|
| HybridDB for PostgreSQL | HybridDB 4.3 | SELECT权限,</br>CREATE OBJECT权限,</br>INSERT/UPDATE/DELETE TABLE | 无 |
确认数据目的地配置符合要求后,即可新建数据目的地,操作主要分三步:
* 选择数据目的地类型
* 填写配置信息
* 测试连接
一、点击「新建数据目的地」,会弹窗要求用户选择数据目的地类型。
:-: 
二、填写配置信息
请点击下方链接查看具体配置内容
* [**配置Redshift数据目的地**](../chapter1/shu-ju-mu-de-di/pei-zhi-redshift-shu-ju-mu-de-di.md)
* [**配置Oracle数据目的地**](../chapter1/shu-ju-mu-de-di/pei-zhi-oracle-shu-ju-mu-de-di.md)
* [**配置FTP数据目的地**](../chapter1/shu-ju-mu-de-di/pei-zhi-wen-jian-xi-tong-shu-ju-mu-de-di.md)
* [**配置MySQL数据目的地**](../chapter1/shu-ju-mu-de-di/pei-zhi-mysql-shu-ju-mu-de-di.md)
* [**配置Kafka数据目的地**](../chapter1/shu-ju-mu-de-di/kafka.md)
* [**配置SQL Server数据目的地**](../chapter1/shu-ju-mu-de-di/sqlserver.md)
* [**配置TIDB数据目的地**](../chapter1/shu-ju-mu-de-di/TIDB.md)
* [**配置Greenplum数据目的地**](../chapter1/shu-ju-mu-de-di/Greenplum.md)
* [**配置Hive数据目的地**](../chapter1/shu-ju-mu-de-di/Hive.md)
三、测试连接
* 用户填写完输入项后,点击「连接」即可。
* 系统会判断数据源配置项是否可以连接成功。
* 若测试连接成功,将会自动打开该数据目的地的详情页。
* 若测试失败,系统会返回测试失败原因。
- DataPipeline产品手册
- 产品主要界面介绍
- 创建-数据任务
- 数据源
- 配置MySQL数据源
- BINLOG配置手册
- 配置Oracle数据源
- LOGMINER配置手册
- 配置SQL Server数据源
- Change Tracking配置手册
- 配置FTP数据源
- 配置Couchbase数据源
- 配置PostgreSQL数据源
- 配置S3数据源
- 配置API数据源
- 配置Kafka数据源
- 数据目的地
- 配置Redshift数据目的地
- 配置Oracle数据目的地
- 配置MySQL数据目的地
- 配置Kafka数据目的地
- 配置SQL Server数据目的地
- 配置FTP数据目的地
- 配置TIDB数据目的地
- 配置Greenplum数据目的地
- 配置Hive数据目的地
- Hive技术实现
- Hive目前支持情况
- 配置HybridDB for PostgreSQL
- 任务设置
- 选择同步内容
- 数据清洗
- 激活数据任务
- 管理-数据任务
- 数据任务列表
- 数据任务详情页
- 基本信息
- 概览信息
- 任务设置
- 错误队列
- 配置规则
- 消息列表
- 文件同步
- 文件源
- 配置S3文件源
- 配置FTP文件源
- 文件目的地
- 配置hdfs文件目的地
- 任务设置
- 激活文件任务
- 管理-文件任务
- 文件任务详情页
- 基本信息
- 概览信息
- 任务设置
- 消息列表
- 元数据管理
- 用户权限管理
- 系统设置
- 产品更新日志
- 常见问题
