# **配置SQL Server数据目的地**
在进行配置之前,请务必检查您的SQL Server数据目的地是否符合平台要求,参考如下:
| 目的地类型<p style="width:80px"></p> | 版本要求<p style="width:100px"></p> | 用户权限要求<p style="width:120px"></p> | 其他要求 <p style="width:60px"></p> |
| --- | --- | --- | --- |
| SQL Server |2008或以上 | INSERT/UPDATE/DELETE/ALTER/EXEC/CREATE/REFERENCES/SELECT ON SCHEMA | 无 |
确认完毕后,点击「新建数据目的地」,选择「SQL Server」进行新建操作:
:-: 
* 数据目的地名称:是该数据目的地在DataPipeline的唯一标识。
* 数据库名称:要求连接数据库的名称。
* 服务器地址:输入连接数据目的地的域名或IP地址。
* 端口:输入连接数据目的地的端口值。
* Schema有两个选项
选项一:dbo(默认)
选项二:用户可输入自定义选项
提示文案:请输入自定义Schema
不允许输入多个Schema
* 用户名和密码:输入可访问该数据目的地的用户名和密码。
* 成功连接后将会自动打开该数据目的地的详情页。
:-: 
## 常见问题
### Q1:若使用Change Tracking如何初始化数据?
* 全量数据会打一个快照,增量数据会根据Change Tracking同步
### Q2: 行级的物理删除,使用Change Tracking的方式,是否获取的到?DP会如何处理这类的数据?
* 可以支持目的地同步删除目的地数据。数据源端的delete操作在目的地端为标记的功能,在我们产品下一个版本的研发排期中。
### Q3:抽取过程中,是否支持逻辑转换,比如join ? 或数据源实时模式是否可以同步视图?
* 不支持Join; 数据源的方式是无法同步视图的,因为视图没有日志。增量识别字段的方式是可以同步视图的。
- DataPipeline产品手册
- 产品主要界面介绍
- 创建-数据任务
- 数据源
- 配置MySQL数据源
- BINLOG配置手册
- 配置Oracle数据源
- LOGMINER配置手册
- 配置SQL Server数据源
- Change Tracking配置手册
- 配置FTP数据源
- 配置Couchbase数据源
- 配置PostgreSQL数据源
- 配置S3数据源
- 配置API数据源
- 配置Kafka数据源
- 数据目的地
- 配置Redshift数据目的地
- 配置Oracle数据目的地
- 配置MySQL数据目的地
- 配置Kafka数据目的地
- 配置SQL Server数据目的地
- 配置FTP数据目的地
- 配置TIDB数据目的地
- 配置Greenplum数据目的地
- 配置Hive数据目的地
- Hive技术实现
- Hive目前支持情况
- 配置HybridDB for PostgreSQL
- 任务设置
- 选择同步内容
- 数据清洗
- 激活数据任务
- 管理-数据任务
- 数据任务列表
- 数据任务详情页
- 基本信息
- 概览信息
- 任务设置
- 错误队列
- 配置规则
- 消息列表
- 文件同步
- 文件源
- 配置S3文件源
- 配置FTP文件源
- 文件目的地
- 配置hdfs文件目的地
- 任务设置
- 激活文件任务
- 管理-文件任务
- 文件任务详情页
- 基本信息
- 概览信息
- 任务设置
- 消息列表
- 元数据管理
- 用户权限管理
- 系统设置
- 产品更新日志
- 常见问题
