企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持知识库和私有化部署方案 广告
# **配置Redshift数据目的地** 在进行配置之前,请务必检查您的Redshift数据目的地是否符合平台要求,参考如下: | 目的地类型<p style="width:80px"></p> | 版本要求<p style="width:68px"></p> | 用户权限要求<p style="width:220px"></p> | 其他要求 <p style="width:60px"></p> | | --- | --- | --- | --- | | Redshift | 无 | 无 | 无 | 确认完毕后,点击「新建数据目的地」,选择「Redshift」进行新建操作: :-: ![](https://box.kancloud.cn/5bf1edf05f6b5d77b90e076a9fe5f630_2880x2644.png =480x) 配置Redshift数据目的地需要同时配置S3。 Redshift: * 数据目的地名称:是DataPipeline对该数据目的地的唯一标识。 * 服务器地址:输入连接数据目的地的域名或IP地址。 * 端口:输入连接数据目的地的端口值。 * 数据库:要求连接数据库的名称。 * 用户名和密码:输入可访问该数据目的地的用户名和密码。 * Schema名称:要求输入目的地写入目录地址。 S3: * Bucket:输入用户使用的Bucket。 * 地区:选择用户的S3服务器位置。 * 访问权限:您可以选择获取访问S3权限的方式,其中有 * Role:使用AWS角色委托授权以获取S3权限。 * Access Key:需要输入Access Key ID 和 Access Key。 * 写入目录:要求输入写入目录 * 写入目录允许为空。 * 成功连接后将会自动打开该数据目的地的详情页。 :-: ![](https://box.kancloud.cn/d6de81e208542b1a66fa2b1e1a0105dc_1224x1546.png =480x) ## 常见问题 ### Q1:连接RedShift为什么需要配置S3? * 提高同步性能