🔥码云GVP开源项目 12k star Uniapp+ElementUI 功能强大 支持多语言、二开方便! 广告
# **配置Hive数据源** 在进行配置之前,请务必检查您的Hive数据源是否符合平台要求,参考如下: <table> <tr bgcolor="#CCCCCC"> <td><b>数据源类型</b></td> <td><b>版本要求</b></td> <td colspan="2"><b>用户权限要求</b></td> <td colspan="2"><b>其他要求</b></td> </tr> <tr bgcolor="#EDEDED"> <td>Apache Hive</td> <td> 1.x.y、2.x.y ;LDAP认证模式只适配1.2.y(支持的格式:PARQUET、CSV)</td> <td colspan="2">需要hive home 目录的读写权限</td> <td colspan="2">无</td> </tr> </table> 点击「新建数据源」,选择「Hive」进行新建操作: :-: ![](https://img.kancloud.cn/b5/0e/b50ecfba680e4424dc28a34bf69d6a3d_625x458.png) **参数介绍** * 数据源名称:是该数据源在DataPipeline的唯一标识。 * HDFS配置 * 点击上传配置文件按钮会出现弹框需要用户选择上传的文件,支持上传XML格式的配置文件。 * 需要上传 core-site.xml、hdfs-site.xml、hive-site.xml文件。请参考考官方说明: [http://hadoop.apache.org/docs/r2.7.6/hadoop-project-dist/hadoop-common/ClusterSetup.html](http://hadoop.apache.org/docs/r2.7.6/hadoop-project-dist/hadoop-common/ClusterSetup.html) * 数据库名称 :要求连接数据库的名称,需要输入已经存在的数据库名称。 * HDFS用户名:HDFS用户名用于读取Hive表映射路径下的文件数据,若该用户名无权限访问,则无法读取数据。 <br/> 成功连接后将会自动打开该数据目的地的详情页。 :-: ![](https://img.kancloud.cn/3f/94/3f94462bf4fe880165e4c16c215b8816_630x269.png) <br/><br/>