💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、豆包、星火、月之暗面及文生图、文生视频 广告
# **配置Kafka数据源** 在进行配置之前,请务必检查您的Kafka数据源是否符合平台要求,参考如下: | 数据源类型<p style="width:120px"></p> | 版本要求<p style="width:80px"></p> | 用户权限要求<p style="width:100px"></p> | 其他要求<p style="width:120px"></p> | | --- | --- | --- | --- | | Kafka数据源 | 无 | 无 | 无 | 点击「新建数据源」,选择「Kafka数据源」进行新建操作: :-: ![](https://box.kancloud.cn/08871d274f14f1fd02dafc6db3a050ed_776x568.png =480x) * 数据源名称:是该数据源在DataPipeline的唯一标识 * 服务器地址:输入连接数据目的地的域名或IP地址及端口值,允许输入多个地址,使用","分隔。 * ZooKeeper地址:输入连接Zookeeper的域名或IP地址及端口值,允许输入多个地址,使用","分隔。 * Schema Register地址:输入Schema Register地址 * 数据格式: * JSON(默认)、AVRO、STRING * 点击连接后将验证数据源连接配置并同时检验数据源版本、权限等信息; * 成功连接后将会自动打开该数据源的详情页 :-: ![](https://box.kancloud.cn/cabf99d45a1e0d40d207305b018ec011_1230x674.png) * 当用户选择JSON、STRING数据格式时,在目的配置界面需要手动添加目的地字段 * 点击清洗脚本,进入清洗脚本界面,可编辑Kafka队列中的rocord信息,并对record进行操作,按照指定的列名称和类型保存到数据库。 * 通过解析获取到目的地字段,填充到目的地表结构中 * 配置完成后,可立即激活任务