# **配置Oracle数据源**
在进行配置之前,请务必检查您的Oracle数据源是否符合平台要求,参考如下:
| 数据源类型<p style="width:116px"></p> | 版本要求<p style="width:108px"></p> | 用户权限要求<p style="width:160px"></p> | 其他要求<p style="width:360px"></p> |
| --- | --- | --- | --- |
| Oracle(实时)- Logminer | Logminer模式下支持 Oracle 11.2.0.4以上版本的 Non CDB数据库;增量识别字段支持10g以上。 | select any transaction,</br>logmining,</br>execute on dbms_logmnr_d,</br>execute on dbms_logmnr,</br>execute on dbms_flashback, </br>create session,</br>resource,</br>select any dictionary,</br>flashck any table,</br>execute_catalog_role,</br>以及相关视图和表的select权限| 提供Oracle Logminer,12c以下版本不需要logmining权限,日志补全至少需要开启primary key、all、unique级别的日志级别,Archive LOG保留时间建议\>=72小时</br>[查看LOGMINER配置手册](../oracle-log-miner-config.md) |
| Oracle(定时) | 10g或以上版本 | 需要相关视图和表的select权限 | 要求需要同步的表拥有增量识别字段,用于同步增量数据。选择的字段必须为可排序,例如数字或时间类型,推荐的字段类型一般为随数据更新而自增的字段,如:</br>更新序列号 (例:SequenceID)</br>更新时间戳 (例: UpdatedAt) |
确认完毕后,点击「新建数据源」,选择「Oracle」进行新建操作:
:-: 
* 数据源名称:是该数据源在DataPipeline的唯一标识。
* 服务器地址:输入连接数据源的域名或IP地址。
* 端口:输入连接数据源的端口值。
* 数据库名称:要求连接数据库的名称。
* 用户名和密码:输入可访问该数据源的用户名和密码。
`注:用户在使用oracle的创建用户的时候尽量将用户名命名为大写。`
* 高级设置
* 元数据管理:开关控制开启和关闭,默认为开启
* 提示文案:开启后,该数据源允许编辑和查看元数据信息
* 数据打点设置
* 当数据源没有LogMiner权限时,系统无法对数据进行打点;当数据源有LogMiner权限时,系统会根据用户设置对数据进行打点
* 打点频率,系统会根据用户设置的打点频率对数据进行打点,用户可以设置分钟、小时频率,默认为10分钟,支持cron表达式。
* 打点范围,系统会根据用户设置的打点范围保留数据日志情况,用户可以设置小时、天,默认为3天。
* 点击连接后将验证数据源连接配置并同时检验数据源版本、权限等信息;
* 成功连接后将会自动打开该数据源的详情页:
* 详情页将展示该数据源的版本、权限信息以及支持的读取模式、元数据管理、打点频率和打点范围等信息;
* 点击重新连接,系统将重新按照配置内容重新连接数据源检测各个信息。
:-: 
## 常见问题
### Q1:创建oracle数据源时,用户名为什么要用大写而不能用小写?
oracle用户名和密码区分大小写,创建用户时如果用户名不加双引号则会被oracle以大写的形式保存在系统的字典表中;如果创建用户名的时候在用户名上加上双引号,那么则会把双引号内的用户名直接保存在数据库字典表中。但是DataPipeline程序在使用JDBC在处理输入的用户名的时候会将Oracle小写的用户名改写成大写,oracle接收到用户名之后会以大写用户名为条件在系统的字典表中进行查找,这种时候便无法查找到用户,因此我们建议用户在使用oracle的创建用户的时候尽量将用户名命名为大写。
- DataPipeline产品手册
- 产品主要界面介绍
- 创建-数据任务
- 数据源
- 配置MySQL数据源
- BINLOG配置手册
- 配置Oracle数据源
- LOGMINER配置手册
- 配置SQL Server数据源
- Change Tracking配置手册
- 配置FTP数据源
- 配置Couchbase数据源
- 配置PostgreSQL数据源
- 配置S3数据源
- 配置API数据源
- 配置Kafka数据源
- 数据目的地
- 配置Redshift数据目的地
- 配置Oracle数据目的地
- 配置MySQL数据目的地
- 配置Kafka数据目的地
- 配置SQL Server数据目的地
- 配置FTP数据目的地
- 配置TIDB数据目的地
- 配置Greenplum数据目的地
- 配置Hive数据目的地
- Hive技术实现
- Hive目前支持情况
- 配置HybridDB for PostgreSQL
- 任务设置
- 选择同步内容
- 数据清洗
- 激活数据任务
- 管理-数据任务
- 数据任务列表
- 数据任务详情页
- 基本信息
- 概览信息
- 任务设置
- 错误队列
- 配置规则
- 消息列表
- 文件同步
- 文件源
- 配置S3文件源
- 配置FTP文件源
- 文件目的地
- 配置hdfs文件目的地
- 任务设置
- 激活文件任务
- 管理-文件任务
- 文件任务详情页
- 基本信息
- 概览信息
- 任务设置
- 消息列表
- 元数据管理
- 用户权限管理
- 系统设置
- 产品更新日志
- 常见问题
