选择Job,单击鼠标右键,选择Start debug
工具栏上的按钮可以控制执行下一条数据、继续执行、终止Debug
Debug过程中进入断点后,可以一次查看数据加载结果
九、定义Job定期执行
1、登录Data Services Management Console
单击工具栏的“Data Services Management Console”按钮
进入Data Services Management Console的登录界面
单击进入Administrator界面
2、定义Batch Job Schedules
在Batch Job Configuration页签选择Add Schedules
进入批量执行Job的设置界面
可以设置每周的某一天执行(一周执行一次)或则每月的某一天执行(一个月执行一次),也可以设置为每天都执行。都选“Recurring”则会定期循环执行,否则只执行一次。 可以设置一天执行一次,也可以一天执行多次,设置开始执行时间。
上图中如果设置为一天多次执行,开始时间为上午1点,持续时间为600分钟,间隔时间为360分钟,则Job会在一天的上午1点和上午6点各执行一次。如果设置时间间隔为240分钟,则Job会在一天的上午1点、上午5点和上午9点各执行一次。(总持续时间不超过10小时)。
十、其他注意事项
1、 客户端安装包需要注意和服务器DS版本一致
2、 在第一次登录CMS信息时,无法成功。ping sapdstest也失败,需要在host文件中添加
对应的地址和域名
3、 连接Oracle数据库作为数据源时,需要在客户端上安装Oracle客户端,设置tnsname.ora
文件,设置环境变量ORACLE_HOME之后重启服务器;连接HANA数据库时,需要安装HANA客户端
4、 在连接ECC作为数据源时,需要开启系统跨客户端编辑权限 5、 在HANA中新建ERPDSUSER作为存放DS抽取表的Schema,将ERPDSUSER给SLTADM赋
权限,包括查询和创建的权限
6、 全量抽取时,目标表不能使用导入表,需要使用模版表,模版表每次会删除重建,导入
表会出现主键重复的错误提示
7、 基于时间戳的增量加载,源表中需要有创建时间和更改时间两个字段,分别处理新增和
修改的数据
8、 如果只是设置过滤器而没有设置断点,在进行Debug时,Job会执行成功,过滤器有效。
如果不进行Debug,直接执行,设置的过滤器不起作用