datax 抽取oracle数据库速度变为0

如题:昨天下午还好好运行的代码,早上速度就变为0了,但是用命令行跑还是正常的,所以应该可以排除掉json文件的配置问题。

img

怀疑:这个程序是用来实现oracle到mysql的数据同步的,怀疑是于两个数据库的连接出现了问题。
测试1:写一个新的json脚本测试读取oracle并写入本地
结果:成功
分析:既然oracle数据库的连接没有问题,最起码程序需要的读取功能没有问题,就可能是mysql数据库的连接出现问题
测试2:写一个新的json脚本读取mysql数据库的表单并写入到本地
结果:同样显示读取速度为0

引用自chatGPT:
可能的原因有以下几点:

1.数据库连接问题:可能是数据库连接出现了异常,导致数据抽取速度变为0。可以检查连接参数是否配置正确,数据库是否正常运行。

2.数据库资源问题:数据库服务器可能出现了资源瓶颈,导致数据抽取速度变为0。可以检查数据库服务器的负载情况,是否有其他任务占用了大量资源。

3.网络问题:可能是网络连接出现了异常,导致数据抽取速度变为0。可以检查网络连接是否正常,是否有其他网络问题影响了数据传输。

4.数据抽取任务问题:可能是数据抽取任务本身出现了问题,导致速度变为0。可以检查数据抽取任务的配置是否正确,是否有其他错误导致任务无法正常执行。
建议逐一排查以上可能的原因,可以通过日志、监控工具等方式来定位问题所在,并进行相应的修复。如果无法解决,可以尝试重启数据库或者重新配置数据抽取任务。

  • 建议你看下这篇博客👉 :datax从TDH同步数据到oracle的json模板
  • 除此之外, 这篇博客: 批量生成数据迁移神器datax的json配置文件中的 遇到的问题 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:
  • 1、mysql5.6中group_concat函数默认长度为1024,如果将多个列转成一行时,超过该长度会被截取
    解决方法:
    SET GLOBAL group_concat_max_len = 4294967295;
    SET SESSION group_concat_max_len = 4294967295

重新写了一个json脚本,确认oracle的读取功能是可以正常执行的,说明是写入到mysql的过程出现了问题。