kettle从SQL迁移一张表到ORACLE中,大概有120w条数据。

kettle内存溢出,电脑只能改到 set PENTAHO_DI_JAVA_OPTIONS="-Xmx512m" "-XX:MaxPermSize=1024m" 每次导入只能导入900条。 求大神教我详细一点的解决方案。 第一次试用这个软件 , 求大神教

请额外热舞热温热污染区额外热舞热热我奇热网

批处理,每900条保存一次.

使用kettle时,如果遇到数据量大、大对象时很容易出现内存溢出现象,此时需要根据实际的硬件配置对预设的java堆栈大小进行调整。

硬件如果固定下来了,总会有个瓶颈,可以分批次