spark的关联规则在数据量大且较低支持度时报java.lang.StackOverflowError

同数据量下若调高支持度,就不会报错。但因为支持度太高没有数据。
java.lang.StackOverflowError
at java.lang.Exception.<init>(Exception.java:102)
调高jvm的栈空间,有一定的效果。但不解决根本问题。毕竟实际的数据量和支持度更不合适。
希望不会受jvm的空间影响。接受较长的运行时间。可以考虑时间换空间