spark mlib中怎么加载matlab或python建立的算法模型文件

最近在从事大数据方面的研究,正好学到了spark mlib,可以直接调用一些机器学习算法。
但我在matlab中建立好了算法模型,导出了模型文件,不知道能不能直接在spark mlib中使用。
以svm为例
scala官方文档如下:

import org.apache.spark.mllib.classification.{SVMModel, SVMWithSGD}
import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics
import org.apache.spark.mllib.util.MLUtils

// Load training data in LIBSVM format.
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")

// Split data into training (60%) and test (40%).
val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L)
val training = splits(0).cache()
val test = splits(1)

// Run training algorithm to build the model
val numIterations = 100
val model = SVMWithSGD.train(training, numIterations)

// Clear the default threshold.
model.clearThreshold()

// Compute raw scores on the test set.
val scoreAndLabels = test.map { point =>
  val score = model.predict(point.features)
  (score, point.label)
}

// Get evaluation metrics.
val metrics = new BinaryClassificationMetrics(scoreAndLabels)
val auROC = metrics.areaUnderROC()

println(s"Area under ROC = $auROC")

// Save and load model
model.save(sc, "target/tmp/scalaSVMWithSGDModel")
val sameModel = SVMModel.load(sc, "target/tmp/scalaSVMWithSGDModel")

其中最后一行的 SVMModel.load 就是加载调用模型的代码,但与matlab和python中的不同,
想知道能不能在spark mlib中加载调用matlab或python中建立好的模型文件,如果可以的话该怎么样调用,需不需要对模型文件进行处理。

matlab的模型应该是没法调用的,你只能根据matlab的m代码按照相同的算法重建一下