wie die lineare regression der MLlib von apache spark?
Ich bin neu auf der apache spark, und aus dem Dokument der MLlib, ich fand ein Beispiel von scala, aber ich weiß wirklich nicht, scala, ist kennt jemand ein Beispiel in java? danke! der Beispiel-code ist
import org.apache.spark.mllib.regression.LinearRegressionWithSGD
import org.apache.spark.mllib.regression.LabeledPoint
//Load and parse the data
val data = sc.textFile("mllib/data/ridge-data/lpsa.data")
val parsedData = data.map { line =>
val parts = line.split(',')
LabeledPoint(parts(0).toDouble, parts(1).split(' ').map(x => x.toDouble).toArray)
}
//Building the model
val numIterations = 20
val model = LinearRegressionWithSGD.train(parsedData, numIterations)
//Evaluate model on training examples and compute training error
val valuesAndPreds = parsedData.map { point =>
val prediction = model.predict(point.features)
(point.label, prediction)
}
val MSE = valuesAndPreds.map{ case(v, p) => math.pow((v - p), 2)}.reduce(_ + _)/valuesAndPreds.count
println("training Mean Squared Error = " + MSE)
aus dem Dokument von MLlib
danke!
Du musst angemeldet sein, um einen Kommentar abzugeben.
Wie in der Dokumentation :
Dies ist nicht einfach, da Sie noch zu reproduzieren, die die scala-code in java, aber es funktioniert (zumindest in diesem Fall).
Having said that, hier ist ein java-Implementierung :
Es ist bei weitem nicht perfekt, aber ich hoffe, es wird machen Sie besser verstehen, wie die Verwendung von scala-Beispiele auf Mllib Dokumentation.