spark 特征选择之FeatureSelectors DataFrame[vector] 转 DataFrame[Row]

package ml

import java.util

import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.mllib.linalg.distributed.RowMatrix

import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, SQLContext, Row}
import org.apache.spark.{SparkContext, SparkConf}
import java.util.Arrays

import org.apache.spark.ml.attribute.{Attribute, AttributeGroup, NumericAttribute}
import org.apache.spark.ml.feature.VectorSlicer
import org.apache.spark.sql.types.{DataTypes, StructField, StructType}
/*
VectorSlicer是一个转换器,输入一个特征向量输出一个特征向量,
它是原特征的一个子集。这在从向量列中抽取特征非常有用。
VectorSlicer接收一个拥有特定索引的特征列,
它的输出是一个新的特征列,它的值通过输入的索引来选择。
有两种类型的索引:
1、整数索引表示进入向量的索引,调用setIndices()
2、字符串索引表示进入向量的特征列的名称,调用setNames()。
这种情况需要向量列拥有一个AttributeGroup,这是因为实现是通过属性的名字来匹配的。
* */
object FeatureSelectors {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("test").setMaster("local")
val sc = new SparkContext(conf)
val sql = new SQLContext(sc);

val data = Arrays.asList(
// Row(Vectors.dense(-2.0, 2, 0.0)),
Row(Vectors.sparse(3, Seq((0, -2.0), (1, 2.3)))),
Row(Vectors.dense(-2.0, 2, 0.0))
)

val defaultAttr: NumericAttribute = NumericAttribute.defaultAttr
val attrs = Array("f1", "f2", "f3").map(defaultAttr.withName)
val attrGroup = new AttributeGroup("userFeatures", attrs.asInstanceOf[Array[Attribute]])
//从三列中选择两列参与模型训练
val dataset = sql.createDataFrame(data, StructType(Array(attrGroup.toStructField())))

dataset.printSchema()

val slicer = new VectorSlicer().setInputCol("userFeatures").setOutputCol("features")
//setIndices(Array(1)) 第二列 setNames(Array("f3")) 第三列
// slicer.setIndices(Array(1)).setNames(Array("f3"))
slicer.setIndices(Array(1)).setNames(Array("f3"))
// or slicer.setIndices(Array(1, 2)), or slicer.setNames(Array("f2", "f3"))

val output: DataFrame = slicer.transform(dataset)
output.printSchema()
output.show(false)

output.select("features").show()

// val out: RDD[Row] = output.rdd.map(row => Row(row.get(0),row.get(1)))
val out: DataFrame = output.select("features")


val rdd: RDD[Row] = out.toDF().map{ row =>
val r: Vector = row.getAs[Vector](0)
Row(r.apply(0),r.apply(1))
// println("---"+r.apply(0)+"---"+r.apply(1))
}
val fields = new util.ArrayList[StructField];
fields.add(DataTypes.createStructField("id", DataTypes.DoubleType, true));
fields.add(DataTypes.createStructField("feature", DataTypes.DoubleType, true));
val structType = DataTypes.createStructType(fields);
sql.createDataFrame(rdd,structType).show()

}
}
posted @ 2017-07-14 14:39  亢奋的小马哥  阅读(4124)  评论(0编辑  收藏  举报