FeatureSelectors

package ml

import java.util

import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.mllib.linalg.distributed.RowMatrix

import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, SQLContext, Row}
import org.apache.spark.{SparkContext, SparkConf}
import java.util.Arrays

import org.apache.spark.ml.attribute.{Attribute, AttributeGroup, NumericAttribute}
import org.apache.spark.ml.feature.VectorSlicer
import org.apache.spark.sql.types.{DataTypes, StructField, StructType}
/*
VectorSlicer是一个转换器,输入一个特征向量输出一个特征向量,
它是原特征的一个子集。这在从向量列中抽取特征非常有用。
VectorSlicer接收一个拥有特定索引的特征列,
它的输出是一个新的特征列,它的值通过输入的索引来选择。
有两种类型的索引:
1、整数索引表示进入向量的索引,调用setIndices()
2、字符串索引表示进入向量的特征列的名称,调用setNames()。
这种情况需要向量列拥有一个AttributeGroup,这是因为实现是通过属性的名字来匹配的。
* */
object FeatureSelectors {
    def main(args: Array[String]) {
        val conf = new SparkConf().setAppName("test").setMaster("local")
        val sc = new SparkContext(conf)
        val sql = new SQLContext(sc);

        val data = Arrays.asList(
//            Row(Vectors.dense(-2.0, 2, 0.0)),
            Row(Vectors.sparse(3, Seq((0, -2.0), (1, 2.3)))),
            Row(Vectors.dense(-2.0, 2, 0.0))
        )

        val defaultAttr: NumericAttribute = NumericAttribute.defaultAttr
        val attrs = Array("f1", "f2", "f3").map(defaultAttr.withName)
        val attrGroup = new AttributeGroup("userFeatures", attrs.asInstanceOf[Array[Attribute]])
//从三列中选择两列参与模型训练
        val dataset = sql.createDataFrame(data, StructType(Array(attrGroup.toStructField())))

        dataset.printSchema()

        val slicer = new VectorSlicer().setInputCol("userFeatures").setOutputCol("features")
        //setIndices(Array(1)) 第二列   setNames(Array("f3")) 第三列
//        slicer.setIndices(Array(1)).setNames(Array("f3"))
        slicer.setIndices(Array(1)).setNames(Array("f3"))
        // or slicer.setIndices(Array(1, 2)), or slicer.setNames(Array("f2", "f3"))

        val output: DataFrame = slicer.transform(dataset)
        output.printSchema()
        output.show(false)

        output.select("features").show()

//        val out: RDD[Row] = output.rdd.map(row => Row(row.get(0),row.get(1)))
        val out: DataFrame = output.select("features")


        val rdd: RDD[Row] = out.toDF().map{ row =>
            val r: Vector = row.getAs[Vector](0)
        Row(r.apply(0),r.apply(1))
//        println("---"+r.apply(0)+"---"+r.apply(1))
        }
        val fields = new util.ArrayList[StructField];
        fields.add(DataTypes.createStructField("id", DataTypes.DoubleType, true));
        fields.add(DataTypes.createStructField("feature", DataTypes.DoubleType, true));
        val structType = DataTypes.createStructType(fields);
        sql.createDataFrame(rdd,structType).show()

    }
}

  

posted @ 2017-08-01 14:16  亢奋的小马哥  阅读(255)  评论(0编辑  收藏  举报