当前位置: 首页 > news >正文

京东物流网站网络推广服务内容

京东物流网站,网络推广服务内容,娱乐网站建设,温州市城乡建设信息港本节介绍了用于处理特征的算法#xff0c;大致可以分为以下几组#xff1a; 提取#xff08;Extraction#xff09;#xff1a;从“原始”数据中提取特征。转换#xff08;Transformation#xff09;#xff1a;缩放、转换或修改特征。选择#xff08;Selection…本节介绍了用于处理特征的算法大致可以分为以下几组 提取Extraction从“原始”数据中提取特征。转换Transformation缩放、转换或修改特征。选择Selection从更大的特征集中选择一个子集。局部敏感哈希Locality Sensitive Hashing, LSH这类算法结合了特征转换的方面与其他算法。 Feature Selectors VectorSlicer VectorSlicer 是一个转换器它接受一个特征向量并输出一个新的特征向量该向量包含原始特征的子数组。它用于从向量列中提取特征。 VectorSlicer 接受一个带有指定索引的向量列然后输出一个新的向量列其值通过这些索引选择。有两种类型的索引 整数索引代表向量中的索引使用 setIndices() 设置。字符串索引代表向量中的特征名称使用 setNames() 设置。这要求向量列具有 AttributeGroup因为实现是基于 Attribute 的 name 字段进行匹配的。 整数和字符串规格都是可以接受的。此外您可以同时使用整数索引和字符串名称。至少必须选择一个特征。不允许有重复的特征所以选定的索引和名称之间不能有重叠。请注意如果选择了特征的名称在遇到空的输入属性时会抛出异常。 输出向量将首先按照给定的顺序排列选定的索引特征然后按照给定的顺序排列选定的名称特征。 Examples Suppose that we have a DataFrame with the column userFeatures: userFeaturesx[0.0, 10.0, 0.5] userFeatures 是一个向量列包含三个用户特征。假设 userFeatures 的第一列全是零因此我们想要移除它只选择最后两列。VectorSlicer 通过 setIndices(1, 2) 选择最后两个元素然后生成一个名为 features 的新向量列 userFeaturesfeatures[0.0, 10.0, 0.5][10.0, 0.5] 假设我们还有 userFeatures 的潜在输入属性即 [“f1”, “f2”, “f3”]那么我们可以使用 setNames(“f2”, “f3”) 来选择它们。 userFeaturesfeatures[0.0, 10.0, 0.5][10.0, 0.5][“f1”, “f2”, “f3”][“f2”, “f3”] import org.apache.spark.ml.attribute.{Attribute, AttributeGroup, NumericAttribute} import org.apache.spark.ml.feature.VectorSlicer import org.apache.spark.ml.linalg.Vectors import org.apache.spark.sql.types.StructType import org.apache.spark.sql.{Row, SparkSession}import java.util.Arraysobject VectorSlicerExample {def main(args: Array[String]): Unit {val spark SparkSession.builder.master(local).appName(VectorSlicerExample).getOrCreate()val data Arrays.asList(Row(Vectors.sparse(3, Seq((0, -2.0), (1, 2.3)))),Row(Vectors.dense(-2.0, 2.3, 0.0)))val defaultAttr NumericAttribute.defaultAttrval attrs Array(f1, f2, f3).map(defaultAttr.withName)val attrGroup new AttributeGroup(userFeatures, attrs.asInstanceOf[Array[Attribute]])val dataset spark.createDataFrame(data, StructType(Array(attrGroup.toStructField())))val slicer new VectorSlicer().setInputCol(userFeatures).setOutputCol(features)slicer.setIndices(Array(1)).setNames(Array(f3))// or slicer.setIndices(Array(1, 2)), or slicer.setNames(Array(f2, f3))val output slicer.transform(dataset)output.show(false)spark.stop()} }RFormula RFormula 通过指定 R 模型公式来选择列。目前我们支持 R 操作符的一个有限子集包括 ‘~’、‘.’、‘:’、‘’ 和 ‘-’。基本操作符有 分隔目标和项 连接项“ 0” 表示去除截距 移除一个项“- 1” 表示去除截距 : 交互作用数值的乘积或二值化的类别值 . 所有列除了目标 假设 a 和 b 是双精度列我们使用以下简单的例子来说明 RFormula 的效果 y ~ a b 表示模型 y ~ w0 w1 * a w2 * b其中 w0 是截距w1、w2 是系数。 y ~ a b a:b - 1 表示模型 y ~ w1 * a w2 * b w3 * a * b其中 w1、w2、w3 是系数。 RFormula 生成一个特征向量列和一个双精度或字符串列的标签。就像在 R 中用于线性回归的公式一样数值列将被转换为双精度数。至于字符串输入列它们首先会通过 StringIndexer 转换使用由 stringOrderType 确定的顺序并且在排序后的最后一个类别会被丢弃然后双精度数将被进行独热编码。 假设有一个包含值 {‘b’, ‘a’, ‘b’, ‘a’, ‘c’, ‘b’} 的字符串特征列我们设置 stringOrderType 来控制编码 ChiSqSelector ChiSqSelector 代表卡方特征选择。它作用于带有类别特征的标记数据。ChiSqSelector 使用卡方独立性检验来决定选择哪些特征。它支持五种选择方法numTopFeatures、percentile、fpr、fdr、fwe numTopFeatures 根据卡方检验选择固定数量的顶级特征。这类似于选择具有最高预测能力的特征。percentile 与 numTopFeatures 类似但它选择所有特征的一定比例而不是固定数量。fpr 选择所有 p 值低于阈值的特征从而控制选择的假阳性率。fdr 使用 Benjamini-Hochberg 程序选择所有假发现率低于阈值的特征。fwe 选择所有 p 值低于阈值的特征。阈值通过 1/numFeatures 缩放从而控制选择的家族错误率。默认情况下选择方法为 numTopFeatures且默认的顶级特征数量设置为 50。用户可以使用 setSelectorType 选择一个选择方法。 示例 假设我们有一个 DataFrame它包含列 id、features 和 clickedclicked 被用作我们要预测的目标 idfeaturesclicked7[0.0, 0.0, 18.0, 1.0]1.08[0.0, 1.0, 12.0, 0.0]0.09[1.0, 0.0, 15.0, 0.1]0.0 如果我们使用 ChiSqSelector 并设置 numTopFeatures 1那么根据我们的标签 clicked我们特征中的最后一列将被选为最有用的特征 idfeaturesclickedselectedFeatures7[0.0, 0.0, 18.0, 1.0]1.0[1.0]8[0.0, 1.0, 12.0, 0.0]0.0[0.0]9[1.0, 0.0, 15.0, 0.1]0.0[0.1] import org.apache.spark.ml.feature.ChiSqSelector import org.apache.spark.ml.linalg.Vectors import org.apache.spark.sql.SparkSessionobject ChiSqSelectorExample {def main(args: Array[String]): Unit {val spark SparkSession.builder.master(local).appName(ChiSqSelectorExample).getOrCreate()import spark.implicits._val data Seq((7, Vectors.dense(0.0, 0.0, 18.0, 1.0), 1.0),(8, Vectors.dense(0.0, 1.0, 12.0, 0.0), 0.0),(9, Vectors.dense(1.0, 0.0, 15.0, 0.1), 0.0))val df spark.createDataset(data).toDF(id, features, clicked)val selector new ChiSqSelector().setNumTopFeatures(1).setFeaturesCol(features).setLabelCol(clicked).setOutputCol(selectedFeatures)val result selector.fit(df).transform(df)println(sChiSqSelector output with top ${selector.getNumTopFeatures} features selected)result.show()spark.stop()} }UnivariateFeatureSelector 单变量特征选择器UnivariateFeatureSelector可以操作具有类别型/连续型标签的类别型/连续型特征。用户可以设置特征类型featureType和标签类型labelTypeSpark会根据指定的特征类型和标签类型选择使用的评分函数。 特征类型标签类型评分函数categorical类别型categoricalchi-squared (chi2)continuouscategoricalANOVATest (f_classif)continuouscontinuousF-value (f_regression) 它支持五种选择模式numTopFeatures、percentile、fpr、fdr、fwe numTopFeatures 选择固定数量的最优特征。percentile 类似于numTopFeatures但它选择所有特征的一定比例而不是固定数量。fpr 选择所有p值低于阈值的特征从而控制选择的假阳性率。fdr 使用Benjamini-Hochberg程序选择所有假发现率低于阈值的特征。fwe 选择所有p值低于阈值的特征。阈值通过1/numFeatures进行缩放从而控制选择的家族误差率。 默认情况下选择模式为numTopFeatures且默认的selectionThreshold设置为50。 示例 假设我们有一个DataFrame包含列id、features和labellabel是我们预测的目标 idfeatureslabel1[1.7, 4.4, 7.6, 5.8, 9.6, 2.3]3.02[8.8, 7.3, 5.7, 7.3, 2.2, 4.1]2.03[1.2, 9.5, 2.5, 3.1, 8.7, 2.5]3.04[3.7, 9.2, 6.1, 4.1, 7.5, 3.8]2.05[8.9, 5.2, 7.8, 8.3, 5.2, 3.0]4.06[7.9, 8.5, 9.2, 4.0, 9.4, 2.1]4.0如果我们将特征类型设置为连续型标签类型设置为类别型且numTopFeatures 1则我们的特征中的最后一列被选为最有用的特征 idfeatureslabelselectedFeatures1[1.7, 4.4, 7.6, 5.8, 9.6, 2.3]3.0[2.3]2[8.8, 7.3, 5.7, 7.3, 2.2, 4.1]2.0[4.1]3[1.2, 9.5, 2.5, 3.1, 8.7, 2.5]3.0[2.5]4[3.7, 9.2, 6.1, 4.1, 7.5, 3.8]2.0[3.8]5[8.9, 5.2, 7.8, 8.3, 5.2, 3.0]4.0[3.0]6[7.9, 8.5, 9.2, 4.0, 9.4, 2.1]4.0[2.1] import org.apache.spark.ml.feature.UnivariateFeatureSelector import org.apache.spark.ml.linalg.Vectors import org.apache.spark.sql.SparkSession/*** An example for UnivariateFeatureSelector.* Run with* {{{* bin/run-example ml.UnivariateFeatureSelectorExample* }}}*/ object UnivariateFeatureSelectorExample {def main(args: Array[String]): Unit {val spark SparkSession.builder.appName(UnivariateFeatureSelectorExample).getOrCreate()import spark.implicits._val data Seq((1, Vectors.dense(1.7, 4.4, 7.6, 5.8, 9.6, 2.3), 3.0),(2, Vectors.dense(8.8, 7.3, 5.7, 7.3, 2.2, 4.1), 2.0),(3, Vectors.dense(1.2, 9.5, 2.5, 3.1, 8.7, 2.5), 3.0),(4, Vectors.dense(3.7, 9.2, 6.1, 4.1, 7.5, 3.8), 2.0),(5, Vectors.dense(8.9, 5.2, 7.8, 8.3, 5.2, 3.0), 4.0),(6, Vectors.dense(7.9, 8.5, 9.2, 4.0, 9.4, 2.1), 4.0))val df spark.createDataset(data).toDF(id, features, label)val selector new UnivariateFeatureSelector().setFeatureType(continuous).setLabelType(categorical).setSelectionMode(numTopFeatures).setSelectionThreshold(1).setFeaturesCol(features).setLabelCol(label).setOutputCol(selectedFeatures)val result selector.fit(df).transform(df)println(sUnivariateFeatureSelector output with top ${selector.getSelectionThreshold} s features selected using f_classif)result.show()spark.stop()} }VarianceThresholdSelector VarianceThresholdSelector 是一个选择器用于移除低方差特征。那些样本方差不大于 varianceThreshold 的特征将被移除。如果没有设置 varianceThreshold默认值为 0这意味着只有方差为 0 的特征即在所有样本中具有相同值的特征将被移除。 示例 假设我们有一个 DataFrame它包含列 id 和 features这些特征用作我们要预测的目标 idfeatures1[6.0, 7.0, 0.0, 7.0, 6.0, 0.0]2[0.0, 9.0, 6.0, 0.0, 5.0, 9.0]3[0.0, 9.0, 3.0, 0.0, 5.0, 5.0]4[0.0, 9.0, 8.0, 5.0, 6.0, 4.0]5[8.0, 9.0, 6.0, 5.0, 4.0, 4.0]6[8.0, 9.0, 6.0, 0.0, 0.0, 0.0] 这6个特征的样本方差分别为16.67、0.67、8.17、10.17、5.07和11.47。如果我们使用VarianceThresholdSelector并设置varianceThreshold 8.0那么方差小于等于8.0的特征将被移除 idfeaturesselectedFeatures1[6.0, 7.0, 0.0, 7.0, 6.0, 0.0][6.0,0.0,7.0,0.0]2[0.0, 9.0, 6.0, 0.0, 5.0, 9.0][0.0,6.0,0.0,9.0]3[0.0, 9.0, 3.0, 0.0, 5.0, 5.0][0.0,3.0,0.0,5.0]4[0.0, 9.0, 8.0, 5.0, 6.0, 4.0][0.0,8.0,5.0,4.0]5[8.0, 9.0, 6.0, 5.0, 4.0, 4.0][8.0,6.0,5.0,4.0]6[8.0, 9.0, 6.0, 0.0, 0.0, 0.0][8.0,6.0,0.0,0.0] Locality Sensitive Hashing 局部敏感哈希LSH是一类重要的哈希技术通常用于大数据集的聚类、近似最近邻搜索和异常值检测。 LSH的基本思想是使用一族函数“LSH族”将数据点哈希到桶中使得彼此接近的数据点有很高的概率落在同一个桶里而彼此距离较远的数据点则很可能落在不同的桶中。一个LSH族正式定义如下。 在一个度量空间M, d中其中M是一个集合d是M上的一个距离函数一个LSH族是一族满足以下性质的函数h ∀p,q∈M, d(p,q)≤r1⇒Pr(h§h(q))≥p1 d(p,q)≥r2⇒Pr(h§h(q))≤p2 这样的LSH族称为(r1, r2, p1, p2)-敏感的。 在Spark中不同的LSH族在不同的类中实现例如MinHash并且每个类中都提供了特征转换、近似相似性连接和近似最近邻搜索的API。 在LSH中我们定义一个假正例为一对距离较远的输入特征满足d(p,q)≥r2被哈希到同一个桶中我们定义一个假反例为一对接近的特征满足d(p,q)≤r1被哈希到不同的桶中。 LSH Operations 我们描述了LSH可用于的主要操作类型。一个训练好的LSH模型具有这些操作的各自方法。 Feature Transformation 特征转换是添加哈希值作为新列的基本功能。这对于降维很有用。用户可以通过设置inputCol和outputCol来指定输入和输出列的名称。 LSH还支持多个LSH哈希表。用户可以通过设置numHashTables来指定哈希表的数量。这也用于近似相似性连接和近似最近邻搜索中的OR放大。增加哈希表的数量将提高精度但也会增加通信成本和运行时间。 outputCol的类型是Seq[Vector]其中数组的维度等于numHashTables向量的维度目前设置为1。在未来的版本中我们将实现AND放大以便用户可以指定这些向量的维度。 Approximate Similarity Join 近似相似性连接接受两个数据集并近似返回数据集中距离小于用户定义阈值的行对。近似相似性连接支持连接两个不同的数据集和自连接。自连接会产生一些重复的对。 近似相似性连接接受转换过的和未转换过的数据集作为输入。如果使用未转换的数据集它将自动被转换。在这种情况下哈希签名将作为outputCol创建。 在连接的数据集中可以在datasetA和datasetB中查询原始数据集。输出数据集中将添加一个距离列以显示返回的每对行之间的真实距离。 Approximate Nearest Neighbor Search 近似最近邻搜索接受一个数据集特征向量集和一个键单个特征向量它近似返回数据集中最接近该向量的指定数量的行。 近似最近邻搜索接受转换过的和未转换过的数据集作为输入。如果使用未转换的数据集它将自动被转换。在这种情况下哈希签名将作为outputCol创建。 输出数据集中将添加一个距离列以显示每个输出行与搜索键之间的真实距离。 注意当哈希桶中没有足够的候选者时近似最近邻搜索将返回少于k行。 LSH Algorithms import org.apache.spark.ml.feature.BucketedRandomProjectionLSH import org.apache.spark.ml.linalg.Vectors import org.apache.spark.sql.SparkSession import org.apache.spark.sql.functions.colval dfA spark.createDataFrame(Seq((0, Vectors.dense(1.0, 1.0)),(1, Vectors.dense(1.0, -1.0)),(2, Vectors.dense(-1.0, -1.0)),(3, Vectors.dense(-1.0, 1.0)) )).toDF(id, features)val dfB spark.createDataFrame(Seq((4, Vectors.dense(1.0, 0.0)),(5, Vectors.dense(-1.0, 0.0)),(6, Vectors.dense(0.0, 1.0)),(7, Vectors.dense(0.0, -1.0)) )).toDF(id, features)val key Vectors.dense(1.0, 0.0)val brp new BucketedRandomProjectionLSH().setBucketLength(2.0).setNumHashTables(3).setInputCol(features).setOutputCol(hashes)val model brp.fit(dfA)// Feature Transformation println(The hashed dataset where hashed values are stored in the column hashes:) model.transform(dfA).show()// Compute the locality sensitive hashes for the input rows, then perform approximate // similarity join. // We could avoid computing hashes by passing in the already-transformed dataset, e.g. // model.approxSimilarityJoin(transformedA, transformedB, 1.5) println(Approximately joining dfA and dfB on Euclidean distance smaller than 1.5:) model.approxSimilarityJoin(dfA, dfB, 1.5, EuclideanDistance).select(col(datasetA.id).alias(idA),col(datasetB.id).alias(idB),col(EuclideanDistance)).show()// Compute the locality sensitive hashes for the input rows, then perform approximate nearest // neighbor search. // We could avoid computing hashes by passing in the already-transformed dataset, e.g. // model.approxNearestNeighbors(transformedA, key, 2) println(Approximately searching dfA for 2 nearest neighbors of the key:) model.approxNearestNeighbors(dfA, key, 2).show()MinHash for Jaccard Distance MinHash是一种用于Jaccard距离的LSH族输入特征是自然数集合。两个集合的Jaccard距离由它们交集和并集的基数定义 d(A, B) 1 - |A ∩ B| / |A ∪ B| MinHash对集合中的每个元素应用一个随机哈希函数g并取所有哈希值的最小值 h(A) min_{a∈A}(g(a)) MinHash的输入集合表示为二进制向量向量索引代表元素本身向量中的非零值表示集合中该元素的存在。尽管支持密集和稀疏向量但通常推荐使用稀疏向量以提高效率。例如Vectors.sparse(10, Array[(2, 1.0), (3, 1.0), (5, 1.0)])表示空间中有10个元素。这个集合包含元素2、元素3和元素5。所有非零值都被视为二进制“1”值。 注意空集不能通过MinHash转换这意味着任何输入向量必须至少有一个非零条目。 import org.apache.spark.ml.feature.MinHashLSH import org.apache.spark.ml.linalg.Vectors import org.apache.spark.sql.SparkSession import org.apache.spark.sql.functions.colval dfA spark.createDataFrame(Seq((0, Vectors.sparse(6, Seq((0, 1.0), (1, 1.0), (2, 1.0)))),(1, Vectors.sparse(6, Seq((2, 1.0), (3, 1.0), (4, 1.0)))),(2, Vectors.sparse(6, Seq((0, 1.0), (2, 1.0), (4, 1.0)))) )).toDF(id, features)val dfB spark.createDataFrame(Seq((3, Vectors.sparse(6, Seq((1, 1.0), (3, 1.0), (5, 1.0)))),(4, Vectors.sparse(6, Seq((2, 1.0), (3, 1.0), (5, 1.0)))),(5, Vectors.sparse(6, Seq((1, 1.0), (2, 1.0), (4, 1.0)))) )).toDF(id, features)val key Vectors.sparse(6, Seq((1, 1.0), (3, 1.0)))val mh new MinHashLSH().setNumHashTables(5).setInputCol(features).setOutputCol(hashes)val model mh.fit(dfA)// Feature Transformation println(The hashed dataset where hashed values are stored in the column hashes:) model.transform(dfA).show()// Compute the locality sensitive hashes for the input rows, then perform approximate // similarity join. // We could avoid computing hashes by passing in the already-transformed dataset, e.g. // model.approxSimilarityJoin(transformedA, transformedB, 0.6) println(Approximately joining dfA and dfB on Jaccard distance smaller than 0.6:) model.approxSimilarityJoin(dfA, dfB, 0.6, JaccardDistance).select(col(datasetA.id).alias(idA),col(datasetB.id).alias(idB),col(JaccardDistance)).show()// Compute the locality sensitive hashes for the input rows, then perform approximate nearest // neighbor search. // We could avoid computing hashes by passing in the already-transformed dataset, e.g. // model.approxNearestNeighbors(transformedA, key, 2) // It may return less than 2 rows when not enough approximate near-neighbor candidates are // found. println(Approximately searching dfA for 2 nearest neighbors of the key:) model.approxNearestNeighbors(dfA, key, 2).show()
http://www.hkea.cn/news/14554576/

相关文章:

  • 网站代运营性价比高河南省工程建设信息网官网入口
  • 功能型网站建设时间深圳高端网站设计
  • php企业门户网站合肥手机网站制作
  • 嘉兴网站建设服务jsp源码做网站
  • 上海网站制作公司怎么找两学一做网站注册
  • 做服装必须看的十大网站怎么查网站icp
  • 校园招生网站建设的简报淄博刚刚发布紧急通知
  • 广西茶叶学会 网站建设做网站就上房山华网天下
  • 北京网站建设建站公司北京网站建设公司排行
  • 美容会所网站模板下载品牌设计案例网站
  • 桂林旅游网站网络优化网站 site
  • 政务网站开发理念cnzz wordpress
  • 珠宝网站建设公司什么是网页设计师
  • 一个服务器下怎么做两个网站用jsp做视频网站
  • 闵行建设机械网站wordpress模板底部
  • 必应网站建设网站需要证件
  • 中国建设银行官方网站纪念币北京本地服务信息网
  • 网站扫二维码怎么做小程序开发定制开发
  • 城乡建设网站首页默认缩略图 wordpress
  • 公司网站建设论文网站建设包括哪些内容
  • 北京定制网站国外做伞的品牌网站
  • 建设网站招标centos7.2做网站
  • 网站开发的前台开发工具百度权重排名高的网站
  • 如何做网站推广的方案设计互联网站备案管理工作方案 工信部
  • 阿旗建设局举报网站长沙河东做网站
  • 巴南市政建设网站网站如何与域名绑定
  • 手机制作小程序软件的app天津企业seo
  • 专门做预言的网站win系统更新后 wordpress
  • 一级做a爱网站免费php网站开发都需要什么软件
  • 大连网络备案做网站有口碑的宁波网站建设