当前位置: 首页 > news >正文

程序员 做 个人网站短链生成网站

程序员 做 个人网站,短链生成网站,做网站的是什么软件,东莞网络营销外包价格TF#xff08;Term Frequency#xff0c;词频#xff09;和IDF#xff08;Inverse Document Frequency#xff0c;逆文档频率#xff09;是文本处理和信息检索中的两个重要概念#xff0c;常用于计算一个词在文档中的重要性。下面是详细解释#xff1a; TF#xff08…TFTerm Frequency词频和IDFInverse Document Frequency逆文档频率是文本处理和信息检索中的两个重要概念常用于计算一个词在文档中的重要性。下面是详细解释 TF词频 词频表示某个词在一个文档中出现的频率。其计算公式如下 TF ( t , d ) 出现次数 ( t , d ) 文档中词语总数 ( d ) \text{TF}(t, d) \frac{\text{出现次数}(t, d)}{\text{文档中词语总数}(d)} TF(t,d)文档中词语总数(d)出现次数(t,d)​ 其中 ( t ) 表示词语( d ) 表示文档 示例 假设有一个文档内容如下 这 是 一个 示例 示例 文本“示例”出现了2次文档总共有6个词语。词频TF计算 TF ( 示例 , d ) 2 6 0.333 \text{TF}(\text{示例}, d) \frac{2}{6} 0.333 TF(示例,d)62​0.333 IDF逆文档频率 逆文档频率用于衡量一个词在所有文档中的普遍重要性。词语越常见其IDF值越低词语越不常见其IDF值越高。其计算公式如下 IDF ( t ) log ⁡ ( N 1 包含词语的文档数 ( t ) ) \text{IDF}(t) \log \left( \frac{N}{1 \text{包含词语的文档数}(t)} \right) IDF(t)log(1包含词语的文档数(t)N​) 其中 ( N ) 表示文档的总数 包含词语的文档数 ( t ) \text{包含词语的文档数}(t) 包含词语的文档数(t) 表示包含词语 ( t ) 的文档数 示例 假设有以下三个文档 文档1这 是 一个 示例 文本 文档2这是 另一个 示例 文档3这是 一段 示例 文字“示例”在所有3个文档中都出现了。逆文档频率IDF计算 IDF ( 示例 ) log ⁡ ( 3 1 3 ) log ⁡ ( 3 4 ) − 0.124 \text{IDF}(\text{示例}) \log \left( \frac{3}{1 3} \right) \log \left( \frac{3}{4} \right) -0.124 IDF(示例)log(133​)log(43​)−0.124 TF-IDF词频-逆文档频率 TF-IDF结合了TF和IDF两个指标衡量一个词在文档中的重要性。其计算公式如下 TF-IDF ( t , d ) TF ( t , d ) × IDF ( t ) \text{TF-IDF}(t, d) \text{TF}(t, d) \times \text{IDF}(t) TF-IDF(t,d)TF(t,d)×IDF(t) 示例 结合上述TF和IDF的计算假设“示例”在某文档中的词频TF为0.333IDF为-0.124 TF-IDF ( 示例 , d ) 0.333 × − 0.124 − 0.0413 \text{TF-IDF}(\text{示例}, d) 0.333 \times -0.124 -0.0413 TF-IDF(示例,d)0.333×−0.124−0.0413 这种计算方式表明尽管“示例”词在单个文档中较为频繁但在所有文档中都很常见因此其重要性并不高。 实际应用TF-IDF的示例 假设我们有以下三个文档 文档1我 喜欢 学习 机器学习 文档2机器学习 是 很 有趣 的 文档3我 喜欢 编程 和 机器学习第一步计算每个词的词频TF 计算每个文档中每个词的词频 文档1我 喜欢 学习 机器学习 我1/4 0.25 喜欢1/4 0.25 学习1/4 0.25 机器学习1/4 0.25文档2机器学习 是 很 有趣 的 机器学习1/5 0.20 是1/5 0.20 很1/5 0.20 有趣1/5 0.20 的1/5 0.20文档3我 喜欢 编程 和 机器学习 我1/5 0.20 喜欢1/5 0.20 编程1/5 0.20 和1/5 0.20 机器学习1/5 0.20第二步计算逆文档频率IDF 文档1我 喜欢 学习 机器学习 文档2机器学习 是 很 有趣 的 文档3我 喜欢 编程 和 机器学习计算IDF 机器学习log(3 / (1 3)) log(3 / 4) -0.124 我log(3 / (1 2)) log(3 / 3) 0 喜欢log(3 / (1 2)) log(3 / 3) 0 学习log(3 / (1 1)) log(3 / 2) 0.176 是log(3 / (1 1)) log(3 / 2) 0.176 很log(3 / (1 1)) log(3 / 2) 0.176 有趣log(3 / (1 1)) log(3 / 2) 0.176 的log(3 / (1 1)) log(3 / 2) 0.176 编程log(3 / (1 1)) log(3 / 2) 0.176 和log(3 / (1 1)) log(3 / 2) 0.176第三步计算每个词的TF-IDF 将每个词的词频乘以其逆文档频率 文档1我 喜欢 学习 机器学习 我0.25 * 0 0 喜欢0.25 * 0 0 学习0.25 * 0.176 0.044 机器学习0.25 * -0.124 -0.031文档2机器学习 是 很 有趣 的 机器学习0.20 * -0.124 -0.0248 是0.20 * 0.176 0.0352 很0.20 * 0.176 0.0352 有趣0.20 * 0.176 0.0352 的0.20 * 0.176 0.0352文档3我 喜欢 编程 和 机器学习 我0.20 * 0 0 喜欢0.20 * 0 0 编程0.20 * 0.176 0.0352 和0.20 * 0.176 0.0352 机器学习0.20 * -0.124 -0.0248详细分析 通过正确的TF-IDF计算我们可以更准确地确定每个文档中最重要的词语。 文档1分析 “学习”的TF-IDF值最高0.044表明在文档1中“学习”是最重要的词语。“我”和“喜欢”的TF-IDF值为0因为它们在多个文档中都很常见。“机器学习”的TF-IDF值为-0.031表明它虽然在文档中出现但在所有文档中都很常见因此在区分这个文档时并不重要。 文档2分析 “是”、“很”、“有趣”、“的”这四个词的TF-IDF值相同0.0352表明它们在文档2中同等重要。“机器学习”的TF-IDF值为-0.0248同样因为它在所有文档中都很常见。 文档3分析 “编程”和“和”的TF-IDF值最高0.0352表明它们在文档3中最重要。“我”和“喜欢”的TF-IDF值为0因为它们在多个文档中都很常见。“机器学习”的TF-IDF值为-0.0248同样因为它在所有文档中都很常见。 应用TF-IDF结果 这些TF-IDF值帮助我们更准确地理解每个文档的关键内容和主题。例如 在文档1中“学习”是关键词可以推测文档的主题是学习相关内容。在文档2中“是”、“很”、“有趣”、“的”这几个词同等重要可能表示文档在描述机器学习的有趣性。在文档3中“编程”和“和”是关键词可以推测文档的主题涉及编程和机器学习的关系。 通过这些TF-IDF值我们可以更有效地进行文本分类、主题提取和信息检索提高处理文本数据的准确性和效率。
http://www.hkea.cn/news/14471554/

相关文章:

  • 分类信息网站系统国内wordpress例子
  • 安阳网站建设哪家好开一个软件开发公司需要多少钱
  • 网站制作大型公司房产信息网510
  • 装潢设计培训班学费多少钱seo搜索引擎优化书籍
  • 田贝网站建设汇算清缴在哪个网站上做
  • 自己做发小说网站app下载汅api免费安卓
  • 网站源码上传到空间以后怎么做观澜网站建设公司
  • mc建筑网站wordpress 众筹中文
  • wordpress 手机网站支付华竣国际的展厅设计公司
  • 延边州建设局网站企云网站建设
  • 广阳区建设局网站设置网站关键词怎么做
  • 珠海网站建设尚古道策略西安都蓝网站建设
  • 如何提高网站的排名男人直接做的视频网站
  • 可以做进销存的网站系统工程建设管理
  • 微信公众平台做微网站吗我的世界怎么做赞助网站
  • 做一个网站开发项目有哪些阶段电子商务网页设计论文
  • 游仙移动网站建设长春网长春网站设计站建设
  • 智能模板网站建设方案棒的网页设计
  • 中国建设造价协会网站网页制作最常用的软件
  • 北京做网站便宜的公司哪家好自己做网站类型
  • 网站开发数据接口如何利用长宁制作网站
  • 南京米雅途做网站如何网站开发询价方案
  • 织梦网站做站群wordpress可以建网站吗
  • dede网站经常被挂马 怎么办深圳建设厅官网
  • 网站开发与系统开发江安网站建设
  • 个人网站怎么建设步骤成都哪家做网站好
  • 伪静态规则变动对网站的影响商城源码哪家品牌好
  • 免费发布信息的网站企业网d1net的功能
  • 潍坊做电商的网站建设手机网站怎么布局
  • 程序员和网站建设wordpress 哪个好