当前位置: 首页 > news >正文

做ps的赚钱的网站有哪些广东seo推广贵不贵

做ps的赚钱的网站有哪些,广东seo推广贵不贵,一般开发一个app要多少钱,网站建设的用户环境jieba.lcut jieba.lcut()和jieba.lcut_for_search()是jieba库中的两个分词函数#xff0c;它们的功能和参数略有不同。 jieba.lcut()方法接受三个参数#xff1a;需要分词的字符串#xff0c;是否使用全模式#xff08;默认为False#xff09;以及是否使用HMM模型…jieba.lcut  jieba.lcut()和jieba.lcut_for_search()是jieba库中的两个分词函数它们的功能和参数略有不同。 jieba.lcut()方法接受三个参数需要分词的字符串是否使用全模式默认为False以及是否使用HMM模型默认为True。它返回一个列表其中包含分词后的词语。该方法适合用于普通的文本分词任务。 而jieba.lcut_for_search()方法接受两个参数需要分词的字符串和是否使用HMM模型。该方法适合用于搜索引擎的分词因为它在精确模式的基础上对长词进行了再次切分以提高召回率。 import jieba text 中文分词是将中文文本切分成一系列有意义的词语的过程。#定义词典列表 b[中文分词,中午文本,有意义] jieba.load_userdict(b) #应用自定义词典列表print(jieba.lcut(text,cut_allFalse)) # 默认精确模式即cut_allFalse print(jieba.lcut(text,cut_allTrue)) # 改为全模式即cut_allTrue print(jieba.lcut_for_search(text)) # 搜索引擎模式 import jiebatext2 我们中出了一个叛徒 print(jieba.lcut(text2))# 删除一个单词 jieba.del_word(中出) print(jieba.lcut(text2))#增加一个单词 jieba.add_word(出了) print(jieba.lcut(text2))# 如果我们不想删除“中出”这个词但是又不想让它合在一起可以增大它的词频 jieba.add_word(中出) # 为了演示效果我们需要回到最初始的样子 jieba.del_word(出了) print(jieba.lcut(text2)) # 调节词的词频使其能或不能被分词 # tuneTrue:执行词频调整默认False不执行 jieba.suggest_freq((中,出),tuneTrue) print(jieba.lcut(text2))去除停用词语 最全中文停用词表   import re import jieba text3 昨天我吃了一大碗米饭真的是太好吃了#### 去除一些无用的字符只提取出中文出来 new_text .join(re.findall([\u4e00-\u9fa5], text3, re.S)) print(new_text)print(jieba.lcut(new_text)) 综合案例  import re import jiebadef chinese_word_cut(mytext):# jieba.load_userdict(自定义词典.txt) # 这里你可以添加jieba库识别不了的网络新词避免将一些新词拆开jieba.initialize() # 初始化jieba# 文本预处理 去除一些无用的字符只提取出中文出来new_data re.findall([\u4e00-\u9fa5], mytext, re.S)new_data .join(new_data)# 文本分词seg_list_exact jieba.lcut(new_data)result_list []# 读取停用词库with open(cn_stopwords.txt, encodingutf-8) as f: # 可根据需要打开停用词库然后加上不想显示的词语con f.readlines()stop_words set()for i in con:i i.replace(\n, ) # 去掉读取每一行数据的\nstop_words.add(i)# 去除停用词并且去除单字for word in seg_list_exact:if word not in stop_words and len(word) 1:result_list.append(word)return result_listif __name____main__:with open(new.txt,r,encodingutf-8) as f:text_filef.read()# 分词得到词典resultchinese_word_cut(text_file)resultset(result)print(result)# print(text_file) 参考 文本分析-使用jieba库进行中文分词和去除停用词附案例实战_jieba.lcut(text)-CSDN博客
http://www.hkea.cn/news/14286699/

相关文章:

  • 手机网站开发周期网站建设公司权威机构
  • 咸阳网站设计建设公司公众号里的功能怎么开发
  • 公司高端网站建设wordpress无法点上传图片
  • 自己做的网站怎么爬数据个人做网站用什么技术
  • app免费制作网站专业做设计师品牌网站
  • 网站建设价格差别网站没被百度收录
  • 一元购网站建设流程图好的做网站公司
  • 微网站 模板wordpress多个页面
  • 文章博客媒体网站模板网站开发工具排名
  • 网站开发与应用 大作业作业什么优化
  • 怎样看网站的建设时间表石家庄网络科技有限公司
  • 网上销售 网站建设金湖县住房和城乡建设局网站
  • 网站后端都需要什么意思自助建站网站的宣传手册
  • 企业网站教程 优帮云做英文网站费用
  • 济南网站建设公司排行网站的建设求职简历
  • 中裕隆建设有限公司网站南京建设企业网站的公司
  • 温州网站关键词排名优化行业门户网站建设费用
  • 付费小说网站怎么做有什么做任务得佣金的网站
  • 门户网站 用什么语言广州品牌网站建设 优美
  • 有什么网站做交流会linux做网站服务器吗
  • 福州网站建设营销方案大宗交易平台软件
  • 接网站制作wordpress浏览最多的文章
  • asp做的网站缺点网站首页是什么意思
  • 现在做网站用的软件营销咨询顾问
  • 网站开发的技术路线是什么凯里市住房和城乡建设局网站
  • 网站建设开发服务费会计科目2022年免费ppt模板下载
  • 如何在自己网站上做支付宝吗网站建设公司哪家好 地址磐石网络
  • 建材手机网站嵌入式开发流程
  • 网站安全性设计甘肃省酒泉市做网站公司
  • 建设电子商务网站总结南阳网站排名优化公司