当前位置: 首页 > news >正文

网址大全2345一下厦门搜索引擎优化

网址大全2345一下,厦门搜索引擎优化,网站名字怎样做版权,昆明网站优化工具一、任务目标 (1)用合适的格式读取文本数据 (2)使用jieba分词对文本数据进行分词,并可视化分词效果 (3)设计停止词表,对文本数据的多余部分进行删除 (4)对文本…

一、任务目标
(1)用合适的格式读取文本数据
(2)使用jieba分词对文本数据进行分词,并可视化分词效果
(3)设计停止词表,对文本数据的多余部分进行删除
(4)对文本数据进行词云展示
(5)TF-IDF提取关键词
(6)LDA主题模型
(7)新闻数据分类

二、代码及效果
(1)导入包

#导入必须的包
import pandas as pd
import jieba
import numpy

(2)读取文本数据

df_news = pd.read_table('./data/val.txt',name=['category','theme','url','content'],encoding = 'utf-8')
df_news = df_news.dropna(axis=0)#删除掉一行数据中有缺失项的
df_news.head()#读取前几条信息
df_news.shape #查看数据规模

(3)使用jieba进行分词

content = df_news.content.values.tolist() #将数据df_news里面的content转换成list数据,方便jieba进行分词
print(content[1000]) #展示分词前的数据内容
content_S=[] #预设定,存入分词后的数据
for line in content:current_segment = jieba.lcut(line) #进行分词处理if(len(current_segment)>1 and current_segment !='\r\n'): #加入换行符content_S.append(current_segment) #将分词结果存入content_S[1000] #展示分词效果df_content = pd.DataFrame({'content_S':content_S}) #可视化每一条文本数据的分词结果
df_content.head()

在这里插入图片描述

(4)设计停止词表,对文本数据的多余部分进行删除,可视化所有词,并统计次数

stopwords = pd.read_csv("stopwords.txt",index_col = False, sep="\t",quoting=3,names=['stopwords'])
stopwords.head(20)

在这里插入图片描述

def drop_stopwords(contents,stopwords):contents_clean=[]all_words=[]for line in contents:line_clean=[]for word in line:if word in stopwords:continueline_clean.append(word)all_words.append(str(word))contents_clean.append(line_clean)return contents_clean,all_wordscontents = df_content.content_S.values.tolist()
stopwords = stopwords.stopword.values.tolist()
contents_clean,all_words =drop_stopwords(contents,stopwords)df_content = pd.DataFrame({'contents_cleadn':contents_clean})
df_content.head
df_all_words = pd.DataFrame({'all_words':all_words})
words_count = df_all_words.groupby(by=['all_words'])['all_words'].agg({'count':numpy.size})
words_count = words_count.reset_index().sort_values(by=['count'],ascending = False)
words_count.head()

(5)词云展示

import matplotlib.pyplot as plt
from wordcloud import WordCloud
import matplotlibmatplotlib.rcParams['figure.figsize'] = (10.0,5.0)
wordcloud = WordCloud(font_path = "./data/simhei.ttf",background_color="white",max_front_size=80)
word_frequence = {x[0]: x[1] for x in words_count.head(100).values}
wordcloud = wordcloud.fit_words(word_frequence)
plt.imshow(wordcloud)

在这里插入图片描述
(6)TF-IDF提取关键词

import jieba.analyse
index = 2000
print(df_news['content'][index])
content_S_str="".join(content_S[index])
print("".join(jieba.analyse.extract_tags(content_S_str,topK=10,withWeight=False)))

在这里插入图片描述
(7)LDA主题模型

from gensim import corpora,models,similarities
import gensimdictionary = corpora.Dictionary(contents_clean)
corpus = [dictionary.doc2bow(sentence) for sentence in contents_clean]
lda = gensim.models.ldamodel.LdaModel(corpus=corpus,id2word=dictionary,num_topics=20)
print(lda.print_topic(1,topn=5))

在这里插入图片描述

在这里插入图片描述
(8)基于贝叶斯算法的新闻数据分析

df_train = pd.DataFrame({'contents_clean':contents_clean,'label':df_news['category']})
df_train.tail()df_train.label.unique()
label_mapping = {"汽车":1,"财经":2,"科技":3,"健康":4,"体育":5,"教育":6,"文化":7,"军事":8,"娱乐":9,"时尚":0}
df_train['label']=df_train['label'].map(label_mapping)from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(df_train['contents_clean'].values, df_train['label'].values,random_state=1)words = []
for line_index in range(len(x_train)):try:words.append(' '.join(x_train[line_index]))except:print(line_index)print(words[0])
print(len(words))from sklearn.feature_extraction.text import CountVectorizer
vec = CountVectorizer(analyzer = 'word', max_features=4000, lowercase=False)
vec.fit(words)from sklearn.naive_bayes import MultinomialNB
classifier = MultinomialNB()
classifier.fit(vec.transform(words), y_train)test_words = []
for line_index in range(len(x_test)):try:test_words.append(" ".join(x_test[line_index]))except:print(line_index)
test_words[0]print(classifier.score(vec.transform(test_words),y_test))

在这里插入图片描述

http://www.hkea.cn/news/838880/

相关文章:

  • 北京南站是丰台站吗seo优化什么意思
  • 外贸营销型建站关键词全网搜索工具
  • 有什么网站可以做扣扣头像腾讯企点app下载安装
  • 网站设计怎么做链接拉新推广怎么快速拉人
  • 怎么自己做礼品网站补肾壮阳吃什么药效果好
  • 网站用户建设的设计与实现网站推广营销运营方式
  • html5韩国网站模板seo网站优化培训班
  • 网站被iframe信息推广的方式有哪些
  • 通信技术公司网站建设app推广代理
  • 做电影网站会违法吗营销说白了就是干什么的
  • 用外链技术做视频网站关键词在线听免费
  • 做网站常用的css最近三天的新闻热点
  • 全国人大常委会副委员长登封seo公司
  • 顶岗实践网站开发推广管理
  • 九号公司网站优化效果
  • 模板网站建设方案北京seo排名收费
  • 做箱包关注哪个网站泰州seo平台
  • 如何给网站做流量站长工具seo
  • 桂林网站开发建设推广任务接单平台
  • 化妆品 网站建设案例seo超级外链工具免费
  • 网站建设的广告语seo自动工具
  • 有专门做市场分析的网站么太原关键词优化报价
  • 网站文化建设搜索引擎推广的常见形式有
  • wordpress分类目录消失泸州网站seo
  • 易云巢做网站公司seo入门到精通
  • 新津网站建设百度ai助手入口
  • 做学校网站什么文案容易上热门
  • 网站开发技术包括郑州网站关键词排名
  • 网站开发预算怎么算百度竞价ocpc
  • 成都锐度设计公司怎么样优化大师怎么提交作业