大家好,今天小编关注到一个比较有意思的话题,就是关于python 深度学习 分词的问题,于是小编就整理了1个相关介绍python 深度学习 分词的解答,让我们一起看看吧。
如何使用Python绘制分词和词云?
你说的是先分词,后绘制词云吧,这里简单介绍2种分词方法(jieba和snownlp)和2种绘制词云的方法(wordcloud和pyecharts),实验环境win10+python3.6+pycharm5.0,主要内容如下:
为了更好的说明实验的过程,这里以下面这个test.txt文本为例,对这个文本进行分词和绘制词云,部分内容如下(《白鹿原》的一部分):
1.jieba+wordcloud组合:jieba是一个专门用于中文分词的包,可以快速的实现分词、标注词性及提取关键词等工作;wordcloud是一个专门用于绘制词云的包,可以快速的绘制出你需要的词云图,下面我简单介绍一下这2个包的安装和使用:
安装jieba和wordcloud,这里直接在cmd窗口输入命令“pip install jieba wordcloud”就行,如下:
测试代码如下,这里先利用jieba进行分词,然后再用wordcloud绘制词云:
程序运行截图如下:
2.snownlp+pyecharts组合:snownlp是一个国人自己开发的中文处理包,基于TextBlob思想,可以快速的分词,实现词性标注等;pyecharts基于echarts,是一个专门用于绘图的可视化包,提供多种类型图形的绘制,其中就有词云,主要基于web页面进行显示,下面我简单介绍一下这2个包的安装和使用:
安装snownlp和pyecharts,这里直接输入命令“pip install snownlp pyecharts”就行,如下:
测试代码如下,这里先利用snownlp进行分词,之后再利用pyecharts进行词云绘制:
程序运行截图如下:
至此,我们就完成了利用python进行分析和词云的绘制。总的来说,整个过程不难,熟悉一下很快就能掌握,网上也有相关资料和教程,感兴趣的可以去搜一下,希望以上分享的内容能对你有所帮助吧。
到此,以上就是小编对于python 深度学习 分词的问题就介绍到这了,希望介绍关于python 深度学习 分词的1点解答对大家有用。