色婷婷狠狠18禁久久YY,CHINESE性内射高清国产,国产女人18毛片水真多1,国产AV在线观看

python常見的中文分詞包含哪些?應該怎么使用?

阮建安2年前12瀏覽0評論

這里簡單介紹2個中文分詞包,一個是jieba,一個是snownlp,這2個中文分詞包都可以完成中文分詞、詞性標注、關鍵詞提取等功能,下面我簡單介紹一下這2個包的安裝和使用,實驗環境win10+python3.6+pycharm5.0,主要內容如下:

  • jieba中文分詞:這個大部分人都應該聽過,應用比較廣泛,可以完成常見的詞性標注、關鍵詞提取,使用起來非常方便,下面我簡單介紹一下這個庫:

1.安裝jieba,這個直接在cmd窗口輸入命令“pipinstalljieba”就行,如下:

2.安裝完成后,就可以進行簡單的測試了,測試代碼如下,這里完成了分詞、詞性標注、提取關鍵詞的功能:

程序運行截圖如下,已經成功分詞、標注詞性及提取關鍵詞:

  • snownlp中文分詞:這也是一個中文分詞包,所有算法都是作者自己實現,可以快速處理中文文本,包括分詞、分句、詞性標注、情感分析、關鍵詞提取、tf、idf等,下面我簡單介紹一下這個庫:

1.安裝snownlp,這個直接在cmd窗口輸入命令“pipinstallsnownlp”就行,如下,可能需要等待一會兒:

2.安裝完成后,我們就可以進行簡單的從測試了,主要代碼如下,包括分詞、詞性標注等功能:

程序運行截圖如下:

至此,我們就完成了jieba和snownlp這2個中分分詞包的介紹和使用。總的來說,整個過程很簡單,只要你有一定的python基礎,熟悉一下相關示例和代碼,很快就能掌握的,當然,你也可以使用其他中分分詞包,像hulac,corenlp等,網上也有相關教程和資料,感興趣的可以搜一下,希望以上分享的內容能對你有所幫助吧,也歡迎大家評論、留言。