日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側工具欄

新聞中心

這里有您想知道的互聯網營銷解決方案
北大開源全新中文分詞工具包:準確率遠超THULAC、結巴分詞

 最近,北大開源了一個中文分詞工具包,它在多個分詞數據集上都有非常高的分詞準確率。其中廣泛使用的結巴分詞誤差率高達 18.55% 和 20.42,而北大的 pkuseg 只有 3.25% 與 4.32%。

成都創(chuàng)新互聯從2013年成立,先為安陽等服務建站,安陽等地企業(yè),進行企業(yè)商務咨詢服務。為安陽企業(yè)網站制作PC+手機+微官網三網同步一站式服務解決您的所有建站問題。

pkuseg 是由北京大學語言計算與機器學習研究組研制推出的一套全新的中文分詞工具包。它簡單易用,支持多領域分詞,在不同領域的數據上都大幅提高了分詞的準確率。

  • 項目地址:https://github.com/lancopku/PKUSeg-python

pkuseg 具有如下幾個特點:

  • 高分詞準確率:相比于其他的分詞工具包,該工具包在不同領域的數據上都大幅提高了分詞的準確度。根據北大研究組的測試結果,pkuseg 分別在示例數據集(MSRA 和 CTB8)上降低了 79.33% 和 63.67% 的分詞錯誤率。

  • 多領域分詞:研究組訓練了多種不同領域的分詞模型。根據待分詞的領域特點,用戶可以自由地選擇不同的模型。

  • 支持用戶自訓練模型:支持用戶使用全新的標注數據進行訓練。

此外,作者們還選擇 THULAC、結巴分詞等國內代表分詞工具包與 pkuseg 做性能比較。他們選擇 Linux 作為測試環(huán)境,在新聞數據(MSRA)和混合型文本(CTB8)數據上對不同工具包進行了準確率測試。此外,測試使用的是第二屆國際漢語分詞評測比賽提供的分詞評價腳本。評測結果如下:

我們可以看到,最廣泛使用的結巴分詞準確率***,清華構建的 THULAC 分詞準確率也沒有它高。當然,pkuseg 是在這些數據集上訓練的,因此它在這些任務上的準確率也會更高一些。

預訓練模型

分詞模式下,用戶需要加載預訓練好的模型。研究組提供了三種在不同類型數據上訓練得到的模型,根據具體需要,用戶可以選擇不同的預訓練模型。以下是對預訓練模型的說明:

  • MSRA:在 MSRA(新聞語料)上訓練的模型。新版本代碼采用的是此模型。

  • CTB8:在 CTB8(新聞文本及網絡文本的混合型語料)上訓練的模型。

  • WEIBO:在微博(網絡文本語料)上訓練的模型。

其中,MSRA 數據由第二屆國際漢語分詞評測比賽提供,CTB8 數據由 LDC 提供,WEIBO 數據由 NLPCC 分詞比賽提供。在 GitHub 項目中,這三個預訓練模型都提供了下載地址。

安裝與使用

pkuseg 的安裝非常簡單,我們可以使用 pip 安裝,也可以直接從 GitHub 下載:

 
 
 
 
  1. pip install pkuseg

使用 pkuseg 實現分詞也很簡單,基本上和其它分詞庫的用法都差不多:

 
 
 
 
  1. '''代碼示例1: 使用默認模型及默認詞典分詞'''
  2. import pkuseg
  3. #以默認配置加載模型
  4. seg = pkuseg.pkuseg()
  5. #進行分詞
  6. text = seg.cut('我愛北京天安門')
  7. print(text)
  8. '''代碼示例2: 設置用戶自定義詞典'''
  9. import pkuseg
  10. #希望分詞時用戶詞典中的詞固定不分開
  11. lexicon = ['北京大學', '北京天安門']
  12. #加載模型,給定用戶詞典
  13. seg = pkuseg.pkuseg(user_dict=lexicon)
  14. text = seg.cut('我愛北京天安門')
  15. print(text)
  16. '''代碼示例3'''
  17. import pkuseg
  18. #假設用戶已經下載好了ctb8的模型并放在了'./ctb8'目錄下,通過設置model_name加載該模型
  19. seg = pkuseg.pkuseg(model_name='./ctb8')
  20. text = seg.cut('我愛北京天安門')
  21. print(text)

對于大型文本數據集,如果需要快速分詞的話,我們也可以采用多線程的方式:

 
 
 
 
  1. '''代碼示例4'''
  2. import pkuseg
  3. #對input.txt的文件分詞輸出到output.txt中,使用默認模型和詞典,開20個進程
  4. pkuseg.test('input.txt', 'output.txt', nthread=20)

***,pkuseg 還能重新訓練一個分詞模型:

 
 
 
 
  1. '''代碼示例5'''
  2. import pkuseg
  3. #訓練文件為'msr_training.utf8',測試文件為'msr_test_gold.utf8',模型存到'./models'目錄下,開20個進程訓練模型
  4. pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models', nthread=20)

這些都是 GitHub 上的示例,詳細的內容請參考 GitHub 項目,例如參數說明和參考論文等。


網頁名稱:北大開源全新中文分詞工具包:準確率遠超THULAC、結巴分詞
鏈接地址:http://www.5511xx.com/article/djdeegp.html