日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
Ubuntu下安裝StanfordCoreNLP

Stanford CoreNLP提供了一系列自然語言分析工具。它能夠給出基本的詞形,詞性,不管是公司名還是人名等,格式化的日期,時間,量詞,并且能夠標(biāo)記句子的結(jié)構(gòu),語法形式和字詞依賴,指明那些名字指向同樣的實(shí)體,指明情緒,提取發(fā)言中的開放關(guān)系等。

創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設(shè),天津企業(yè)網(wǎng)站建設(shè),天津品牌網(wǎng)站建設(shè),網(wǎng)站定制,天津網(wǎng)站建設(shè)報價,網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,天津網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。

很多自然語言處理的任務(wù)都需要stanfordcorenlp將進(jìn)行文本處理。在Linux環(huán)境下安裝stanfordcorenlp也比較簡單。

首先需要安裝Java運(yùn)行環(huán)境,以ubuntu 12.04為例,安裝Java運(yùn)行環(huán)境僅需要兩步:

sudo apt-get install default-jre
sudo apt-get install default-jdk12

然后下載Stanford coreNLP 包:

wget http://nlp.stanford.edu/software/stanford-corenlp-full-2018-02-27.zip

unzip stanford-corenlp-full-2018-02-27.zip

cd stanford-corenlp-full-2018-02-27/12345

也可以去stanford corenlp的官網(wǎng)上去下載安裝包,windows跟linux下都是一樣的。

配置環(huán)境變量:

我們需要Stanford corenlp來把數(shù)據(jù)分詞。
把下列這行代碼加到你的.bashrc里面(vim .bashrc)

export CLASSPATH=/path/to/stanford-corenlp-full-2018-02-27/stanford-corenlp-3.9.1.jar1

把/path/to/替換為你保存stanford-corenlp-full-2016-10-31的地方的路徑

安裝:

sudo pip3 install stanfordcorenlp1

這里如果你使用python2,就需要

sudo pip2 install stanfordcorenlp1

處理中文還需要下載中文的模型jar文件,然后放到stanford-corenlp-full-2018-02-27根目錄下即可

wget http://nlp.stanford.edu/software/stanford-chinese-corenlp-2018-02-27-models.jar1

如何檢查自己是否裝好了stanfordcorenlp

進(jìn)入python2或者python3

python2

from stanfordcorenlp import StanfordCoreNLP123

能成功導(dǎo)入不報錯,就是安裝成功了。

最后檢查是否能正常使用:

運(yùn)行下列代碼:

echo "Please tokenize this text." | java edu.stanford.nlp.process.PTBTokenizer1

你會看到下列輸出:

Please
tokenize
this
text
.
PTBTokenizer tokenized 5 tokens at 68.97 tokens per second.123456

這樣就安裝成功了。


本文題目:Ubuntu下安裝StanfordCoreNLP
網(wǎng)頁網(wǎng)址:http://www.5511xx.com/article/cojhjce.html