日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
Python 文本數(shù)據(jù)預處理實踐

 在進行數(shù)據(jù)分析與可視化之前,得先處理好數(shù)據(jù),而很多時候需要處理的都是文本數(shù)據(jù),本文總結(jié)了一些文本預處理的方法。

將文本中出現(xiàn)的字母轉(zhuǎn)化為小寫

 
 
 
 
  1. input_str = """ 
  2. There are some people who think love is sex  
  3. And marriage 
  4. And six o'clock-kisses 
  5. And children, 
  6. And perhaps it is, 
  7. Miss Lester. 
  8. But do you know what I think? 
  9. I think love is a touch and yet not a touch 
  10. """ 
  11. input_str = input_str.lower() 
  12. print(input_str) 

結(jié)果如下:

刪除或者提取文本中出現(xiàn)的數(shù)字

如果文本中的數(shù)字與文本分析無關的話,那就刪除這些數(shù)字。

 
 
 
 
  1. import re 
  2.  
  3. input_str = 'Hello Python123 666 Hi jupyter notebook 1111' 
  4. result = re.sub(r'\d+', '', input_str) 
  5. print(result) 

結(jié)果如下:

而在有些情況下,比如獲取的數(shù)據(jù)中,招聘崗位信息里薪資是 15K 這樣的,商品購買信息里商品購買人數(shù)是 8500+ 人購買了此商品,這時我們需要從中提取出數(shù)字。

 
 
 
 
  1. input_str = '薪資:15K 8500+人付款 3.0萬+人付款' 
  2. result = re.findall("-?\d+\.?\d*e?-?\d*?", input_str) 
  3.  
  4. print(result) 

結(jié)果如下:

濾除文本中標點符號

 
 
 
 
  1. import re 
  2.  
  3. input_str = """This &is [an] example? \葉庭云<< 1""!。。;11???>>1 *yetingyun/p:?| {of} string. with.? punctuation!!!!"""  
  4. s = re.sub(r'[^\w\s]', '', input_str) 
  5. print(s) 

結(jié)果如下:

可以看到文本中亂七八糟的符號都被濾除了,用正則表達式過濾文本中的標點符號,如果空白符也需要過濾,可以使用 r'[^\w]'。原理很簡單:在正則表達式中,\w 匹配字母或數(shù)字或下劃線或漢字(具體與字符集有關),^\w表示相反匹配。

刪除兩端無用的空格

 
 
 
 
  1. input_str = "   \t    yetingyun   \t    " 
  2. input_str = input_str.strip() 
  3. input_str 

結(jié)果如下:

中文分詞,濾除停用詞和單個詞

 
 
 
 
  1. # 從Github下載停用詞數(shù)據(jù)  https://github.com/zhousishuo/stopwords 
  2. import jieba 
  3. import re 
  4.  
  5. # 讀取用于測試的文本數(shù)據(jù)  用戶評論 
  6. with open('comments.txt') as f: 
  7.     data = f.read() 
  8.  
  9. # 文本預處理  去除一些無用的字符   只提取出中文出來 
  10. new_data = re.findall('[\u4e00-\u9fa5]+', data, re.S) 
  11. new_data = "/".join(new_data) 
  12.  
  13. # 文本分詞  精確模式 
  14. seg_list_exact = jieba.cut(new_data, cut_all=False) 
  15.  
  16. # 加載停用詞數(shù)據(jù) 
  17. with open('stop_words.txt', encoding='utf-8') as f: 
  18.     # 獲取每一行的停用詞 添加進集合 
  19.     con = f.read().split('\n') 
  20.     stop_words = set() 
  21.     for i in con: 
  22.         stop_words.add(i) 
  23.  
  24. # 列表解析式  去除停用詞和單個詞 
  25. result_list = [word for word in seg_list_exact if word not in stop_words and len(word) > 1] 
  26. result_list 

結(jié)果如下:

首先讀取用于測試的文本數(shù)據(jù),該數(shù)據(jù)是爬取的商品評論,這一類數(shù)據(jù)通常有很多無意義的字詞和符號,通過正則表達式濾除掉無用的符號,只提取出中文出來。使用 jieba 庫進行文本分詞,加載停用詞數(shù)據(jù)到集合,然后一行列表解析式濾除停用詞和單個詞,這樣效率很高。停用詞數(shù)據(jù)可以下載一些公開的,再根據(jù)實際文本處理需要,添加字詞語料進去,使濾除效果更好。

Github下載停用詞數(shù)據(jù):https://github.com/zhousishuo/stopwords

SnowNLP是一個 Python 寫的類庫,可以方便的處理中文文本內(nèi)容,是受到了 TextBlob 的啟發(fā)而寫的,由于現(xiàn)在大部分的自然語言處理庫基本都是針對英文的,于是寫了一個方便處理中文的類庫,并且和 TextBlob 不同的是,這里沒有用NLTK,所有的算法都是自己實現(xiàn)的,并且自帶了一些訓練好的字典。注意本程序都是處理的 unicode 編碼,所以使用時請自行 decode 成 unicode 編碼。

使用 SnowNLP 處理中文文本數(shù)據(jù)非常方便,以詞性標注和關鍵詞提取為例:

 
 
 
 
  1. from snownlp import SnowNLP 
  2.  
  3. word = u'今天天氣好 這個姑娘真好看' 
  4. s = SnowNLP(word) 
  5. print(s.words)        # 分詞 
  6. print(list(s.tags))   # 詞性標注 

 
 
 
 
  1. from snownlp import SnowNLP 
  2.  
  3. text = u''' 
  4. 自然語言處理是計算機科學領域與人工智能領域中的一個重要方向。 
  5. 它研究能實現(xiàn)人與計算機之間用自然語言進行有效通信的各種理論和方法。 
  6. 自然語言處理是一門融語言學、計算機科學、數(shù)學于一體的科學。 
  7. 因此,這一領域的研究將涉及自然語言,即人們?nèi)粘J褂玫恼Z言, 
  8. 所以它與語言學的研究有著密切的聯(lián)系,但又有重要的區(qū)別。 
  9. 自然語言處理并不是一般地研究自然語言, 
  10. 而在于研制能有效地實現(xiàn)自然語言通信的計算機系統(tǒng), 
  11. 特別是其中的軟件系統(tǒng)。因而它是計算機科學的一部分。 
  12. ''' 
  13.  
  14. s = SnowNLP(text) 
  15. print(s.keywords(limit=6))        # 關鍵詞提取 

本文轉(zhuǎn)載自微信公眾號「修煉Python」,可以通過以下二維碼關注。轉(zhuǎn)載本文請聯(lián)系修煉Python公眾號。


新聞標題:Python 文本數(shù)據(jù)預處理實踐
URL分享:http://www.5511xx.com/article/cdospoo.html