Python - 数据科学 词标记化

  • 简述

    单词标记化是将大量文本样本拆分为单词的过程。这是自然语言处理任务中的一项要求,其中需要捕获每个单词并对其进行进一步分析,例如针对特定情绪对它们进行分类和计数等。自然语言工具包 (NLTK) 是用于实现此目的的库。在继续使用 python 程序进行词标记化之前安装 NLTK。
    
    conda install -c anaconda nltk
    
    接下来我们使用word_tokenize将段落拆分为单个单词的方法。
    
    import nltk
    word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
    nltk_tokens = nltk.word_tokenize(word_data)
    print (nltk_tokens)
    
    当我们执行上面的代码时,它会产生以下结果。
    
    ['It', 'originated', 'from', 'the', 'idea', 'that', 'there', 'are', 'readers', 
    'who', 'prefer', 'learning', 'new', 'skills', 'from', 'the',
    'comforts', 'of', 'their', 'drawing', 'rooms']
    
  • 标记句子

    我们还可以对段落中的句子进行标记,就像我们对单词进行标记一样。我们使用方法sent_tokenize为达到这个。下面是一个例子。
    
    import nltk
    sentence_data = "Sun rises in the east. Sun sets in the west."
    nltk_tokens = nltk.sent_tokenize(sentence_data)
    print (nltk_tokens)
    
    当我们执行上面的代码时,它会产生以下结果。
    
    ['Sun rises in the east.', 'Sun sets in the west.']