注册 登录  
 加关注
查看详情
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

notes

@-@

 
 
 

日志

 
 
 
 

【转载】R语言tm工具包进行文本挖掘  

2013-04-25 20:57:20|  分类: R |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |
转自:http://www.dataguru.cn/article-2641-1.html

摘要: tm包是R语言中为文本挖掘提供综合性处理的package,进行操作前载入tm包,vignette命令可以让你得到相关的文档说明。本文从数据导入、语料库处理、预处理、元数据管理、创建term-document矩阵这几个方面讲述tm包括的使 ...
tm包是R语言中为文本挖掘提供综合性处理的package,进行操作前载入tm包,vignette命令可以让你得到相关的文档说明。本文从数据导入、语料库处理、预处理、元数据管理、创建term-document矩阵这几个方面讲述tm包括的使用。

    >library(tm)        //使用默认安装的R平台是不带tm  package的,必须要到http://www.r-project.org/网站下载package. 值得注意的是:tm package很多函数也要依赖于其它的一些package,所以在这个网站,应该把rJava,Snowball,zoo,XML,slam,Rz,Rweka,matlab这些win32 package一并下载,并解压到默认的library中去。

    >vignette("tm")   //会打开一个tm.pdf的英文文件,讲述tm   package的使用及相关函数
1、Data-import:
    >  txt <- system.file("texts", "txt", package = "tm")          //是为将目录C:\Program Files\R\R-2.15.1\library\tm\texts\txt 记入txt变量
    > (ovid <- Corpus(DirSource(txt),readerControl = list(language = "lat")))  //即将txt目录下的5个文件Corpus到Ovid去,language = "lat"表示the directory txt containing Latin (lat) texts
      此外,VectorSource is quite useful, as it can create a corpus from character vectors, e.g.:

    > docs <- c("This is a text.", "This another one.")
    > Corpus(VectorSource(docs))      //A corpus with 2 text documents
    在本部分中,我们Finally create a corpus for some Reuters documents as example for later use

    > reut21578 <- system.file("texts", "crude", package = "tm")
    > reuters <- Corpus(DirSource(reut21578),readerControl = list(reader = readReut21578XML))  // 在这一部分中,将目录C:\Program Files\R\R-2.15.1\library\tm\texts\crude下的20个XML文件Corpus成reuters,要用到XML package(前面已经下载了).
    > inspect(ovid[1:2])      //会出现以下的显示,当然identical(ovid[[2]], ovid[["ovid_2.txt"]])==true,所以inspet(ovid["ovid_1.txt","ovid[ovid_2.txt]"])效果一样:
            [attach]42940[/attach]
2、Transmation:
   > reuters <- tm_map(reuters, as.PlainTextDocument)    //This can be done by converting the documents to plain text documents.即去除标签
   > reuters <- tm_map(reuters, stripWhitespace)              //去除空格
   > reuters <- tm_map(reuters, tolower)                              //将内容转换成小写
   > reuters <- tm_map(reuters, removeWords, stopwords("english"))      // remove stopwords
    注:在这里需要注意的是,如果使用中文分词法,由于词之间无有像英文一样的空隔,好在有Java已经解决了这样的问题,我们只需要在R-console里加载rJava与rmmseg4j两个工具包即可。如
    >mmseg4j("中国人民从此站起来了")
      [1] 中国  人民  从此  站  起来


3、Filters:
   > query <- "id == '237' & heading == 'INDONESIA SEEN AT CROSSROADS OVER ECONOMIC CHANGE'"     //query其实是一个字符串,设定了一些文件的条件,如
                                                                                                                                                                                                    //id==237, 标题为:indonesia seen at c.........

   > tm_filter(reuters, FUN = sFilter, query)       //  A corpus with 1 text document,这个从数据中就可以看得出来。
4、Meta data management
    > DublinCore(crude[[1]], "Creator") <- "Ano Nymous"      //本来第一个XML文件中是不带作者的,此语句可以改变一些属性的值,类比其它。

    > meta(crude[[1]])                                                                   //显示第一个文件的元素信息数据得到下图

[attach]42941[/attach]
     > meta(crude, tag = "test", type = "corpus") <- "test meta"
     > meta(crude, type = "corpus")
                      改变元素后显示如下
            [attach]42942[/attach]
5、Creating Term-Document Matrices
      > dtm <- DocumentTermMatrix(reuters)
      > inspect(dtm[1:5, 100:105])
          //显示如下:
                       A document-term matrix (5 documents, 6 terms)
                       Non-/sparse entries: 1/29
                       Sparsity : 97%
                       Maximal term length: 10
                       Weighting : term frequency (tf)
                       Terms
                       Docs abdul-aziz ability able abroad, abu accept
                       127 0 0 0 0 0 0
                       144 0 2 0 0 0 0
                       191 0 0 0 0 0 0
                       194 0 0 0 0 0 0
                        211 0 0 0 0 0 0

6、对Term-document矩阵的进一步操作举例
      > findFreqTerms(dtm, 5)    //nd those terms that occur at least 5 times in these 20 files    显示如下:
               [1] "15.8" "accord" "agency" "ali"
               [5] "analysts" "arab" "arabia" "barrel."
               [9] "barrels" "bpd" "commitment" "crude"
               [13] "daily" "dlrs" "economic" "emergency"
               [17] "energy" "exchange" "exports" "feb"
               [21] "futures" "government" "gulf" "help"
               [25] "hold" "international" "january" "kuwait"
               [29] "march" "market"
      > findAssocs(dtm, "opec", 0.8)            // Find associations (i.e., terms which correlate) with at least 0:8 correlation for the term opec
             opec          prices.             15.8
              1.00          0.81                  0.80
     如果需要考察多个文档中特有词汇的出现频率,可以手工生成字典,并将它作为生成矩阵的参数

     > d <- Dictionary(c("prices", "crude", "oil")))
     > inspect(DocumentTermMatrix(reuters, list(dictionary = d)))

      因为生成的term-document矩阵dtm是一个稀疏矩阵,再进行降维处理,之后转为标准数据框格式

      > dtm2 <- removeSparseTerms(dtm, sparse=0.95)          //parse值越少,最后保留的term数量就越少
      > data <- as.data.frame(inspect(dtm2))                               //最后将term-document矩阵生成数据框就可以进行聚类等操作了见下部分

7、 再之后就可以利用R语言中任何工具加以研究了,下面用层次聚类试试看
       > data.scale <- scale(data)
       > d <- dist(data.scale, method = "euclidean")
       > fit <- hclust(d, method="ward")

       >plot(fit)    //图形见下

4.jpg 


  评论这张
 
阅读(2032)| 评论(1)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2018