トップ
新規
一覧
単語検索
最終更新
ヘルプ
ログイン
アールメカブ
R_tokenizer
をテンプレートにして作成
開始行:
[[Rの備忘録]]
* R でテキストをトークンに区切ってベクトルオブジェクトに...
pt1 <- proc.time()
text.raw <- readLines("dickens.txt")
text.vec <- unlist(strsplit(text.raw,
split = "[[:blank:]]|[[:punct:]]",
extended = TRUE, perl = TRUE))
text.vec <- text.vec[text.vec != ""]
pt2 <- proc.time()
pt2 - pt1
length(text.vec)
終了行:
[[Rの備忘録]]
* R でテキストをトークンに区切ってベクトルオブジェクトに...
pt1 <- proc.time()
text.raw <- readLines("dickens.txt")
text.vec <- unlist(strsplit(text.raw,
split = "[[:blank:]]|[[:punct:]]",
extended = TRUE, perl = TRUE))
text.vec <- text.vec[text.vec != ""]
pt2 <- proc.time()
pt2 - pt1
length(text.vec)
ページ名: