個人メモを整理中です.不適切な記述が多々あるかと思います.お気づきの際は,ishida-m.at.ias.tokushima-u.ac.jp. までご連絡ください.
例えば以下のようなデータで (Maindonald 旧版 p.200)
> z 0.8 1 1.2 1.4 1.6 2.5 0 6 4 2 2 0 0 1 1 1 4 4 4 2 > z[[1]] // 一列目の一行目 [1] 6 > z[[2]] // 一列目の二行目 [1] 1 > z[[3]] // 二列目の一行目 [1] 4 > z[[4]] // 二列目の二行目 [1] 1 > z[[5]] // 三列目の一行目 [1] 2 > z[[6]] // 三列目の二行目 [1] 4 > > z
このとき以下は,行名を
> dimnames(z)[[1]] [1] "0" "1"
次は列名を表示する.
> dimnames(z)[[2]] [1] "0.8" "1" "1.2" "1.4" "1.6" "2.5"
今は二次元のデータだから,三次元を指定するとエラーとなる.
> dimnames(z)[[3]] Error in dimnames(z)[[3]] : subscript out of bounds
例えばカッコーの巣であれば,
> source("/source/statistics/R/book/DAAG/data/cuckoos.R") > cuckoos length breadth species id 1 21.7 16.1 meadow.pipit 21 ... 120 21.0 16.0 wren 238 > boxplot(length ~ species, data=cuckoos) >
ちなみに,外れ値はレンジで指定するが,デフォルトでは range = 1.5 となっている。詳細は『データサイエンス入門』p.14
またrug() で,y軸右(side=4)ないし左(side=2)に,プロットに対応したバーコードを表示できる。
ラグプロットについてはRjp Wiki を参照
なお boxplot と split, rug を併用した例は Maindonald 旧版 p.225
x[1:2] $string [1] "a" $integer [1] 1 2 > x["string"] $string [1] "a" > x[-1] $integer [1] 1 2 $float [1] 3.14
構文は qt(下側確率,自由度) 坪田 p.29
例えば qt(0.05,10) とすると,qt()は分位点関数なので,正規曲線の総面積の累積が5%となる x の座標点
> qt(0.05,10) [1] -1.812461
を与える。上側は
> qt(0.95,10) [1] 1.812461
RODBCパッケージを利用する。
以下は,excelファイルを読み込むだけでなく,更新なども行なう。
library(RODBC) connExcel
このあと
data
などとクエリーを行なえる。使い終われば
odbcClose(connExcel)
Maindonald 旧版 , p.22,35 X11() を実行。サイズを指定するには X11(width=7.5,height=4)
現在アクティヴなグラフィックデバイスを閉じるには
dev.off()
特定のデバイス, 例えば 3 番を閉じるには
dev.off(3)
デバイスの変更, 例えば 2 番に切替えるなら
dev.set(2)
例えば Maindonald 旧版 , p.179 の砂糖の平均を,コントロール群だけ取り出すなら
> sugar weight trt 1 82.0 Control 2 97.8 Control 3 69.9 Control 4 58.3 A ... 12 48.9 C > mean(sugar$weight[sugar$trt == "Control"]) [1] 83.23333
あるいは
> splitplot[1,] Block Insect Mollusc Rabbit Lime Competition 1 A Sprayed Slugs Fenced Unlimed Control ...
のようなデータフレームがあるとして,Block が A の項目は
splitplot[splitplot$Block=="A",]
として得られる。
/mysplus/crawley.s , p.352
次の例は,term.cos で,行名が Berg である行の各列から,0.999 以上の項目があれば取り出す
[berg >= 0.999]
# あるマトリックスの,ある名前の行の (1列目の) 数値を見る
stif.keller.without.svd.Doc3 [rownames(stif.keller.without.svd.Doc3)=="Gouverneur", 1]
Maindonald 旧版 p.182
なお plot で引数に type="n"を指定すると,点は刻印されない。これに続いて points() を実行する。
二つのカテゴリについて,変数 Y と 変数 X の対応をプロットする。Maindonald 旧版 p.134
Maindonald 旧版 p.43 例えば
yield block shade plot 101 north none north.none 108 north none noth.none
のようなデータがあった時,ブロックとシェードをまとめた平均を作成する場合
aggregate(yield, by=list(block,shade), mean) block shade meanOFyield east none 99
他に Maindonals p.225
豊田秀樹「非線形多変量解析」87ページを実行するには
data(iris) library(nnet)
iris.2 # このままだと元のデータフレムの情報として,Species 変数のレベルが三つになっている。
levels(iris.2$Species) #[1] "setosa" "versicolor" "virginica"
そこで三つ目のレベルを欠損値とする。これによりレベルは二つとして扱われる。
levels(iris.2$Species)[3] iris.nnet iris.nnet.pre table(iris.2$Species, iris.nnet.pre) summary(iris.nnet)
text 関数が有効な時と,有効でない時がある。これは,データフレームの作成方法に問題がある。
有効
senkei senkei.tree plot(senkei.tree,type="u") text(senkei.tree) summary(senkei.tree)
無効
base base1 <- base.tree + man + mit + nicht +noch+nun+nur+oder+schon+sich+so+und+zu, data=base1) plot(base.tree,type="u") text(base.tree) summary(base.tree)
ところが,一度
text(base.tree,labels=col.names(base.tree)) Error in text(xy.coords(x, y, recycle = TRUE), labels, adj, pos, offset, : invalid pos value In addition: Warning message: NAs introduced by coercion
を実行 (エラーで無表示となる)後,再度
text(base.tree)
を行なうと,ラベルが付与された。
朝野 p.108より
説明変数の相関行列 R について R の固有値を求める。このとき固有値の積は,R の行列式に一致する。偏回帰係数の分散は,固有値の逆数の和と一致する。
Rjp Wiki を参照しました.
# library(som) library(class) ex gr#ex[1,] testplot(test)
# 六角形配置にしたがって円を配置する (下記の 12*8は xdim, ydimに対応)
symbols(test$grid$pts[,1],test$grid$pts[,2], circles=rep(0.5,8*12),inches=F,add=T)
# knn1を使って ex 中のデータが SOMで割り当てた test$code (8*12ある)のどれに近いのかを調査
bins # exから抜粋した値がどこに割り当てられるのかを示す。
# 全てをプロットすると収集がつかなくなるので
seq(101, 1000, by=25)だけをプロットしてみる text(test$grid$pts[bins[seq(101,1000,by=25)],] + rnorm(36,0,0.2),col="blue", as.character(seq(101,1000,by=25) ))
stifstom4[stifstom4 stifstom4[,stifstom4[,c(4:16)] stifstom4[,c(4:16)][stifstom4[,c(4:16)] #stifstom4[,c(4:16)][stifstom4 stifstom4[stifstom4 > 1]
research/statistics/Intro.R.R
例えば自然科学の統計学 p.38 の最小二乗法の計算
x A B X t(X) %*% X
自然科学の統計学 p.67
3x - 2y = 7 x + 3y = -5
は R で以下のように解く
x1 X #X = matrix(c(3,-2,1,3),ncol=2,byrow=T) でももちろん良い。 Y = c(7,-5);Y solve(X) %*% Y # あるいは solve(X,Y)
松原望『実践としての統計学』 p.16, p.163, p.222
B1 = 100% 蟻は黒い, とする。 B2 = 99 % の蟻は黒い, とする。そしてそれぞれの確率を p(B1) = p(B2) = 0.5
すると
p(D|B1) = 1, 蟻は100%黒いという仮定が成立して,その時に黒い蟻を見つける確率 。 p(D|B2) = 0.99, 蟻は99%黒いという仮定が成立して,その時に黒い蟻を見つける確率。
このとき p(B1|D) , 黒い蟻を見つけた時に,B1 が正しい確率は,
p(B1|D) = p(B1 * D) / p(D) = p(B1) * p(D|B1) / p(B1) * p(D|B1) + p(B2) * p(D|B2) = 0.5 * 1 / ( 0.5 * 1 + 0.5 * 0.99)
と計算される。
remove(objects()) # S-Plus rm(list = ls()) # R
# dev.off() # plot.new() 場合によっては描画前に必要となる par.old par.old plot(x,y) par(par.old)
Dalgaard p. 28, 30, 71 Venables p. 84
これに外周を加えるのが
oma
help.start()
/usr/local/lib/R/library/
Maindonald 旧版 p.37 以下のようなデータがあった場合
> jobs BC Alberta Prairies Ontario Quebec Atlantic Date 1 1752 1366 982 5239 3196 947 95.00000 2 1737 1369 981 5233 3205 946 95.08333 3 1765 1380 984 5212 3191 954 95.16667 ... Jobs
によって,次のようなデータに変更できる。
> Jobs values ind 1 1752 BC 2 1737 BC 3 1765 BC ... 142 944 Atlantic 143 943 Atlantic 144 942 Atlantic
旧版 Chapter3, p.53, p.54, p.55
abline(x,y) は切片が x 傾きが y の直線を引く
splineは lines と組み合わせて,曲線
lines(spline(x,y))
他に
lines(lowess(x,y),) p.35
も使われる。
pretty は,第一引数をもとに,第二引数で指定された数のベクトルを作成する。
Maindonald 旧版 p.59, p.117
set.seed(x) は,R起動には,x をランダムな値に設定して生成される乱数のリストである。 したがって,同じ x の値で実行すれば,同じ乱数のセットが得られるので, 結果として,同じ結果が得られる。Maindonald 旧版 p.64
第一引数で指定したベクトルを,第二引数で指定したカテゴリーで,リストに分ける。 Maindonald p. 134, p.213
Maindonald 旧版 p.134 より
plot(weight.split$hb ~ volume.split$hb, pch=16, xlim=range(volume), ylim = range(weight), ylab="Weight (g)", xlab="Volume (cc)")
text(weight.split$hb ~ volume.split$hb, labels=c(1:7), adj=c(1.5,-1.5))
ここで adj は(x,y)点に対して x がマイナスなら,左に,また y がマイナスなら上にテキストが付記される。
Maindonald 旧版 # p.137
allbacks0.lm summary(allbacks.lm, corr=T)
また個々のサンプルを抜いた場合の影響度を調べるには Maindonald 旧版 p.139
round(coef(allbacks.lm0), 2) round(lm.influence(allbacks.lm0)$coef, 2)
Maindonald 旧版 p.166
Maindonald 旧版 p.90 p.178 p.210
Maindonals p.178
Maindonald 旧版 p.202
Maindonald 旧版 p.226
science.lme summary(science.lme)$tTable
青木先生のサイト http://aoki2.si.gunma-u.ac.jp/lecture/mb-arc/one-two.html
hamada.R を参照 p.141
x y z # z # x y # [1,] 95 5 # [2,] 90 10 # fac # fac.z fac.z gl(2,1,2,fac); fac.z # fac.z # [1] A B # Levels: A B test.glm glm(z ~ fac.z, family=binomial) summary(test.glm) summary(test.glm)$coef[1,3]^2 # χ二乗 summary(test.glm)$coef[2,3]^2 # χ二乗 #exp(abs(summary(test.glm)$coef[2,1])) exp(summary(test.glm)$coef[2,1]) anova(test.glm, test="Chisq") fisher.test(z) # p.143 x y z #> z # x y #[1,] 5 95 #[2,] 2 48 #[3,] 8 42 fac fac.z #> fac.z #[1] A B C #Levels: A B C test.glm summary(test.glm) summary(test.glm)$coef[1,3]^2 # χ二乗 summary(test.glm)$coef[2,3]^2 # χ二乗 summary(test.glm)$coef[3,3]^2 # χ二乗 exp(summary(test.glm)$coef[2,1]) exp(summary(test.glm)$coef[3,1]) anova(test.glm, test="Chisq") # p.144 x y z fac test.glm summary(test.glm) summary(test.glm)$coef[1,3]^2 # χ二乗 summary(test.glm)$coef[2,3]^2 # χ二乗 anova(test.glm, test="Chisq")
Meyer English Corpus Linguistics p.134
Type Form 1-4 Words 5 or more Words PT Simple NP 216 23 PT Gen. NP 0 0 PT Post.Mod. 1 7 APOS Simple NP 52 10 APOS Gen. NP 18 9 APOS Post.Mod. 12 97 Meyer array(c( 216, 0, 1, 23, 0, 7, 52, 18, 12, 10, 9, 97), dim = c(3,2, 2), dimnames = list( Form = c("SimpleNP", "GenNP", "PostMed"), # = c(1)# = c(1) Length = c("lessWords","moreWords"), # = c(2) Type= c("PT", "AP") # = c(3) )) class(Meyer) ftable(Meyer)
c(3, 2, 2) で 3 行 2 列 2 層,入力順に,層(行→列)→層(行→列)と埋める
> Meyer , , Type = PT Length Form lessWords moreWords SimpleNP 216 23 GenNP 0 0 PostMed 1 7 , , Type = AP Length Form lessWords moreWords SimpleNP 52 10 GenNP 18 9 PostMed 12 97
> ftable(Meyer) Type PT AP Form Length SimpleNP lessWords 216 52 moreWords 23 10 GenNP lessWords 0 18 moreWords 0 9 PostMed lessWords 1 12 moreWords 7 97 > #################### Meyer array(c( 216, 23, 0,0, 1,7, 52,10, 18,9, 12,97), dim = c(2,3, 2), dimnames = list( Length = c("Less", "More"), Form = c("SNP", "GNP","PMD"), Style= c("PT", "AP") ))
c(2, 3, 2) で2行3列,入力順に行→列と埋める 2*3 を埋め尽くすと,次に次元に移り,2 * 3 を再度埋めていく
> Meyer , , Style = PT Form Length SNP GNP PMD Less 216 0 1 More 23 0 7 , , Style = AP Form Length SNP GNP PMD Less 52 18 12 More 10 9 97 class(Meyer) # "array" class(Meyer)<- "table" class(Meyer) # "table" アレイをテーブルに変更する > ftable(Meyer) Style PT AP Length Form Less SNP 216 52 GNP 0 18 PMD 1 12 More SNP 23 10 GNP 0 9 PMD 7 97
始めにここを参照.こことここも.[[ここ>#social.mobility2]]も.さらにMeyer.Rを参照。
Meyer.Howa ここで list(c(1,2,3)) は list(1:2:3)としても同じで,三次交互作用までを含んだモデル。 list(c(1,3), 2) ならば,1,3 相互の交互作用を含めるが, 2 については,1,3 とは独立の因子とみなす。 list(1,2,3) とすれば,すべてが独立のモデルである。
なお階層モデルで三次の交互作用までを含むということは,2 次,また単独の効果を含む。柳井/緒方『統計学-基礎と応用』,p.150
飽和モデルの結果をみる
# meyer p.135 表,3次の効果を含む飽和モデル,自由度0で説明力は無い
Meyer.Howa$lrt # 尤度比 1-pchisq(Meyer.Howa$lrt,Meyer.Howa$df) # 有意度 Meyer.Howa$pearson# χ二乗値 1-pchisq(Meyer.Howa$pearson,Meyer.Howa$df) # 有意度 Meyer.Howa$df # 自由度 Meyer.Howa$margin # 選択されたモデル。この場合は飽和モデル #[[1]] #[1] "Form" "Length" "Type"
# meyer p.135 表,3次の効果を除いた場合
# K = 2 Meyer.123<- loglin(Meyer, list(c(1,2),c(2,3),c(1,3)), param=T)
#c (1,2,3) を除いたモデルの適合度は 0.926 ,つまり有意でないので,3次の交互作用を除いたモデルは適合している。 すなわち3次の適合度は省いて構わない。
Meyer.123$lrt #0.1530465 1-pchisq(Meyer.123$lrt,Meyer.123$df) #0.9263314 1-pchisq(Meyer.123$pearson,Meyer.123$df) Meyer.123$pearson Meyer.123$df # 2 Meyer.123$margin #[[1]] #[1] "Form" "Length" #[[2]] #[1] "Length" "Type" #[[3]] #[1] "Form" "Type"
# meyer p.135 頁の表, 3次に加えて,さらに2次を全て省いた場合
# K = 2 Meyer.1.2.3<- loglin(Meyer, list(1,2,3), param=T) Meyer.1.2.3$lrt # 488.0099 1-pchisq(Meyer.1.2.3$lrt,Meyer.1.2.3$df) # 0 1-pchisq(Meyer.1.2.3$pearson,Meyer.1.2.3$df) Meyer.1.2.3$pearson Meyer.1.2.3$df # 7 Meyer.1.2.3$margin #[[1]] #[1] "Form" #[[2]] #[1] "Length" #[[3]] #[1] "Type"
始めにここを参照.ここも.[[ここ>#social.mobility2]]も
loglm 使うためにMASSパッケージを取り込み
library(MASS)
初めに飽和モデルを分析する。
Meyer.loglm<- loglm(~Length*Form*Type, data=Meyer)
次に,AIC が最小になるモデルを選び出す。
# 飽和モデルから,効果を減らしてく Meyer.loglm<- loglm(~Length*Form*Type, data=Meyer) anova(Meyer.loglm) Meyer.loglm2<- update(Meyer.loglm, .~. -Form:Type) anova(Meyer.loglm2) stepAIC(Meyer.loglm, ~.^2, data=Meyer) ####### Start: AIC= 24 ~Length * Form * Type
Df AIC - Length:Form:Type 2 20.153 # Length:Form:Type を省いた方が小さい <none> 24.000 Step: AIC= 20.15 ~Length + Form + Type + Length:Form + Length:Type + Form:Type Df AIC - Length:Type 1 19.978 # Length:Type を省いた方が小さい <none> 20.153 + Length:Form:Type 2 24.000 - Length:Form 2 145.147 - Form:Type 2 153.044 Step: AIC= 19.98 ~Length + Form + Type + Length:Form + Form:Type Df AIC <none> 19.978 # これ以上 AIC は小さくならない + Length:Type 1 20.153 - Length:Form 2 255.045 - Form:Type 2 262.943 Call: loglm(formula = ~Length + Form + Type + Length:Form + Form:Type, data = Meyer, evaluate = FALSE) Statistics: X^2 df P(> X^2) Likelihood Ratio 1.977911 3 0.577004 Pearson NaN 3 NaN > ##### よって最適なモデルは # ~Length + Form + Type + Length:Form + Form:Type #####
別データによる分析
それぞれの効果の推定値には,ダミーコーディングによる場合と,ANOVAコーディングによる場合がある。
rocket<- array(data=c(5,7,8,9,3,21,7,9,6), dim=c(3,3)) dimnames(rocket)<- list(c("A1","A2","A3"),c("B1","B2","B3")) rocket
# モデル選択 model0<- loglin(rocket, list(c(1, 2)), param=TRUE) model1<- loglin(rocket, list(1, 2), param=TRUE) model0 model1 p0<- 1-pchisq(model0$lrt, model0$df) p1<- 1-pchisq(model1$lrt, model1$df) p0 p1 AIC0<- model0$pearson-2*model0$df AIC1<- model1$pearson-2*model1$df AIC0 AIC1
# ここでは飽和モデルを採用し分析してみる
rocket.df<- as.data.frame.table(rocket) colnames(rocket.df)<- c("kozoku","yoko","dosu") > loglin(rocket,margin=list(c(1,2),c(1),c(2)),param=TRUE) 2 iterations: deviation 0 $lrt [1] 0 $pearson [1] 0 $df [1] 0 $margin $margin[[1]] [1] 1 2 $margin[[2]] [1] 1 $margin[[3]] [1] 2 $param $param$"(Intercept)" [1] 1.990005 $param$"1" A1 A2 A3 -0.07248058 -0.24275578 0.31523636 $param$"2" B1 B2 B3 -0.11174159 0.12344831 -0.01170672 $param$"1.2" B1 B2 B3 A1 -0.1963447 0.1562521 0.04009266 A2 0.3104027 -0.7720850 0.46168230 A3 -0.1140580 0.6158330 -0.50177496
# ダミーコーディングによる効果の推定値
glm0<- glm(dosu ~ kozoku * yoko, data = rocket.df, family = poisson) anova(glm0, test = "F") summary(glm0) ######### > summary(glm0) Call: glm(formula = dosu ~ kozoku * yoko, family = poisson, data = rocket.df) Deviance Residuals: [1] 0 0 0 0 0 0 0 0 0 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 1.60944 0.44721 3.599 0.000320 *** kozokuA2 0.33647 0.58554 0.575 0.565538 kozokuA3 0.47000 0.57009 0.824 0.409689 yokoB2 0.58779 0.55777 1.054 0.291970 yokoB3 0.33647 0.58554 0.575 0.565538 kozokuA2:yokoB2 -1.43508 0.88730 -1.617 0.105800 kozokuA3:yokoB2 0.37729 0.69551 0.542 0.587492 kozokuA2:yokoB3 -0.08516 0.77254 -0.110 0.912227 kozokuA3:yokoB3 -0.62415 0.79657 -0.784 0.433303 --- Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1 (Dispersion parameter for poisson family taken to be 1) Null deviance: 2.0874e+01 on 8 degrees of freedom Residual deviance: -4.4409e-16 on 0 degrees of freedom AIC: 52.681 Number of Fisher Scoring iterations: 3 ####### # ANOVA コーディング効果の推定値 loglm(dosu ~ kozoku * yoko, data = rocket.df, family = poisson)$param loglin(rocket,margin=list(c(1,2),c(1),c(2)),param=TRUE) ####### > loglm(dosu ~ kozoku * yoko, data = rocket.df, family = poisson)$param $"(Intercept)" [1] 1.990005 $kozoku A1 A2 A3 -0.07248058 -0.24275578 0.31523636 $yoko B1 B2 B3 -0.11174159 0.12344831 -0.01170672 $kozoku.yoko yoko kozoku B1 B2 B3 A1 -0.1963447 0.1562521 0.04009266 A2 0.3104027 -0.7720850 0.46168230 A3 -0.1140580 0.6158330 -0.50177496 ######## > loglin(rocket,margin=list(c(1,2),c(1),c(2)),param=TRUE) 2 iterations: deviation 0 $lrt [1] 0 $pearson [1] 0 $df [1] 0 $margin $margin[[1]] [1] 1 2 $margin[[2]] [1] 1 $margin[[3]] [1] 2 $param $param$"(Intercept)" [1] 1.990005 $param$"1" A1 A2 A3 -0.07248058 -0.24275578 0.31523636 $param$"2" B1 B2 B3 -0.11174159 0.12344831 -0.01170672 $param$"1.2" B1 B2 B3 A1 -0.1963447 0.1562521 0.04009266 A2 0.3104027 -0.7720850 0.46168230 A3 -0.1140580 0.6158330 -0.50177496
なおこのデータ,またコーディングについては http://www.sci.kagoshima-u.ac.jp/~ebsa/matsuda01/pdf/ch03-01.pdf の表3.2「ロケットの発射試験」 この例題の飽和モデルによる推定値は http://www.sci.kagoshima-u.ac.jp/~ebsa/matsuda01/pdf/ch03-04.pdf の表3.11にダミーコーディング、表3.12にANOVAコーディング
なお SPSS で出力される Partial association は「標準化係数(標準効果)」のこと。
以上はRjp Wikiを参照しました