Paul Johnson 氏の R Tips 集訳 2/2
前半 P_Johnson_tips_1へ移動
2003/08/09 現在
注:これは P. Johnson さんが r-help の記事から役にたちそうな箇所を抜き出したものです。オリジナルは Tips 集参照。様々な話題があり、参考になります。とりあえず各見出しだけでも訳して見当を付けやすくしたいと考えています。例によりお手伝いお願いします。お勧めの記事があればその訳も付けたいですね。整形だけでもお願いします。(なお元そのものが r-help 記事の抄約ですから、著作権問題はクリアされていると考えますが?)
注:あまりに長くて読み込みに時間がかかるので、二つに分割しました。
(12/02/2002 Paul Johnson <pauljohn@ku.edu>)
クロス集計機能 xtabs() は R1.2 で取り入れられた。これについてはヘルプですべてがみられる。また、 table というものもある。
これらの関数ではカウントは得られるが、パーセンテージは得られない。パーセンテージを得るには特別な関数がある。以下にテーブルの作成と "prop.table" を呼び出して、列についてのパーセンテージを得るコードを示す。
> x <- c(1,3,1,3,1,3,1,3,4,4) > y <- c(2,4,1,4,2,4,1,4,2,4) > hmm <- table(x,y) > prop.table(hmm,2) * 100
列の合計が欲しければ、それ用に "margin.table()" 関数があるが、以下のように手動で合計するのとまったく同じことである。
apply(hmm, 2, sum)
これで列の合計が得られる。 古い Rを持っていれば、以下の "do it yourself" クロス集計がある。
# 訳注:数値列の後の空行は必須
count <- scan() 65 130 67 54 76 48 100 111 62 34 141 130 47 116 105 100 191 104
s <- c("Lo", "Med", "Hi") satisfaction <- factor( rep(c(s,s), rep(3,6)), levels = c("Lo","Med","Hi")) contact <- factor( rep(c("Low","High"), rep(9,2)), levels = c("Low","High")) r <- c("Tower", "Flat", "House") residence <- factor(rep(r,6)) tapply(count,list(satisfaction,contact,residence),sum)
(18/07/2001 Paul Johnson <pauljohn@ukans.edu>)
以下のようにグループごとにベクトルにインデックスを付ける。
t.test(x[sex == 1], x[sex == 2])
これで効果覿面のはずである。次に以下を試してみる。
summary(aov(sex~group))
これは上と同じものであるが、分散が等しいことを仮定している。(Mark Myatt より)
検出力は以下のように計算できる。
power.t.test()
help(power.t.test) を参照。
(31/12/2001 Paul Johnson <pauljohn@ukans.edu>)
x が正規分布からのものかどうかの検定には shapiro.test(x) を使う。X はベクトルまたは変数でなくてはならない。
(06/04/2001 ? <?>)
質問: サブグループごとの要約情報が欲しい。
答え: tapply, または tapply の「ラッパー」(簡略化された拡張という意味)である by() 関数でできる。
このように使う。factor A で定義されたグループがあるなら、データフレーム "fred" の変数 x から変数 z までの要約が得られる。
> attach(fred) > by(fred[,x:z], A, summary)
グループの多次元セットに対して factor のリストを作成することができ、多くの異なる関数が "summary" の位置に入れられる。"by"のドキュメンテーションを参照のこと。
Before by, we did it like this, and you may need it for some reason.
3 つの factor の値の組み合わせによるサブグループごとに,変数 "rt" の平均値を求めるためには,
tapply(rt,list(zf, xf, yf), mean, na.rm=T)
代替法としては,
ave(rt, zf, xf, yf, FUN=function(x)mean(x,na.rm=T))
(from Peter Dalgaard)
(12/02/2002 Paul Johnson <pauljohn@ku.edu>)
1. 以下よりも
lm(dataframe$varY~dataframe$varX)
これを実行するように
lm(varY~varX,data=dataframe)
2. タイムラグ変数を使うモデルの場合には,普通のベクトル変数に対する組込関数はないということを覚えておこう。ts パッケージの lag 関数は期待するのとは違うことをしてくれる。そいうわけで,以下を検討しよう。
# x を d だけ後ろにずらす # x の先頭に d 個の NA を付加し,最後の d 個を取り除く mylag <- function(x, d = 1) { n <- length(x) c(rep(NA,d),x)[1:n] } lm(y ~ mylag(x))
(17/02/2002 Paul Johnson <pauljohn@ku.edu>)
Brian Ripley: 慣例により、 summary メソッドは print.summary.foo クラスのオブジェクトを新規に作成して、自動的にプリントされる。
基本的に、結果になにがあるのかを探し、それをつかみ出す。あてはめられたモデルが "fm3DNase1"だとすれば:
> names(summary(fm3DNase1)) [1] "formula" "residuals" "sigma" "df" "cov.unscaled" [6] "correlation" "parameters" > summary(fm3DNase1)$sigma[1] 0.01919449 > summary(fm3DNase1)$parameters Estimate Std. Error t value Pr(>|t|) Asym 2.345179 0.07815378 30.00724 2.164935e-13 xmid 1.483089 0.08135307 18.23027 1.218523e-10 scal 1.041454 0.03227078 32.27237 8.504308e-14
標準誤差については以下のようになる
> summary(fm3DNase1)$parameters[,2] Asym xmid scal 0.07815378 0.08135307 0.03227078
(from Rashid Nassar)
t 値は
summary(fm3DNase1)$coefficients[, "t value"]
そして標準誤差は
summary(fm3DNase1)$coefficients[, "Std. Error"]
また,推定値の共分散行列を得るためには,以下のようにする。
vcov(fm3DNase1)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
grp がファクターとすると,
> lm(y ~ grp:x, data=foo) Call: lm(formula = y ~ grp:x, data = foo) Coefficients: (Intercept) grpa.x grpb.x grpc.x -0.80977 0.01847 0.13124 0.14259
Martyn
(14/08/2000 Paul E Johnson <pauljohn@ukans.edu>)
summary(lm.sml <- lm(y ~ x1)) summary(lm.big <- lm(y ~ x1 + x2 + x3 + x4)) anova(lm.sml, lm.big)
さて、 b2 = b3 = b4 = 0 のテストをしよう。
以下を見てみよう
demo(lm.glm)
where models "l1" and "l0" are compared that way. (from Martin Maechler)
Here's another one along the same lines. Bill Venables (Feb.2,00) said the philosophy is "You fit a larger model that contains the given model as a special case and test one within the other." "Suppose you wonder if a variable x Suppose you have only one predictor with repeated values, say x, and you are testing a simple linear regression model. Then you can do the test using
inner.mod <- lm(y ~ x, dat) outer.mod <- lm(y ~ factor(x), dat) anova(inner.mod, outer.mod)
Test for lack of fit done. If you have several predictors defining the repeated combinations all you need do is paste them together, for example, and make a factor from that. (from Bill Venables)
Suppose your data frame x has some column, say, ID, which identifies the various cases, and you fitted
fit1 <- lm(y ~ rhs, data=df)
ここで以下を実行する
fit2 <- lm(y ~ factor(ID), data=df) anova(fit1, fit2, test="F")
例を挙げると
set.seed(123) df <- data.frame(x = rnorm(10), ID=1:10)[rep(1:10, 1+rpois(10, 3)), ] df$y <- 3*df$x+rnorm(nrow(df)) fit1 <- lm(y ~ x, data=df) fit2 <- lm(y ~ factor(ID), data=df) anova(fit1, fit2, test="F")
CRAN にある lmtest というパッケージは線形モデルに関するたくさんの検定をサポートする(Brian Ripley より)
The models with factor() as the indep variable are the most general because they individually fit each category, whereas using the variable X assumes linearity (from me!)
Here's another example. "I want to know how much variance of pre/post-changes in relationship satisfaction can be explained by changes in iv1 and iv2 (dv ~ iv1 + iv2), by changes in iv3 and iv4 (dv ~ iv3 + iv4) and I want to know wether a model including all of the iv's explains a significant amount of variance over these two models (dv ~ iv1 + iv2 + iv3 + iv4)."
model.0 <- lm(dv ~ 1) model.A <- lm(dv ~ iv1 + iv2) model.B <- lm(dv ~ iv3 + iv4) model.AB <- lm(dv ~ iv1 + iv2 + iv3 + iv4) anova(model.AB, model.A, model.0) anova(model.AB, model.B, model.0)
(from Ragnar Beer)
(31/12/2001 Paul Johnson <pauljohn@ukans.edu>)
> lot <- c(30,20,60,80,40,50,60,30,70,60) > hours <- c(73,50,128,170,87,108,135,69,148,132) > z1 <- lm(hours~lot) > new <- data.frame(lot=80) > predict(z1,new,interval="confidence",level=0.90) fit lwr upr [1,] 170 166.9245 173.0755
注意してもらいたいのは、このコマンドの "confidence" と "prediction" とには違いがあるということである。一方が推定値の信頼区間であり、他方は個々のケースの予測の信頼区間である。私はこう考えている!
(15/08/2000 Paul Johnson <pauljohn@ukans.edu>)
I() 関数を使って、 ^2 と ^3 が式の一部として評価されないように保護しなければならない。以下に例を示す。
formula = Response ~ Var1 + I(Var1^2) + I(Var1^3)
(from Douglas Bates)
昨日これを演習クラスでおこなった。以下の方法もある。
Response ~ poly(Var1, 3)
これは,同じく3次のモデルに直交多項式を使って当てはめる。あてはめられた値(予測値)は同じになるだろう。しかし,直交多項式を使って得られる係数は polynomial によるものとは違うだろう。両方の手法を比較したいと思うだろう。
(13/08/2000 Paul Johnson <pauljohn@ukans.edu>)
a$fstatistic は実際のFテストと自由度を返すがP値は返さない。線形モデルを得て、出力のFの部分を「掴み」、F分布 (pf)を使用する。
foo <- lm(y~x) a <- summary(foo) f.stat <- a$fstatistic p.value <- 1-pf(f.stat["value"],f.stat["numdf"],f.stat["dendf"])
(from Guido Masarotto)
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
まず,以下のようにして始めよう
data(stackloss) fm1 <- lm(stack.loss ~ ., data=stackloss) anova(fm1)
もう少しモデルを追加する
fm2 <- update(fm1, . ~ . - Water.Temp) fm3 <- update(fm2, . ~ . - Air.Flow) anova(fm2, fm1) anova(fm3, fm2)
Note that the SSqs are all the same, but the sequential table compares them to the residual MSq, not to the next-larger model (from Brian D. Ripley)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
Mark M. Span asked this: I have a four-parameter, biexponential model. What I want to evaluate is whether the parameter values differ between (groups of) tasks.
myfunc <-formula(x ~ a*exp(-b*age) + (c*exp(d*age)) )
both x (representing response time) and age are variables in the current scope. At the moment I fit the model for each task seperately. But now I cannot test the parameters for equality.
Answer: Use a model parametrizing a,b,c by groups and one without, and use anova to compare the models. A worked example is in V&R3, page 249. (from Brian Ripley)
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
nls ライブラリを使う
library(nls) ... get data model.fit <- nls(y ~ exp(x)) plot(model.fit)
(12/11/2002 Paul Johnson <pauljohn@ku.edu>)
(from Halvorsen) 以下の簡単な関数がある。
testcar <- function(pow) { ob <-glm(Pound~CG+Age+Vage, data=car,weights=No,subset=No>0,family=quasi(link=power(pow), var=mu^2)) deviance(ob) }
これを実行しようとすると、以下のようになる。
> testcar(1/2) Error in power(pow) : Object "pow" not found
もっと信頼できるバージョン(代替版)は以下のとおり
eval(substitute(glm(Pound~CG+Age+Vage,data=car, weights=No subset=No>0, family=quasi(link=power(pow),var=mu^2)), list(pow=pow)))
(from Thomas Lumley)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
var(X)
さもなければ、あてはめられたモデルの共分散行列がほしければ、上で述べたで summary() 結果を取ることをわすれないように。
また MASS パッケージはジェネリック関数 vcov をもっており、係数の推定値より分散共分散値を引き出せることに注意すると、以下のようにもできる。
> vcov(fm3DNase1) Asym xmid scal Asym 0.006108 0.0062740 0.0022720 xmid 0.006274 0.0066183 0.0023794 scal 0.002272 0.0023794 0.0010414
この関数はジェネリックなので、ほとんどのあてはめられたモデルで動く。
(13/08/2000 Paul Johnson <pauljohn@ukans.edu>)
R では以下が利用できる。
library(ctest) binom.test(15, 20)
これで信頼区間が得られるが、これは母集団が無限であるという仮定の下である。 (from RINNER Heinrich)
有限母集団の修正をした推定を得るには、phyper 関数を使ってちょっとしたことをやる必要がある。
uniroot(function(x)phyper(15,x,100-x,20)-0.025,,0,100)$root uniroot(function(x)phyper(14,x,100-x,20)-0.975,,0,100)$root
(from Peter Dalgaard)
(13/08/2000 Paul Johnson <pauljohn@ukans.edu>)
More generally, the vcov function in the MASS package extracts If you need variance-covariance matrices, try the MASS library's vcov function. Or, to just save the diagnoal "standard errors" of coefficients, do
library(MASS) stdErrVector<-sqrt(diag(vcov(lm.D9)))
Or, the hard way,
> example(lm) > summary(lm.D9) > names(.Last.value) > summary(lm.D9)$coeff > summary(lm.D9)$coeff[, "Std. Error"]
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
> summary(c(123456,1,2,3), digits=7) Min. 1st Qu. Median Mean 3rd Qu. Max. 1.00 1.75 2.50 30865.50 30866.25 123456.00
これでほしいものを得た。たいていはRの summary メソッドが出力する「有効桁数」は3桁または4桁で切り捨てられる。(from Robert Gentleman)
(13/08/2000 Paul Johnson <pauljohn@ukans.edu>)
Question: In a split-plot design if there is a missing subunit summary gives me a table with two rows for the same factor, one in the error within section and one in the section using error between units. With no data missing the table is "normal". How does one interpret the table when data is missing?, or is it that aov cannot cope with missing values in this case?
Answer (from Brian Ripley): aov() does cope, but the conventional analysis is indeed as you describe. Factors do have effects in more than one stratum. For example, consider the oats example in Venables & Ripley (1999). If I omit observation 70, I get
> summary(oats.aov) Error: B Df Sum of Sq Mean Sq F Value Pr(F) Nf 1 841.89 841.890 0.2242563 0.6605042 Residuals 4 15016.57 3754.142 Error: V %in% B Df Sum of Sq Mean Sq F Value Pr(F) Nf 1 1100.458 1100.458 1.747539 0.2187982 V 2 1156.821 578.410 0.918521 0.4335036 Residuals 9 5667.471 629.719 Error: Within Df Sum of Sq Mean Sq F Value Pr(F) Nf 3 19921.29 6640.431 37.23252 0.0000000 Nf:V 6 408.96 68.160 0.38217 0.8864622 Residuals 44 7847.41 178.350
so Nf appears in all three strata, not just the last one. The `recovery of intra-block information is needed'.
If you have an unbalanced layout (e.g. with a missing value) use lme to fit a model. V&R do this example in lme too.
(06/09/2000 Paul Johnson <pauljohn@ukans.edu>)
> aov(cbind(y1,y2,y3)~x)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
Bartlett の検定が(個人的には)好きだ。SPSS は今 Levine の検定を使用しているが、ある人に言わせれば、これは不正確で、頑健でない。R は Fligner-Killeen (メディアン)検定を、 ctest の fligner.test() で提供している。
The test "does an anova on a modified response variable that is the absolute value of the difference between an observation and the median of its group (more robust than Levene's original choice, the mean)". (from Brian Ripley)
Incidentally, if you insist on having Levine's calculation, Brian Ripley showed how: "
>Levene <- function(y, group) { group <- as.factor(group) # precautionary meds <- tapply(y, group, median) resp <- abs(y - meds[group]) anova(lm(resp ~ group))[1, 4:5] } > data(warpbreaks) > attach(warpbreaks) > Levene(breaks, tension) F value Pr(>F) group 2.818 0.06905
I could (and probably would) dress it up with a formula interface, but that would obscure the simplicity of the calculation."
(14/08/2000 Paul E Johnson <pauljohn@ukans.edu>)
x <- runif(100) w <- runif(100) y <- x^2.4*w^3.2+rnorm(100,0,0.01) plot(x,y) plot(w,y) library(nls) fit <- nls(y~x^a*w^b,start=list(a=2,b=3)) l.est <- lm(log(y) ~ log(x)+log(w)-1) fit <- nls(y~x^a*w^b,start=list(a=coef(l.est)[1],b=coef(l.est)[2]))
Error is a fairly common result of starting with parameter values that are far away from the true values, or have very different scales, so that the numeric-derivative part of nls fails. Various solutions are to do an approximate least-squares regression to start things off (also the "self-starting" models in the nls package), or to provide an analytic derivative. (all from Ben Bolker)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
If you use the nls function in R to fit the model in the parameterization that Guido described, you can graphically examine the profile likelihood with
pr <- profile(nlsObject) plot(pr)
For an example, try
library(nls) example(plot.profile.nls)
(from Douglas Bates)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
This is about the polr package, but the general point is that to compare likelihood models, you have to use your head and specify the comparison. Brian Ripley said:
As in the example on the help page
options(contrasts=c("contr.treatment", "contr.poly")) data(housing) house.plr <- polr(Sat ~ Infl + Type + Cont, weights = Freq, data = housing) house.plr0 <- polr(Sat ~ 1, weights = Freq, data = housing)
Note that -2 LOG L is not actually well-defined as it depends on the grouping of the data assumed, and so is not a statistic. I assume that you want differences of that quantity, as in
house.plr0$deviance - house.plr$deviance 169.7283
(02/06/2003 Paul Johnson <pauljohn@ku.edu>)
Hiroto Miyoshi described an experiment with 2 groups and pre/post measurement of a dichotomous dependent variable. Frank Harrell had this excellent response:
"There are several ways to go. GEE is one, random effects models another. One other approach is to install the Hmisc and Design packages (http://hesweb1.med.virginia.edu/biostat/s) and do (assume id is the unique subject identifier):
f <- lrm(y ~ x1 + x2*x3 + ..., x=T, y=T) # working independence model g <- robcov(f, id) # cluster sandwich variance adjustment h <- bootcov(f, id, B=100) # cluster bootstrap adjustment summary(g) # etc.
(06/04/2001 Paul Johnson <pauljohn@ukans.edu>)
ロジスティックモデル (glm(.......,family=binomial....) より、オッズ比と信頼限界を計算する。
http://www.myatt.demon.co.uk で入手できる入門ノートでこれをおこなう簡単な関数を示している。
基本的にはこうなる。
lreg.or <- function(model) { lreg.coeffs <- coef(summary(salex.lreg)) lci <- exp(lreg.coeffs[ ,1] - 1.96 * lreg.coeffs[ ,2]) or <- exp(lreg.coeffs[ ,1]) uci <- exp(lreg.coeffs[ ,1] + 1.96 * lreg.coeffs[ ,2]) lreg.or <- cbind(lci, or, uci) lreg.or }
(from Mark Myatt)
(31/12/2001 Paul Johnson <pauljohn@ukans.edu>)
ts ライブラリをロードする必要がある。やってみよう。
library(ts) example(acf)
時系列のコンポーネントを持つ他の関数がある。以下を試してみよう。
help.search("time")
to see whatever you have installed. Under my packages section of this document, I keep a running tally of packages that have time series stuff in them
Many time series procedures want to operate on a "time series" object, not raw numbers or a data frame. You can create such an object for "somedataframe" by:
myTS <- ts(as.matrix(somedataframe), start=c(1992,1), frequency=12)
Note start and frequence designate time attributes.
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
これには ts package の filter() が使用される。シンプルな指数加重移動平均手続きは以下のようになる。
ewma <- function (x, lambda = 1, init = 0) { y <- filter(lambda*x, filter=1-lambda, method="recursive", init=init) return (y) }
予測関数として ewma を使うのは指数平滑化として知られている。以下を試してみよう。
x <- ts(diffinv(rnorm(100))) y <- ewma(x,lambda=0.2,init=x[1]) plot(x) lines(y,col="red")
(from Adrian Tripletti)
(14/08/2000 Paul E Johnson <pauljohn@ukans.edu>)
もっといいリストがここでは必要だが
1. R の gml は SAS の PROC GLM ではない。R では"G"は「一般化」のことを指す(SAS では GLIM ないしは GENMOD を見てほしい)。 SAS GLM (一般線形モデル)は機能的に R の lm() やその仲間によるものである。
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
x1 <- seq(from=-1,to=2, length=20) x2 <- (rep(1:5,4))/4 x <- cbind(1,x1,x2) y <- c(0,1,1,1,1,1,0,0,1,1,1,0,1,0,1,1,1,1,1,1) glm.fit(x,y,fam=binomial(link=logit))$coeff
(from Vipul Devas) $coeff を使って前出力を見ないようにする。
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
Jim Lindsey の "ordinal" パッケージを参照のこと。http://alpha.luc.ac.be/~plindsey/publications.html
MASS パッケージの比例オッズロジスティック回帰も参照のこと。
(14/08/2001 Paul Johnson <pauljohn@ukans.edu>)
library(modreg)
ユーザーはSの lowess() と R の loess との違いについて混乱すると報告している。 Martin Maechler は「デフォルトのloess() はlowess() ほど、抵抗がないし、頑健でもない。loess(....., family = "sym")の利用を薦める。」とアドバイスした。
(18/06/2001 Paul Johnson <pauljohn@ukans.edu>)
User asked to estimate what we call a "contextual regression," a model of individuals, many of whom are in the same subsets (organizations, groups, etc). This is a natural case for a mixed regression model
Jos? C. Pinheiro and Douglas M. Bates, Mixed Effect Models in S and S-Plus (Springer,2000).
The nlme package for R has a procedure lme that estimates these models.
See also Jim Lindsey's repeated measurements package (available at http://alpha.luc.ac.be/~lucp0753/rcode.html).
(06/03/2003 Paul Johnson <pauljohn@ku.edu>)
Some timeseries tools are distributed with R itself, in the ts library. type
library(ts) ?ts ?arima0
DSE:Paul Gilbert said "My dse package handles multiple endogenousvariables (y's) and multiple input or conditioning variables (which are often calledexogenous variables, but sometimes are not truly exogenous). Integrating models arehandled but you might need to consider what estimation technique to use. I have notimplemented any integration tests (volunteers?). DSE also handles state space models.It does not implement time varying models or non-linear models, although it wouldprovide a valuable framework for anyone who would like to do that." Look on CRAN!Or check at Paul's site, http://www.bank-banque-canada.ca/pgilbert.
For unevenly spaced time series data, take a look atLindsey's growth and repeated libraries: www.luc.ac.be/~jlindsey/rcode.html (from Jim Lindsey)
In the "nlme" package, there is a continuous AR(1) class, corCAR1, whichshould be used in the case when the times are unequally spaced andmeasured on a continuous scale. (from Jose Pinheiro). The usage of both lme and nlme is described inJose C. Pinheiro and Douglas M. Bates, Mixed-Effects Models in S and S-PLUS,Springer,2000.
(02/06/2003 Paul Johnson <pauljohn@ku.edu>)
car および lmtest パッケージは二つとも Durbin-Watson テスト関数をもっている。(John Fox)
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
survival5 を使えば、打ち切り回帰ができる。
library(survival5) survreg(Surv(y,c), dist="normal")
ここで y は従属変数で、 c は観測されていれば1であり、そうでなければ0である。
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
(30/01/2001 Paul Johnson <pauljohn@ukans.edu>)
以下を検討してみよう
http://rpgsql.sourceforge.net/
Brian Ripley は「経験上、MySQL については、RMySQL よりも、RODBC の方が動作がよい。」と言っていた。
RMySQL というパッケージがある。
CRAN の contrib/Devel には他のパッケージがある。
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
VR のバンドルパッケージには、MASS パッケージに線形および二次 DA(lda, qda) 、 nnet にニューラルネット、および class パッケージに k nearest neighbour を含んだ他の手法がいくつかある。CRAN のcontrib セクションでバンドルパッケージを見つけられる。
分類木は、tree および rpart パッケージを使って当てはめをおこなうことができる。
(13/08/2000 Paul Johnson <pauljohn@ukans.edu>)
loglin() が base パッケージに、loglm() が MASS パッケージにある (from Thomas Lumley)
??Tools to estimate parameters of distributions (13/08/2000 Paul Johnson <pauljohn@ukans.edu>)
The gnlr and gnlr3 functions in my gnlm library at www.luc.ac.be/~jlindsey/rcode.html will do this for a wide selection of distributions.... The gnlr function in my gnlm library will fit quite a variety of different overdispersed Poisson- and binomial-based distributions (i.e. phi different from one) using their exact likelihoods. (from Jim Lindsey)
Maximize the likelihood directly. There are worked examples in the Venables & Ripley on-line exercises and answers. Now for the gamma there are some shortcuts, as the MLE of the mean is the sample mean, and gamma.shape.glm in package MASS will fit the shape parameter by MLE (from Brian D. Ripley)
The log-likelihood function for the parameters alpha and beta given the data x is sum(dgamma(x, shape = alpha, scale = beta, log = TRUE)) To determine the maximum likelihood estimates, simply put the negative of the log-likelihood into the optim function.
A worked-out example is given as xmp06.12 in the Devore5 library (available in the contrib section at CRAN). Use
library(Devore5) help(xmp06.12) # shows the description with comments example(xmp06.12) # run the example to see the result
(from Douglas Bates)
(06/04/2001 Paul Johnson <pauljohn@ukans.edu>)
CRAN should have bootstrap and boot, two packages worth looking at. Most people say that "boot" is better, more actively maintained.
(14/08/2000 Paul Johnson <pauljohn@ukans.edu>)
ロバストな回帰がSでは利用できる、その名前は rreg である。
VR のバンドルパッケージにはもっとよいロバストな回帰がある。
>library(MASS) >help(rlm) >library(lqs) >help(lqs)
(from Thomas Lumley
You could try function rlm in package MASS (in the VR bundle). That has an MM option, and was originally written to work around problems with the (then) version of lmRobMM in S-PLUS. It uses lqs in package lqs, and that is substantailly faster than the ROBETH-based code (as I started with that route). (from Brian D. Ripley)
(07/12/2000 Paul Johnson <pauljohn@ukans.edu>)
hmctest() in package lmtest performs the Harrison-McCabe-Test against heteroskedasticity. (from Torsten Hothom)
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
The contrib package tseries (by Adrian Trapletti) contains Garch tools and also:
NelPlo Nelson-Plosser Macroeconomic Time Series garch Fit GARCH Models to Time Series get.hist.quote Download Historical Finance Data jarque.bera.test Jarque-Bera Test na.remove NA Handling Routines for Time Series
It can also do White's test, not the general heteroskedasticity test, but a more specific White statistic which tests for neglected nonlinearity in the conditional mean, essentially for a regression equation or linear time series model.
Adrian Trapletti, author of tseries package, also added "One very simple way to test conditional heteroskedasticity (time series setup) is to use the Box.test (package ts) on the squared values of a time series as
Box.test(x^2, lag = 1, type="Ljung")
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
R-base は"lowess"をもっている
"modreg" パッケージは "loess" を持っている。後者は線形モデルに似たツールで、線形モデルを取り扱う他の R ベースのツールと一緒に利用できる。たとえば、以下の残差式のように
> l <- loess(y1~x1) > plot(l) > r <- residuals(l)
r は残差を持つ変数である。
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
http://cm.bell-labs.com/cm/ms/departments/sia/project/locfit/index.html
(15/08/2000 Paul Johnson <pauljohn@ukans.edu>)
rmutil ライブラリの int 関数で処理できる。www.luc.ac.be/~jlindsey/rcode.html (from Jim Lindsey)
(15/08/2000 Paul Johnson <pauljohn@ukans.edu>)
boxcox() in MASS
(15/08/2000 Paul Johnson <pauljohn@ukans.edu>)
polynom の最新版がほしければ、http://www.stats.ox.ac.uk/pub/MASS3/Sprog/ およびミラーサイトにある V&R の `S Programming' のスクリプトにある。この本(およびスクリプト)で論じられているバージョンは、CRAN (またはベースとなっている S のバージョン)のものよりは、かなり古いものである。(from Brian D. Ripley
注意されたいのは、"Sprog.tar.gz" をダウンロードし、unzip で解凍し、章ごとのディレクトリができ、後はこれらのディレクトリに、いつものようにインストールできる R パッケージができているということである。
(06/09/2000 Paul Johnson <pauljohn@ukans.edu>)
GIS パッケージGRASSをためしてみよう。
http://www.baylor.edu/~grass/statsgrasslist.html
ここより、Computers & Geosciences (2000), 26, pp. 1043-1052 で記述されているパッケージにアクセスできるかもしれない。メーリングリストもあり、そこにより発展したものが、 GRASS 5.0 開発の調整に当たっている Markus Neteler と関わりのある仕事が書かれている。現在のパッケージは GRASS_0.1-4 であり、これは以下にある。
http://reclus.nhh.no/gc00/GRASS/GRASS_0.1-4.tar.gz
これが役に立ちそうなら、連絡してください。パッケージは開発中で、ユーザのフィードバックが必要( Roger Bivand Roger.Bivand@nhh.no より)。
以下の Computers & Geosciences の最近の論文を参照のこと。
TI: Using the R statistical data analysis language on GRASS 5.0 GIS data base files AU: R.S. Bivand SO: Computers & Geosciences v.26, no.9/10, pp. 1043-1052. PY: 2000
Paulo Justantiano は以下事柄も指摘している。
Rainer Hurling は追加した。以下を見て欲しい
http://reclus.nhh.no/gc00/gc009.htm
GIS ソフト 'GRASS' (http://www.geog.uni-hannover.de/grass/index2.html) は データベースシステム 'PostgreSQL' (http://www.postgresql.org) と'R' (http://www.R-project.org) と一緒にちゃんと動作する。GRASS と PostgreSQL との結合については、http://www.geog.uni-hannover.de/grass/projects/postgresqlgrass を、GRASS と R については、ftp://reclus.nhh.no/pub/R を参照。
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
Brian Ripley said:
Depends on what you mean (multinomial?). There is what I understand by multinomial logistic in function multinom in package nnet in the VR bundle, and nnet there can do several other variants on this theme.
Most such models are not hard to program and fit by a general-purpose optimizer like optim().
One alternative I've not tried:
David Clayton said:
You can also fit these models using the gee() package. The method is not ML, but there are certain other advantages to this method.
See
http://www.mrc-bsu.cam.ac.uk/pub/publications/submitted/david_clayton/ordcat2.ps
for details.
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
CRAN で入手可能な "nlme" を参照のこと。
(08/12/2000 Paul Johnson <pauljohn@ukans.edu>)
If you want parametric models, the gnlr and gnlr3 functions in my gnlm library will do all this: www.luc.ac.e/~jlindsey/rcode.html
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
"mva" パッケージの cmdscale および "MASS"の sammon とisoMDS を参照のこと。multiv にもっと同じもの、若しくは少なくとも同じものが多めにある。(Brian D. Ripley より)
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
心理学実験およびアンケートのための R 利用についてのJonathan Baron とYuelin Li によるメモ
http://www.psych.upenn.edu/~baron/rpsych.htm and http://www.psych.upenn.edu/~baron/rpsych.pdf and http://www.psych.upenn.edu/~baron/rpsych.tex ※日本語訳版追記:移転先 http://www.psych.upenn.edu/~baron/rpsych/rpsych.html
このメモは心理学を研究している学生やその他の人向けである。「心理学用」としているのは、このメモは、心理学者の使う(特に人間研究をする)主要な統計手法のカバーを試みているためである。
Baron 教授も素晴らしい「参考カード」を作った。
http://www.psych.upenn.edu/~baron/refcard.pdf
(11/08/2000 ? <?>)
http://www.stat.Berkeley.EDU/users/terry/zarray/Html/Rintro.html
(14/02/2001 Paul Johnson <pauljohn@ukans.edu>)
"S Poetry" is available online at http://www.seanet.com/%7Epburns/Spoetry/
http://www.insightful.com/resources/doc/default.html Splus guides - quite useful, I think, for general approaches especially (free downloads)
http://www.insightful.com/resources/biblio.html list of Splus books - too many!
http://hesweb1.med.virginia.edu/biostat/s/doc/splus.pdf guide to Splus for SAS users (or anyone, really)
and the other documents in CRAN contributed documents
Also, I'd check here, the R site for contributed docs, periodically: http://cran.r-project.org/other-docs.html
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
http://www.statslab.cam.ac.uk/~pat
(15/08/2000 Paul Johnson <pauljohn@ukans.edu>)
These are useful!
http://euclid.math.mcgill.ca/keith/
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
Mark Myatt は、役に立ついくつかのメモと例を提供している: http://www.myatt.demon.co.uk/ 彼はこれらすべてを一つにまとめた大きなファイル、 "Rex.zip" を提供している。
(15/08/2000 Paul Johnson <pauljohn@ukans.edu>)
Hans Ehrbar のオンラインコース http://www.econ.utah.edu/ehrbar/ecmet.pdf
Jim Lindsey の用 R コード Introductory Statistics: A Modelling Approach. Oxford University Press (1995) および Models for Repeated Measurements. Oxford University Press (1999, Second Edition) http://alpha.luc.ac.be/~jlindsey/books.html 教師用マニュアル www.luc.ac.be/~jlindsey/publications.html も参照のこと。
(06/09/2000 Paul Johnson <pauljohn@ukans.edu>)
OK, you probably find this in CRAN, but I kept forgetting:
http://www.ens.gu.edu.au/robertk/R/help/00b/subject.html
(31/12/2001 Paul Johnson <pauljohn@ukans.edu>)
The easiest thing is to use some editor, Emacs or Winedit, write your R code, and then run it into R, and if it fails, change it in the editor, run it it again. Emacs with ESS installed will make this work fine. I've heard of plugins for other editors, did not try them, though.
If you don't like that, you can type commands directly into the R window and they have some handy things.
Up and down arrows cycle through the history of commands.
If you type in a function and want to revise it:
fix(f) or g <- edit(f) should bring up an editor.
I personally don't see any point in this, though, since you should just use an editor.
(31/12/2001 Paul Johnson <pauljohn@ukans.edu>)
When you quit R, since version 1 or so, it asks if you want to save the workspace. If you say yes, it creates a file .RData. The next time you start R in this working directory, it opens all those objects in .RData again. Type "objects()" to see.
If you want that, OK. If you don't, say NO at quit time, or erase the .RData file before starting R.
(31/12/2001 Paul Johnson <pauljohn@ukans.edu>)
以下をやってみて
> a <- c(1,2,3) > save(a, file="test.RData") > rm(a) > load("test.RData") > a [1] 1 2 3
(from Peter Dalgaard, 12/29/2001)
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
objects() #lists all objects attributes(anObject) str(anObject) #-- diagnostic info on anObject page(anObject) #-- pages through anObject rm(anObject) #-- removes an object rm(list=ls()) #-- removes all objects
(31/12/2001 ? <?>)
lm (lm1, lm2, lm3 等で)始まるオブジェクトを除去したい場合
rm(list=objects(pattern="^lm.*")) (from Kjetil Kjernsmo)
g01, g02等のような名前を持つオブジェクトを除去にこれを使わないように。たとえば rm(list=ls(pat="g*")) のように。こうするとすべてのオブジェクトが除去されてしまう!
To remove objects whose names have "g" anywhere in the string, use rm(list=ls(pat="g")), or names starting with "g" one can use rm(list=ls(pat="^g")).
The "^" and "$" can be used to delimit the beginning and ending of a string, respectively. (from Rashid Nassar)
(31/12/2001 ? <?>)
consider sink("filename")
The file .Rhistory contains commands typed on Unix systems.
Emacs users can run R in a shell and save everything in that shell to a file.
Ripley added: But if you are on Windows you can save the whole console record to a file, or cut-and-paste sections. (And that's what I do on Unix, too.)
(31/12/2001 ? <?>)
In your HOME directory, the file ~/.Rprofile. For example, if you think the stars on significance tests are stupid, follow Brian Ripley's example:
options(show.signif.stars=FALSE) ps.options(horizontal=FALSE)
There is a system-wide Rprofile you could edit as well in the distribution
(22/11/2000 Paul Johnson <pauljohn@ukans.edu>)
オペレーティングシステムへのコマンド: system("引用符の間にコマンドを入れる").
For the particular case of changing directories use getwd/setwd [I think system() spawns its own shell, so changing directories with system() isn't persistent] . For example:
> getwd() ## start in my home directory [1] "/home/ben" > system("cd ..") ## this executes OK but ... > getwd() [1] "/home/ben" ## I'm still in the same working directory > setwd("..") ## this is the way to change working directory NULL > getwd() ## now I've moved up one [1] "/home"
(from Ben Boker)
(30/01/2001 Paul Johnson <pauljohn@ukans.edu>)
> date() [1] "Tue Jan 30 10:22:39 2001" > Sys.time() [1] "2001-01-30 10:21:29" > unclass(Sys.time()) [1] 980871696
This is the number of seconds since the epoch (Jan 1, 1970). I use it as a "time stamp" on files sometimes.
(11/08/2000 Paul Johnson <pauljohn@ukans.edu>)
file.exists() 関数がこれをする。
(14/08/2001 Paul Johnson <pauljohn@ukans.edu>)
?list.files() を実行する。
list.files() gives back a vector of character strings, one for each file matching the pattern. Want file names ending in .dat? Try:
myDat <- list.files(pattern="??.dat$")
Then iterate over this myDat object, using the elements myDati if you do something to each file.
Please note patterns in R are supposed to be regular expressions, not ordinary shell wildcards. Regular expressions are fairly standard in unix, but each version has its wrinkles. To see about the grep command, or about apropos, where regexp is used, do:
?grep
#or
?apropos
Martin Maechler spelled out a few of the basics for me:
"." means ``any arbitrary character'' "*" means ``the previous [thing] arbitrary many (0,1,...) times'' where [thing] is a single character (or something more general for advanced usage)
(30/01/2001 Paul Johnson <pauljohn@ukans.edu>)
install.packages()
これはパッケージをダウンロードして、インストールする!
以下のようにタイプすれば、ネットワークよりパッケージをインストールする
install.packages("VR",lib="c:/r/library",CRAN="http://lib.stat.cmu.edu/R/CRAN")
R のセッションではなくて、オペレーティング・システムでは、以下のようにしてダウンロードしたパッケージをインストールできる。
R INSTALL packageName
packageName がたとえ zip で圧縮されていても、たとえば packageName.tar.gz が引数として受け付けてくれる。
"root" でない場合、R に CRAN から直接どこにインストールするのかを告げることができる。
install.packages('tree', '~/.Rlibs')
Omitting the 2nd argument causes the routine to issue a warning and try to install in the system package location, which is often what you want, provided you have the required write access.
And, from the operating system shell, there is an equivalent. If you want to install the library in a private collection you can add the -l flag to specify the location of the library. You should then establish an environment variable R_LIBS as a colon-separated list of directories in which to look for libraries.
The call to R INSTALL would look like
R INSTALL /usr/apps/tree -l ~/.Rlibs (from Douglas Bates)
(30/01/2001 Paul Johnson <pauljohn@ukans.edu>)
R-1.2 は、ワークスペースを自動的に変更する新しいメモリーのアプローチを実装している。詳細については、次のようにタイプする
?Memory
または
help(Memory)
R FAQ (http://cran.r-project.org/doc/FAQ/R-FAQ.html) のセクション7.1を参照できる。
マニュアルでメモリーを配置する方法についての情報は削除している。この方法はもはや R チームが薦めていない。
(30/01/2001 Paul Johnson <pauljohn@ukans.edu>)
Suppose you want an R program to be called in a script, and you absolutely must pass an argument to the R program to tell it what data to use or what variable name to use, etc.
Sys.getenv() を使って、シェルでセットした値を検索できる。
C シェルでは
$ setenv R_INFILE foobar
またBASHでは
$ export R_INFILE=foobar
Then in your R script grab that from the environment
> Sys.getenv("R_INFILE") R_INFILE "foobar" > sink(Sys.getenv("R_INFILE"))
(from Thomas Lumley )
on minitab? Use script for that! (13/08/2001 ? <?>)
unix のほとんどシステムは script という名前のプログラムがあり、これでテキストの入出力のスナップショットを保存できる。以下のようにタイプすればよい。
$ script filename >R ----do whatever R you want >quit() $exit
ここで $ はシェルプロンプトである。
(15/08/2000 ? <?>)
Put # at beginning of line, or
"With a good code editor none of these are any problem. There is no reason to write many lines of comments in R code: that's what the .Rd file is for. And if you want to temporarily delete a block, if(0) { ... } will work, as indeed will temporarily deleting in an editor." (from Brian D. Ripley)
Don't forget ESS has the ability to comment-out a highlighted region:
M-x comment-region
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
See "example" at end of output in help?
Try
>?ls >example(ls)
Graphs go by too fast? do
par(ask=TRUE)
and try example(ls) again.
(13/08/2001 Paul Johnson <pauljohn@ukans.edu>)
help(function) # same as ?function help.start() # fires up Netscape browser of html pages help.search() #searches in all available functions from all loaded packages
Don't forget that help.search takes regular expressions (as its help describes)
> help.search(".*trans.*")
Help files with name or title matching `.*trans.*':
boxcox(MASS) "Box-Cox Transformations for Linear Models gilgais(MASS) Line Transect of Soil in Gilgai Territory heart(MASS) The Stanford heart transplant data
Thomas Lumley
There is also an "apropos" function, similar in nature to emacs. If you have a vague idea of what you want, try it. Want to find how to list files? Do:
apropos("files")
Often you don't know the keyword to look for.
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
detach(package:...) を使用する。例を以下に示す。
> search() [1] ".GlobalEnv" "package:ctest" "Autoloads" "package:base" > detach(package:ctest) > search() [1] ".GlobalEnv" "Autoloads" "package:base"
(from Emmanuel Paradis)
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
> all.names(expression(sin(x+y))) [1] "sin" "+" "x" "y" > all.names(functions=FALSE,expression(sin(x+y))) [1] "x" "y" > all.vars(functions=FALSE,expression(sin(x+y))) [1] "x" "y" > all.vars(expression(sin(x+y))) [1] "x" "y"
all.vars() はformula, terms, または expression オブジェクトに対して動作する。
> all.vars((~j(pmin(3,g(h(x^3*y)))))) [1] "x" "y"
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
This function does not remove objects correctly
> testLoadSeveralHDF <- function(numFiles) { for (i in 0:(numFiles-1)) { filename <- paste("trial",i,".hdf",sep="") print(filename) hdf5load(filename) rm(list = ls(pat="^g")) } }
Doug Bates said:
Add envir = .GlobalEnv to both the ls and the rm calls. That is
rm(list = ls(pat = "^g", envir = .GlobalEnv), envir = .GlobalEnv)
(10/04/2001 Paul Johnson <pauljohn@ukans.edu>)
first and second derivative of the expression wrt x
> D(expression(x^2),"x") > D(D(expression(x^2),"x"),"x")
The real R FAQ 7.6 explains "How can I get eval() and D() to work?"
前半 P_Johnson_tips_1へ移動