初心者のための R および RjpWiki に関する質問コーナー

以下の 4 つの「●項目」のどれかをクリック!!


新規投稿欄: --- その前に,「投稿における注意事項」を読んでから!
このページの目次 --- 質問への回答・コメントの参照
最新のスレッド --- 最も最近に書き込まれた「親」記事(最新のコメントが付いた記事ではありません)
Q&A (初級者コース) 過去の目次 --- 今までの 16 個の書庫の参照


●● 目次 ●●

参照は,個々の項目をクリック(質問への回答・コメントの参照も,個々の項目をクリック)


●● 新規投稿 ●●

まずは,「投稿における注意事項」を読んで,それに従ってください。
これに従わない場合には,回答が得られにくい場合があります。 




TIFF画像を用いた衛星画像の土地被覆分類に関して

jun (2018-12-16 (日) 18:49:05)

衛星画像の土地被覆分類をSVMを用いて行いたいと考えているのですが、R初心者のため手順が全くわかりません。
簡単で構いませんので手順を教えていただけると幸いです。

画像の赤、青、緑、近赤外の各バンドの画素値の抽出まではしているのでそこからどのような手順を踏めばいいのかわかっていない状況です。


「他の因子で調整した生存曲線」に関して

pinoj (2018-12-06 (木) 20:53:46)

ハザード比を出す方法に関する質問をさせて頂きたく思います。

例えば、生存期間を決定する因子として、以下の3つの因子が見つかったとします。

性別、年齢、喫煙(すべて01因子とします)

群別する変数に「性別」を、調整に用いる変数に「年齢と喫煙」を設定した場合、
これらの因子で調整した性別に関する生存曲線は、下記のコマンドで作成できました。

coxmodel <- coxph(Surv(Days,Survival==1)~ age + smoking + strata(sex), data=dat, method="breslow")
cox <- survfit(coxmodel)
plot(cox)

上記で、2本のカーブを描くことができました。

しかしながら、この性別の2群間のハザード比(および95%信頼区間)を出す方法がわかりません。

print(coxmodel)

を入力すると、性別ではなく、その他の2因子(年齢と喫煙)に関するハザード比しか得られません。
恐れ入りますが、どうかご教示をお願い申し上げます。


ダミー変数を含む交互作用項を含む重回帰分析について

hisapon (2018-12-01 (土) 16:02:58)

pequodよりlmresを使用して交互作用項を含む3要因の重回帰分析をしておりますが、その交互作用項が連続変数×ダミー変数の場合でも、以下のような式で大丈夫でしょうか。

従属変数:dep 独立変数1(連続変数):ind1 独立変数2(連続変数):ind2 独立変数3(ダミー変数):ind3.dummy
lmres(dep~ind1*ind2*ind3.dummy,centered=c("ind1","ind2","ind3.dummy"),data=dat)  

ダミー変数である独立変数3を中心化させる必要があるのか、また、その後の単純効果分析ではsimpleSlope(・・・,pred="ind1",mod1 = "ind2",mod2="ind3.dummy")で分析を進めれば、-1SDと+1SDで高低群が決定されて効果分析が行われますが、そもそもind3.dummyが0,1の値しかとらないデータとなるとsimpleSlope(・・・,pred="ind1",mod1 = "ind2",mod2="ind3.dummy")で分析しても正確な結果は出てこないのではないかと考えております。

このあたりのことについて教えていただけると有難いです。あるいは、ダミー変数を含む複数要因の重回帰分析でlmres以外の手法でよい方法や手順があればご教示いただきたいです。よろしくお願いいたします。


多重代入後の解析、統合につきまして

noria (2018-11-28 (水) 00:49:28)

皆様お世話になります。
欠損値のあるデータの多重代入後の解析、統合方法についてお教え頂けないでしょうか。
現在、多重代入はAmeliaパッケージ、解析はsurv IDINRIパッケージを用いて2つのモデルのNRIとIDIを求めたいと思っています。下記のスクリプトを入力しましたところ、多重代入(n=5)後の5つの結果を算出できましたが、これをどのようにして統合して良いのか分かりません。お忙しいところ恐縮ですがご教授ください。

スクリプト
dat1 <- read.csv("/Users/###/Desktop/dat1.csv")
library(Amelia)
x = data.frame
m = 5
dat1 <- subset(dat1, select=c("time","status","age","copd","nn","dm","bb","ras"))
dat1.out <- amelia(x = dat1, m = 5)
library(survIDINRI)
for(i in 1:m){

idinri <- dat1.out$imputations[[i]]
D = subset(idinri, select=c("time","status","age","copd","nn","dm","bb","ras"))
D$status = as.numeric(D$status==1)
D=D[!is.na(apply(D, 1, mean)),]; dim(D)
mydata = D
t0 = 365
indata1 = mydata;
indata0 = mydata[,c(-3)]; n=nrow(D);
covs1 <- as.matrix(indata1[,c(-1,-2)])
covs0 <- as.matrix(indata0[,c(-1,-2)])
x <- IDI.INF(mydata[,1:2],covs0,covs1,t0,npert=200)         


IDI.INF.OUT(x);
}


結果
  Est. Lower Upper p-value
M1 0.034 0.000 0.109 0.030
M2 0.203 -0.027 0.402 0.060
M3 0.001 -0.008 0.154 0.607
  Est. Lower Upper p-value
M1 0.039 0.002 0.127 0.020
M2 0.203 0.019 0.377 0.030
M3 0.002 -0.010 0.162 0.517

      Est.  Lower Upper p-value

M1 0.041 0.002 0.138 0.020
M2 0.203 -0.018 0.367 0.060
M3 0.001 -0.008 0.139 0.488

      Est.  Lower Upper p-value

M1 0.033 -0.001 0.135 0.090
M2 0.130 -0.203 0.392 0.109
M3 0.002 -0.010 0.210 0.547
  Est. Lower Upper p-value
M1 0.031 0.000 0.119 0.070
M2 0.203 0.000 0.368 0.050
M3 0.001 -0.007 0.187 0.498


重回帰分析時のエラーについて

-0.889 (2018-11-27 (火) 15:44:27)

初心者です。
Ri386 3.4.3をwindows7professionalで使用しています。
1列目を目的変数として2~8列目を説明変数とした重回帰分析を行おうと以下の入力を行ったところ、

result1 <-lm(data[,1]~data[,2]+data[,3]+data[,4]+data[,5]+data[,6]+data[,7]+data[,8])
Error in data[, 1] : object of type 'closure' is not subsettableというエラーメッセージが表示されてしまいます。
解決法などご教示頂けると助かります。


コピー&ペースト方式の読み込み量の制限について

-0.889 (2018-11-16 (金) 15:50:38)

初心者です。
Ri386 3.4.3をwindows7professionalで使用しています。
重回帰分析を行いたいため、エクセルのファイルデータをコピー&ペーストするとエラーがでます。
Error in scan(file = file, what = what, sep = sep, quote = quote, dec = dec, :

 line 59 did not have 5 elements

4列までは、ペーストできるのですが、5列以上はエラーとなります。
コピー&ペースト方式には、ペーストできる量に制限があるのでしょうか。また、解決法などご教示いただけけると助かります。
よろしくお願い致します。




httrパッケージにおけるPOST関数のURLエンコード

(2018-11-11 (日) 12:32:06)

以下の投稿は,「投稿における注意事項」に反する方法で掲載され,投稿フォームを破壊した上,ページの構成を乱しました。
投稿における注意事項」および「投稿文書の書式」をよく読むよう,注意喚起しておきます。

httrパッケージにおけるPOST関数のURLエンコードについて。あるURLからデータを取得するため、httrパッケージのPOST関数を使用しています。その中で引数bodyに日本語をしているのですがPOST関数はUTF-8でURLエンコードを行っているようです。データ取得先のサーバーに合わせてSHIFT-JISでURLエンコードを行いたいのですが方法はありますでしょうか。


判別分析における定数項のずれについて

東京都下 (2018-10-15 (月) 17:00:39)

皆様始めまして

過去の業務の統計部分を引き継ぐことになり、いちから勉強しています。
2群の直線判別分析を行っているのですがRがpredict計算で出す判別結果と関連係数を組み合わせ手計算で出す結果の値が異なっていました。
結果を再度見てみると定数項が違うことに気づきました。

lda関数を利用した判別関数の定数項導出でもし留意点などございましたらご教示ください

変数は2つしかなくてたとえばa,bとして

result <- lda(y~a+b)
predict_result <- predict(result)
result$means
result$scaling

LD1

a ***
b ***

result$means%*%result$scaling
apply(result$means%*%result$scaling,2,mean)
★ここで定数項が出る

とやってみました。
aとb(係数)については問題ないのですが、定数項があいません。

「あわない」というのは同じデータを別のソフトで解析して出した結果と比較してみて分かったものです。predictで出す判別結果とそのソフトで出す結果の数値はぼぼ同じでした。

今扱おうとしているデータ25000件位有り、2つの整数数値列+1カテゴリーのデータです。具体データは出せないのでもうしわけないのですが、いくつかネット上のサンプル(10*2のデータ)で実施したところ問題はありませんでした。


リストの名前と要素を2列の表形式に保存

nkrit (2018-10-11 (木) 20:48:13)

初心者です。
lst <- list(A=c(1), B=c(2,3), C=c(3,4,5))
のようなリストがありまして、これを
A 1
B 2,3
C 3,4,5
のような2列の表形式に保存したいと考えましたが、
lapply(lst, function(x) write(x, "data", append=T))
これでは、A, B, Cなどの名前が入りませんし、どうしたら簡潔でスマートなのか、思いつかず、困っております(実際は、もっと要素の多いリストなので、手作業でやるのは、かなり骨が折れます)。お忙しいところを恐縮ですが、ご助言いただけましたら、幸いに存じます。


欠損値を含むデータフレームの各列から欠損値だけ抜いて、リストに格納して、次の解析に使いたい

nkrit (2018-10-04 (木) 02:49:41)

欠損値を含むデータフレームの各列から欠損値だけ抜いて、それぞれリストに格納して、次の解析に使いたいのですが、ほとんど手作業のようなコードしか書けずに悩んでいます。
NAのある行をそっくり抜くのではなく,A1なら2要素、A2なら1要素A3なら3要素とも残したいのですが。
どうすればRらしく、すっきりと書けるのでしょうか。何卒よろしくお願いいたします。

df <- data.frame(A1=c("a","b",NA),A2=c("c",NA,NA),A3= c("d","e","f"))
g1 <- df[,"A1"]
g1 <- g1[!is.na(g1)]
g2 <- df[,"A2"]
g2 <- g2[!is.na(g2)]
g3 <- df[,"A3"]
g3 <- g3[!is.na(g3)]
lst <- list(g1,g2,g3)
names(lst) <- c("A1","A2","A3")


日本語のマルチバイト化

うどん (2018-10-03 (水) 23:07:32)

初心者です。
R, Rstudioをmacで使っています。どちらも最新のものにアップデート済です。

no,city,facility_category,facility_name,site,lat,lon,sta,fin
No002,01室蘭,Harbor,崎守埠頭,3,42.365545,140.931244,0,24
No003,05登別,Station,JR登別,9,42.452047,141.180894,9,17

上記のようなcsvファイルを読み込むと、下記のように日本語の部分だけマルチバイト化して表示されてしまいます。


No002 01\216\272\227\226 Harbor \215\350\216\347\225u\223\252 3 42.36554 140.9312 0 24
No003 05\223o\225\312 Station JR\223o\225\312 9 42.45205 141.1809 9 17


一通り調べてみたのですが、エラーも出ず、文字化けでもないようなのでエンコードの問題でもなさそうです。
Rstudio上でfilesから該当ファイルをview fileで読み込むと正常に表示されるのですが、import datasetだとやはりマルチバイトのようになってしまいます。

何か解決策はないでしょうか。よろしくお願いします。

RMeCabC("すもももももももものうち")、で落ちる

pkopw2 (2018-09-24 (月) 12:27:12)

library(RMeCab)
res <- RMeCabC("すもももももももものうち")

2行目を入力したとたんに、落ちてしまいます。エラーメッセージもありません。
Rは64/32bitのいずれも試しましたが、同じ現象でした。
どこがにミステイクがあるのでしょうか。どうかよろしくお願いします。

install.packages("RMeCab", repos = "http://rmecab.jp/R") でダウンロードしました。
使用環境:windows10pro(64bit)、R3.4.1 です。


データフレームにおける値の変換

(2018-09-22 (土) 22:17:08)

下記の変換用データフレームと変換前データフレームがあった時、
変換後データフレームを生成するにはどのようなコードを書けばよいでしょうか。

変換用データフレームは値の上限と下限、変換する値の3項目を持ちます。
変換前データフレームの変数vの範囲を判定して、変換用データフレームの値に変換したいです。

なお実際はどのデータフレームも件数が数千件ほどあります。

変換用データフレーム
lower,upper,value
0,1,7
1,2,5
2,3,4
3,4,3

変換前データフレーム
v
1.5
2.5

変換後データフレーム
v,w
1.5,5
2.5,4


merge()の結合様式に関するパラメータを外部から入力する

nkrit (2018-09-04 (火) 10:21:20)

merge()の結合様式に関するパラメータを外部から入力することを考えているのですが、
前回のご指摘を踏まえて、本質的な部分だけの質問を心がけて、コンソールからの外からの入力に対応するスクリプト部分は省略します。
ポイントは、たとえば、whichに "L"が入力されたら、論理型で all.x=T, all.y=Fと返してくれて、"R"が入ったら、all.x=F, all.y=Tとなり、該当するローマ字を入れなければ、自動的にall.x=T, all.y=F (left merge) が選ばれるような仕組みを作りたいと思いました。
そこで、

which <-"L" # may change to others
xyTF <- list(c(T,F),"left") # default here --> all.x=T, all.y=F
  switch(which, 
  "L" = xyTF <- list(c(T,F),"left"), 
  "R" = xyTF <- list(c(F,T),"right"), 
  "O" = xyTF <- list(c(T,T),"outer"), 
  "I" = xyTF <- list(c(F,F),"inner"),
  "l" = xyTF <- list(c(T,F),"left"), 
  "r" = xyTF <- list(c(F,T),"right"), 
  "o" = xyTF <- list(c(T,T),"outer"), 
  "i" = xyTF <- list(c(F,F),"inner"),
  cat("\n When other letters  => 'left merge' is automatically selected.\n\n")
)
cat("Mode: ", which,"=[" , xyTF[[2]], "]\n")
all.x=xyTF[[1]][1]
all.y=xyTF[[1]][2]

# example: Mdata <- merge(Ldata, Rdata, by.x=Lkey, by.y=Rkey, all.x=xyTF[[1]][1], all.y=xyTF[[1]][2])

としてみました。なにぶん独学で、周囲に批判的なコメントをくださる人がいないもので、ふつうは、どうすべきなのかよくわからず、もっと筋の良い(うまい)プログラミングってあるのかと思い、質問させていただきます。なにとぞアドバイスのほど、よろしくお願いいたします。答えは出るのだから、これでも構わないとかでも、ありがたいです。


自分のp値のデータセット(例えば5千個)のそれぞれの値が、並べ替えで得られたp値データセット(例えば1万個)のうちの何番目に位置するか(小さい方から何%に入るか)を計算していきたい時

nkrit (2018-08-29 (水) 00:51:11)

ベタに下記のようなスクリプトを書いてみたのですが、とても時間がかかるので、Rのままで、大幅に時間を節約する方法はないかと思いました。
双方のファイルをソートしてから始めると少しは節約になるのかと思いましたが、それでもわかりやすいスクリプトが書けません。アイデアをいただけましたら幸いです。

args <- commandArgs(TRUE)
working.dir <- dirname(args[1])
q.file <- basename(args[1])
p.file <- args[2]

setwd(working.dir)
Qdata <- read.table(q.file, header = T, sep = "\t")

# Qdata[,5] = query pvalue dataset (ex.5,000)
Pdata <- read.table(p.file, header = T, sep = "\t")

# Pdata[,1] = compared pvalue dataset (ex.10,000)
Qdata$count <- 0
Sys.time()
for (i in 1:nrow(Qdata)){

   for (j in 1:nrow(Pdata)){
       if (Qdata[i,5] >= Pdata[j,1])
           Qdata$count[i] <- Qdata$count[i]+1
           # when pvalue in the query dataset is larger than pvalue in the compared dataset, one count is added
   } 
   # ex. nrow(Pdata) = 10,000

}
Sys.time()
Qdata$p_value <- Qdata$count/nrow(Pdata)
pvalue_q.file <- paste0("pvalue_", q.file)
write.table(Qdata, pvalue_q.file, quote = F, sep = "\t", row.names = F)


追加の質問

初心者です (2018-08-11 (土) 08:05:21)

もう一点、こちらも初歩的な質問となり大変恐縮ですが、①に合致するものを②から選択したいです。選択された結果は③のようになります。

sample month
1 201701
1 201702
1 201703
1 201704
1 201705
1 201708
1 201709
2 201705
2 201706
2 201709
2 201712


sample sex age site month
1 Male 34 a 201701
1 Male 34 b 201701
1 Male 34 a 201702
1 Male 34 b 201702
1 Male 35 a 201703
1 Male 35 a 201704
1 Male 35 a 201705
1 Male 35 a 201706
1 Male 35 b 201708
1 Male 35 a 201709
1 Male 35 b 201709
1 Male 35 b 201711
2 Female 63 c 201701
2 Female 63 c 201705
2 Female 63 d 201705
2 Female 63 c 201706
2 Female 64 c 201707
2 Female 64 c 201709
2 Female 64 d 201709
2 Female 64 c 201710
2 Female 64 d 201712


sample sex age site month
1 Male 34 a 201701
1 Male 34 b 201701
1 Male 34 a 201702
1 Male 34 b 201702
1 Male 35 a 201703
1 Male 35 a 201704
1 Male 35 a 201705
1 Male 35 b 201708
1 Male 35 a 201709
1 Male 35 b 201709
2 Female 63 c 201705
2 Female 63 d 201705
2 Female 63 c 201706
2 Female 64 c 201709
2 Female 64 d 201709
2 Female 64 d 201712

merge(データフレーム①,データフレーム②,by.x=”sample”,by.y=”month”)とやってみましたが,column name ‘sample’ is duplicated in the resultというエラーがでます。
大変お手数をおかけしますが、ご教示いただけると幸いです。どうぞよろしくお願いいたします。


重複を除外する方法

初心者です (2018-08-10 (金) 17:20:37)

R初心者です。初歩的な質問で申し訳ございません。
例えば以下のようにサンプルごとに複数の月がデータとしてある場合、重複せずにMonthのデータをピックアップするにはどのように書けばよいでしょうか?
sample Month
1 201701
1 201701
1 201702
1 201703
1 201703
1 201704
1 201704
1 201705
1 201708
1 201708
1 201709
2 201705
2 201706
2 201706
2 201709
2 201709
2 201712

結果は以下のようになります。
sample Month
1 201701
1 201702
1 201703
1 201704
1 201705
1 201708
1 201709
2 201705
2 201706
2 201709
2 201712

大変お手数をおかけしますが、どうぞよろしくお願いします。


変数設定について

むー (2018-08-09 (木) 22:17:57)

変数設定について質問です。英語での入力は問題ないのですが、日本語にするとエラーが出てしまいます。この場合、どの様に設定をすればよろしいでしょうか。因みにMacOSです。
誰か分かる方がおられましたらよろしくお願いします。


グラフのメタファイルでの貼り付け時に不要な余白をなくしたい

pkopw2 (2018-08-08 (水) 16:30:48)

作図したグラフをメタファイルとしてパワポに貼り付ける方法に関しての質問です。

 右クリック>メタファイルにコピー>パワポにコピペ

とすると、グラフが左上に偏ってしまい、右側・下側に無駄な余白が生じてします。その結果、グラフが小さく貼り付けられてしまいます。
(R(3.5.1)、windows10 pro、powerpoint 2016)

この現象は、例えるなら、

par(mfrow=c(2,2))

のコマンドを入力した時に、左上の領域にグラフが描出されるようなイメージです。

前に使っていたパソコン(ver3.2.1、windows8)では、作図したグラフをそのままのサイズで張り付けることができました(そのままというのは、”ビットマップにコピー”として張り付けた時のイメージです)。

結局、パワポにコピペした後にグループ化を解除したりして一応何とかなるのですが、描出されたグラフをそのままのイメージで、メタファイルとして貼り付けたいのです。


作図領域とデバイス領域がそろっていないのかと思い、下記のコマンドを色々と試してみましたが、

fig = c(0, 1, 0, 1)
par(oma = c(0, 0, 0, 0))
plt = c(0, 1, 0, 1)
par(mfrow=c(1,1))

昨日からずっと解決できていません。
初歩的な質問で恐縮ですが、どうかよろしくお願いします。


複数のデータフレームを加工したい

sk (2018-08-04 (土) 08:03:33)

複数のデータフレームを同じ操作で加工したいのですが、うまくできません。
ベクターでも一緒なので、やりたいことは下記のような形です。

a <- c(1,2)
b <- c(3,4)

a <- append(a, 9)
b <- append(b, 9)

これを

for (i in list(a,b) ){

i <- append(i, 9)
View(i)

}

のように書くと、Viewでは見えるのですが、
それぞれのデータフレーム(ベクター)は変化していません。

lapply(dlist, function (x) {x <- append(x, 9); View(x)})

も考えたのですがこれも違いました。

for (s in c("a","b") ){

eval(parse(text = paste0(s," <- append(", s, ", 9)")))
eval(parse(text = paste0("View(", s, ")")))

}

これはできるのですが、操作が多いので、すべてを文字列で書くのが面倒ですし視認性も悪いです。本当はどうするのがよいのでしょうか。


selectizeInputを用いてdata.frameの絞り込みを行いたい

sh (2018-07-26 (木) 17:33:16)

用語があっているか自信がないのですが・・・
Database(postgreSQL)接続してテーブルを参照し、そのカラムの1つを(重複削除して)リスト形式にすることで、selectizeInputの選択肢にしています。

■読み込んだテーブル
|ID|要素|
|1|赤|
|1|黄|
|1|青|
|2|赤|
|2|青|
|3|青|
|3|緑|
|4|赤|
|4|緑|

■selectizeInputの選択肢:テーブルの<要素>カラムをunique化したもの
[赤,黄,青,緑]

この選択肢に対して、「選択内容をすべて含むID」を表示したい場合はどうすれば良いのでしょうか。
或いは絞り込むために、表をもっと加工したほうが良いのでしょうか。。

※例
選択:[赤,青] ⇒ 表示ID:1,2
選択:[緑] ⇒ 表示ID:3,4


glmmML()のp値の取得

nkrit (2018-07-20 (金) 22:01:39)

一般化混合線形モデルのパッケージglmmMLで、
result <- glmmML(status ~ x3, data = x, family = binomial, cluster = Columns)
のような形で結果を取得して、係数の推定値と係数の標準偏差は、
result$coefficients[2]
result$coef.sd[2]
のように取得できましたが、
z値やそのp値は、どのように取得すれば良いのでしょうか。
result自体は、

              coef se(coef)       z Pr(>|z|)

(Intercept) -0.1233 0.845 -0.1459 0.884
x3 14.4545 79.892 0.1809 0.856
のような形で表示されてくるので、取得の方法があるのではと思いました。
推定値/標準偏差を後で計算して、2*pnorm()によってP値を取得することもできるかと思いましたが、せっかくもともと表示されているのでそのまま取得したいと思いました。やり方をお教え頂けましたら、大変ありがたく思います。
どうぞ宜しくお願い致します。

念のためresultのstructureを添付させていただきます。

str(result)
List of 18

$ boot                 : num 0
$ converged            : logi TRUE
$ coefficients         : Named num [1:2] -0.123 14.455
 ..- attr(*, "names")= chr [1:2] "(Intercept)" "x[[3]]"
$ coef.sd              : num [1:2] 0.845 79.892
$ sigma                : num 0.0194
$ sigma.sd             : num 31.6
$ variance             : num [1:3, 1:3] 7.14e-01 6.54e-02 5.89e-03 6.54e-02 6.38e+03 ...
$ aic                  : num 28.1
$ bootP                : logi NA
$ deviance             : num 22.1
$ df.residual          : num 13
$ cluster.null.deviance: num 22.1
$ cluster.null.df      : int 14
$ posterior.modes      : num [1:16] -0.00018 -0.000178 -0.000178 -0.000203 -0.000182 ...
$ prior                : chr "gaussian"
$ terms                :Classes 'terms', 'formula'  language status ~ x[[3]]
 .. ..- attr(*, "variables")= language list(status, x[[3]])
 .. ..- attr(*, "factors")= int [1:2, 1] 0 1
 .. .. ..- attr(*, "dimnames")=List of 2
 .. .. .. ..$ : chr [1:2] "status" "x[[3]]"
 .. .. .. ..$ : chr "x[[3]]"
 .. ..- attr(*, "term.labels")= chr "x[[3]]"
 .. ..- attr(*, "order")= int 1
 .. ..- attr(*, "intercept")= int 1
 .. ..- attr(*, "response")= int 1
 .. ..- attr(*, ".Environment")=<environment: R_GlobalEnv> 
 .. ..- attr(*, "predvars")= language list(status, x[[3]])
 .. ..- attr(*, "dataClasses")= Named chr [1:3] "numeric" "numeric" "factor"
 .. .. ..- attr(*, "names")= chr [1:3] "status" "x[[3]]" "(cluster)"
$ info                 : int 0
$ call                 : language glmmML(formula = status ~ x[[3]], family = binomial, data = x, cluster = Columns)
- attr(*, "class")= chr "glmmML"

data.frameの差集合を出したい

sh (2018-07-18 (水) 14:57:23)

テーブルのなかで「指定の文字を含むレコードを除く」のやり方が分からず、
 (1)dbGetQueryで得られたテーブル1
 (2)テーブル1をfilter,greplで絞り込んだテーブル2(部分一致用)
に対し、テーブル1とテーブル2の差集合をとる、
という手法で実現しようとしていますがやり方がわかりません…

setdiffでは目的の挙動をしてくれないのですが、
関数のチョイスが間違っているのでしょうか。
また、「指定の文字を含むレコードを除く」を一発で実現する方法があるのでしょうか。

ご教授いただければ幸いです。


poisson.test()について

ワイン (2018-07-18 (水) 06:19:51)

お世話になります。poisson.test()で検定をするためヘルプファイルを確認したところ、以下のような引数になっていました。

poisson.test(x, T = 1, r = 1,alternative = c("two.sided", "less", "greater"), conf.level = 0.95)

 

x  number of events. A vector of length one or two.
T  time base for event count. A vector of length one or two. 
r  hypothesized rate or rate ratio


イベント発生数x=5の場合の検定結果は以下のとおりです。

> poisson.test(x=5)

        Exact Poisson test

data:  5 time base: 1
number of events = 5, time base = 1, p-value = 0.00366
alternative hypothesis: true event rate is not equal to 1
95 percent confidence interval:
  1.623486 11.668332
sample estimates:
event rate 
         5 


質問1:引数rやTの意味が分からないのですが、たとえばx=5,r=2とした場合、真のイベント発生数は10であるという帰無仮説で検定をするのでしょうか

質問2:ポアソン分布で検定をするならば、平均値λを定義しないと分布の形状が決定できないと思うのですが、引数で指定しなのはなぜでしょうか。

お手数ですが、ご回答宜しくお願い致します。


オブジェクトのアスキーテキスト表現

nkrit (2018-07-08 (日) 16:07:20)

> class(data)
[1] "numeric"
> cat(data)
2 2 4 6 4 5 2 3 1 2 0 4

このような数値型のベクトルを、あとで他人が同じデータで試せるように、たとえば、

data <- c(2,2,4,6,4,5,2,3,1,2,0,4)

のような形でスクリプトの一部として保存しておきたいのですが、それぞれの数値の要素の後ろにカンマをつける良い方法が思いつきません。

for (i in 1:50){
 cat(paste0(data[i],sep=","))
}

のようなことをして出力されたものをペーストしてみましたが、きっともっとよい方法があるのではないかと思いまして投稿しました。簡単な方法があれば教えてください。save(), load()で変数自体を保存するのではなく、ベタに保存しておきたいという希望です。初級者コースと聞いて質問致します。


フォントサイズを指定して複数のグラフをプロットすると大きさが変わって困っています

nona (2018-07-08 (日) 14:44:41)

 Rでプロット領域を分割して、かつフォントサイズをpsで指定してプロットさせると、
分割領域が2つまでは指定した通りのフォントサイズになるようなのですが、それ以上になるとフォントが小さくなって困っています。
 領域が狭いのが原因と思い、マウスでウインドウを広げた後に再度プロットしたり、par(mar=)で余白を広げてもダメでした。
どなたか、複数のグラフを1枚にプロットするときに、フォントサイズが指定通りの大きさになる方法をお教えください。
 以下、試した設定です。

  1. フォントサイズの指定がうまくいく
    jpeg("myplot.jpg", height=1000, width=1000)
    par(mfrow=c(1,2), ps=16)
    plot(iris[,1],iris[,2])
    plot(iris[,3],iris[,2])
    dev.off()                

  2. フォントサイズを指定しても、上と比べて字が小さくなる
    jpeg("myplot2.jpg", height=1000, width=1000)
    par(mfrow=c(1,3), ps=16)
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    dev.off()      

  3. 軸周辺の余白を広げても変化なし
    jpeg("myplot3.jpg", height=1000, width=1000)
    par(ps = 16, mfrow=c(1,3), mar = c(6, 6, 4, 2))
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    dev.off()      

  4. プロット自体を小さくしても変化なし
    jpeg("myplot4.jpg", height=1000, width=1000)
    par(ps = 14, mfrow=c(1,3), pin = c(1,2))
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    dev.off()

分散分析

kx (2018-07-08 (日) 12:52:20)

valores <- c(1,-1,0,-2,-3,-4,-2,0,1,1,4,0,1,-2,-3,0,4,2,-1,0,-2,0,3,2,2,4,0,-2,0,2,1,-1,2,3,2,1)

supplier <- factor(rep(1:3, each=12))

batches <- factor(rep(rep(1:4, each=3), 3))

のように入力し、

purity <- data.frame(valores,supplier,batches)
としてデータフレームを行い、
このpurityをsummaryでしたいのですが、この時にerrorの要素も入れるためには、

purity <- data.frame(valores,supplier,batches)だけではダメで、どのような操作が必要か分からずに困っています。

どなたかお教えくださいませんでしょうか。


ベクトルから連続する値を削除する

(2018-06-25 (月) 23:56:24)

c(1,2,2,3,4,2,2,1,1,1)
のようなベクトルがあった時に
下記のように連続する値をもつ要素を削除する方法はありますでしょうか?
c(1,2,3,4,2,1)

実際のベクトルは非常に長いのでループ処理は避けたいです。


要因ごとの計測

ぐれいぴ (2018-06-22 (金) 09:29:57)

いろいろ調べたのですが、分からなかったのでお教え願います。

以下のようなデータがあった時に、要因(A、B、・・・)ごとの数を数えて集計したいと思いました。

a

  factor rate

1 A a
2 A a
3 A a
4 A a
5 A a
6 A b
7 A b
8 A b
9 A c
10 A c
11 B a
12 B a
13 B b
14 B b
15 B b
16 B b
17 B b
18 B c
19 B c
20 B d
21 C a
22 C b
23 C b
24 C b
25 C c
26 C c
27 C c
28 C c
29 C d
30 C d

手入力でAについてaは5個、bは3個、・・・と求めることはできるのですが、このデータを読み込ませたときに自動的(A、B、Cとは全く指定しないで)に、

 a b c d

A 5 3 2 0
B 2 5 2 1
C 1 3 4 2

のように出力させることは可能でしょうか? よろしくお願いします。


restricted cubic splineの変曲点の個数に関して

jj (2018-06-08 (金) 01:40:16)

いつも勉強させていただいております。
一年死亡と血圧の関係をrestricted cubic splineを用いて
coxph(Surv(死亡までの時間,死亡イベントありなし) ~ rcs(PP,変曲点), data=dat)として表しました。
rcs関数だと変曲点の個数は最小3個までなのですが、変曲点1つ、2つの場合はどのように処理すればよいでしょうか?他の関数がありますでしょうか?
宜しくお願い致します。


mclust結果の再現性

さくらんぼ (2018-06-06 (水) 17:02:13)

宜しくお願い致します。

Mclustで繰り返し計算した際の再現性を得たいと考えています。

RdocumentationのMclustの項目に、

initialization
A list containing zero or more of the following components:

subset:
A logical or numeric vector specifying a subset of the data to be used in the initial hierarchical clustering phase. By default no subset is used unless the number of observations exceeds the value specified by mclust.options("subset"). Note that to guarantee exact reproducibility of results a seed must be specified (see set.seed).

とあることは分かったのですが、「再現性を得るためにはシードを設定する」とは具体的にどのようなことでしょうか?


Steel-Dwass検定がうまくいきません

ジョージ (2018-06-05 (火) 17:20:05)

最近Rを使用し始めたばかりの初心者です。
よろしくお願いいたします。

多重比較検定を行う必要があり、NSM3 というパッケージの pSDCFglig というコマンドを用いて Steel-Dwass 検定を行おうと考えています。そこで簡単な例を作ってテストしてみました。


すると、計算が異常に重く、Rが応答しないようになりました。
この原因がわからず困っています。解決法のご教授をお願いいたします。
 - - - - - - - -
 まずは,上の方にも書いてあるように,「投稿における注意事項」を読んで,それに従ってください。
 これに従わない場合には,回答が得られにくい場合があります。 


R3.5.0へのbiOpsインストール

シロツメクサ (2018-05-30 (水) 15:30:05)

よろしくお願いいたします。

Rの最新バージョンであるR3.5.0にbiOpsをインストールしたいです。
色々調べましたが、どの情報が新しいのかもよくわかりません。

どのページから行えばいいのかなど詳しい方法を教えていただけたらありがたいです。

よろしくお願いいたします。


文字列の取り出し

ムーミン (2018-05-26 (土) 17:15:31)

よろしくお願いします。

文字列 "1月",~"12月"から月を除いた文字列を作りたく下記のプログラム書きました。
結果は 1月",~"9月","10","11","12"となりました。
どこが間違っているのかわかりません。
どなたか教えてください。


hkan1 <- C("1月",~"12月")
k <- 0
for (r in hkan1) {

 
k <- k + 1
 
 if ( k < 9 ) t1 <- substring(hkan1, 1, 1)


 else  t1 <- substring(hkan1, 1, 2)
 

}


礼儀知らずの,無礼者

河童の屁は,河童にあらず,屁である。 (2018-05-25 (金) 21:41:41)

もうね
今後
こんな
礼儀知らずの
質問者には
回答しないことに
します


あるカラムの項目を複数選択することでデータセットを絞り込みたい

シント (2018-05-22 (火) 13:16:55)

複数カラムを持つデータセットを、そのうち1つのカラムデータを用いて絞り込みをしたいです。

column01 column02 column03 column04
x1 y1 z1 a1
x2 y2 z2 a2
x3 y3 z3 a3
x3 y3 z2 a4
x1 y4 z4 a1
...

というデータセットに対して column01 に着目し、

[x1]
x2
[x3]
[x4]

の選択ボックス的なものを設けて、対象としたいものをクリックして複数条件(or条件)で絞り込むというイメージです。
DT パッケージの Row 選択に近いのですが、あれは data frame や matrix でしか出力できないと読みました。
チェックボックスやラジオボタンで実現するしか無いのでしょうか。。
ご教授頂ければ幸いです。どうぞよろしくお願いします。




rbayesianOptimizationパッケージの使い方(エラーへの対処法)を知りたいです。

イルカ (2018-05-11 (金) 14:12:07)

train.csvとtest.csvはそれぞれ一列目に画像の判定、二列目以降は30*30の画像データを900列(gray scale)で記したものになっています。
DNNでのrbayesianoptimizationパッケージはそこそこ資料もあるので何とかなるのですが、CNNにするとデータの構造が問題になるようで、どう解決すればいいのかわかりません。
もし、分かる方がいらっしゃいましたら教えてくださると助かります。

以下にコードとエラー、traceback結果を載せています。
長くて申し訳ありません。

> options(max.print=2147483647)
> library(mxnet)
> train <- read.csv('C:/Users/User/R/train/getimage_1/train.csv', header = TRUE)
> test <- read.csv('C:/Users/User/R/train/getimage_1/test.csv', header = TRUE)
> train <- data.matrix(train)
> test <- data.matrix(test)
> train.x <- t(train[, -1])
> train.y <- train[, 1]
> test.x <- t(test[, -1])
> test.y <- test[, 1]
> dim <- 30
> channels <- 1
> test_array <- test.x
> dim(test_array) <- c(dim, dim, channels, ncol(test.x))
> train_array <- train.x
> dim(train_array) <- c(dim, dim, channels, ncol(train.x))
> 
> mxnet_bayes <- function(unit1, unit2, unit3, unit4) {
+     # Model
+     data <- mx.symbol.Variable('data')
+     # 1st convolutional layer 5x5 kernel 
+     conv_1 <- mx.symbol.Convolution(data= data, kernel = c(5, 5), num_filter = unit1)
+     tanh_1 <- mx.symbol.Activation(data= conv_1, act_type = "relu")
+     pool_1 <- mx.symbol.Pooling(data = tanh_1, pool_type = "max", kernel = c(2, 2), stride = c(2, 2))
+     # 2nd convolutional layer 5x5 kernel 
+     conv_2 <- mx.symbol.Convolution(data = pool_1, kernel = c(5, 5), num_filter = unit2)
+     tanh_2 <- mx.symbol.Activation(data = conv_2, act_type = "relu")
+     pool_2 <- mx.symbol.Pooling(data = tanh_2, pool_type = "max", kernel = c(2, 2), stride = c(2, 2))
+     # 1st fully connected layer
+     
+     fcl_1 <- mx.symbol.FullyConnected(data = pool_2, num_hidden = unit3)
+     tanh_3 <- mx.symbol.Activation(data = fcl_1, act_type = "tanh")
+     # 2nd fully connected layer
+     fcl_2 <- mx.symbol.FullyConnected(data = tanh_3, num_hidden = unit4)
+     # Output
+     model <- mx.symbol.SoftmaxOutput(data = fcl_2)
+     # Set seed for reproducibility
+     mx.set.seed(5000)
+     # Device used. Sadly not the GPU :-(
+     device <- mx.cpu()
+     model <- mx.model.FeedForward.create(model, X = train_array, y = train.y, 
+                                          ctx = device, 
+                                          num.round = 20, 
+                                          array.batch.size = 100, 
+                                          learning.rate = 0.07, 
+                                          momentum = 0.99, 
+                                          wd = 0.0000001, 
+                                          eval.metric = mx.metric.rmse, 
+                                          epoch.end.callback = mx.callback.log.train.metric(100), verbose=TRUE)
+ preds <- predict(model, test.x)
+ holdout_score <- rmse(preds, test.y)
+ list(Score=-holdout_score, Pred=-holdout_score)
+ }
> library(Metrics)
> library(rBayesianOptimization)
> opt_res <- BayesianOptimization(mxnet_bayes, 
+                                  bounds=list(unit1=c(200L, 300L), 
+                                              unit2=c(10L, 50L), 
+                                              unit3=c(100L, 150L), 
+                                              unit4=c(80L, 150L)), 
+                                  init_points=20, n_iter=1, acq='ei', 
+                                  kappa=2.576, eps=0.0, verbose=TRUE)
Start training with 1 devices
[1] Train-rmse=0.694788357881959
[2] Train-rmse=0.698895939954201
[3] Train-rmse=0.702352686365657
[4] Train-rmse=0.703651129075772
[5] Train-rmse=0.704188237229376
[6] Train-rmse=0.704072243436174
[7] Train-rmse=0.704307457989986
[8] Train-rmse=0.704044050930675
[9] Train-rmse=0.704189340228431
[10] Train-rmse=0.704024917141773
[11] Train-rmse=0.704088730139514
[12] Train-rmse=0.704510854642202
[13] Train-rmse=0.704353378706923
[14] Train-rmse=0.704272895208268
[15] Train-rmse=0.704260412182352
[16] Train-rmse=0.704688375203385
[17] Train-rmse=0.704331001542547
[18] Train-rmse=0.704090463144038
[19] Train-rmse=0.704570122472829
[20] Train-rmse=0.704810586026211
 symbol$infer.shape(list(...)) でエラー: 
  Error in operator convolution10: [08:26:02] d:\program files (x86)\jenkins\workspace\mxnet\mxnet\src\operator\./convolution-inl.h:377: Check failed: dshp.ndim() == 4U (2 vs. 4) Input data should be 4D in batch-num_filter-y-x
Timing stopped at: 721.7 39.89 440.3
> traceback()
16: stop(list(message = "Error in operator convolution10: [08:26:02] d:\\program files (x86)\\jenkins\\workspace\\mxnet\\mxnet\\src\\operator\\./convolution-inl.h:377: Check failed: dshp.ndim() == 4U (2 vs. 4) Input data should be 4D in batch-num_filter-y-x", 
        call = symbol$infer.shape(list(...)), cppstack = list(file = "", 
            line = -1L, stack = "C++ stack not available on this system")))
15: .External(list(name = "CppMethod__invoke_notvoid", address = <pointer: 0x000000000858fda0>, 
        dll = list(name = "Rcpp", path = "C:/Users/User/Documents/R/win-library/3.4/Rcpp/libs/x64/Rcpp.dll", 
            dynamicLookup = TRUE, handle = <pointer: 0x000000006abc0000>, 
            info = <pointer: 0x000000000652a390>), numParameters = -1L), 
        <pointer: 0x0000000006522b90>, <pointer: 0x0000000008791920>, 
        .pointer, ...)
14: symbol$infer.shape(list(...))
13: mx.symbol.infer.shape(model$symbol, data = c(dimX[[2]], 1))
12: mx.model.select.layout.predict(X, model)
11: predict.MXFeedForwardModel(model, test.x)
10: predict(model, test.x) at #34
9: (function (unit1, unit2, unit3, unit4) 
   {
       data <- mx.symbol.Variable("data")
       conv_1 <- mx.symbol.Convolution(data = data, kernel = c(5, 
           5), num_filter = unit1)
       tanh_1 <- mx.symbol.Activation(data = conv_1, act_type = "relu")
       pool_1 <- mx.symbol.Pooling(data = tanh_1, pool_type = "max", 
           kernel = c(2, 2), stride = c(2, 2))
       conv_2 <- mx.symbol.Convolution(data = pool_1, kernel = c(5, 
           5), num_filter = unit2)
       tanh_2 <- mx.symbol.Activation(data = conv_2, act_type = "relu")
       pool_2 <- mx.symbol.Pooling(data = tanh_2, pool_type = "max", 
           kernel = c(2, 2), stride = c(2, 2))
       fcl_1 <- mx.symbol.FullyConnected(data = pool_2, num_hidden = unit3)
       tanh_3 <- mx.symbol.Activation(data = fcl_1, act_type = "tanh")
       fcl_2 <- mx.symbol.FullyConnected(data = tanh_3, num_hidden = unit4)
       model <- mx.symbol.SoftmaxOutput(data = fcl_2)
       mx.set.seed(5000)
       device <- mx.cpu()
       model <- mx.model.FeedForward.create(model, X = train_array, 
           y = train.y, ctx = device, num.round = 20, array.batch.size = 100, 
           learning.rate = 0.07, momentum = 0.99, wd = 1e-07, eval.metric = mx.metric.rmse, 
           epoch.end.callback = mx.callback.log.train.metric(100), 
           verbose = TRUE)
       preds <- predict(model, test.x)
       holdout_score <- rmse(preds, test.y)
       list(Score = -holdout_score, Pred = -holdout_score)
   })(unit1 = 296, unit2 = 37, unit3 = 118, unit4 = 95)
8: do.call(what = FUN, args = as.list(This_Par))
7: system.time({
       This_Score_Pred <- do.call(what = FUN, args = as.list(This_Par))
   })
6: eval(expr, pf)
5: eval(expr, pf)
4: withVisible(eval(expr, pf))
3: evalVis(expr)
2: utils::capture.output({
       This_Time <- system.time({
           This_Score_Pred <- do.call(what = FUN, args = as.list(This_Par))
       })
   })
1: BayesianOptimization(mxnet_bayes, bounds = list(unit1 = c(200L, 
       300L), unit2 = c(10L, 50L), unit3 = c(100L, 150L), unit4 = c(80L, 
       150L)), init_points = 20, n_iter = 1, acq = "ei", kappa = 2.576, 
       eps = 0, verbose = TRUE)

RStudioの言語設定

代理転載人 (2018-05-10 (木) 13:02:56)

[下記はトップページへのコメントに間違って記入された書き込み(2018-05-08 (火) 20:45:31)の転載です]
これからRを使い始めようかと思っている程度の初心者です。RStudioを使いたいのですが私の持っている教科書は初心者向けのはずなのに、あまり親切ではなくインストールがわかりません。私の理解では初めに日本語のRを入れておけばRStudioでは言語を選ぶ必要はないように思うのですが間違っていますか?


ベクトルの要素のうち奇数のものを表示するプログラム

ムーミン (2018-05-08 (火) 18:44:48)

よろしくお願いします
下記プログラムをRコマンダーで実行すると

エラー:
<text>

となります、どうしてなのかわかりません教えていただけませんか?

 ar <- c(1,3,5,9,11,17,8,7,21,13)
 for (x in ar) { 
	if (x %% 2 == 0) next
        cat(x," ") 
     }

3次元マトリックスの加工

(2018-05-02 (水) 16:08:07)

3次元マトリックスmat[100,100,10]は
100×100の行列で各セル毎に10個の属性値を保有しています。

属性値が最も小さい添え字(1~10)を持つ、
100×100の行列を作成するにはどのようなコードを書けばよいでしょうか?


四分木、八分木を作成することができるパッケージ

(2018-04-30 (月) 01:24:12)

三次元空間からある形状の特徴を抽出するため
四分木もしくは八分木を作成することを試行したいのですが
パッケージはありますでしょうか?


参考書籍

ムーミン (2018-04-21 (土) 18:25:20)

よろしくお願いします
エクセルからのインポートはできかしたが、そのデーターからグラフを作成しょうとWEBをみて回りましたがさっぱりわかりません。(途中が省かれたり解説なかったり、例がインポートしたものではなかったりなど)”Rによるデーターサイエンス”の本図書館から借りてみましたが上級者向けで理解できませんでした。ホントの初心者です、エクセルからインポートしたデーターをグラフ化することが詳しく解説されている書籍を教えてください。
めげそうです。


R言語へのエクセルからのデーターのインポート

ムーミン (2018-04-18 (水) 20:14:01)

どこに書き込んだらよいかわからなかったので新規投稿に書きました
よろしくお願いします。
手順は
1)data4=read.table("clipboard",header=TRUE)を記述、
2)データーをコーピー
3) 1)をエンターキーを押しました。
又は
1)、2)を逆にし実行

下記が結果です。何も起こりません


R version 3.4.4 (2018-03-15) -- "Someone to Lean On"
Copyright (C) 2018 The R Foundation for Statistical Computing
Platform: x86_64-w64-mingw32/x64 (64-bit)

R は、自由なソフトウェアであり、「完全に無保証」です。
一定の条件に従えば、自由にこれを再配布することができます。
配布条件の詳細に関しては、'license()' あるいは 'licence()' と入力してください。

R は多くの貢献者による共同プロジェクトです。
詳しくは 'contributors()' と入力してください。
また、R や R のパッケージを出版物で引用する際の形式については
'citation()' と入力してください。

'demo()' と入力すればデモをみることができます。
'help()' とすればオンラインヘルプが出ます。
'help.start()' で HTML ブラウザによるヘルプがみられます。
'q()' と入力すれば R を終了します。

data4=read.table("clipboard",header=TRUE)


症例対照研究のロジスティック回帰について

AAA (2018-04-17 (火) 22:42:38)

お世話になります。
glm関数で症例対照研究のロジスティック回帰を実行しようとしたのですが、症例対照研究は症例群と対照群のサンプル数を任意に設定できるので、生存率やオッズの算出に意味はないという資料がありました。ロジスティック回帰式の左辺はlog(p/(1-p))で対数オッズを意味していますので、そもそも回帰することができないということになるでしょうか。
glmに目的変数と説明変数を与えると計算結果自体は出力されるのですが、根本的に前提が間違っているような気がしています。

宜しくお願いします。


R言語へのエクセルからのデーターのインポート

ムーミン (2018-04-17 (火) 18:19:45)

よろしくお願いします
下記データーをRコンソール、にクリップボードを介してインポートする方法を教えてください。

R言語のインストールは下記のページを参考にして行いました
https://qiita.com/FukuharaYohei/items/8e0ddd0af11132031355

インポートは下記ページを参考にしましたがうまくいきません
http://monge.tec.fukuoka-u.ac.jp/r_analysis/input_clipbord00.html

月 電気量 電気料金
1月 306  8184
2月 335  9065
3月 341  9311

R言語のバージョンは3.4.4

ウィンドウズ10でエクセルのバージョンは1803です


2つのデータをlmで回帰したときに傾き切片が有意差を持つかどうか

kagakuma (2018-04-13 (金) 12:00:31)

両対数を取ると明らかに線形関数に乗るデータがあります。
このデータをlm()で線形回帰したところR2が0.95でフィッティングしました。
このデータ群は2つあり、線形回帰したのですが、いずれも違う直線に乗りました。 この結果から傾きと切片が2組でますが、両者の傾きと切片に有意差があるかどうかを確かめる方法はございませんでしょうか。
Rの機能で閉じていると助かりますが、手計算でもできるならやろうと思います。
単純には両者を引き算してそれの傾きと切片を求めるという方法も考えましたが、正当性がわかりません。 よろしくおねがいします。


入門機械学習による異常検知p137

ksaki (2018-04-12 (木) 14:42:13)

お世話になります。

井手剛先生著の
入門 機械学習による異常検知のp137の実行例5.1を真似て、以下のコマンドを入力しましたが、エラーが出ます。
何が間違っているか教えてください。
以下、入力したコマンド

> data <- read.table("R_r1.csv",header=T)
> data
                                                  a.b.c.d.e.f.g.h.i.j.k
1         P2201A1,-4.78,11,1.44,-0.48,3.83,-10.05,15.79,4.31,1.44,18.66
2     P2201A2,-3.35,-21.53,-11,8.13,-6.22,18.66,-2.87,-0.96,2.39,-11.48
3            P2201A3,2.88,3.63,4.69,0.61,1.21,1.36,-1.67,1.06,1.06,1.67
4       P2201A4,-0.48,3.35,-5.26,-6.22,-3.35,-4.78,0.48,-0.48,1.91,3.35
5    P2201H1,-14.35,-5.26,0,-11.96,-7.66,14.35,-11.48,-5.26,14.35,-0.48
6  P2201H2,12.92,13.87,0.96,13.4,-0.96,1.91,-12.44,-13.87,-10.05,-14.35
7           P2201H3,7.18,3.83,3.35,0,-4.31,-8.61,-12.44,-3.35,1.44,5.74
8     P2201H4,-7.18,-16.27,-16.27,-5.26,2.39,8.61,12.92,12.92,6.7,-0.48
9        P2201V1,-6.7,-3.83,-12.92,2.39,2.39,2.87,12.44,2.87,1.91,-8.13
10   P2201V2,-3.03,-18.17,22.71,-27.25,27.25,-15.14,0,-10.6,-18.17,21.2
11      P2201V3,-4.31,-0.48,1.91,-1.44,-5.26,1.44,3.35,-8.61,-6.7,-2.87
12        P2201V4,0.48,2.39,1.91,3.35,-1.44,-7.18,-5.74,-1.91,7.66,7.66
13       P2202A1,-1.44,-0.96,3.35,1.91,-0.48,0.96,-3.35,-2.39,0.48,-6.7
14         P2202A2,-3.83,0,1.44,-6.22,-3.35,0.96,-1.44,0.48,-0.48,-1.91
15      P2202A3,0.61,-1.36,-0.15,0.61,0.76,-2.57,-2.12,-2.57,-0.91,0.76
16        P2202A4,0.45,2.27,-0.45,1.21,0.15,-0.15,0.76,-1.06,-1.21,1.06
17       P2202H1,5.26,-4.31,-0.48,-1.44,-3.83,0.48,0.48,5.74,-0.48,0.48
18         P2202H2,-0.96,-1.91,-0.96,-5.74,0,1.91,-5.74,1.44,-1.91,-6.7
19       P2202H3,-1.67,0.45,-0.45,2.57,2.27,-1.21,-0.61,-0.3,-0.15,0.45
> cc <- c("a","b","c","d","e","f","g","h","i","j","k")
> mask <- is.element(colnames(data),cc)
> Xc <- t(scale(data[,mask]))
> colnames(Xc) <- t(data[,"a"])
Error in `[.data.frame`(data, , "a") :  未定義の列が選ばれました

コマンド、ここまで
〇環境設定

> sessionInfo()
R version 3.3.3 (2017-03-06)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows 7 x64 (build 7601) Service Pack 1

locale:
[1] LC_COLLATE=Japanese_Japan.932  LC_CTYPE=Japanese_Japan.932   
[3] LC_MONETARY=Japanese_Japan.932 LC_NUMERIC=C                  
[5] LC_TIME=Japanese_Japan.932    

attached base packages:
[1] stats     graphics  grDevices utils     datasets  methods   base     

other attached packages:
[1] MASS_7.3-45

loaded via a namespace (and not attached):
[1] tools_3.3.3


トップ   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS