初心者のための R および RjpWiki に関する質問コーナー

以下の 4 つの「●項目」のどれかをクリック!!


新規投稿欄: --- その前に,「投稿における注意事項」を読んでから!
このページの目次 --- 質問への回答・コメントの参照
最新のスレッド --- 最も最近に書き込まれた「親」記事(最新のコメントが付いた記事ではありません)
Q&A (初級者コース) 過去の目次 --- 今までの 16 個の書庫の参照


●● 目次 ●●

参照は,個々の項目をクリック(質問への回答・コメントの参照も,個々の項目をクリック)


●● 新規投稿 ●●

まずは,「投稿における注意事項」を読んで,それに従ってください。
これに従わない場合には,回答が得られにくい場合があります。 

オブジェクト###がありません。というエラー

univ (2019-12-16 (月) 23:52:06)

OECDによる国際調査PIAACを分析しているのですが、table作成時にエラーが出て困っています。「オブジェクト###がありません」というエラーへの対処を教えていただければ幸いです。よろしくお願いいたします。

library("intsvy")
data("piaac", package= "PIAAC")
ptable <- piaac.table(variable = "AGEG10LFS", data = piaac)

を実行すると、

data.frame(table(data[[variable]][drop = TRUE]), Percentage = round(as.numeric(tabtot),  でエラー: オブジェクト 'tabtot' がありません

とエラーが出ます。
tabtotはintsvy.table関数内で定義されているようです。

intsvy.table <- function (variable, by, data, config)
{
    table.input <- function(variable, data, config) {
        if (sum(is.na((data[[variable]]))) == length(data[[variable]])) {
            result <- data.frame(NA, Freq = 0, Percentage = NA, 
                Std.err. = NA)
            names(result)[1] <- variable
            return(result)
        }
        if (config$parameters$weights == "JK") {
            R.wt <- sapply(1:max(data[[config$variables$jackknifeZone]]), 
                function(x) ifelse(data[[config$variables$jackknifeZone]] == 
                  x, 2 * data[[config$variables$weight]] * data[[config$variables$jackknifeRep]], 
                  data[[config$variables$weight]]))
            if (isTRUE(config$parameters$varpv1)) {
                tabrp <- as.matrix(sapply(1:ncol(R.wt), function(x) percent(as.factor(as.numeric(data[[variable]])), 
                  total = FALSE, weights = R.wt[, x])))
                tabtot <- percent(as.factor(as.numeric(data[[variable]])), 
                  weights = data[[config$variables$weight]], 
                  na.rm = TRUE, total = FALSE)
                if (length(tabtot) != 1) {
                  tabse <- apply((tabrp - tabtot)^2, 1, sum)^(1/2)
                }
                else {
                  tabse <- 0
                }
            }
            else {
                R.wt2 <- sapply(1:max(data[[config$variables$jackknifeZone]]), 
                  function(x) ifelse(data[[config$variables$jackknifeZone]] == 
                    x, 2 * data[[config$variables$weight]] * 
                    ifelse(data[[config$variables$jackknifeRep]] == 
                      1, 0, 1), data[[config$variables$weight]]))
                R.wt <- cbind(R.wt, R.wt2)
                tabrp <- as.matrix(sapply(1:ncol(R.wt), function(x) percent(as.factor(as.numeric(data[[variable]])), 
                  total = FALSE, weights = R.wt[, x])))
                tabtot <- percent(as.factor(as.numeric(data[[variable]])), 
                  weights = data[[config$variables$weight]], 
                  na.rm = TRUE, total = FALSE)
                if (length(tabtot) != 1) {
                  tabse <- (apply((tabrp - tabtot)^2, 1, sum)/2)^(1/2)
                }
                else {
                  tabse <- 0
                }
            }
        }
        if (config$parameters$weights == "BRR") {
            tabrp <- as.matrix(sapply(1:config$parameters$BRRreps, 
                function(i) percent(as.factor(as.numeric(data[[variable]])), 
                  total = FALSE, weights = data[[paste(config$variables$weightBRR, 
                    i, sep = "")]], na.rm = TRUE)))
            tabtot <- percent(as.factor(as.numeric(data[[variable]])), 
                weights = data[[config$variables$weightFinal]], 
                na.rm = TRUE, total = FALSE)
            if (length(tabtot) != 1) {
                tabse <- sqrt(rowSums((tabrp - tabtot)^2)/20)
            }
            else {
                tabse <- 0
            }
        }
        result <- data.frame(table(data[[variable]][drop = TRUE]), 
            Percentage = round(as.numeric(tabtot), 2), Std.err. = round(tabse, 
                2))
        names(result)[1] <- variable
        return(result)
    }
    if (missing(by)) {
        output <- table.input(variable = variable, data = data, 
            config = config)
    }
    else {
        for (i in by) {
            data[[c(i)]] <- as.character(data[[c(i)]])
        }
        output <- ddply(data, by, function(x) table.input(data = x, 
            variable = variable, config = config))
    }
    class(output) <- c("intsvy.table", "data.frame")
    output
}

環境は

R version 3.6.2 (2019-12-12)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows 10 x64 (build 17134)
Matrix products: default
locale:
[1] LC_COLLATE=Japanese_Japan.932  LC_CTYPE=Japanese_Japan.932   
[3] LC_MONETARY=Japanese_Japan.932 LC_NUMERIC=C                  
[5] LC_TIME=Japanese_Japan.932 
attached base packages:
[1] grid      stats     graphics  grDevices utils     datasets  methods  
[8] base     
other attached packages:
 [1] ggplot2_3.2.1    svyPVpack_0.1-1  survey_3.36      survival_3.1-8  
 [5] Matrix_1.2-18    memisc_0.99.20.1 MASS_7.3-51.4    lattice_0.20-38 
 [9] sca_0.9-0        remotes_2.1.0    intsvy_2.4      
loaded via a namespace (and not attached):
 [1] Rcpp_1.0.1          pillar_1.4.2        compiler_3.6.2     
 [4] RColorBrewer_1.1-2  plyr_1.8.5          base64enc_0.1-3    
 [7] tools_3.6.2         rpart_4.1-15        digest_0.6.23      
[10] checkmate_1.9.4     htmlTable_1.13.3    jsonlite_1.6       
[13] tibble_2.1.1        gtable_0.3.0        pkgconfig_2.0.3    
[16] rlang_0.4.2         DBI_1.0.0           rstudioapi_0.10    
[19] xfun_0.11           gridExtra_2.3       withr_2.1.2        
[22] stringr_1.4.0       knitr_1.26          repr_1.0.1         
[25] cluster_2.1.0       htmlwidgets_1.5.1   mitools_2.4        
[28] nnet_7.3-12         data.table_1.12.8   reshape_0.8.8      
[31] foreign_0.8-72      latticeExtra_0.6-28 Formula_1.2-3      
[34] magrittr_1.5        backports_1.1.5     scales_1.0.0       
[37] Hmisc_4.3-0         htmltools_0.4.0     splines_3.6.2      
[40] colorspace_1.4-1    stringi_1.4.3       acepack_1.4.1      
[43] lazyeval_0.2.2      munsell_0.5.0       crayon_1.3.4       

です。
OSはwindows10 64bitです。


Rbiipsについて

tkzhsymd (2019-12-16 (月) 15:13:48)

Rstdio1.2.5でベイズ推定汎用ソフトBiipsをインストールしました。https://biips.github.io/install/から所定のファイルをダウンロードしてinstall.packages()にかけたのですが、以下の警告が出ました。
package ‘Rbiips_0.10.0.zip’ is not available (for R version 3.5.3)

警告だけだから行けたのかと思ってlibrary(Rbiips)としたところ、
‘Rbiips’ was installed by an R version with different internals; it needs to be reinstalled for use with this R version
となり、RstdioでないR3.5.3にはインストールできます。このメッセージはRstudioでダメなのはR3.5.3にインストールされているからということでしょうか。両者は干渉しあうものでしょうか。
R3.5.3の方は問題なくインストール、library()と行けるのですが。

pcaMethods glmnet

つぐ太郎 (2019-12-03 (火) 08:55:42)

pcaMethodsとglmnetのパッケージが見当たりません。代替パッケージ等教えていただけないでしょうか。よろしくお願いいたします


データフレームからベクトル表記へ

yoshida931 (2019-11-20 (水) 11:13:17)

以下のようなフレームを

Group pre-post Outcome
1 "治療前" 23.5
1 "治療前" 21.17
1 "治療後" 15.5
1 "治療後" 20.5
2 "治療前" 21.17
2 "治療前" 11.17
2 "治療後" 19
2 "治療後" 20.5

次のような表記に変更することは可能でしょうか?

Group <- c(1,1,1,1,2,2,2,2)
pre-post <- c("治療前","治療前","治療後","治療後","治療前","治療前","治療後","治療後")
Outcome <- c(23.5, 21.17, 15.5, 20.5, 21.17, 11.17, 19, 20.5)

サンプルサイズが大きい場合でも一瞬でできたら助かります。


Rstudioでの列数が50を超えるものの呼び出し方

かもめのジョナ子 (2019-11-17 (日) 23:20:21)

read.csvで読み込んだデータ(列数150)を呼び出す際に,50未満の列数のものはx[3]やx["変数名"]で呼び出せますが,50以上のものですとx[55]と書くと「未定義の列が選ばれました」とエラーメッセージが出ます。x["変数名"]と書いた場合はデータを呼び出せます。50以上の列数のものもスムーズに呼び出せるようにするにはどのようにしたらよいのでしょうか。よろしくお願いいたします。(既出でしたら申し訳ありません。)


バッファを割り当てることができません

ya (2019-11-12 (火) 16:31:37)

バッファを割り当てることができません

お世話になります。
検索エンジンや過去の質問で見つからなかったので質問させていただきます。既出でしたら申し訳ありません。

R consoleでパッケージをインストールしようとすると、以下の表示が出てしまいます。

BiocManager::install("IlluminaHumanMethylationEPICanno.ilm10b4.hg19")
Bioconductor version 3.10 (BiocManager 1.30.9), R 3.6.1 (2019-07-05)
Installing package(s) 'IlluminaHumanMethylationEPICanno.ilm10b4.hg19'
installing the source package ‘IlluminaHumanMethylationEPICanno.ilm10b4.hg19’

URL 'https://bioconductor.org/packages/3.10/data/annotation/src/contrib/IlluminaHumanMethylationEPICanno.ilm10b4.hg19_0.6.0.tar.gz' を試しています
Content type 'application/x-gzip' length 158431882 bytes (151.1 MB)
downloaded 151.1 MB

installing *source* package 'IlluminaHumanMethylationEPICanno.ilm10b4.hg19' ...
using staged installation
data
moving datasets to lazyload DB
Error in lazyLoadDBinsertVariable(vars[i], from, datafile, ascii, compress, :
バッファを割り当てることができません
ERROR: lazydata failed for package 'IlluminaHumanMethylationEPICanno.ilm10b4.hg19'
removing 'C:/Users/902722/Documents/R/win-library/3.6/IlluminaHumanMethylationEPICanno.ilm10b4.hg19'


設定環境は以下のようになります。

R version 3.6.1 (2019-07-05)
Platform: i386-w64-mingw32/i386 (32-bit)
Running under: Windows 7 (build 7601) Service Pack 1

Matrix products: default

locale:
[1] LC_COLLATE=Japanese_Japan.932 LC_CTYPE=Japanese_Japan.932 LC_MONETARY=Japanese_Japan.932 LC_NUMERIC=C LC_TIME=Japanese_Japan.932

attached base packages:
[1] stats graphics grDevices utils datasets methods base

loaded via a namespace (and not attached):
[1] BiocManager_1.30.9 compiler_3.6.1 tools_3.6.1

また、現在のメモリの最大割り当て数は1535MBです。

バッファ値の設定を変更すればインストールできるようになるのでしょうか。もしそうなら、どのようにバッファ値の設定を行えば良いのでしょうか。

どうぞよろしくお願いいたします。


Rstudio ヘルプ画面での検索方法

jj (2019-11-05 (火) 01:50:34)

Rstudioのヘルプペインにて、虫眼鏡アイコンの検索ボックスへ移動するショートカットキーは設定可能でしょうか。
「Ctrl+3」でヘルプへ移動後、「Ctrl+F」では、「Find in topic」の方しか選択できないようです。

キーボードショートカットのヘルプ、およびModifyについても目を通したものの、発見することができませんでした。
もしご存知の方がおられましたら、ご教示頂けると助かります。

環境
R version 3.5.3 (2019-03-11)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows 10 x64 (build 18362)


randomForest の関数化に関して

zstk5 (2019-10-29 (火) 20:58:03)

回答を期待する記事は原則 質問コーナー Q&A にお願いします。
と書かれているその下に,質問するとはなんたる肝っ玉。
投稿場所,投稿書式共に,はなはだ不適切だったので,ここにこのように再投稿させました。これだけで,原投稿者にはプレッシャーとは思うが,それは仕方ない(規則だから)
以 下 が 投 稿 内 容。 生 暖 か い 目 で 見 て 答 え て や っ て ち ょ ! !
* * * * * * * * * * * * * * *
こんにちは。
現在、Rを使用してrandomforestを実行しているのですが下記コードを実行すると保存されるobjファイルのサイズが大きく変わってしまいます。
(実際はもう少しデータサイズが大きく複雑なのですが同様の事象は下記コードでも発症します)

違いは、randomforestを実行する部分を自分で作成した関数内においているかおいていないかの差になります。

そのため処理は変わらないと考えているのですが出来上がるobjファイルのサイズが関数化している方は119KB, 関数化していないほうは61KBとなります。

なぜ、関数化するとモデルのサイズが大きくなってしまうのでしょうか。

原因分かる方いましたらご教示お願いいたします。
以下サンプルコード

######################
#パターン1
######################
test <- function() {

  library(randomForest)
  
  set.seed(123)
  
  ## 実行
  rf <- randomForest(Species ~ ., data = iris,
                     proximity = TRUE, importance = TRUE)
  saveRDS(rf, file = "test.obj")
}
test()

######################
#パターン2
######################

library(randomForest)

set.seed(123)

## 実行
rf <- randomForest(Species ~ ., data = iris,
                   proximity = TRUE, importance = TRUE)
return(iris)
saveRDS(rf, file = "test_.obj")

---環境情報---
OS:Windows Server2012R2(64bit)
R:version 3.6.1
Rstudio:

RとRstdioのバージョン

tkzhsymd (2019-10-23 (水) 09:53:52)

現時点でのRstdioの最新バージョンはそれぞれ1.5xxだと思います。その状態でライブラリをインストールすると”3.6ではダメ”というメッセージになりました。Rstdioの中にRが入っているということでしょうか。
ところで、Rstdioがあれば別途インストールしておくRは不要ということになるのでしょうか。周囲にはRstdioがあればいらないということのようですが。


線形計画法の結果が正しく出ません

Tomo (2019-08-09 (金) 10:16:14)

こんにちは。

lpSolveやRglpkを使って線形計画法をトライしているのですが、結果が正しく出ません。
制約条件の設定が意図通りに効きません。以下のコードの何がおかしいでしょうか。
すみませんが分かる方教えてください。

やりたいこと:
・弁当、菓子パン、おにぎり、お菓子、ジュースを 与えられた制約条件の中で
 “最も短い時間で作りたい”(目的関数)
・弁当、菓子パン、おにぎり、お菓子、ジュースは、
 それぞれ機械A、B、Cの“いずれか1つを使う”(制約条件1)
・機械A、B、Cは 使える合計時間上限が決まっている(制約条件2)
・弁当、菓子パン、おにぎり、お菓子、ジュースは機械A、B、C
 どれを使うかによって、作るのにかかる時間が違う(マトリックス)

以下が作るのにかかる時間(マトリックス)と制約条件2です

マトリックス 機械A    機械B   機械C
弁当	        27	70	149    ← 機械AかBかCのどれか1つを使う
菓子パン	23	58	122
おにぎり	18	46	97
お菓子	        25	36	76
ジュース	14	35	73
制約条件2→	60	70	80   ←機械Aは合計で60時間まで使える

> library(Rglpk)
> # 目的関数の係数
> k.obj <- c(27, 23, 18, 25, 14, 70, 58, 46, 36, 35, 149, 122, 97, 76, 73)
> # 制約式の左辺の係数
> k.mat <- matrix(c(1,1,1,1,1,0,0,0,0,0,0,0,0,0,0,
+                   0,0,0,0,0,1,1,1,1,1,0,0,0,0,0,
+                   0,0,0,0,0,0,0,0,0,0,1,1,1,1,1,
+                   1,0,0,0,0,1,0,0,0,0,1,0,0,0,0,
+                   0,1,0,0,0,0,1,0,0,0,0,1,0,0,0,
+                   0,0,1,0,0,0,0,1,0,0,0,0,1,0,0,
+                   0,0,0,1,0,0,0,0,1,0,0,0,0,1,0,
+                   0,0,0,0,1,0,0,0,0,1,0,0,0,0,1),  ncol=15, nrow = 8, byrow=TRUE)
> # 制約式の等号・不等号
> k.dir <- c("<=", "<=", "<=", "==", "==", "==", "==", "==")
> # 制約式の左辺
> k.rhs <- c(60, 70, 80, 1, 1, 1, 1, 1)
> Rglpk_solve_LP(k.obj, k.mat, k.dir, k.rhs, max=FALSE)

上のコードを走らせると

$optimum
[1] 107

$solution
 [1] 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0

$status
[1] 0

$solution_dual
 [1]   0   0   0   0   0  43  35  28  11  21 122  99  79  51  59

$auxiliary
$auxiliary$primal
[1] 5 0 0 1 1 1 1 1

$auxiliary$dual
[1]  0  0  0 27 23 18 25 14

$sensitivity_report
[1] NA

と結果が出ますが、これだと全部機械Aで作れと言っていることになり、且つ、制約条件の60を超えてしまっています。すみませんが分かる方教えてください。
実際には食品数が200種類ほどあります。 -- Tomo 2019-08-09 (金) 16:50:10


濁音を含むファイル名

κ(かっぱ) (2019-08-07 (水) 05:21:53)

こんにちは。

> x <- c('織田信長', 'パンダ')

という文字列があった時に、その要素と同じ名前のファイルが存在するかチェックしたいです。

> y <- list.files()
> y
[1] "織田信長" "パンダ"

とすると、「織田信長」も「パンダ」も存在するのですが、

> x %in% y
[1]  TRUE FALSE

となりました。ファイル名から引っ張ってきた「パンダ」 (y[2]) を見てみると、濁音、半濁音が変なことになっています。

> substr(y[2], 1,1)
[1] "ハ"
> substr(y[2], 2,2)
[1] "゚"

ハと半濁音の丸が別々の文字となっているようです。濁音も同じです。直接入力した「パンダ」とlist.files() からの「パンダ」と同じと認識させるにはどうしたら良いものでしょうか?
ファイル名に日本語を使うのは好ましくないのですが、実際には人名のファイルが大量に存在しており、それがデータベースと一致しているか調べたいのであります。


ggraphの凡例について

SABI (2019-08-06 (火) 09:27:02)

お世話になります。

下記のようにggraphパッケージでネットワーク図を作成しているのですが、右側の凡例a,b,cの〇を大きくするにはどうすればよいでしょうか。

library(ggraph)
require(igraph)

gr <- graph_from_data_frame(data.frame(
from = c(1, 1, 2, 2, 3, 3, 4, 5),
to = c(2, 1, 5, 4, 2, 2, 1, 1),
class = sample(letters[1:3], 8, TRUE)
))
V(gr)$class <- c('a', 'b', 'c', 'a', 'b')


gr %>%  
  ggraph(layout = "auto") +
  geom_edge_link(colour = "black") + 
  geom_node_point(aes(colour=class, size=10)) +
  geom_node_label(aes(label=name), repel=T)



内部的に使用しているigraphやggplot2のヘルプファイルも確認し、
theme(legend.key.size=grid::unit(30, units="points"))やscale_size_manual(values=~~)、などで対応できると推測したのですが変化がありません。

環境はigraph_1.2.4.1, ggraph_1.0.2, R version 3.5.0.です。

宜しくお願い致します。


plotしたグラフ上の点の数値データ?

がんば (2019-06-27 (木) 13:04:33)

お世話になります。周辺に誰も経験者がいなかったのでここを始めとしてネットで勉強してRstudioを使って測定結果から信頼度95%で上限下限の線が出せるようになった段階の者です。plotの後でlocator()の実行でマウスによりグラフ上の数値を取り出せるというとこまでは分かったですが特定のX値(又はY値)に対応するグラフ上の点の数値を返す関数はないのでしょうか(上限線、最尤値線、下限線のY値又はX値が返ってくるようなもの)?
使用環境:
R version 3.5.2 (2018-12-20)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows >= 8 x64 (build 9200)
Matrix products: default
locale:
[1] LC_COLLATE=Japanese_Japan.932 LC_CTYPE=Japanese_Japan.932
[3] LC_MONETARY=Japanese_Japan.932 LC_NUMERIC=C
[5] LC_TIME=Japanese_Japan.932
attached base packages:
[1] stats graphics grDevices utils datasets methods base
other attached packages:
[1] WeibullR_1.0.10
loaded via a namespace (and not attached):
[1] compiler_3.5.2 tools_3.5.2 Rcpp_1.0.0


エラー: vector memory exhausted (limit reached?)

初心者 (2019-06-15 (土) 23:51:19)

初心者です
エクセルファイル(単純なXY の表)で作成したマトリックスをRに導入したところ、 エラー: vector memory exhausted (limit reached?) が出ました。自身でも原因をgoogle で調べたところ恐らくexcelファイルが大きすぎることが原因であるかと思いました。一応対処方法を見つけて実践してみたのですが、うまくいきませんでした。理解不足なだけかもしれませんが。googleで調べた解決方法は以下を導入することかと思いました。usethis::edit_r_environ("project")
改善方法や他の解決方法を知っている方がいたら教えてください。
よろしくお願いします。


分散分析の棄却域

初心者 (2019-06-07 (金) 08:37:14)

分散分析の棄却域を求める関数qtukey(上側/下側確率, 平均値の数, 群内の自由度)とありますが、この平均値の数というのは具体的に何を指しているのでしょうか?

投稿先が間違えていたので,移動したよ。
あなたが記事を書いた枠のすぐ上に,「回答を期待する記事は原則 質問コーナー Q&A にお願いします。」って書いてあったでしょ。


図の表示に関して

初心者 (2019-05-31 (金) 06:53:53)

初心者です。
1)histやplot等で図を複数作り、重ねて表示したいです。この際に作図した後に一旦次のコードを入力しようと画面をクリックすると、開いていたウィンドウが閉じてしまい、重ねて作図することができません。どうしたら良いのでしょうか?

2)また、hist(x)等で図を表示して一度そのウィンドウを閉じると、以後全く同じコードを入力しても図が表示されません。このため再度同じ図を表示するときには、一度ソフトそのものを終了しなくてはなりません。これは正常なのでしょうか?


Rcmdr のインストールができません。

ハヤト (2019-05-08 (水) 09:01:15)

どうしたらいいのでしょうか?


psych パッケージが使えません

(2019-05-06 (月) 12:07:33)

psych を使おうとすると,エラーメッセージが出ます。
R 3.6 のくせに,R 3.5 の libgfortran.3.dylib を読もうとして失敗しているようです。

> library(psych)
 エラー: package or namespace load failed for ‘psych’:
  .onLoad は loadNamespace()('mnormt' に対する)の中で失敗しました、 詳細は: 
  call: dyn.load(file, DLLpath = DLLpath, ...) 
  error:  共有ライブラリ '/Library/Frameworks/R.framework/Versions/3.6/Resources/library/mnormt/libs/mnormt.so' を読み込めません: 
  dlopen(/Library/Frameworks/R.framework/Versions/3.6/Resources/library/mnormt/libs/mnormt.so, 6): Library not loaded:
         /Library/Frameworks/R.framework/Versions/3.5/Resources/lib/libgfortran.3.dylib
  Referenced from: /Library/Frameworks/R.framework/Versions/3.6/Resources/library/mnormt/libs/mnormt.so
  Reason: image not found  

psysh は

Package:            psych
Version:            1.8.12
Date:               2018-12-31

なので,R 3.6 に対応できていないのも仕方ないとは思いますが。
R のバージョン情報は

> sessionInfo()
R version 3.6.0 Patched (2019-05-02 r76458)
Platform: x86_64-apple-darwin15.6.0 (64-bit)
Running under: macOS Mojave 10.14.4

パッケージ宣言するとエラーがでます

てりたま (2019-04-29 (月) 10:05:09)

お世話になります。
パッケージはインストールできますが、宣言すると下記エラーがでます。

ダウンロードされたパッケージは、以下にあります 
       C:\Users\teric\AppData\Local\Temp\RtmpyiJ0Xk\downloaded_packages 

library (Rcmdr)

要求されたパッケージ splines をロード中です 
要求されたパッケージ RcmdrMisc をロード中です 
要求されたパッケージ car をロード中です 
要求されたパッケージ carData をロード中です 
要求されたパッケージ sandwich をロード中です 
要求されたパッケージ effects をロード中です 

Error: package or namespace load failed for ‘effects’ in loadNamespace(j <- i1L, c(lib.loc, .libPaths()), versionCheck = vIj):

 ‘survey’ という名前のパッケージはありません 
エラー:  パッケージ ‘effects’ をロードできませんでした 


あるべきものがないといっているので、メモリ不足?
空き領域190G インテルI5 256メモリ Win10使用です。

解決策を教えていただけますでしょうか。


非線形最小二乗法のnls関数の各パラメータが負にならないようにしたい

YT (2019-04-12 (金) 19:01:08)

お世話になっております。
最近Rを使い始めた者です。

データの処理のときにnls関数を用いて、非線形最小二乗法でフィッティングを行っています。
その際正の値であるべきパラメータ(フィッティングして得られるパラメータ、start=で定めるパラメータ)が負の値になってしまいます。
これらのパラメータが負にならないように制限を付けることはできるのでしょうか?
どなたかわかる方がいらっしゃいましたら、教えていただけると幸いです。
宜しくお願い致します。


自動でカテゴリーと要素数が反映されるようにしたい

Sai (2019-04-10 (水) 16:27:33)

お世話になっております。

下記のプログラムで、map_masterというオブジェクトのカテゴリー数(例では、A, B, Cの3つのカテゴリーで、それぞれ3, 2, 1個の要素を持つ)とkを増減させた時に、mapも自動で変わるようなプログラムを作りたいと思っています。
今はカテゴリー数が3つの例でやっていますが、実際はもっといくつもあるので、手作業で入れるのは厳しい状況です。mapと同じ出力を得たいのですが、可能でしょうか。
kの数および、A, B, Cのカテゴリー数を手動で増減(D以降を付け足したり、Bだけ抜いたり)させたときに、mapが自動で変わるようにしたいです。

どなたかわかる方がいらっしゃいましたら、ご教授頂けますと幸いです。
どうぞよろしくお願いいたします。

#各カテゴリーの名前とカテゴリーに含まれる要素数(既知)
nA <- c(3, 1, 4)
nB <- c(2, 4, 5)
nC <- c(1, 3, 5)
k <- 1
map_master <- c("A=factor(rep(NA, nA[k]))", 
                "B=factor(rep(NA, nB[k]))", 
                "C=factor(rep(NA, nC[k]))")
#カテゴリー数
LM <- length(map_master)

#入れ物の用意
map <- NA
K <- gamma(LM+1)
for(i in 1 : K) {
 map <- c(map, list(NA))
}

#各カテゴリーの組み合わせ(この部分を自動で得たい)
map[[1]] <- list()
map[[2]] <- list(A=factor(rep(NA, nA[k])))
map[[3]] <- list(B=factor(rep(NA, nB[k])))
map[[4]] <- list(C=factor(rep(NA, nC[k])))
map[[5]] <- list(A=factor(rep(NA, nA[k])), B=factor(rep(NA, nB[k])))
map[[6]] <- list(A=factor(rep(NA, nA[k])), C=factor(rep(NA, nC[k])))
map[[7]] <- list(B=factor(rep(NA, nB[k])), C=factor(rep(NA, nC[k])))

データフレームの変数名を別データフレームの列で置き換えたい

初心者k (2019-03-18 (月) 21:06:03)


最近Rを始めたものです。

以下のようなデータフレームXの変数名をデータフレームYのCATで置き換えて最終段のようなデータフレームを作成する方法をご教示いただきたいです。
大変初歩的な質問と思いますが、どうぞよろしくお願いいたします。

データフレームX
A   B  C   D
1   F  153 50
2   F  161 53
3   M  180 74
4   M  169 58

データフレームY
Name CAT 
A    ID
B    SEX
C    H
D    W

ID  SEX  H    W
1   F    153  50
2   F    161  53
3   M    180  74
4   M    169  58

バイプロット図の解釈

ゆたたみ (2019-03-05 (火) 18:04:16)

お世話になります。

library(FactoMineR)
CA(データ名, graph = FALSE)

#ggplot2ベースのバイプロットを描く
library(factoextra)
fviz_ca_biplot(データ名)

上記にてバイプロット図を描くと軸の横に%が表示されます
例(Dim1(26.3%))
この%は何を意味しているのでしょうか?

詳しい方教えていただけますと幸いです。


エラー:missing value where TRUE/FALSE needed

K.Tanaka (2019-02-26 (火) 20:19:08)

お世話になります。環境はWindows 10Pro 64bit + R version 3.5.2 (+ RStudio)です。

> a <- c(1,3,3,4,6,6,7,8,8,8)
> (flg <- c())
NULL~
> (flg <- c(rep(0,10)))
 [1] 0 0 0 0 0 0 0 0 0 0
> for(i in 1:10){
+   if(a[i]==a[i+1]){
+     flg[i] <- 1
+   }
+ }
Error in if (a[i] == a[i + 1]) { : missing value where TRUE/FALSE needed
> (flg)
 [1] 0 1 0 0 1 0 0 1 1 0

 ベクトルaで、同じ数値が続く最初の部分にフラグ(flg=1)を立てたいと思っています。
 しかし、スクリプトを実行すると、上記のエラーが出てしまいます。
 また、この例ではきちんとフラグが立っていますが、実際に処理したい3,000行ほどのベクトルでは、ほとんどコードは同じなのですが、すべてのフラグに1が立ってしまいます。
 エラーコードでググって見ましたが、 https://code.i-harness.com/ja-jp/q/703b33
http://mako-shark.hatenablog.com/entry/2017/11/14/140146
http://www.okadajp.org/RWiki/?%E5%88%9D%E7%B4%9A%EF%BC%B1%EF%BC%86%EF%BC%A1%20%E3%82%A2%E3%83%BC%E3%82%AB%E3%82%A4%E3%83%96%282%29#u8ec8994
などがヒットしたので見てみましたが、理解できませんでした。
やろうとしていることは非常に単純ですし、上で挙げた例では欠損値の影響も無さそうです。どなたか解決方法をご教示下さいますようお願い致します。


3次元空間におけるスプライン曲線

徒弟 (2019-02-25 (月) 10:22:13)

お世話になっております。

3次元座標(x,y,z)にプロットした散布図があります。元のデータもあります。
この点を一本の曲線式で近似したいと考えております。

そのためにスプライン近似が使えるのではないかと考えておりますが、
Rで3次元座標に対するスプライン近似を行う方法が分かりません。
どのように行えば良いかご教示いただければ幸いです


カプランマイヤー

jj (2019-02-01 (金) 07:33:32)

今までpatient at riskを含んだカプランマイヤー曲線を描くのにnpsurvとsurvplotを使用していたのですが、最近になって使用できなくなりました。rmsのパッケージに変更があったのでしょうか?ご存知の方がいらっしゃいましたらご教授願います。


ステップワイズ法による変数選択

r (2019-01-21 (月) 09:24:17)

初心者です。
Ri386 3.4.3をwindows7professionalで使用しています。
A B C D E F G H
1 71.18 3.16 76.90 27.73 55.74 5.27 11.07
1 68.86 9.30 71.44 28.83 60.54 6.20 13.04
1 71.41 2.74 72.77 28.44 56.49 4.28 10.77
1 NA 11.38 NA NA 62.20 4.05 11.07
1 67.13 8.71 74.36 25.11 63.07 2.34 10.45
1 71.64 4.93 75.14 28.89 56.52 5.41 10.80
途中省略
3 71.85 1.61 78.25 28.89 46.76 5.47 7.67
3 73.94 2.63 71.32 29.54 55.34 3.77 8.33
3 73.36 1.31 78.84 NA 55.05 4.94 8.53
3 72.42 3.80 82.98 27.27 52.07 6.25 9.89
3 71.53 2.66 81.99 26.39 55.57 5.76 10.02
途中省略
6 74.56 2.77 74.58 29.18 52.10 8.06 10.59

data=read.table("clipboard",header=TRUE)

result3<-lm(data[,1]~data[,2]+data[,3]+data[,4]+data[,5]+data[,6]+data[,7]+data[,8])

result4<-step(result3)
Start: AIC=78.25
data[, 1] ~ data[, 2] + data[, 3] + data[, 4] + data[, 5] + data[,

   6] + data[, 7] + data[, 8]


           Df Sum of Sq    RSS    AIC
  • data[, 7] 1 0.0795 179.80 76.285
  • data[, 5] 1 0.1613 179.88 76.326
  • data[, 4] 1 1.8827 181.61 77.183
  • data[, 2] 1 3.9465 183.67 78.200

none> 179.72 78.245


一元配置の分散分析時のエラーについて

r (2019-01-11 (金) 10:35:26)

初心者です。

グループ1 <-c(0.214868106,0.130905896)

グループ2 <-c(0.363994669,0.133351903)

グループ3 <-c(0.314337464,0.33376496)

グループ4 <-c(0.24814533,0.435896438)

グループ5 <-c(0.460955618,0.348227084)

グループ6 <-c(0.479455052,0.4087283)

全グループ<-c(グループ1, グループ2, グループ3, グループ4,グループ5,グループ6)

薬の種類 <-c(rep("A", 2), rep("B", 2), rep("C", 2), rep("D", 2), rep("E", 2), rep("F", 2))

薬の種類

[1] "A" "A" "B" "B" "C" "C" "D" "D" "E" "E" "F" "F"

薬の種類2 <-factor(薬の種類)

薬の種類2

[1] A A B B C C D D E E F F

Levels: A B C D E F

oneway.test(全グループ~薬の種類2, var.equal=TRUE)
Error in model.frame.default(formula = 全グループ ~ 薬の種類2) :

 variable lengths differ (found for '薬の種類2')

以上のとおりエラーが出てしまうのはなぜでしょうか。
ご教授お願い致します。


下位互換ではないmatrixの行の抽出

tuji (2019-01-04 (金) 20:29:05)

お世話になります。
複数の要素を持つものを比較したときに、他のものそれぞれと比較していずれか要素で大きな値を示す、下位互換ではない(パレート最適である)ものを抽出したいです。
実際は遺伝に関するデータで100*100*100*200行程度、30程度の要素を比較したいと考えています。
例として1クラス40名にトランプを各スート毎に1枚ずつランダムに配って、スート毎に大きいほうが勝つというようなゲームを考え
クラス内の誰に対しても、すべてのスートで負けてしまうことはない生徒をピックアップすることをしました。
下記スクリプトにより問題なく計算はできました。しかし冗長に感じます。
もし有効な関数・パッケージ等ご存知でしたら、教えていただけませんでしょうか。

pop <- 40
suit <- 4
mymat1 <- matrix(as.integer(runif(pop * suit,1,14)), pop,suit)
#40名にスーツごとに(無限セットの)トランプから1枚を配る
mymat2 <- cbind(1:pop, mymat1[order(-mymat1[,1],-mymat1[,2],-mymat1[,3],-mymat1[,4]),])
#最初のスーツの順で並べ替え、各名にIDを振る。スーツが増えた場合スクリプトを書きかえなければいけない
compatible <- as.logical(numeric(pop))
#誰の下位互換でもない場合をT、そうでない場合をFとする用の論理値ベクトル
myfunc <- function(x, y){
 any(x > y) | setequal(x, y)
}
tm <- mymat2
#並べ替えているため、最初のIDは必ず誰の下位互換でもない
for (u in 1:pop){
  Limit <- apply(tm[,-1],1,myfunc,tm[1,-1])
  #applyで行毎に判定するのとは別に、行が増えたとき用に
  #tm[,2] > tm[1,2] | tm[,3] > tm[1,3] | tm[,4] > tm[1,4] | tm[,5] > tm[1,5] | apply(tm[,-1],1,setequal,tm[1,-1])
  #と書く方がよいでしょうか?
  compatible[tm[Limit,][1]] <- T
  #tmの1行目に来るIDの下位互換ではない次のIDは必ず誰の下位互換でもない。
  #IDの1列目がcompatibleの要素にアクセスするために必須になっている。
  tm <- tm[Limit,][-1,]
  #tmの1行目と1行目の下位互換のIDを省く  
  print(u)
  if (length(tm) == suit + 1) {
    compatible[tm[1]] <- T
    break
  }
}
mymat2[compatible,] #確認用

dplyr でfilter を使っていたら急にエラーが出始めました

ポンタ (2018-12-27 (木) 22:07:12)

お世話になります。
初めて投稿します。
昨年(2017年)会社でRを入れてもらえるようになり、本業の傍らで、データの分析を始めたものです。

本日、会社のPC(windows7 32bit)でR(3.4です。RStudioは入れてません)を使ってdplyr::filterを動かしていたら、急にエラーが出始めました。(理由が良くわかりません。勝手にRを再インストールできる現場でもありません)

Error in filter_impl(.data, quo) :
Evaluation error: `as_dictionary()` is defunct as of rlang 0.3.0.


ネットで調べていたら、
https://github.com/tidyverse/dplyr/issues/3941
に同じエラーメッセージが出ていましたが、どのように対応したらよいのか良くわかりません。

rlangというのが悪さをしているようなのでこれの1つ前のバージョン(rlang_0.2.2.tar.gz)を入れなおし、dplyrとRcppも入れなおしましたが、エラーのままです。

どのようにすれば、エラーが出なくなるかご教示頂けないでしょうか?


TIFF画像を用いた衛星画像の土地被覆分類に関して

jun (2018-12-16 (日) 18:49:05)

衛星画像の土地被覆分類をSVMを用いて行いたいと考えているのですが、R初心者のため手順が全くわかりません。
簡単で構いませんので手順を教えていただけると幸いです。

画像の赤、青、緑、近赤外の各バンドの画素値の抽出まではしているのでそこからどのような手順を踏めばいいのかわかっていない状況です。


「他の因子で調整した生存曲線」に関して

pinoj (2018-12-06 (木) 20:53:46)

ハザード比を出す方法に関する質問をさせて頂きたく思います。

例えば、生存期間を決定する因子として、以下の3つの因子が見つかったとします。

性別、年齢、喫煙(すべて01因子とします)

群別する変数に「性別」を、調整に用いる変数に「年齢と喫煙」を設定した場合、
これらの因子で調整した性別に関する生存曲線は、下記のコマンドで作成できました。

coxmodel <- coxph(Surv(Days,Survival==1)~ age + smoking + strata(sex), data=dat, method="breslow")
cox <- survfit(coxmodel)
plot(cox)

上記で、2本のカーブを描くことができました。

しかしながら、この性別の2群間のハザード比(および95%信頼区間)を出す方法がわかりません。

print(coxmodel)

を入力すると、性別ではなく、その他の2因子(年齢と喫煙)に関するハザード比しか得られません。
恐れ入りますが、どうかご教示をお願い申し上げます。


ダミー変数を含む交互作用項を含む重回帰分析について

hisapon (2018-12-01 (土) 16:02:58)

pequodよりlmresを使用して交互作用項を含む3要因の重回帰分析をしておりますが、その交互作用項が連続変数×ダミー変数の場合でも、以下のような式で大丈夫でしょうか。

従属変数:dep 独立変数1(連続変数):ind1 独立変数2(連続変数):ind2 独立変数3(ダミー変数):ind3.dummy
lmres(dep~ind1*ind2*ind3.dummy,centered=c("ind1","ind2","ind3.dummy"),data=dat)  

ダミー変数である独立変数3を中心化させる必要があるのか、また、その後の単純効果分析ではsimpleSlope(・・・,pred="ind1",mod1 = "ind2",mod2="ind3.dummy")で分析を進めれば、-1SDと+1SDで高低群が決定されて効果分析が行われますが、そもそもind3.dummyが0,1の値しかとらないデータとなるとsimpleSlope(・・・,pred="ind1",mod1 = "ind2",mod2="ind3.dummy")で分析しても正確な結果は出てこないのではないかと考えております。

このあたりのことについて教えていただけると有難いです。あるいは、ダミー変数を含む複数要因の重回帰分析でlmres以外の手法でよい方法や手順があればご教示いただきたいです。よろしくお願いいたします。


多重代入後の解析、統合につきまして

noria (2018-11-28 (水) 00:49:28)

皆様お世話になります。
欠損値のあるデータの多重代入後の解析、統合方法についてお教え頂けないでしょうか。
現在、多重代入はAmeliaパッケージ、解析はsurv IDINRIパッケージを用いて2つのモデルのNRIとIDIを求めたいと思っています。下記のスクリプトを入力しましたところ、多重代入(n=5)後の5つの結果を算出できましたが、これをどのようにして統合して良いのか分かりません。お忙しいところ恐縮ですがご教授ください。

スクリプト
dat1 <- read.csv("/Users/###/Desktop/dat1.csv")
library(Amelia)
x = data.frame
m = 5
dat1 <- subset(dat1, select=c("time","status","age","copd","nn","dm","bb","ras"))
dat1.out <- amelia(x = dat1, m = 5)
library(survIDINRI)
for(i in 1:m){

idinri <- dat1.out$imputations[[i]]
D = subset(idinri, select=c("time","status","age","copd","nn","dm","bb","ras"))
D$status = as.numeric(D$status==1)
D=D[!is.na(apply(D, 1, mean)),]; dim(D)
mydata = D
t0 = 365
indata1 = mydata;
indata0 = mydata[,c(-3)]; n=nrow(D);
covs1 <- as.matrix(indata1[,c(-1,-2)])
covs0 <- as.matrix(indata0[,c(-1,-2)])
x <- IDI.INF(mydata[,1:2],covs0,covs1,t0,npert=200)         


IDI.INF.OUT(x);
}


結果
  Est. Lower Upper p-value
M1 0.034 0.000 0.109 0.030
M2 0.203 -0.027 0.402 0.060
M3 0.001 -0.008 0.154 0.607
  Est. Lower Upper p-value
M1 0.039 0.002 0.127 0.020
M2 0.203 0.019 0.377 0.030
M3 0.002 -0.010 0.162 0.517

      Est.  Lower Upper p-value

M1 0.041 0.002 0.138 0.020
M2 0.203 -0.018 0.367 0.060
M3 0.001 -0.008 0.139 0.488

      Est.  Lower Upper p-value

M1 0.033 -0.001 0.135 0.090
M2 0.130 -0.203 0.392 0.109
M3 0.002 -0.010 0.210 0.547
  Est. Lower Upper p-value
M1 0.031 0.000 0.119 0.070
M2 0.203 0.000 0.368 0.050
M3 0.001 -0.007 0.187 0.498


重回帰分析時のエラーについて

-0.889 (2018-11-27 (火) 15:44:27)

初心者です。
Ri386 3.4.3をwindows7professionalで使用しています。
1列目を目的変数として2~8列目を説明変数とした重回帰分析を行おうと以下の入力を行ったところ、

result1 <-lm(data[,1]~data[,2]+data[,3]+data[,4]+data[,5]+data[,6]+data[,7]+data[,8])
Error in data[, 1] : object of type 'closure' is not subsettableというエラーメッセージが表示されてしまいます。
解決法などご教示頂けると助かります。


コピー&ペースト方式の読み込み量の制限について

-0.889 (2018-11-16 (金) 15:50:38)

初心者です。
Ri386 3.4.3をwindows7professionalで使用しています。
重回帰分析を行いたいため、エクセルのファイルデータをコピー&ペーストするとエラーがでます。
Error in scan(file = file, what = what, sep = sep, quote = quote, dec = dec, :

 line 59 did not have 5 elements

4列までは、ペーストできるのですが、5列以上はエラーとなります。
コピー&ペースト方式には、ペーストできる量に制限があるのでしょうか。また、解決法などご教示いただけけると助かります。
よろしくお願い致します。




httrパッケージにおけるPOST関数のURLエンコード

(2018-11-11 (日) 12:32:06)

以下の投稿は,「投稿における注意事項」に反する方法で掲載され,投稿フォームを破壊した上,ページの構成を乱しました。
投稿における注意事項」および「投稿文書の書式」をよく読むよう,注意喚起しておきます。

httrパッケージにおけるPOST関数のURLエンコードについて。あるURLからデータを取得するため、httrパッケージのPOST関数を使用しています。その中で引数bodyに日本語をしているのですがPOST関数はUTF-8でURLエンコードを行っているようです。データ取得先のサーバーに合わせてSHIFT-JISでURLエンコードを行いたいのですが方法はありますでしょうか。


判別分析における定数項のずれについて

東京都下 (2018-10-15 (月) 17:00:39)

皆様始めまして

過去の業務の統計部分を引き継ぐことになり、いちから勉強しています。
2群の直線判別分析を行っているのですがRがpredict計算で出す判別結果と関連係数を組み合わせ手計算で出す結果の値が異なっていました。
結果を再度見てみると定数項が違うことに気づきました。

lda関数を利用した判別関数の定数項導出でもし留意点などございましたらご教示ください

変数は2つしかなくてたとえばa,bとして

result <- lda(y~a+b)
predict_result <- predict(result)
result$means
result$scaling

LD1

a ***
b ***

result$means%*%result$scaling
apply(result$means%*%result$scaling,2,mean)
★ここで定数項が出る

とやってみました。
aとb(係数)については問題ないのですが、定数項があいません。

「あわない」というのは同じデータを別のソフトで解析して出した結果と比較してみて分かったものです。predictで出す判別結果とそのソフトで出す結果の数値はぼぼ同じでした。

今扱おうとしているデータ25000件位有り、2つの整数数値列+1カテゴリーのデータです。具体データは出せないのでもうしわけないのですが、いくつかネット上のサンプル(10*2のデータ)で実施したところ問題はありませんでした。


リストの名前と要素を2列の表形式に保存

nkrit (2018-10-11 (木) 20:48:13)

初心者です。
lst <- list(A=c(1), B=c(2,3), C=c(3,4,5))
のようなリストがありまして、これを
A 1
B 2,3
C 3,4,5
のような2列の表形式に保存したいと考えましたが、
lapply(lst, function(x) write(x, "data", append=T))
これでは、A, B, Cなどの名前が入りませんし、どうしたら簡潔でスマートなのか、思いつかず、困っております(実際は、もっと要素の多いリストなので、手作業でやるのは、かなり骨が折れます)。お忙しいところを恐縮ですが、ご助言いただけましたら、幸いに存じます。


欠損値を含むデータフレームの各列から欠損値だけ抜いて、リストに格納して、次の解析に使いたい

nkrit (2018-10-04 (木) 02:49:41)

欠損値を含むデータフレームの各列から欠損値だけ抜いて、それぞれリストに格納して、次の解析に使いたいのですが、ほとんど手作業のようなコードしか書けずに悩んでいます。
NAのある行をそっくり抜くのではなく,A1なら2要素、A2なら1要素A3なら3要素とも残したいのですが。
どうすればRらしく、すっきりと書けるのでしょうか。何卒よろしくお願いいたします。

df <- data.frame(A1=c("a","b",NA),A2=c("c",NA,NA),A3= c("d","e","f"))
g1 <- df[,"A1"]
g1 <- g1[!is.na(g1)]
g2 <- df[,"A2"]
g2 <- g2[!is.na(g2)]
g3 <- df[,"A3"]
g3 <- g3[!is.na(g3)]
lst <- list(g1,g2,g3)
names(lst) <- c("A1","A2","A3")


日本語のマルチバイト化

うどん (2018-10-03 (水) 23:07:32)

初心者です。
R, Rstudioをmacで使っています。どちらも最新のものにアップデート済です。

no,city,facility_category,facility_name,site,lat,lon,sta,fin
No002,01室蘭,Harbor,崎守埠頭,3,42.365545,140.931244,0,24
No003,05登別,Station,JR登別,9,42.452047,141.180894,9,17

上記のようなcsvファイルを読み込むと、下記のように日本語の部分だけマルチバイト化して表示されてしまいます。


No002 01\216\272\227\226 Harbor \215\350\216\347\225u\223\252 3 42.36554 140.9312 0 24
No003 05\223o\225\312 Station JR\223o\225\312 9 42.45205 141.1809 9 17


一通り調べてみたのですが、エラーも出ず、文字化けでもないようなのでエンコードの問題でもなさそうです。
Rstudio上でfilesから該当ファイルをview fileで読み込むと正常に表示されるのですが、import datasetだとやはりマルチバイトのようになってしまいます。

何か解決策はないでしょうか。よろしくお願いします。

RMeCabC("すもももももももものうち")、で落ちる

pkopw2 (2018-09-24 (月) 12:27:12)

library(RMeCab)
res <- RMeCabC("すもももももももものうち")

2行目を入力したとたんに、落ちてしまいます。エラーメッセージもありません。
Rは64/32bitのいずれも試しましたが、同じ現象でした。
どこがにミステイクがあるのでしょうか。どうかよろしくお願いします。

install.packages("RMeCab", repos = "http://rmecab.jp/R") でダウンロードしました。
使用環境:windows10pro(64bit)、R3.4.1 です。


データフレームにおける値の変換

(2018-09-22 (土) 22:17:08)

下記の変換用データフレームと変換前データフレームがあった時、
変換後データフレームを生成するにはどのようなコードを書けばよいでしょうか。

変換用データフレームは値の上限と下限、変換する値の3項目を持ちます。
変換前データフレームの変数vの範囲を判定して、変換用データフレームの値に変換したいです。

なお実際はどのデータフレームも件数が数千件ほどあります。

変換用データフレーム
lower,upper,value
0,1,7
1,2,5
2,3,4
3,4,3

変換前データフレーム
v
1.5
2.5

変換後データフレーム
v,w
1.5,5
2.5,4


merge()の結合様式に関するパラメータを外部から入力する

nkrit (2018-09-04 (火) 10:21:20)

merge()の結合様式に関するパラメータを外部から入力することを考えているのですが、
前回のご指摘を踏まえて、本質的な部分だけの質問を心がけて、コンソールからの外からの入力に対応するスクリプト部分は省略します。
ポイントは、たとえば、whichに "L"が入力されたら、論理型で all.x=T, all.y=Fと返してくれて、"R"が入ったら、all.x=F, all.y=Tとなり、該当するローマ字を入れなければ、自動的にall.x=T, all.y=F (left merge) が選ばれるような仕組みを作りたいと思いました。
そこで、

which <-"L" # may change to others
xyTF <- list(c(T,F),"left") # default here --> all.x=T, all.y=F
  switch(which, 
  "L" = xyTF <- list(c(T,F),"left"), 
  "R" = xyTF <- list(c(F,T),"right"), 
  "O" = xyTF <- list(c(T,T),"outer"), 
  "I" = xyTF <- list(c(F,F),"inner"),
  "l" = xyTF <- list(c(T,F),"left"), 
  "r" = xyTF <- list(c(F,T),"right"), 
  "o" = xyTF <- list(c(T,T),"outer"), 
  "i" = xyTF <- list(c(F,F),"inner"),
  cat("\n When other letters  => 'left merge' is automatically selected.\n\n")
)
cat("Mode: ", which,"=[" , xyTF[[2]], "]\n")
all.x=xyTF[[1]][1]
all.y=xyTF[[1]][2]

# example: Mdata <- merge(Ldata, Rdata, by.x=Lkey, by.y=Rkey, all.x=xyTF[[1]][1], all.y=xyTF[[1]][2])

としてみました。なにぶん独学で、周囲に批判的なコメントをくださる人がいないもので、ふつうは、どうすべきなのかよくわからず、もっと筋の良い(うまい)プログラミングってあるのかと思い、質問させていただきます。なにとぞアドバイスのほど、よろしくお願いいたします。答えは出るのだから、これでも構わないとかでも、ありがたいです。


自分のp値のデータセット(例えば5千個)のそれぞれの値が、並べ替えで得られたp値データセット(例えば1万個)のうちの何番目に位置するか(小さい方から何%に入るか)を計算していきたい時

nkrit (2018-08-29 (水) 00:51:11)

ベタに下記のようなスクリプトを書いてみたのですが、とても時間がかかるので、Rのままで、大幅に時間を節約する方法はないかと思いました。
双方のファイルをソートしてから始めると少しは節約になるのかと思いましたが、それでもわかりやすいスクリプトが書けません。アイデアをいただけましたら幸いです。

args <- commandArgs(TRUE)
working.dir <- dirname(args[1])
q.file <- basename(args[1])
p.file <- args[2]

setwd(working.dir)
Qdata <- read.table(q.file, header = T, sep = "\t")

# Qdata[,5] = query pvalue dataset (ex.5,000)
Pdata <- read.table(p.file, header = T, sep = "\t")

# Pdata[,1] = compared pvalue dataset (ex.10,000)
Qdata$count <- 0
Sys.time()
for (i in 1:nrow(Qdata)){

   for (j in 1:nrow(Pdata)){
       if (Qdata[i,5] >= Pdata[j,1])
           Qdata$count[i] <- Qdata$count[i]+1
           # when pvalue in the query dataset is larger than pvalue in the compared dataset, one count is added
   } 
   # ex. nrow(Pdata) = 10,000

}
Sys.time()
Qdata$p_value <- Qdata$count/nrow(Pdata)
pvalue_q.file <- paste0("pvalue_", q.file)
write.table(Qdata, pvalue_q.file, quote = F, sep = "\t", row.names = F)


追加の質問

初心者です (2018-08-11 (土) 08:05:21)

もう一点、こちらも初歩的な質問となり大変恐縮ですが、①に合致するものを②から選択したいです。選択された結果は③のようになります。

sample month
1 201701
1 201702
1 201703
1 201704
1 201705
1 201708
1 201709
2 201705
2 201706
2 201709
2 201712


sample sex age site month
1 Male 34 a 201701
1 Male 34 b 201701
1 Male 34 a 201702
1 Male 34 b 201702
1 Male 35 a 201703
1 Male 35 a 201704
1 Male 35 a 201705
1 Male 35 a 201706
1 Male 35 b 201708
1 Male 35 a 201709
1 Male 35 b 201709
1 Male 35 b 201711
2 Female 63 c 201701
2 Female 63 c 201705
2 Female 63 d 201705
2 Female 63 c 201706
2 Female 64 c 201707
2 Female 64 c 201709
2 Female 64 d 201709
2 Female 64 c 201710
2 Female 64 d 201712


sample sex age site month
1 Male 34 a 201701
1 Male 34 b 201701
1 Male 34 a 201702
1 Male 34 b 201702
1 Male 35 a 201703
1 Male 35 a 201704
1 Male 35 a 201705
1 Male 35 b 201708
1 Male 35 a 201709
1 Male 35 b 201709
2 Female 63 c 201705
2 Female 63 d 201705
2 Female 63 c 201706
2 Female 64 c 201709
2 Female 64 d 201709
2 Female 64 d 201712

merge(データフレーム①,データフレーム②,by.x=”sample”,by.y=”month”)とやってみましたが,column name ‘sample’ is duplicated in the resultというエラーがでます。
大変お手数をおかけしますが、ご教示いただけると幸いです。どうぞよろしくお願いいたします。


重複を除外する方法

初心者です (2018-08-10 (金) 17:20:37)

R初心者です。初歩的な質問で申し訳ございません。
例えば以下のようにサンプルごとに複数の月がデータとしてある場合、重複せずにMonthのデータをピックアップするにはどのように書けばよいでしょうか?
sample Month
1 201701
1 201701
1 201702
1 201703
1 201703
1 201704
1 201704
1 201705
1 201708
1 201708
1 201709
2 201705
2 201706
2 201706
2 201709
2 201709
2 201712

結果は以下のようになります。
sample Month
1 201701
1 201702
1 201703
1 201704
1 201705
1 201708
1 201709
2 201705
2 201706
2 201709
2 201712

大変お手数をおかけしますが、どうぞよろしくお願いします。


変数設定について

むー (2018-08-09 (木) 22:17:57)

変数設定について質問です。英語での入力は問題ないのですが、日本語にするとエラーが出てしまいます。この場合、どの様に設定をすればよろしいでしょうか。因みにMacOSです。
誰か分かる方がおられましたらよろしくお願いします。


グラフのメタファイルでの貼り付け時に不要な余白をなくしたい

pkopw2 (2018-08-08 (水) 16:30:48)

作図したグラフをメタファイルとしてパワポに貼り付ける方法に関しての質問です。

 右クリック>メタファイルにコピー>パワポにコピペ

とすると、グラフが左上に偏ってしまい、右側・下側に無駄な余白が生じてします。その結果、グラフが小さく貼り付けられてしまいます。
(R(3.5.1)、windows10 pro、powerpoint 2016)

この現象は、例えるなら、

par(mfrow=c(2,2))

のコマンドを入力した時に、左上の領域にグラフが描出されるようなイメージです。

前に使っていたパソコン(ver3.2.1、windows8)では、作図したグラフをそのままのサイズで張り付けることができました(そのままというのは、”ビットマップにコピー”として張り付けた時のイメージです)。

結局、パワポにコピペした後にグループ化を解除したりして一応何とかなるのですが、描出されたグラフをそのままのイメージで、メタファイルとして貼り付けたいのです。


作図領域とデバイス領域がそろっていないのかと思い、下記のコマンドを色々と試してみましたが、

fig = c(0, 1, 0, 1)
par(oma = c(0, 0, 0, 0))
plt = c(0, 1, 0, 1)
par(mfrow=c(1,1))

昨日からずっと解決できていません。
初歩的な質問で恐縮ですが、どうかよろしくお願いします。


複数のデータフレームを加工したい

sk (2018-08-04 (土) 08:03:33)

複数のデータフレームを同じ操作で加工したいのですが、うまくできません。
ベクターでも一緒なので、やりたいことは下記のような形です。

a <- c(1,2)
b <- c(3,4)

a <- append(a, 9)
b <- append(b, 9)

これを

for (i in list(a,b) ){

i <- append(i, 9)
View(i)

}

のように書くと、Viewでは見えるのですが、
それぞれのデータフレーム(ベクター)は変化していません。

lapply(dlist, function (x) {x <- append(x, 9); View(x)})

も考えたのですがこれも違いました。

for (s in c("a","b") ){

eval(parse(text = paste0(s," <- append(", s, ", 9)")))
eval(parse(text = paste0("View(", s, ")")))

}

これはできるのですが、操作が多いので、すべてを文字列で書くのが面倒ですし視認性も悪いです。本当はどうするのがよいのでしょうか。


selectizeInputを用いてdata.frameの絞り込みを行いたい

sh (2018-07-26 (木) 17:33:16)

用語があっているか自信がないのですが・・・
Database(postgreSQL)接続してテーブルを参照し、そのカラムの1つを(重複削除して)リスト形式にすることで、selectizeInputの選択肢にしています。

■読み込んだテーブル
|ID|要素|
|1|赤|
|1|黄|
|1|青|
|2|赤|
|2|青|
|3|青|
|3|緑|
|4|赤|
|4|緑|

■selectizeInputの選択肢:テーブルの<要素>カラムをunique化したもの
[赤,黄,青,緑]

この選択肢に対して、「選択内容をすべて含むID」を表示したい場合はどうすれば良いのでしょうか。
或いは絞り込むために、表をもっと加工したほうが良いのでしょうか。。

※例
選択:[赤,青] ⇒ 表示ID:1,2
選択:[緑] ⇒ 表示ID:3,4


glmmML()のp値の取得

nkrit (2018-07-20 (金) 22:01:39)

一般化混合線形モデルのパッケージglmmMLで、
result <- glmmML(status ~ x3, data = x, family = binomial, cluster = Columns)
のような形で結果を取得して、係数の推定値と係数の標準偏差は、
result$coefficients[2]
result$coef.sd[2]
のように取得できましたが、
z値やそのp値は、どのように取得すれば良いのでしょうか。
result自体は、

              coef se(coef)       z Pr(>|z|)

(Intercept) -0.1233 0.845 -0.1459 0.884
x3 14.4545 79.892 0.1809 0.856
のような形で表示されてくるので、取得の方法があるのではと思いました。
推定値/標準偏差を後で計算して、2*pnorm()によってP値を取得することもできるかと思いましたが、せっかくもともと表示されているのでそのまま取得したいと思いました。やり方をお教え頂けましたら、大変ありがたく思います。
どうぞ宜しくお願い致します。

念のためresultのstructureを添付させていただきます。

str(result)
List of 18

$ boot                 : num 0
$ converged            : logi TRUE
$ coefficients         : Named num [1:2] -0.123 14.455
 ..- attr(*, "names")= chr [1:2] "(Intercept)" "x[[3]]"
$ coef.sd              : num [1:2] 0.845 79.892
$ sigma                : num 0.0194
$ sigma.sd             : num 31.6
$ variance             : num [1:3, 1:3] 7.14e-01 6.54e-02 5.89e-03 6.54e-02 6.38e+03 ...
$ aic                  : num 28.1
$ bootP                : logi NA
$ deviance             : num 22.1
$ df.residual          : num 13
$ cluster.null.deviance: num 22.1
$ cluster.null.df      : int 14
$ posterior.modes      : num [1:16] -0.00018 -0.000178 -0.000178 -0.000203 -0.000182 ...
$ prior                : chr "gaussian"
$ terms                :Classes 'terms', 'formula'  language status ~ x[[3]]
 .. ..- attr(*, "variables")= language list(status, x[[3]])
 .. ..- attr(*, "factors")= int [1:2, 1] 0 1
 .. .. ..- attr(*, "dimnames")=List of 2
 .. .. .. ..$ : chr [1:2] "status" "x[[3]]"
 .. .. .. ..$ : chr "x[[3]]"
 .. ..- attr(*, "term.labels")= chr "x[[3]]"
 .. ..- attr(*, "order")= int 1
 .. ..- attr(*, "intercept")= int 1
 .. ..- attr(*, "response")= int 1
 .. ..- attr(*, ".Environment")=<environment: R_GlobalEnv> 
 .. ..- attr(*, "predvars")= language list(status, x[[3]])
 .. ..- attr(*, "dataClasses")= Named chr [1:3] "numeric" "numeric" "factor"
 .. .. ..- attr(*, "names")= chr [1:3] "status" "x[[3]]" "(cluster)"
$ info                 : int 0
$ call                 : language glmmML(formula = status ~ x[[3]], family = binomial, data = x, cluster = Columns)
- attr(*, "class")= chr "glmmML"

data.frameの差集合を出したい

sh (2018-07-18 (水) 14:57:23)

テーブルのなかで「指定の文字を含むレコードを除く」のやり方が分からず、
 (1)dbGetQueryで得られたテーブル1
 (2)テーブル1をfilter,greplで絞り込んだテーブル2(部分一致用)
に対し、テーブル1とテーブル2の差集合をとる、
という手法で実現しようとしていますがやり方がわかりません…

setdiffでは目的の挙動をしてくれないのですが、
関数のチョイスが間違っているのでしょうか。
また、「指定の文字を含むレコードを除く」を一発で実現する方法があるのでしょうか。

ご教授いただければ幸いです。


poisson.test()について

ワイン (2018-07-18 (水) 06:19:51)

お世話になります。poisson.test()で検定をするためヘルプファイルを確認したところ、以下のような引数になっていました。

poisson.test(x, T = 1, r = 1,alternative = c("two.sided", "less", "greater"), conf.level = 0.95)

 

x  number of events. A vector of length one or two.
T  time base for event count. A vector of length one or two. 
r  hypothesized rate or rate ratio


イベント発生数x=5の場合の検定結果は以下のとおりです。

> poisson.test(x=5)

        Exact Poisson test

data:  5 time base: 1
number of events = 5, time base = 1, p-value = 0.00366
alternative hypothesis: true event rate is not equal to 1
95 percent confidence interval:
  1.623486 11.668332
sample estimates:
event rate 
         5 


質問1:引数rやTの意味が分からないのですが、たとえばx=5,r=2とした場合、真のイベント発生数は10であるという帰無仮説で検定をするのでしょうか

質問2:ポアソン分布で検定をするならば、平均値λを定義しないと分布の形状が決定できないと思うのですが、引数で指定しなのはなぜでしょうか。

お手数ですが、ご回答宜しくお願い致します。


オブジェクトのアスキーテキスト表現

nkrit (2018-07-08 (日) 16:07:20)

> class(data)
[1] "numeric"
> cat(data)
2 2 4 6 4 5 2 3 1 2 0 4

このような数値型のベクトルを、あとで他人が同じデータで試せるように、たとえば、

data <- c(2,2,4,6,4,5,2,3,1,2,0,4)

のような形でスクリプトの一部として保存しておきたいのですが、それぞれの数値の要素の後ろにカンマをつける良い方法が思いつきません。

for (i in 1:50){
 cat(paste0(data[i],sep=","))
}

のようなことをして出力されたものをペーストしてみましたが、きっともっとよい方法があるのではないかと思いまして投稿しました。簡単な方法があれば教えてください。save(), load()で変数自体を保存するのではなく、ベタに保存しておきたいという希望です。初級者コースと聞いて質問致します。


フォントサイズを指定して複数のグラフをプロットすると大きさが変わって困っています

nona (2018-07-08 (日) 14:44:41)

 Rでプロット領域を分割して、かつフォントサイズをpsで指定してプロットさせると、
分割領域が2つまでは指定した通りのフォントサイズになるようなのですが、それ以上になるとフォントが小さくなって困っています。
 領域が狭いのが原因と思い、マウスでウインドウを広げた後に再度プロットしたり、par(mar=)で余白を広げてもダメでした。
どなたか、複数のグラフを1枚にプロットするときに、フォントサイズが指定通りの大きさになる方法をお教えください。
 以下、試した設定です。

  1. フォントサイズの指定がうまくいく
    jpeg("myplot.jpg", height=1000, width=1000)
    par(mfrow=c(1,2), ps=16)
    plot(iris[,1],iris[,2])
    plot(iris[,3],iris[,2])
    dev.off()                

  2. フォントサイズを指定しても、上と比べて字が小さくなる
    jpeg("myplot2.jpg", height=1000, width=1000)
    par(mfrow=c(1,3), ps=16)
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    dev.off()      

  3. 軸周辺の余白を広げても変化なし
    jpeg("myplot3.jpg", height=1000, width=1000)
    par(ps = 16, mfrow=c(1,3), mar = c(6, 6, 4, 2))
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    dev.off()      

  4. プロット自体を小さくしても変化なし
    jpeg("myplot4.jpg", height=1000, width=1000)
    par(ps = 14, mfrow=c(1,3), pin = c(1,2))
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    plot(iris[,1],iris[,2])
    dev.off()

分散分析

kx (2018-07-08 (日) 12:52:20)

valores <- c(1,-1,0,-2,-3,-4,-2,0,1,1,4,0,1,-2,-3,0,4,2,-1,0,-2,0,3,2,2,4,0,-2,0,2,1,-1,2,3,2,1)

supplier <- factor(rep(1:3, each=12))

batches <- factor(rep(rep(1:4, each=3), 3))

のように入力し、

purity <- data.frame(valores,supplier,batches)
としてデータフレームを行い、
このpurityをsummaryでしたいのですが、この時にerrorの要素も入れるためには、

purity <- data.frame(valores,supplier,batches)だけではダメで、どのような操作が必要か分からずに困っています。

どなたかお教えくださいませんでしょうか。


ベクトルから連続する値を削除する

(2018-06-25 (月) 23:56:24)

c(1,2,2,3,4,2,2,1,1,1)
のようなベクトルがあった時に
下記のように連続する値をもつ要素を削除する方法はありますでしょうか?
c(1,2,3,4,2,1)

実際のベクトルは非常に長いのでループ処理は避けたいです。


要因ごとの計測

ぐれいぴ (2018-06-22 (金) 09:29:57)

いろいろ調べたのですが、分からなかったのでお教え願います。

以下のようなデータがあった時に、要因(A、B、・・・)ごとの数を数えて集計したいと思いました。

a

  factor rate

1 A a
2 A a
3 A a
4 A a
5 A a
6 A b
7 A b
8 A b
9 A c
10 A c
11 B a
12 B a
13 B b
14 B b
15 B b
16 B b
17 B b
18 B c
19 B c
20 B d
21 C a
22 C b
23 C b
24 C b
25 C c
26 C c
27 C c
28 C c
29 C d
30 C d

手入力でAについてaは5個、bは3個、・・・と求めることはできるのですが、このデータを読み込ませたときに自動的(A、B、Cとは全く指定しないで)に、

 a b c d

A 5 3 2 0
B 2 5 2 1
C 1 3 4 2

のように出力させることは可能でしょうか? よろしくお願いします。


restricted cubic splineの変曲点の個数に関して

jj (2018-06-08 (金) 01:40:16)

いつも勉強させていただいております。
一年死亡と血圧の関係をrestricted cubic splineを用いて
coxph(Surv(死亡までの時間,死亡イベントありなし) ~ rcs(PP,変曲点), data=dat)として表しました。
rcs関数だと変曲点の個数は最小3個までなのですが、変曲点1つ、2つの場合はどのように処理すればよいでしょうか?他の関数がありますでしょうか?
宜しくお願い致します。


mclust結果の再現性

さくらんぼ (2018-06-06 (水) 17:02:13)

宜しくお願い致します。

Mclustで繰り返し計算した際の再現性を得たいと考えています。

RdocumentationのMclustの項目に、

initialization
A list containing zero or more of the following components:

subset:
A logical or numeric vector specifying a subset of the data to be used in the initial hierarchical clustering phase. By default no subset is used unless the number of observations exceeds the value specified by mclust.options("subset"). Note that to guarantee exact reproducibility of results a seed must be specified (see set.seed).

とあることは分かったのですが、「再現性を得るためにはシードを設定する」とは具体的にどのようなことでしょうか?


Steel-Dwass検定がうまくいきません

ジョージ (2018-06-05 (火) 17:20:05)

最近Rを使用し始めたばかりの初心者です。
よろしくお願いいたします。

多重比較検定を行う必要があり、NSM3 というパッケージの pSDCFglig というコマンドを用いて Steel-Dwass 検定を行おうと考えています。そこで簡単な例を作ってテストしてみました。


すると、計算が異常に重く、Rが応答しないようになりました。
この原因がわからず困っています。解決法のご教授をお願いいたします。
 - - - - - - - -
 まずは,上の方にも書いてあるように,「投稿における注意事項」を読んで,それに従ってください。
 これに従わない場合には,回答が得られにくい場合があります。 


R3.5.0へのbiOpsインストール

シロツメクサ (2018-05-30 (水) 15:30:05)

よろしくお願いいたします。

Rの最新バージョンであるR3.5.0にbiOpsをインストールしたいです。
色々調べましたが、どの情報が新しいのかもよくわかりません。

どのページから行えばいいのかなど詳しい方法を教えていただけたらありがたいです。

よろしくお願いいたします。


文字列の取り出し

ムーミン (2018-05-26 (土) 17:15:31)

よろしくお願いします。

文字列 "1月",~"12月"から月を除いた文字列を作りたく下記のプログラム書きました。
結果は 1月",~"9月","10","11","12"となりました。
どこが間違っているのかわかりません。
どなたか教えてください。


hkan1 <- C("1月",~"12月")
k <- 0
for (r in hkan1) {

 
k <- k + 1
 
 if ( k < 9 ) t1 <- substring(hkan1, 1, 1)


 else  t1 <- substring(hkan1, 1, 2)
 

}


礼儀知らずの,無礼者

河童の屁は,河童にあらず,屁である。 (2018-05-25 (金) 21:41:41)

もうね
今後
こんな
礼儀知らずの
質問者には
回答しないことに
します


あるカラムの項目を複数選択することでデータセットを絞り込みたい

シント (2018-05-22 (火) 13:16:55)

複数カラムを持つデータセットを、そのうち1つのカラムデータを用いて絞り込みをしたいです。

column01 column02 column03 column04
x1 y1 z1 a1
x2 y2 z2 a2
x3 y3 z3 a3
x3 y3 z2 a4
x1 y4 z4 a1
...

というデータセットに対して column01 に着目し、

[x1]
x2
[x3]
[x4]

の選択ボックス的なものを設けて、対象としたいものをクリックして複数条件(or条件)で絞り込むというイメージです。
DT パッケージの Row 選択に近いのですが、あれは data frame や matrix でしか出力できないと読みました。
チェックボックスやラジオボタンで実現するしか無いのでしょうか。。
ご教授頂ければ幸いです。どうぞよろしくお願いします。




rbayesianOptimizationパッケージの使い方(エラーへの対処法)を知りたいです。

イルカ (2018-05-11 (金) 14:12:07)

train.csvとtest.csvはそれぞれ一列目に画像の判定、二列目以降は30*30の画像データを900列(gray scale)で記したものになっています。
DNNでのrbayesianoptimizationパッケージはそこそこ資料もあるので何とかなるのですが、CNNにするとデータの構造が問題になるようで、どう解決すればいいのかわかりません。
もし、分かる方がいらっしゃいましたら教えてくださると助かります。

以下にコードとエラー、traceback結果を載せています。
長くて申し訳ありません。

> options(max.print=2147483647)
> library(mxnet)
> train <- read.csv('C:/Users/User/R/train/getimage_1/train.csv', header = TRUE)
> test <- read.csv('C:/Users/User/R/train/getimage_1/test.csv', header = TRUE)
> train <- data.matrix(train)
> test <- data.matrix(test)
> train.x <- t(train[, -1])
> train.y <- train[, 1]
> test.x <- t(test[, -1])
> test.y <- test[, 1]
> dim <- 30
> channels <- 1
> test_array <- test.x
> dim(test_array) <- c(dim, dim, channels, ncol(test.x))
> train_array <- train.x
> dim(train_array) <- c(dim, dim, channels, ncol(train.x))
> 
> mxnet_bayes <- function(unit1, unit2, unit3, unit4) {
+     # Model
+     data <- mx.symbol.Variable('data')
+     # 1st convolutional layer 5x5 kernel 
+     conv_1 <- mx.symbol.Convolution(data= data, kernel = c(5, 5), num_filter = unit1)
+     tanh_1 <- mx.symbol.Activation(data= conv_1, act_type = "relu")
+     pool_1 <- mx.symbol.Pooling(data = tanh_1, pool_type = "max", kernel = c(2, 2), stride = c(2, 2))
+     # 2nd convolutional layer 5x5 kernel 
+     conv_2 <- mx.symbol.Convolution(data = pool_1, kernel = c(5, 5), num_filter = unit2)
+     tanh_2 <- mx.symbol.Activation(data = conv_2, act_type = "relu")
+     pool_2 <- mx.symbol.Pooling(data = tanh_2, pool_type = "max", kernel = c(2, 2), stride = c(2, 2))
+     # 1st fully connected layer
+     
+     fcl_1 <- mx.symbol.FullyConnected(data = pool_2, num_hidden = unit3)
+     tanh_3 <- mx.symbol.Activation(data = fcl_1, act_type = "tanh")
+     # 2nd fully connected layer
+     fcl_2 <- mx.symbol.FullyConnected(data = tanh_3, num_hidden = unit4)
+     # Output
+     model <- mx.symbol.SoftmaxOutput(data = fcl_2)
+     # Set seed for reproducibility
+     mx.set.seed(5000)
+     # Device used. Sadly not the GPU :-(
+     device <- mx.cpu()
+     model <- mx.model.FeedForward.create(model, X = train_array, y = train.y, 
+                                          ctx = device, 
+                                          num.round = 20, 
+                                          array.batch.size = 100, 
+                                          learning.rate = 0.07, 
+                                          momentum = 0.99, 
+                                          wd = 0.0000001, 
+                                          eval.metric = mx.metric.rmse, 
+                                          epoch.end.callback = mx.callback.log.train.metric(100), verbose=TRUE)
+ preds <- predict(model, test.x)
+ holdout_score <- rmse(preds, test.y)
+ list(Score=-holdout_score, Pred=-holdout_score)
+ }
> library(Metrics)
> library(rBayesianOptimization)
> opt_res <- BayesianOptimization(mxnet_bayes, 
+                                  bounds=list(unit1=c(200L, 300L), 
+                                              unit2=c(10L, 50L), 
+                                              unit3=c(100L, 150L), 
+                                              unit4=c(80L, 150L)), 
+                                  init_points=20, n_iter=1, acq='ei', 
+                                  kappa=2.576, eps=0.0, verbose=TRUE)
Start training with 1 devices
[1] Train-rmse=0.694788357881959
[2] Train-rmse=0.698895939954201
[3] Train-rmse=0.702352686365657
[4] Train-rmse=0.703651129075772
[5] Train-rmse=0.704188237229376
[6] Train-rmse=0.704072243436174
[7] Train-rmse=0.704307457989986
[8] Train-rmse=0.704044050930675
[9] Train-rmse=0.704189340228431
[10] Train-rmse=0.704024917141773
[11] Train-rmse=0.704088730139514
[12] Train-rmse=0.704510854642202
[13] Train-rmse=0.704353378706923
[14] Train-rmse=0.704272895208268
[15] Train-rmse=0.704260412182352
[16] Train-rmse=0.704688375203385
[17] Train-rmse=0.704331001542547
[18] Train-rmse=0.704090463144038
[19] Train-rmse=0.704570122472829
[20] Train-rmse=0.704810586026211
 symbol$infer.shape(list(...)) でエラー: 
  Error in operator convolution10: [08:26:02] d:\program files (x86)\jenkins\workspace\mxnet\mxnet\src\operator\./convolution-inl.h:377: Check failed: dshp.ndim() == 4U (2 vs. 4) Input data should be 4D in batch-num_filter-y-x
Timing stopped at: 721.7 39.89 440.3
> traceback()
16: stop(list(message = "Error in operator convolution10: [08:26:02] d:\\program files (x86)\\jenkins\\workspace\\mxnet\\mxnet\\src\\operator\\./convolution-inl.h:377: Check failed: dshp.ndim() == 4U (2 vs. 4) Input data should be 4D in batch-num_filter-y-x", 
        call = symbol$infer.shape(list(...)), cppstack = list(file = "", 
            line = -1L, stack = "C++ stack not available on this system")))
15: .External(list(name = "CppMethod__invoke_notvoid", address = <pointer: 0x000000000858fda0>, 
        dll = list(name = "Rcpp", path = "C:/Users/User/Documents/R/win-library/3.4/Rcpp/libs/x64/Rcpp.dll", 
            dynamicLookup = TRUE, handle = <pointer: 0x000000006abc0000>, 
            info = <pointer: 0x000000000652a390>), numParameters = -1L), 
        <pointer: 0x0000000006522b90>, <pointer: 0x0000000008791920>, 
        .pointer, ...)
14: symbol$infer.shape(list(...))
13: mx.symbol.infer.shape(model$symbol, data = c(dimX[[2]], 1))
12: mx.model.select.layout.predict(X, model)
11: predict.MXFeedForwardModel(model, test.x)
10: predict(model, test.x) at #34
9: (function (unit1, unit2, unit3, unit4) 
   {
       data <- mx.symbol.Variable("data")
       conv_1 <- mx.symbol.Convolution(data = data, kernel = c(5, 
           5), num_filter = unit1)
       tanh_1 <- mx.symbol.Activation(data = conv_1, act_type = "relu")
       pool_1 <- mx.symbol.Pooling(data = tanh_1, pool_type = "max", 
           kernel = c(2, 2), stride = c(2, 2))
       conv_2 <- mx.symbol.Convolution(data = pool_1, kernel = c(5, 
           5), num_filter = unit2)
       tanh_2 <- mx.symbol.Activation(data = conv_2, act_type = "relu")
       pool_2 <- mx.symbol.Pooling(data = tanh_2, pool_type = "max", 
           kernel = c(2, 2), stride = c(2, 2))
       fcl_1 <- mx.symbol.FullyConnected(data = pool_2, num_hidden = unit3)
       tanh_3 <- mx.symbol.Activation(data = fcl_1, act_type = "tanh")
       fcl_2 <- mx.symbol.FullyConnected(data = tanh_3, num_hidden = unit4)
       model <- mx.symbol.SoftmaxOutput(data = fcl_2)
       mx.set.seed(5000)
       device <- mx.cpu()
       model <- mx.model.FeedForward.create(model, X = train_array, 
           y = train.y, ctx = device, num.round = 20, array.batch.size = 100, 
           learning.rate = 0.07, momentum = 0.99, wd = 1e-07, eval.metric = mx.metric.rmse, 
           epoch.end.callback = mx.callback.log.train.metric(100), 
           verbose = TRUE)
       preds <- predict(model, test.x)
       holdout_score <- rmse(preds, test.y)
       list(Score = -holdout_score, Pred = -holdout_score)
   })(unit1 = 296, unit2 = 37, unit3 = 118, unit4 = 95)
8: do.call(what = FUN, args = as.list(This_Par))
7: system.time({
       This_Score_Pred <- do.call(what = FUN, args = as.list(This_Par))
   })
6: eval(expr, pf)
5: eval(expr, pf)
4: withVisible(eval(expr, pf))
3: evalVis(expr)
2: utils::capture.output({
       This_Time <- system.time({
           This_Score_Pred <- do.call(what = FUN, args = as.list(This_Par))
       })
   })
1: BayesianOptimization(mxnet_bayes, bounds = list(unit1 = c(200L, 
       300L), unit2 = c(10L, 50L), unit3 = c(100L, 150L), unit4 = c(80L, 
       150L)), init_points = 20, n_iter = 1, acq = "ei", kappa = 2.576, 
       eps = 0, verbose = TRUE)

RStudioの言語設定

代理転載人 (2018-05-10 (木) 13:02:56)

[下記はトップページへのコメントに間違って記入された書き込み(2018-05-08 (火) 20:45:31)の転載です]
これからRを使い始めようかと思っている程度の初心者です。RStudioを使いたいのですが私の持っている教科書は初心者向けのはずなのに、あまり親切ではなくインストールがわかりません。私の理解では初めに日本語のRを入れておけばRStudioでは言語を選ぶ必要はないように思うのですが間違っていますか?


ベクトルの要素のうち奇数のものを表示するプログラム

ムーミン (2018-05-08 (火) 18:44:48)

よろしくお願いします
下記プログラムをRコマンダーで実行すると

エラー:
<text>

となります、どうしてなのかわかりません教えていただけませんか?

 ar <- c(1,3,5,9,11,17,8,7,21,13)
 for (x in ar) { 
	if (x %% 2 == 0) next
        cat(x," ") 
     }

3次元マトリックスの加工

(2018-05-02 (水) 16:08:07)

3次元マトリックスmat[100,100,10]は
100×100の行列で各セル毎に10個の属性値を保有しています。

属性値が最も小さい添え字(1~10)を持つ、
100×100の行列を作成するにはどのようなコードを書けばよいでしょうか?


四分木、八分木を作成することができるパッケージ

(2018-04-30 (月) 01:24:12)

三次元空間からある形状の特徴を抽出するため
四分木もしくは八分木を作成することを試行したいのですが
パッケージはありますでしょうか?


参考書籍

ムーミン (2018-04-21 (土) 18:25:20)

よろしくお願いします
エクセルからのインポートはできかしたが、そのデーターからグラフを作成しょうとWEBをみて回りましたがさっぱりわかりません。(途中が省かれたり解説なかったり、例がインポートしたものではなかったりなど)”Rによるデーターサイエンス”の本図書館から借りてみましたが上級者向けで理解できませんでした。ホントの初心者です、エクセルからインポートしたデーターをグラフ化することが詳しく解説されている書籍を教えてください。
めげそうです。


R言語へのエクセルからのデーターのインポート

ムーミン (2018-04-18 (水) 20:14:01)

どこに書き込んだらよいかわからなかったので新規投稿に書きました
よろしくお願いします。
手順は
1)data4=read.table("clipboard",header=TRUE)を記述、
2)データーをコーピー
3) 1)をエンターキーを押しました。
又は
1)、2)を逆にし実行

下記が結果です。何も起こりません


R version 3.4.4 (2018-03-15) -- "Someone to Lean On"
Copyright (C) 2018 The R Foundation for Statistical Computing
Platform: x86_64-w64-mingw32/x64 (64-bit)

R は、自由なソフトウェアであり、「完全に無保証」です。
一定の条件に従えば、自由にこれを再配布することができます。
配布条件の詳細に関しては、'license()' あるいは 'licence()' と入力してください。

R は多くの貢献者による共同プロジェクトです。
詳しくは 'contributors()' と入力してください。
また、R や R のパッケージを出版物で引用する際の形式については
'citation()' と入力してください。

'demo()' と入力すればデモをみることができます。
'help()' とすればオンラインヘルプが出ます。
'help.start()' で HTML ブラウザによるヘルプがみられます。
'q()' と入力すれば R を終了します。

data4=read.table("clipboard",header=TRUE)


症例対照研究のロジスティック回帰について

AAA (2018-04-17 (火) 22:42:38)

お世話になります。
glm関数で症例対照研究のロジスティック回帰を実行しようとしたのですが、症例対照研究は症例群と対照群のサンプル数を任意に設定できるので、生存率やオッズの算出に意味はないという資料がありました。ロジスティック回帰式の左辺はlog(p/(1-p))で対数オッズを意味していますので、そもそも回帰することができないということになるでしょうか。
glmに目的変数と説明変数を与えると計算結果自体は出力されるのですが、根本的に前提が間違っているような気がしています。

宜しくお願いします。


R言語へのエクセルからのデーターのインポート

ムーミン (2018-04-17 (火) 18:19:45)

よろしくお願いします
下記データーをRコンソール、にクリップボードを介してインポートする方法を教えてください。

R言語のインストールは下記のページを参考にして行いました
https://qiita.com/FukuharaYohei/items/8e0ddd0af11132031355

インポートは下記ページを参考にしましたがうまくいきません
http://monge.tec.fukuoka-u.ac.jp/r_analysis/input_clipbord00.html

月 電気量 電気料金
1月 306  8184
2月 335  9065
3月 341  9311

R言語のバージョンは3.4.4

ウィンドウズ10でエクセルのバージョンは1803です


2つのデータをlmで回帰したときに傾き切片が有意差を持つかどうか

kagakuma (2018-04-13 (金) 12:00:31)

両対数を取ると明らかに線形関数に乗るデータがあります。
このデータをlm()で線形回帰したところR2が0.95でフィッティングしました。
このデータ群は2つあり、線形回帰したのですが、いずれも違う直線に乗りました。 この結果から傾きと切片が2組でますが、両者の傾きと切片に有意差があるかどうかを確かめる方法はございませんでしょうか。
Rの機能で閉じていると助かりますが、手計算でもできるならやろうと思います。
単純には両者を引き算してそれの傾きと切片を求めるという方法も考えましたが、正当性がわかりません。 よろしくおねがいします。


入門機械学習による異常検知p137

ksaki (2018-04-12 (木) 14:42:13)

お世話になります。

井手剛先生著の
入門 機械学習による異常検知のp137の実行例5.1を真似て、以下のコマンドを入力しましたが、エラーが出ます。
何が間違っているか教えてください。
以下、入力したコマンド

> data <- read.table("R_r1.csv",header=T)
> data
                                                  a.b.c.d.e.f.g.h.i.j.k
1         P2201A1,-4.78,11,1.44,-0.48,3.83,-10.05,15.79,4.31,1.44,18.66
2     P2201A2,-3.35,-21.53,-11,8.13,-6.22,18.66,-2.87,-0.96,2.39,-11.48
3            P2201A3,2.88,3.63,4.69,0.61,1.21,1.36,-1.67,1.06,1.06,1.67
4       P2201A4,-0.48,3.35,-5.26,-6.22,-3.35,-4.78,0.48,-0.48,1.91,3.35
5    P2201H1,-14.35,-5.26,0,-11.96,-7.66,14.35,-11.48,-5.26,14.35,-0.48
6  P2201H2,12.92,13.87,0.96,13.4,-0.96,1.91,-12.44,-13.87,-10.05,-14.35
7           P2201H3,7.18,3.83,3.35,0,-4.31,-8.61,-12.44,-3.35,1.44,5.74
8     P2201H4,-7.18,-16.27,-16.27,-5.26,2.39,8.61,12.92,12.92,6.7,-0.48
9        P2201V1,-6.7,-3.83,-12.92,2.39,2.39,2.87,12.44,2.87,1.91,-8.13
10   P2201V2,-3.03,-18.17,22.71,-27.25,27.25,-15.14,0,-10.6,-18.17,21.2
11      P2201V3,-4.31,-0.48,1.91,-1.44,-5.26,1.44,3.35,-8.61,-6.7,-2.87
12        P2201V4,0.48,2.39,1.91,3.35,-1.44,-7.18,-5.74,-1.91,7.66,7.66
13       P2202A1,-1.44,-0.96,3.35,1.91,-0.48,0.96,-3.35,-2.39,0.48,-6.7
14         P2202A2,-3.83,0,1.44,-6.22,-3.35,0.96,-1.44,0.48,-0.48,-1.91
15      P2202A3,0.61,-1.36,-0.15,0.61,0.76,-2.57,-2.12,-2.57,-0.91,0.76
16        P2202A4,0.45,2.27,-0.45,1.21,0.15,-0.15,0.76,-1.06,-1.21,1.06
17       P2202H1,5.26,-4.31,-0.48,-1.44,-3.83,0.48,0.48,5.74,-0.48,0.48
18         P2202H2,-0.96,-1.91,-0.96,-5.74,0,1.91,-5.74,1.44,-1.91,-6.7
19       P2202H3,-1.67,0.45,-0.45,2.57,2.27,-1.21,-0.61,-0.3,-0.15,0.45
> cc <- c("a","b","c","d","e","f","g","h","i","j","k")
> mask <- is.element(colnames(data),cc)
> Xc <- t(scale(data[,mask]))
> colnames(Xc) <- t(data[,"a"])
Error in `[.data.frame`(data, , "a") :  未定義の列が選ばれました

コマンド、ここまで
〇環境設定

> sessionInfo()
R version 3.3.3 (2017-03-06)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows 7 x64 (build 7601) Service Pack 1

locale:
[1] LC_COLLATE=Japanese_Japan.932  LC_CTYPE=Japanese_Japan.932   
[3] LC_MONETARY=Japanese_Japan.932 LC_NUMERIC=C                  
[5] LC_TIME=Japanese_Japan.932    

attached base packages:
[1] stats     graphics  grDevices utils     datasets  methods   base     

other attached packages:
[1] MASS_7.3-45

loaded via a namespace (and not attached):
[1] tools_3.3.3


添付ファイル: filelastsave.txt 1252件 [詳細] filetest.emf 582件 [詳細] filetest.wmf 581件 [詳細] filetest-wmf.png 1224件 [詳細] filezh_TW01.png 1247件 [詳細] filees_ES01.png 1236件 [詳細]

トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2023-03-25 (土) 11:19:16