ぎょーむ日誌 2007-07-(21-31)
2007 年 07 月 21 日 (土)
-
0900 起床.
寝るのが遅かったので起きるのも遅い,
と.
コーヒー.
朝飯.
アタマぼーっとしてるので怠業.
-
気づいたら正午すぎてたので昼飯しつつ洗濯.
洗濯終了まちつつながしのまわりの掃除.
この洗濯機,
運転がすごく「安定」してて動作が静かだ
……
とゆーか,
今までのがヒドすぎたわけだが.
-
札幌市の
家電りさいくる手順
はかくのごとし,
で
家電回収協力店一覧
とやらをみると
赤坂無線
が当家 (北 12 西 1) からみて至近距離にあった.
いつまでも粗大ゴミとの同居生活を続けるのもイヤなので,
お電話ぎらいの私もお電話交渉にあたらねばならぬ.
さいわいに親切なる店員さんがあれこれ説明してくれて,
(何時になるかわからぬけれど)
本日中に引き取ってくれそうなかんぢで
……
-
しかし受話器をおいてあれこれと考えてるうちに
……
えーい,
また魔がさしてしまったというか,
私はときどき常識からやや逸脱ぎみの重量物運搬
(これ
とか
これ
とか)
やってしまって,
あとから考えると「バカげきったコトをやってしまった」
と後悔するんだけど
……
今回も「夕方まで待たされるのもイヤだし,
歩いて 5 分ぐらいのところだし,
洗濯機ぐらい自力で運べるよなぁ」
とて
「いまからそちらに運びまーす」
などとお電話連絡してしまった次第で
……
[国道 5 号線 (創成川通り) にらむ洗濯機]
はい,
こいつの重量は 20 kg 弱だったんだけど,
じつに持ちにくくてすごく苦闘した.
この状態からだと「背中にかつぐ」というワザが使えたんだけどね
(すると 50 m ぐらいいっきに運べる).
再商品化料金 2520 円 + 収集・運搬料金 2100 円
(これは店からリサイクルセンターへの輸送費も含まれる),
合計 4620 円しはらって 1410 帰宅.
-
あー,
またバカなことやっちゃったよと反省しつつ
(懸案のゴミすてが即決したのはよかったけど)
……
しばらく休憩してから,
1440 自宅発.
曇.
1455 研究室着.
-
アリ文献読みのつづき.
琉球大の
辻研究室
の最近の
アリけんか
論文をよむ.
すごく勉強になるんだが
……
nestmate discrimination はつねに kin selection
の文脈で理解されてるみたいね.
なんでもかんでも血縁淘汰バナシで説明できるとは思えんのだが
……
``Polydomy in ants'' では clonal
植物とアリの多巣性の機能的類似性
(どちらも効率のよいエサ集め・場所とり能力がある)
を指摘し,
巣もしくは genet が機能評価の単位になりうる,
と指摘していたりする.
-
あー,
そして ``dear enemy'' 文献として
Pirk et al. (2001)
(あるいは
Springer 内)
なんかが挙げられているので読んでみたんだけど
……
たしかにこれってたいへんに興味ぶかい研究だと思うんだけど,
「遠方ほど敵対的」
の根拠が (pairwise な構造なのにそういうこと考慮してない)
こういうデータ解析
(Park (2001) の Fig.2)
なんだよね.
-
こういうカウントデータを無理矢理に
正規分布仮定の推定やるのもどうかと思うし
(しかも二変量正規分布を仮定する相関係数とか計算してるし)
……
図をみればわかるように,
このタテ軸はかなり分散の大きな負の二項分布になっているわけで,
(もし pairwise 構造を無視するのであれば)
R
なんかだと
glm.nb()
とかでケリをつけたらいい問題だ.
で,
やったらたぶん distance の影響なんてそんなに大きくない,
と推定されるんではないかな.
-
……
といった文献よみだけでまたオワってしまった.
2040 研究室発.
2100 帰宅.
体重 67.8 kg.
晩飯の準備.
晩飯.
-
前から気になってたコトの
説明
をネット上でみかけてしまった
……
分詞構文のなかには、意味上の主語が主文の主語と異なるのに、意味上の主語をつけないで慣用的に使用される分詞構文があります。これを非人称独立分詞構文と言います。
judging from 〜, considering 〜, given 〜 などがこれにあたります。
で,
てもとの高校生むけ敵国語文法書をよくみなおしてみたら,
ちゃんと「独立分詞構文の例外」「慣用的な分詞構文」
として説明されてた.
うう
-
[今日の運動]
-
[今日の食卓]
- 朝 (1000):
米麦 0.7 合.
豆腐.
- 昼 (1250):
スパゲッティーペペロンチーノ.
キュウリ・レタス・豆腐のサラダ.
- 晩 (2200):
米麦 0.7 合.
タマネギ・ピーマン・卵炒飯.
キュウリ・トマト・レタス・
キャベツ・ニンジン・タマネギ・バジルのサラダ.
2007 年 07 月 22 日 (日)
-
0840 起床.
なぜか電灯つけっぱなしで寝てた
……
コーヒー.
朝飯.
怠業.
-
またアリ文献よみ.
-
昼飯後はまたまた時間のかかるデータ解析こんさるメイルかき.
-
このこんさるに関連して
……
またまた
「集団生物学の中でも群集生態学と集団遺伝学はベイズモデル化
によってデータ解析は大きくかわるだろう
(あるいは観測される現象の理解のしかたもずいぶんと変わってしまうかも)」
論なんだけど.
両分野に共通するのは
-
すごく限定された標本集団から無理矢理
「ホントの集団」モデルをでっちあげてしまう
-
そうすることで rare なタイプの構成要素の
あつかいがザツになりがち
-
めんどうな labeling / assignment 問題が発生しがち
-
そしてアヤしげな
「集団間の距離」
「集団の多様性を表現する指標」
なんてものが乱立している
その他これらから派生するイヤな問題あれこれあるんだけど
……
ベイズモデル的な考えかたによって,
(たとえば)
Gaussian 多項分布とかを Gibbs 分布からサンプリングしていくような
モデル化だと上のような問題は比較的すっきり片づく,
と思うんだけどね.
距離とかだって
「情報損失を表現する確率論的距離 (対数尤度差)」
を一義的に定義できそうだし
(対象とする標本集団間に対しては).
-
ただしそのベイズモデルの計算の「実装」問題とか考えると,
つくづくイヤになるね.
たとえばあるタイプの構成要素 (speices とか)
の「いる・いない」や abundance モデル化にしても,
fixed effects 的な部分,
random effects 的な部分,
種間の分散共分散行列,
などなどことごとく MCMC 計算で生成していく必要あるわけで
……
このあたり,
2 月ごろにやってた豊平川アミノ酸問題で
あるていど経験値をかせいではいるんだけど
……
あれみたいに測定方法依存とかのすごいエラーがあったりすると,
もうぜんぜん何がなんだが,
となるだろうなあ.
-
これってぜんぜん他人ゴトではなく,
8 月後半 - 9 月あたりに捕捉されてしまいそうな ECOAS 下うけデータ解析,
八甲田湿原群「脱」割算値問題と
高山湖沼群動物プランクトン「いる・いない」問題は
まさにこういう問題を正面からとりあつかわねばならないだろう,
と.
あの奇怪なる Wishart 分布とまた対決せねばならぬのか.
どうなることやら.
あ,
8 月中ごろはまた別の水質問題にまきこまれる予感も
……
-
晩飯.
しばらく怠業.
-
われにかえってアリ論文よみのつづき.
ありていに言って,
この孤立無援なるアリ作文を放棄してしまえば,
ただちにアリ体表面の炭化水素組成データ解析に着手できるんだけど
……
-
アリけんか実験の論文とか読んでると
aggression score (観察された一連の行動の攻撃性あらわす得点合計値)
みたいなのがよく出てくるんだけど
……
石狩浜のんびりアリたちのごとく
「(対敵警戒行動である) antennation すると噛みつき攻撃確率が下がる」
みたいな対敵行動連鎖がある場合には,
こういう足し算得点 (linear additive score?)
みたいなモノをつかうのはまずいんじゃありませんかね,
と書けることに気づいた.
いやー,
安直なる「定番の方法」とやらがどんどんひっくりかえっていくね.
-
あらら,
もうとっくに真夜中すぎてる
……
-
[今日の運動]
-
[今日の食卓]
- 朝 (0900):
米麦 0.5 合.
トマト・キャベツ・ニンジン・タマネギ・バジルのサラダ.
- 昼 (1240):
モリモトのサンドイッチ.
トマト・パプリカのスープ.
トマト・キャベツ・ニンジン・タマネギ・バジルのサラダ.
- 晩 (1920):
米麦 0.7 合.
ナメコの味噌汁.
ニラ・豚肉・卵の炒めもの.
トマト・キャベツ・ニンジン・タマネギ・バジルのサラダ.
2007 年 07 月 23 日 (月)
-
0800 起床.
ねむい
……
コーヒー.
朝飯.
0920 自宅発.
晴.
0935 研究室着.
-
またアリ文献よみのつづき.
さっさとアリ作文まわりはかたづけてしまって,
アリ炭化水素データ解析に移行したい
……
-
などと思いながらアリ文献まわりうろうろしてると
……
ふと,
ゐんばぐす
でアリ触角のセンサー + 神経系を模倣する neural network が作れるんでは
(そして ``機械学習'' も可
……
擬似ぼるつまんマシン?
……
まあ複雑な相互作用はいらんと思うんだけど),
という気がしてきた.
いや,
そうなるとむしろ
Bayesian network
になるのか?
ちょっとちがうかな?
-
上のアイデア,
けっこう悪くないような気がしてきた
……
計算にどれだけの時間をくいつぶされるのか,
そもそも MCMC 計算がうまくいくのかどうかもよくわからんけれど.
バックプロパゲイション法なんかで最適化するより
(このアリ研究の場合,
べつに最適化のたぐいをやりたいわけではないので),
Gibbs な空間をふらふらとさまよう神経回路網のほうがそれっぽいような
……
-
たとえば中間層の node の個数なんかも「自動的」に増減できる?
いや,
いったん ``off'' にされた node
まわりの結線加重はめちゃくちゃになるだろうから,
やっぱりダメかしらん?
いやいや,
めちゃくちゃな node ってのは「あってもなくても同じ」になりそうだから,
わりとすぐに off → on になるのかしらん?
-
とうぜんながら,
私などが考えつくようなコトは専門家たちはとっくの昔に
研究ずみ
(あるいは
こちら
のほうがより適切な検索結果か?)
のよーで
……
あ,
neural network winbugs
で検索してみてもけっこう論文が見つかる.
-
てなコトやってるうちに,
とっくに正午をすぎてしまったので北大生協
(中央)
に昼飯調達の旅.
ついでに隣接する大野池やサクシュコトニ川をみてみたんだけど,
やはりアメンボはいない.
研究室にもどって昼飯.
-
アリ文献よみのつづき.
Grzegorz Buczkowski
たちの一連のアルゼンチンアリ研究は面白いなあ.
とくに
Buczkowski et al. (2005),
食いもの (エサの昆虫とか) で体表面炭化水素組成がかわる
(そしてアリたちの敵対性行動も変わる)
ハナシってけっこう重要じゃないかな.
石狩浜のエゾアカヤマアリに関して,
大統領一派は遺伝子ばっかり注目してるみたいだけど
(そして現時点では negative な結果),
「石狩浜ならどこでもたくさん得られるエサ」
がここを ``supercolony らしく'' 見せかけてるんじゃないの,
という気もするんですが.
-
この論文にかぎらず,
他でもいろいろとおもしろそうなキーワードがでてきたりして,
``the diminutive supercolony''
だの,
``context-dependent nestmate discrimination''
だの
……
後者はアルゼンチンアリの「強気」「弱気」
がまわりの状況に応じて変化するんでは,
というハナシ.
岩倉さんのエゾアカヤマアリ実験結果
(拉致られアリは「逃げ腰」)
と何やら関連づけられそうな
……
-
ちょっと不安になってきたので,
岩倉さんの体表面炭化水素データをちょっとヒネくりまわし,
これを測定した城所さんに
あれこれとお尋ねしたほうがよいのかなぁ
……
-
やや不規則生活がつづいてたので,
夕方になるとややばてぎみ
……
ということでアリ文献よみ・アリ作文は 1700 ごろでいったんやめて,
岩倉さんのアリ炭化水素データ変換プログラミング.
これはまあ,
単純作業のようなもので.
-
とりあえず,
まずは作図.
さてさて,
これで 7 コロニ−は判別できるのか?
-
このガスクロマトグラフィーデータ,
まだまだ treatment みたいなことが必要だと思うんだけど
……
上のようなパターンみてると何か調べてみたくなったので,
R
で簡単に使える
library(nnet)
(google)
の feedforward 型ニュ−ラルネット,
もっとも単純な三層
パーセプトロン
による判別を試みてみた.
(後記:
どうも入力層-隠れ層間の weight も最適化してるようなので,
これってパーセプトロンではないような気がしてきた
……)
-
無調整なまデータの
……
といいたいところだけど対数変換している.
おそらく動物の感覚器のレスポンスを考えるとそういうスケイルで
「感じさせる」のが妥当だろうと思うんで.
library(nnet)
nnant1 <- nnet(
colony ~ ., data = dlog, size = 4, rang = 0.1,
decay = 1.0e-4, maxit = 10000
)
print(table(
dlog$colony,
predict(nnant1, dlog, type = "class")
))
# 結果
Atsuta Hoshioki Ishikari Jozankei Oshoro Shinkawa Tarukawa
Atsuta 10 0 0 0 0 0 0
Hoshioki 0 10 0 0 0 0 0
Ishikari 0 0 10 0 0 0 0
Jozankei 0 0 0 9 0 1 0
Oshoro 0 0 0 0 10 0 0
Shinkawa 0 0 0 0 0 10 0
Tarukawa 0 0 0 0 0 0 10
……
と,
まあこのよーに,
中間層 (隠れ層) の個数 (size
)
が 3, 4 個ぐらいあれば
「与えられたデータ全体を区別する」
だけなら 99% ぐらいはうまくできます,
と.
じゃあ,
今度は各コロニー 10 個体のうち半分の 5 個体を学習用,
残り 5 個体を試験用としてみると
……
v.training <- c(sapply(
1:7, function(i) (i - 1) * 10 + sort(sample(1:10, 5))
))
nnant2 <- nnet(
colony ~ ., data = dlog, subset = v.training,
size = 12, rang = 0.1, decay = 5.0e-4, maxit = 10000
)
print(table(
dlog$colony[-v.training],
predict(nnant2, dlog[-v.training,], type = "class")
))
# 結果
Atsuta Hoshioki Ishikari Jozankei Oshoro Shinkawa Tarukawa
Atsuta 4 0 0 1 0 0 0
Hoshioki 0 1 0 2 1 1 0
Ishikari 0 0 2 0 2 0 1
Jozankei 0 0 0 2 0 3 0
Oshoro 0 1 0 0 3 1 0
Shinkawa 0 0 0 1 2 2 0
Tarukawa 1 1 0 0 1 1 1
隠れ層の個数がこれぐらい必要なんだけど,
それでもなかなかうまくいかない.
まあ,
こんなものでしょう.
アリ体表面の炭化水素組成は線形判別法とかひたすら
十年一日のごとくやっていて,
おそらくこういう artificial neural network つかった
解析はまだない (ざっと検索してみた範囲では見つからなかった).
まあ,
パーセプトロンだから学習能力なんて
たいしたことないんだけど,
生物現象の模倣としてはより straightforward
だよね.
で,
重要なのは
こんな判別だけ
では生物学的には無意味,
ということだろう.
Hoshioki の若いワーカーたちはお姉さんたちから
「あなた,
外で働くんなら 7 コロニーの識別ぐらいできなきゃダメよ」
と教育されてから巣のまわりでエサさがししてるのか?
そうではないよね.
ということで,
もっとべつの学習スキーム & 試験が必要になるわけだ
……
ばててきたので撤退.
1955 研究室発.
買いもの.
2015 帰宅.
体重 67.0 kg.
ややアリやせか?
晩飯の準備.
晩飯.
[今日の運動]
[今日の食卓]
- 朝 (0830):
ヨーグルト.
トマト・キャベツ・ニンジン・タマネギ・バジルのサラダ.
- 昼 (1400):
研究室お茶部屋.
納豆巻.
- 晩 (2200):
米麦 0.7 合.
ネギ・豆腐の味噌汁.
タマネギ・ニンジン・レタス・ピーマン・ショウガ・ニンニク・
ブナピー・ホタテの炒めもの.
トマト・キュウリ.
2007 年 07 月 24 日 (火)
-
0700 起床.
コーヒー.
朝飯.
う,
朝からカウントデータ解析こんさる
……
1035 自宅発.
自宅発.
1050 研究室着.
-
えーと昨日かいてたアリ neural network で
炭化水素濃度を対数変換して使うことの正当化のひとつは,
「感覚の強さは刺激の強さの対数に比例する」
という
フェヒナーの法則
(wikipedia: Weber-Fechner law)
の悪用,
ということで.
-
今のデータにはゼロデータは含まれていないけど
……
もし (もとデータもっておられる)
城所さんからゼロを含むデータ
(つまり「ゼロぬき処理」する前のデータ)
を渡された場合は,
そうだなあ,
測定誤差とかを考慮した Bayesian なあつかいが必要になるのかな?
まあ,
最終的には (ある刺激閾値をこえる入力にしか応答しない)
非線形な neural network に「食わせる」わけだから,
濃度
0.0000001 μmol (?)
とかてきとーな値をおしこんでもいいわけだが
……
そうか,
線形判別法とかと比較したときのニューラルネット判別の強みのひとつは,
こういう問題をうまくあつかえる,
ということだな.
-
昨日の
library(nnet)
による炭化水素データ解析のつづき,
じつは同 package の multinom()
(多項 logistic 回帰)
でも同様に推定できるとわかった.
> fit0 <- multinom(colony ~ ., data = dlog)
> fit0
all:
multinom(formula = colony ~ ., data = dlog)
Coefficients:
(Intercept) A B C D E F G
Hoshioki -160.787 93.495 155.25 -347.8654 -22.081 -194.3546 74.185 -169.080
Ishikari -20.039 -63.042 -244.37 -403.2446 -371.311 -77.1832 526.722 279.371
Jozankei -133.633 168.490 -200.43 68.1970 -314.438 -261.4539 -167.454 -42.431
Oshoro 193.391 -16.787 -116.28 6.6953 21.332 -254.0034 -313.117 88.331
Shinkawa -25.612 120.607 173.06 -110.2501 57.424 3.5852 -263.726 -57.633
Tarukawa -146.064 -23.492 -267.25 -82.8609 249.269 -61.7068 214.712 -147.946
H I J K L M N O
Hoshioki 7.670 388.5743 -3.9029 -304.827 -233.90818 616.454 192.311 -12.395
Ishikari -151.814 -491.3550 301.3444 -41.869 345.57834 126.962 -58.226 115.736
Jozankei 447.592 3.2086 60.5417 -74.409 -148.12248 89.806 258.123 131.966
Oshoro -98.285 223.2290 159.5395 187.517 -0.19016 329.265 166.029 78.323
Shinkawa -205.379 74.1548 -19.9271 184.362 276.70534 -101.728 29.297 -67.805
Tarukawa -85.172 -256.0845 40.4551 328.460 -50.73650 48.469 138.853 -79.403
P Q R S T U V W
Hoshioki 186.531 116.7819 -13.252 -203.153 -90.1263 125.86 -252.2161 -111.3959
Ishikari 216.796 1.2474 111.223 216.794 104.7930 -229.66 147.5471 -4.2782
Jozankei 43.812 -181.9078 -118.064 216.945 336.6963 -162.95 67.4382 40.3054
Oshoro -185.117 50.8535 36.150 -200.943 -135.1985 224.57 -155.1527 -198.7463
Shinkawa -104.847 9.7351 378.913 22.425 62.7400 293.75 -308.1354 -9.0895
Tarukawa 4.112 308.4419 311.307 -175.804 9.7507 -172.23 3.0234 -91.7194
X Y
Hoshioki 58.695 -47.898
Ishikari -187.447 -213.472
Jozankei -60.082 -128.031
Oshoro 15.324 -16.013
Shinkawa -415.227 -11.925
Tarukawa 21.964 -204.938
Residual Deviance: 2.7726
AIC: 314.77
しかも
(なンと!)
stepAIC()
によるモデル選択までできる,
と.
25 箇所のガスクロマトグラフィーによる
ピークのうち判別に使える部分を
「選んで」いる,
という
……
> stepAIC(fit0)
...
Call:
multinom(formula = colony ~ D + G + K + M + N + O + P + Q + R +
S + U + V + W, data = dlog)
Coefficients:
(Intercept) D G K M N O P Q
Hoshioki -35802.0 4378.6 -20031.6 -30456.7 58773 20507 -1527.9 -4944.70 9888.7
Ishikari -5264.0 -59267.7 51292.0 -17213.2 15649 33978 10244.8 -282.82 -15747.8
Jozankei 1298.8 -48528.5 28208.0 -5714.3 33506 32659 6243.7 -19584.80 -18697.0
Oshoro 30241.9 -9374.9 -5951.1 -10068.7 31545 26913 9651.4 -11372.27 4636.0
Shinkawa -25116.1 9907.5 -7978.4 -7677.5 19680 14561 -12884.9 -4997.35 17466.9
Tarukawa -15535.1 20752.2 -40435.8 7213.4 13204 13532 -16695.3 8848.42 23986.5
R S U V W
Hoshioki 22094.6 -19065.5 34809.459 -48162.57 -24981
Ishikari -3067.5 12265.3 94.521 -7033.05 -15551
Jozankei 8837.3 -2067.4 7410.352 -3107.35 -15260
Oshoro 1107.5 -16335.5 2408.336 -5926.06 -19343
Shinkawa 49170.6 -36876.6 32909.337 -58468.25 -16706
Tarukawa 23580.8 -22431.6 -12271.873 -489.45 -13283
Residual Deviance: 2.7726
AIC: 170.77
multinom()
のコードみてみると
内部で nnet( ..., skip = T, size = 0, ...)
つまり中間層 (隠れ層) の個数をゼロにして入力層と出力層を直結している
(skip-layer connection),
とわかった.
モデル選択する前後でどちらも「正答」率 95% 以上
(ということで Residual Deviance がだいたい同じ値になっている).
まあ,
これまた昨日と同じく,
「現実のアリにとってはありえない学習」
となるわけだが.
このあたりのこと勉強するには,
たとえば
library(nnet)
まわりを解説している
MASS4 本
がとうぜんながら有用である.
てなことばかり,
で昼飯.
昨日 library(nnet)
の nnet()
のことを「パーセプトロン」と書いたけど,
Ripley 先生の説明よんでるうちにこれって
(一番単純な)
パーセプトロンではない,
という気がしてきた.
そのあたりを検証してみる実験.
(隠れ層-出力層間の結線加重だけを調節する)
パーセプトロンが苦手とする
XOR 問題
をとかせてみる.
> (d <- data.frame(z = c(0, 1, 1, 0), x = c(0, 0, 1, 1), y = c(0, 1, 0, 1)))
z x y
1 0 0 0
2 1 0 1
3 1 1 0
4 0 1 1
> nn <- nnet(z ~ x + y, data = d, size = 4)
# weights: 17
initial value 1.130982
...
final value 0.000059
converged
> nn$fitted.value
[,1]
1 0.00021232
2 0.99940975
3 0.99235554
4 0.00076111
……
うまく学習してるぢゃん.
ということで隠れ層-出力層間の結線加重だけを調節する
パーセプトロンではない,
と示された.
とはいえ,
バックプロパゲイション使ってるわけでもないし.
?nnet
によれば optim( ..., method = "BFGS")
使ってるらしい.
まあ,
ただ単に「feedforward 型の三層ニューラルネット」と言えばいいのかな?
あるいは私のパーセプトロン定義がまちがってて,
これも nnet()
も単なる多層パーセプトロンと考えればよいのかな?
ともあれ,
nnet()
はかなり難しい問題もあつかいうる,
とわかった.
なかなかすばらしいですね.
R には
library(neural)
ってのもあるなあ
……
こういうヘンな GUI つき.
2007 年 07 月 25 日 (水)
-
0830 起床.
生活周期,
カオス化しつつあるような.
コーヒー.
朝飯.
1000 自宅発.
晴.
本日はさすがに札幌でも気温が
29°C
まで上昇する予報
(明日以降はまた涼しくなるようだ).
1015 研究室着.
-
生態学会さーばー雑用.
まあ,
ちょっとした設定変更だけ.
-
ここは A803B 室となってるんだけど,
とうぜんながら A803A 室なる部屋が隣接している.
これは 50 人ぐらい入れる講義室になってる.
もともと A803 一室だったのを A/B と分断してるわけで
……
で,
その A/B へだてるカベがうすくてですね.
803A のほうで二日ほど前から集中講義やってて
(ありがたいことに本日で終了),
「南極学」とかでときどき大音量の video 上映やってる.
なかなかやかましい.
-
石狩浜エゾアカヤマアリ体表面炭化水素データのニューラルネット解析,
とりあえず沖縄発表につかうぶんだけはやってしまおう
(ということで拉致られアリ行動解析の作文は一時休止).
-
いままでの
R
コード断片を整理して,
にゅうらるねっとアリ生成関数を定義する.
NN アリ 1 個体 (学習ずみ) 生成は 2-3 秒ぐらい.
NN アリ 20 個体 × 実験設定数 3 でアリを生成させておいて,
昼飯.
-
にゅうらるねっとアリに対する ``bioassay'' →
その結果のカウント →
作図,
の R コード書いてみる.
とりあえず,
まあこんなものかな
……
訓練用データとして,
-
mate
(味方):
Hoshioki コロニー 10 個体ぶんのデータの各
25 ピークに「ちょっとだけ」正規乱数でゴミを
追加した「ニセ」 Hoshioki アリデータ
-
enemy
(敵):
mate
と同じように作るんだけど,
もっと正規乱数ゴミが大きい
(乱れたパターン)
できたえた Hoshioki worker 的なにゅうらるねっとアリを
(3 とーりの実験設定で)
各 20 個体準備.
中間層の個数を 6 個にしていて「過学習」ぎみなので,
ホンモノ Hoshioki 10 個体をみせても 100% mate
と応答する.
で,
Hoshioki ではない石狩浜 SC 内の他コロニー (diff.nest
)
と SC 外コロニー (non.sc
)
それぞれ 30 個体のデータを「触角でさわらせ」て,
enemy
だと認識する回数をカウントしてみたところ
……
-
まあ,
このように「敵の多い環境 (友 100 敵 100)」で学習すると
同巣のパターンからずれてる他巣のアリを
enemy
あつかいする確率が高まり,
「敵の少ない環境 (友 100 敵 20,または友 180 敵 20)」
だとその確率が下がる,
と.
-
神戸大の尾崎さん (城所さんのボス)
からいろいろと驚くべきエゾアカヤマアリの行動生理実験の
結果を教えていただく
……
やはり手もとの炭化水素データだけでは見えてない部分もかなり
……
-
当方の進捗などもふくめたコメントメイルかき
……
けっこう長文になった.
脱力.
ひと休み.
-
気をとりなおして,
にゅうらるねっとアリたちの作図.
R
とゆーのはぢつにこういう作図に適した言語なわけで
……
[あるアリ個体]
実データを正規乱数で修飾した炭化水素 (人工)
データ 200 パターンでトレイニングされた
あるにゅうらるねっとアリ個体.
上から出力層・隠れ層・入力層.
入力層は 25 個のけみかる感覚素子からなっている.
赤い結線はプラス,
青い結線はマイナスの加重,
太さは加重の大きさをあらわす
(加重がゼロにちかい結線は描画してない).
入力層・隠れ層の数値は閾値.
これは
M:E=180:20
,
つまり「敵の少ない」環境で教育されたもの.
現実のアリとは逆に,
このアリは
mate
かどうか,
を output する
(これはまあどっちでもいいんだが).
-
ところで,
乱数で修飾された炭化水素パターンで
「教育」トレイニングされたアリ個体どもには
「個性」があらわれて,
ですね
……
まあ,
「教材」が似てれば挙動は比較的にているわけだが
(ふたつ上の
enemy
判別グラフ),
結線加重は融通無碍,
というか.
-
いっそのこと教材セット内の 20 個体ぜんぶ出力してみるか.
-
「敵の多い」環境
(
M:E = 100:100
)
で教育された
20 個体
-
「敵の少ない」環境
(
M:E = 180:20
)
で教育された
20 個体
炭化水素 25 ピークのうち,
どれが重要かをみるにはもうひと工夫必要だねえ
……
-
だんだんばててきたので撤退.
2000 研究室発.
2010 帰宅.
体重 67.4 kg.
晩飯の準備.
晩飯.
-
[今日の運動]
-
腹筋運動 30 ×
3 回.
腕立ふせ 10 ×
3 回.
スクワット 100 回.
-
[今日の食卓]
- 朝 (0900):
米麦 0.6 合.
キャベツ・ニンジン・タマネギ・バジルのサラダ.
モヤシ・ネギ・豆腐・卵の炒めもの.
- 昼 (1340):
研究室お茶部屋.
米麦 0.6 合.
キャベツ・ニンジン・タマネギ・バジルのサラダ.
- 晩 (2220):
米麦 0.8 合.
ネギ・ブナシメジの味噌汁.
ニラ・ピーマン・ニンニク・卵の炒めもの.
キャベツ・ニンジン・タマネギ・バジルのサラダ.
2007 年 07 月 26 日 (木)
-
0630 起床.
カオティック生活周期.
涼しい.
しかしよく眠れなかった.
朝飯.
コーヒー.
洗濯.
0910 自宅発.
曇.
0925 研究室着.
-
データ解析こんさるメイル.
R
の lmer()
random effects のいれかたについて
(
example(lmer)
に
登場する)
-
(Days | Subject)
-
(0 + Days | Subject)
はどうちがうのか?
という質問.
FAQ かもしれないと思ったので
Lmer 雑
に回答かいてみる.
-
書いてからまちがいに気づいた.
ぎょーむ日誌の 2007-01-09
にちゃんと正解が書いてあるじゃないか
……
要約してみると,
前者は
(1 + Days | Subject)
あり,
しかも両者の random effects の「事前分布」が独立な正規分布ではなく,
相関のある正規分布つまり多変量正規分布 (この場合は二変量正規分布)
ということだ.
Lmer 雑
を修正.
ranef()
で random efects をチェックせよ,
と.
-
石狩浜エゾアカヤマアリ体表面炭化水素データのニューラルネット解析,
ここまでの経過を VikiWiki 上にまとめる.
-
ひととーり書けたので昼飯.
-
上の補足説明用として,
計算生態学
内の
library(nnet) 説明
をいくらか書いてみる.
-
……
といったアリ計算関連まとめペイジなんかを作りましたよ,
とエゾアカヤマアリ関係者に連絡するメイルかき.
-
ばてたのでお茶部屋でひと休み
……
と思ったらお茶部屋の流しがまたツマっていたので,
復旧作業.
まあ,
いい気分転換にはなりました.
時刻はすでに 1630.
-
昨日の計算,
コマかいところをいろいろと変更してやりなおしてみる.
おもなところとしては,
-
テキが多い環境で学習させると,
neural network 収束計算に失敗することがちょくちょくある;
収束しなかった場合をチェック
(とゆーか training 用データは完ペキに判別できるところまで
過学習させる)
-
nnet()
では「テキかどうか」を答えさせるようにしてみる
(昨日のは「ミカタかどうか」を答えさせていた)
で,
実データを食わせたときの敵性識別はこうなった.
昨日よりちょっとばらつきが減ったぐらいか
……
つまりほとんど変わってないわけで,
それで無問題なんだが.
-
Neural network 結線加重図の見たメはちょっと変わる.
ふーむ,
にゅうらるねっと触覚は
「仲間ならばありえない炭化水素ピーク」
を拾いあつめてきて
「テキだ! テキだ!」
ぱるすを発しているのかしらん
……?
-
1850 研究室発.
ちょい雨.
1900 帰宅.
隣の北 12 生協に買いもの.
近ごろのまいぶーむは北海道産ミディトマト 10-12 個 298 円.
甘くておいしい.
晩飯の準備.
うんどう.
晩飯.
-
[今日の運動]
-
腹筋運動 30 ×
3 回.
腕立ふせ 10 ×
3 回.
スクワット 100 回.
-
ラジオ体操.
ストレッチ.
-
[今日の食卓]
- 朝 (0710):
米麦 0.7 合.
卵炒飯.
ネギ・ブナシメジの味噌汁.
- 昼 (1320):
研究室お茶部屋.
米麦 0.7 合.
キャベツ・ニンジン・タマネギ・バジルのサラダ.
- 晩 (2130):
米麦 0.7 合.
ブナシメジの味噌汁.
コマツナのゴマあえ.
トマト.
アブラコの煮つけ.
アブラコとは?
……
と思って調べてみると
アイナメ
のことだった
(関西ではアブラメ).
2007 年 07 月 27 日 (金)
-
0830 起床.
うう.
コーヒー.
朝飯.
1010 自宅発.
晴.
1025 研究室着.
-
A802 院生部屋内で部分的にネット途絶事件発生
……
調べてみると,
switching hub が壊れてる,
とわかった.
これは交換して対処するしかない.
これにてネット復旧.
-
気がつくと A802 室には同型の hub が転がっていて,
これも壊れているとわかった
……
どうもオカしいと思って調べてみたら
……
製品型番とシリアルナンバーから判断して,
この
(この hub は研究室内で 4 年ぐらい前から使ってる)
ET-FSWH8S2
なる I-O data の switching hub の欠陥品をつかまされてたみたいね.
2004 年 3 月の情報なんだけど,
いまでも
修理センターでの交換
というのに対応してくれているのかな?
いまいちめんどうだな
……
-
とりあえず I-O data の web form から
「まだ修理してくれるの?」
問い合わせをだしてみる.
-
またデータ解析こんさるメイルかき.
-
てなかんぢで午前終了.
あらら.
昼飯.
-
計算もできたことだし,
とりあえず沖縄発表の準備を先にすませるか,
と取りくんでみるが
……
いつものごとく,
というかここでツマるんだよね.
-
ここで障壁が高く感じる一因は
……
作業後半にはラクになるけど前半は苦しい
LaTeX の
\documentclass{seminar}
のせい,
かも.
-
ということで,
A4 反故紙を 8 枚に分断 (A7?)
した紙片に投影資料案を
……
ぜんぶで 20 枚ぐらいか.
-
午前中に問い合わせた壊れ hub 問題,
こういうお返事.
めんどうな点としては,
送料こちらもち & 4 年前 (?) の保証書のたぐいだせ,
というもの.
後者については雪野さんにお尋ねして当時の納品書をさがしてもらうしかない,
かしらん?
(略)
お手元のET-FSWH8S2に関しましては、製品に問題があるかどうかの判断をおこないた
いため、一度、検査・修理させていただきたいと思います。恐れ入ります
が、以下のものを同封していただき、下記の修理宛に宅配便でお送りくださいますよう
お願いいたします。
【同封するもの】
1.問い合わせ番号1301817と記入したメモ
必ず問い合わせ番号1301817をメモにお書きの上、箱の中に同封して
ください。
2.保証書(コピーではなく原本をお願いいたします。)
保証期間内の場合は、保証書に不備がないことをご確認ください。
※販売店印等がない場合は、ご購入の履歴となる証明書(レシート・
納品書・インターネットでの購入の場合は発送のメールなど)を同梱
してください。
<宛 先>
(略)
(発送費用については、修理品を返送する際の費用は当社にて負担させていただきます
ので、恐れ入りますが修理品送付時はお客様ご負担にてお願いいたします。)
(略)
本日午後はあまり進捗ないまま撤退.
1950 研究室発.
2010 帰宅.
晩飯.
[今日の運動]
[今日の食卓]
- 朝 (0920):
米麦 0.5 合.
ブナシメジの味噌汁.
コマツナのゴマあえ.
アブラコの煮つけ.
- 昼 (1230):
研究室お茶部屋.
米麦 0.6 合.
コマツナのゴマあえ.
- 晩 (2200):
米麦 0.7 合.
ネギ・マイタケ・ニンニク・卵の炒めもの.
トマト.
キャベツ・ニンジン・キュウリのサラダ.
2007 年 07 月 28 日 (土)
-
0820 起床.
コーヒー.
洗濯.
朝飯.
また洗濯.
怠業.
-
昼飯くってまた怠業してから,
カラダとアタマの調子を復旧させるべく,
1340 自宅発北大構内走.
曇天ときどき雨.
まあ,
走るには快適な天気.
1445 帰宅.
ちょっと休憩.
ちょっと掃除.
シャワー.
-
1440 自宅発.
曇.
ちょっと雨.
1455 研究室着.
-
来週 (8/4) の沖縄発表準備のつづき.
-
ほとんど進捗せず,
ネット上をふらふらとさまよってしまった.
ふーん
……
民法 877 条第 1 項は
「直系血族及び兄弟姉妹は、互に
扶養
をする義務がある」
などと定めていたのか
……
知らんかった.
-
あるいは KuboWeb top page
を UTF-8 化したり.
これはもっと以前にやっておけばよかった.
そして (残念ながらというか) いづれはサイト内のファイルは
ことごとく UTF-8 化せねばならぬ予感
……
つぎはぎょーむ日誌かな.
2050 研究室発.
北 12 生協で買いもの.
2110 帰宅.
晩飯.
-
[今日の運動]
-
[今日の食卓]
- 朝 (0850):
米麦 0.5 合.
トマト.
キャベツ・ニンジン・キュウリのサラダ.
- 昼 (1210):
イソップベイカリーの巨大クロワッサン.
ライ麦パン.
カマンベイルチーズ.
トマト.
キャベツ・ニンジン・キュウリのサラダ.
- 晩 (2140):
米麦 0.6 合.
キャベツ・ニンジン・キュウリのサラダ.
ニラ・ショウガ・ニンニク・豆腐・ひき肉の麻婆豆腐.
2007 年 07 月 29 日 (日)
-
1100 起床.
なかなか寝つけなくて,
遅寝遅起.
うう.
コーヒー.
朝飯
……
いや,
昼飯か.
-
午後も怠業もーどから脱出できづ.
沖縄アリ準備,
どうなるんだろうね
……
-
日没時刻になってのそのそとおきあがり,
参議院選挙へ.
じつは投票案内のハガキが当家には届いておらず,
何か私が反社会的であるとかそういった理由で
参政権とかを停止されてしまったのかしらん
……
といぶかしみつつ,
とりあえず投票所 (歩いて 5 分ぐらいの北九条小学校)
に行ってみる.
事情を話すとくだんのハガキを自分で書いて再発行することになった.
投票すませて,
せっかく外にでたことだしと晩飯.
2010 帰宅.
-
[今日の運動]
-
[今日の食卓]
- 昼 (1140):
米麦 0.5 合.
キャベツ・ニンジン・キュウリのサラダ.
ニラ・ショウガ・ニンニク・豆腐・ひき肉の麻婆豆腐.
- 晩 (1950):
北 12 西 4 洋食「ねこや」,
ポークソテー (ジンジャーソース,東南アジアふう?)
初めて食べた.
レモングラスも使ったソース,
おいしい.
2007 年 07 月 30 日 (月)
-
0910 起床.
生活周期,
なかなか復調せづ
……
コーヒー.
朝飯.
1040 自宅発.
晴.
1055 研究室着.
-
データ解析こんさる.
めんどうな作図問題になりそうだったので,
めんどうを
library(lattice)
の bwplot()
におしつけてみるこころみ.
par.settings
で設定できること一覧は
names(trellis.par.get())
や
show.settings()
参照.
あるいは
help(trellis.par.get)
に示されているやりかたも参照.
library(lattice)
d <- read.csv("data.csv")
print(bwplot(
total.leaf.area ~ I(as.factor(rppfd)) | sex,
data = d,
layout = c(3, 1),
xlab = expression(bold("rppfd")),
ylab = expression(bold("LA"[total]~~(mm^2/plant))),
par.settings = list(
par.xlab.text = list(cex = 1.2),
par.ylab.text = list(cex = 1.2),
layout.widths = list(left.padding = 0, right.padding = 0),
layout.heights = list(top.padding = 0, bottom.padding = 0)
)
))
-
石狩浜エゾアカヤマアリの
敵性行動データ解析 (階層ベイズモデル)
体表面炭化水素データ解析 (neural network)
についての沖縄発表の準備のつづき.
えーい,
てこずっているな.
-
とりあえずアリ論文の図 (R
で生成した EPS file など)
を LaTeX
\documentclass{seminar}
ファイルに \input{}
や \includegraphics{}
する作業.
スケイリング変換とかけっこうたいへん.
-
途中で昼飯.
-
図表作業,
つづく.
Table のサイズ調整もちょっとめんどう.
まあ,
LaTeX の場合,
最終的には何もかもすっきり resize できるんだけど.
グレイスケイルな論文図の彩色とかも.
これはもとの作図 R コードにたちかえって修正する.
-
まだ半分ぐらいしか終わってないのかなぁ
……
と心配しつつ撤退.
1915 研究室発.
1930 帰宅.
体重 67.4 kg.
買いもの.
晩飯の準備.
うんどう.
晩飯.
-
[今日の運動]
-
腹筋運動 30 ×
3 回.
腕立ふせ 10 ×
3 回.
スクワット 100 回.
-
[今日の食卓]
- 朝 (0950):
米麦 0.6 合.
アサリの味噌汁.
コマツナのゴマあえ.
- 昼 (1410):
研究室お茶部屋.
米麦 0.6 合.
レトルトパウチド八宝菜.
- 晩 (2220):
米麦 0.7 合.
網走シジミの味噌汁.
コマツナのゴマあえ.
ダイコン・キュウリのサラダ.
タマネギ・ネギ・ピーマン・ブナシメジ・干しエビ・
豚肉の炒めもの.
2007 年 07 月 31 日 (火)
-
0830 起床.
コーヒー.
朝飯.
1020 自宅発.
晴.
1035 研究室着.
-
石狩浜エゾアカヤマアリの
敵性行動データ解析 (階層ベイズモデル)
体表面炭化水素データ解析 (neural network)
についての沖縄発表の準備のつづき.
-
あまりススまぬまま昼飯.
-
調査地地図の修正.
手作業なので時間かかる.
意外にも
OpenOffice.org
(ただし ver.2.2 以降)
は解毒能力だけでなくなかなか使えるソフトウェアかもしれない.
-
他の部分もぢりぢりと
……
[Bayesian 宣伝の絵]
ベイズモデルつかえば
空間構造
のある random effects もあつかえますよ,
というのを示すためだけに生成したもの.
R
の
library(spBayes)
(あるいは
本家? サイト)
の
sp.predict()
の
example()
.
これは
Not run
状態になってるので,
こぴぺによる実行が必要.
また
library(MBA)
なる B-spline package もインストールしとかないと,
等高線を描いてくれない.
-
時刻はすでに 1600.
22 枚中 14 枚できた.
石狩浜実験に関する部分.
こうやってみると,
まだぜんぜんできてないかんぢ
……
-
よーやくにして,
にゅうらるねっとアリに関する説明
(ペイジ 16-21) までできた.
あと 3 枚ぐらいなんだけど,
本日はここまで.
2130 研究室発.
2145 帰宅.
体重 67.2 kg.
ぐったりと晩飯.
-
[今日の運動]
-
[今日の食卓]
- 朝 (0930):
米麦 0.5 合.
ナメコの味噌汁.
コマツナのゴマあえ.
ダイコン・キュウリのサラダ.
- 昼 (1220):
研究室お茶部屋.
米麦 0.5 合.
ダイコン・キュウリのサラダ.
- 晩 (2230):
米麦 0.7 合.
ダイコン・油揚・サケの味噌汁.