ノートPCにビールを献上 (2)
ビールを献上してしまった、最近中古で買ったノートPC、一週間以上経ちましたが、何事もなかったかのように動いています。
キーボードを外して、内部を掃除しようかな、などとも思ったのですが、寝ている子は起こすな、ということですかね...
キーボードを外して、内部を掃除しようかな、などとも思ったのですが、寝ている子は起こすな、ということですかね...
スポンサーサイト
Idea Makers (2)
Stephen Wolfram(Mathematica開発者)による、"Idea Makers"、暫し積読状態でしたが、またパラパラと読み始めました。
いま、ゲーデルの不完全性定理を勉強していますが、ゲーデルの評伝もあります。最後に、以下の記述があります。
And so it is that from Gödel's abstruse theorem about mathematics has emerged what I believe will be the defining theme of science and technology in the twenty-first century.
やはり勉強しないと...宿題をやらなければ!
いま、ゲーデルの不完全性定理を勉強していますが、ゲーデルの評伝もあります。最後に、以下の記述があります。
And so it is that from Gödel's abstruse theorem about mathematics has emerged what I believe will be the defining theme of science and technology in the twenty-first century.
やはり勉強しないと...宿題をやらなければ!
Deep Learning (27)
Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.
第20章(最終章)の"Deep Generative Models"、20.4.4、Layer-Wise Pretraining、の解読をいたしました。
これはHintonらが、deep neural networkがうまく初期化できることを示したもので、ここからDNNの快進撃が始まったという歴史的なアルゴリズムです。これが、
Algorithm 20.1 The variational stochastic maximum likelihood algorithm for training a DBM with two hidden layers.
として、詳しく紹介されています。ここは難解で、解読するのに一日を費やしました。構造的には、
Algorithm 18.3 The stochastic maximum likelihood / persistent contrastive divergence algorithm using gradient ascent as the optimization procedure.
と同じですが、これにvariationalとNNの学習が追加されているというものです。
Algorithm 20.1の後には、アルゴリズムの紹介はないので、これがわかれば、本書は卒業ということでしょう。
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.
第20章(最終章)の"Deep Generative Models"、20.4.4、Layer-Wise Pretraining、の解読をいたしました。
これはHintonらが、deep neural networkがうまく初期化できることを示したもので、ここからDNNの快進撃が始まったという歴史的なアルゴリズムです。これが、
Algorithm 20.1 The variational stochastic maximum likelihood algorithm for training a DBM with two hidden layers.
として、詳しく紹介されています。ここは難解で、解読するのに一日を費やしました。構造的には、
Algorithm 18.3 The stochastic maximum likelihood / persistent contrastive divergence algorithm using gradient ascent as the optimization procedure.
と同じですが、これにvariationalとNNの学習が追加されているというものです。
Algorithm 20.1の後には、アルゴリズムの紹介はないので、これがわかれば、本書は卒業ということでしょう。
第8回神戸六甲縦走トレイルラン2019
恐怖の、「神戸六甲縦走トレイルラン」の案内が、メールで来ました!昨年の顛末記はこちらです。
http://kanouy.blog9.fc2.com/blog-entry-1998.html
普通のフルマラソンであれば、翌日にはダメージはほとんど残らないのですが(少なくとも普通に歩ける)、このときは、一週間くらいダメージを引きずりました。
なので、おそらくですが、申し込みはいたしません。気がおかしくならない限り...
http://kanouy.blog9.fc2.com/blog-entry-1998.html
普通のフルマラソンであれば、翌日にはダメージはほとんど残らないのですが(少なくとも普通に歩ける)、このときは、一週間くらいダメージを引きずりました。
なので、おそらくですが、申し込みはいたしません。気がおかしくならない限り...
ノートPCにビールを献上
先日、行きつけのバーにて、知人ふたりに、パソコンでプレゼンをしていました。
ビールを脇に置いていたと思ったら、たまたま手前に置いてしまったようで、ついつい手をかけて、キーボードにビールをぶちまけました。とっさに多少は回避したので、それほどの量ではなかった。
即座にキーボード部分を裏表にして、重力の法則で液体を外部に出しました。暫し放置。
そのあとは、何事もなく動いていました。一度再起動をしたところ、ディスクチェックがはいりましたが(SSD)、きちんと立ち上がりました。
その後は特に問題なく使えてます。ネットで調べると、このような事例はかなり多いらしく、ヤバくなった事例もたくさんありますね。私はラッキーだったということです。
ビールを脇に置いていたと思ったら、たまたま手前に置いてしまったようで、ついつい手をかけて、キーボードにビールをぶちまけました。とっさに多少は回避したので、それほどの量ではなかった。
即座にキーボード部分を裏表にして、重力の法則で液体を外部に出しました。暫し放置。
そのあとは、何事もなく動いていました。一度再起動をしたところ、ディスクチェックがはいりましたが(SSD)、きちんと立ち上がりました。
その後は特に問題なく使えてます。ネットで調べると、このような事例はかなり多いらしく、ヤバくなった事例もたくさんありますね。私はラッキーだったということです。
ベクトル値関数の最適化 (7)
ベクトル値関数の最適化における、一次方程式系、
JTJh + JTf = 0 --- (1)
ですが、よくよく見ると(見なくても)、Jが横長のときは、JTJはランク落ちで、逆行列を持ちません。
気になって、以下の本、すなわち、最適化本の定番を読んでみましたが、
Nocedal, Wright, "Numerical Optimization", 2006.
Fletcher, "Practical Methods of Optimization",2000.
双方ともに、Jが横長のときの扱いには触れていません。でも、応用では、横長のときがでてくる。おかしいな...いまの疑問はこれです。勉強しよ!
JTJh + JTf = 0 --- (1)
ですが、よくよく見ると(見なくても)、Jが横長のときは、JTJはランク落ちで、逆行列を持ちません。
気になって、以下の本、すなわち、最適化本の定番を読んでみましたが、
Nocedal, Wright, "Numerical Optimization", 2006.
Fletcher, "Practical Methods of Optimization",2000.
双方ともに、Jが横長のときの扱いには触れていません。でも、応用では、横長のときがでてくる。おかしいな...いまの疑問はこれです。勉強しよ!
Project Plan 365
いま、某所で「プロジェクト管理」を教えているのですが、肝心のツールが手元にない状態です。プロジェクト管理にツールは必須と言っておきながら、これではいけない。
そこで、MS Projectの購入を検討しました。でも、これは価格が高いんです。どうしようかな...
Microsoftのサイトに入って、関連ツールを調べてみると、"Project Plan 365"というのを発見いたしました。仕様は、MS Projectにそっくりです。もしや、Microsoftのものは、ここからのOEM?などと疑います(事実は不明)。開発元は、Housatonic Softwareという会社です。初めて聞きました。
無料で使えるとのことで、試しました。ほぼMS Projectの操作方法と同じです。やはりツールは必須であることを再認識。
30日のトライアルがあり、1年間で129.99USDなので、おそらく購入するのではないかと思います。
そこで、MS Projectの購入を検討しました。でも、これは価格が高いんです。どうしようかな...
Microsoftのサイトに入って、関連ツールを調べてみると、"Project Plan 365"というのを発見いたしました。仕様は、MS Projectにそっくりです。もしや、Microsoftのものは、ここからのOEM?などと疑います(事実は不明)。開発元は、Housatonic Softwareという会社です。初めて聞きました。
無料で使えるとのことで、試しました。ほぼMS Projectの操作方法と同じです。やはりツールは必須であることを再認識。
30日のトライアルがあり、1年間で129.99USDなので、おそらく購入するのではないかと思います。
OpenGL Programming Guide (5)
"OpenGL Programming Guide 8th Edition (2013)"、先日の立命館大学での講義に持参しました。
OpenGL Shading Languageの説明をしたあと、同書を学生さんに回覧しました。興味を持ってくれるかな?
講義が終わっても、同書が戻ってこないので、どうしたのかなと思ったら、ウガンダの学生さんがじっと読んでいます。それならと、「興味があるなら、どうぞ持ってて」と言ったら、「アリガトウゴザイマス」となりました。彼はGLSLを習得するのでしょうか。
OpenGL Shading Languageの説明をしたあと、同書を学生さんに回覧しました。興味を持ってくれるかな?
講義が終わっても、同書が戻ってこないので、どうしたのかなと思ったら、ウガンダの学生さんがじっと読んでいます。それならと、「興味があるなら、どうぞ持ってて」と言ったら、「アリガトウゴザイマス」となりました。彼はGLSLを習得するのでしょうか。
ピアノ消音ユニット
我が家の半世紀以上経ったアップライトピアノ、今後どうしようか...
いろいろと迷ったあげく、消音ユニット(KORG社製HT-10)を取り付けることにしました。調律付きで10万円強。
これは大正解です。なんと、音色もいろいろ変えられる!
原理はよくわからないのですが、打弦を直前に止めるユニットを内蔵させます。そして、光センサで打弦を読み取り、それを電気信号に変換、ヘッドホンに音を出すという仕組み。
これはハイテクです。すごい仕組みです。
いろいろと迷ったあげく、消音ユニット(KORG社製HT-10)を取り付けることにしました。調律付きで10万円強。
これは大正解です。なんと、音色もいろいろ変えられる!
原理はよくわからないのですが、打弦を直前に止めるユニットを内蔵させます。そして、光センサで打弦を読み取り、それを電気信号に変換、ヘッドホンに音を出すという仕組み。
これはハイテクです。すごい仕組みです。
龍馬の命日
昨日(2018年11月15日)、京都のホテルにて、ニュースを見ていました。
この日は坂本龍馬の命日なんですね。龍馬の墓がある、京都霊山護国神社には多くの方が参拝にいらしたとのことでした。しゃも鍋もふるまわれたとのこと。
司馬遼太郎先生著「竜馬がゆく」の最後には、このときの惨劇が詳細に記されています。もちろん、どのような最後を遂げたかというのは知る由もないのですが、この小説は何度も読んだので、それが事実であるかのように、脳裏に刻まれています。
この日は坂本龍馬の命日なんですね。龍馬の墓がある、京都霊山護国神社には多くの方が参拝にいらしたとのことでした。しゃも鍋もふるまわれたとのこと。
司馬遼太郎先生著「竜馬がゆく」の最後には、このときの惨劇が詳細に記されています。もちろん、どのような最後を遂げたかというのは知る由もないのですが、この小説は何度も読んだので、それが事実であるかのように、脳裏に刻まれています。
立命館大学レクチャ (3)
本日(2018年11月15日)、立命館大学・びわこ・くさつキャンパスを訪問します。先月に続いて二回目です。
前回(2018年10月25日)と同じで、industrial lectures (fall 2018) での、留学生向けの話です。今日のタイトルは、"Introduction to 3D CG and Stereoscopy"です。またヘタな英語で...
泊まりはまた京都。東本願寺のすぐそばです。なんでも、スタッフの人は常駐しているわけではないようで、カギで勝手に入る仕組みのようです。2年前のイタリアや、昨年のブダペストを思い出します。でも、日本なので不安はない。
前回(2018年10月25日)と同じで、industrial lectures (fall 2018) での、留学生向けの話です。今日のタイトルは、"Introduction to 3D CG and Stereoscopy"です。またヘタな英語で...
泊まりはまた京都。東本願寺のすぐそばです。なんでも、スタッフの人は常駐しているわけではないようで、カギで勝手に入る仕組みのようです。2年前のイタリアや、昨年のブダペストを思い出します。でも、日本なので不安はない。
OpenGL Programming Guide (4)
訳あって、"OpenGL Programming Guide 8th Edition (2013)"、パラパラとみています。
これは、version 4.3対応なのですが、書籍では更新(9th edition, 2016)がされていますね。Version 4.5対応です。ちなみに最新バージョンは、今年2018年のversion 4.6です。
さて、このversion 4.5対応版ですが、"with SPIR-V"と付記があります。SPIRは、Standard Portable Intermediate Representationの略ですが、おそらくここには踏み込まないと思います。
これは、version 4.3対応なのですが、書籍では更新(9th edition, 2016)がされていますね。Version 4.5対応です。ちなみに最新バージョンは、今年2018年のversion 4.6です。
さて、このversion 4.5対応版ですが、"with SPIR-V"と付記があります。SPIRは、Standard Portable Intermediate Representationの略ですが、おそらくここには踏み込まないと思います。
圏論 (3)
Tom Leinsterの"Basic Category Theory"、パラパラと読んでいます。
某輪講では、第1章のイントロをやっているようなので、それに追いつこうとしていますが、わかったようなわからないような...
ようするに、常識と思われることが書かれてあるものの、よくわからないところもある。もともとこういうのは苦手なんです。
飛ばし読みで、3.3 Historical remarksというのを読みました。これは自然言語なのでわかります。いまの集合論がなぜおかしいのかが書かれてあります。
某輪講では、第1章のイントロをやっているようなので、それに追いつこうとしていますが、わかったようなわからないような...
ようするに、常識と思われることが書かれてあるものの、よくわからないところもある。もともとこういうのは苦手なんです。
飛ばし読みで、3.3 Historical remarksというのを読みました。これは自然言語なのでわかります。いまの集合論がなぜおかしいのかが書かれてあります。
Deep Learning (26)
Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.
ついに、第20章(最終章)までやってきました。"Deep Generative Models"です。
20.4がひとつのヤマですね。Deep Boltzmann Machinesです。テクとしては、ベルヌイ分布(0/1なので)、シグモイド関数、KLダイバージェンス、MCMC(ギプスサンプリング)、などですね。これまでの総動員。難しいですが、楽しいです。
岡谷先生の「深層学習」最終章がボルツマンマシンですが、3年前にここを読んだときは全くわかりませんでした(というか、途中でやめた)。でも、いま読むと、多少ともわかるのがうれしい。
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.
ついに、第20章(最終章)までやってきました。"Deep Generative Models"です。
20.4がひとつのヤマですね。Deep Boltzmann Machinesです。テクとしては、ベルヌイ分布(0/1なので)、シグモイド関数、KLダイバージェンス、MCMC(ギプスサンプリング)、などですね。これまでの総動員。難しいですが、楽しいです。
岡谷先生の「深層学習」最終章がボルツマンマシンですが、3年前にここを読んだときは全くわかりませんでした(というか、途中でやめた)。でも、いま読むと、多少ともわかるのがうれしい。
自己責任
安田純平氏が、無事に帰国されました。
ここでまた、自己責任論が出ているようですね。私はこの論調に反対します。
自己責任という言葉は、自身に対して使う言葉であり、他者に対して使うべきではありません。自戒を込めて申し上げます。
また、自己責任などとヒトにモノを言うのであれば、匿名ではいけません。これはネットの根本的な問題です。
最後に、ジャーナリストの方々がおっしゃっていますが、ジャーナリストというのは、危険を冒してそのようなところに取材に行くのだということ。なぜか?誰も行かなくなってしまったら、そこがどのような状況になっているのかわからないわけです。我々を代表して、敢えて危険なところに行っているのだと思いたいです。
ここでまた、自己責任論が出ているようですね。私はこの論調に反対します。
自己責任という言葉は、自身に対して使う言葉であり、他者に対して使うべきではありません。自戒を込めて申し上げます。
また、自己責任などとヒトにモノを言うのであれば、匿名ではいけません。これはネットの根本的な問題です。
最後に、ジャーナリストの方々がおっしゃっていますが、ジャーナリストというのは、危険を冒してそのようなところに取材に行くのだということ。なぜか?誰も行かなくなってしまったら、そこがどのような状況になっているのかわからないわけです。我々を代表して、敢えて危険なところに行っているのだと思いたいです。
サンプリングの謎 (2)
昨日(2018年11月7日)の記事にて、コメントをいただきました。
「標本平均と期待値を混同されてはいませんか?」というものです。それで、少し調べてみました。
薩摩順吉先生「確率・統計-理工系の数学入門コース7」の103ページに、「標本平均」と題して以下の記述があります。
「3-2節で定義した平均は、全体の分布がわかっているとして、その確率密度にもとづいて計算した平均である。それに対して、標本平均は、全体のことはわからないまま、その中から抽出した標本について、単に算術平均をとったものである」
なるほど、この記述によれば、私は混同しています。たいへん失礼いたしました。
私は通常の確率・統計本より、機械学習本を読むことが多いのですが、機械学習本だと、標本での平均操作を普通にやり、それを期待値とみなします。もちろん、ある分布からの標本です。ただ、実際には正しい分布はわからないので、あるモデルを仮定し、そこから標本をとってやることになります。
このあたりは、もしかしたら多少の乖離があるのかもしれません。
「標本平均と期待値を混同されてはいませんか?」というものです。それで、少し調べてみました。
薩摩順吉先生「確率・統計-理工系の数学入門コース7」の103ページに、「標本平均」と題して以下の記述があります。
「3-2節で定義した平均は、全体の分布がわかっているとして、その確率密度にもとづいて計算した平均である。それに対して、標本平均は、全体のことはわからないまま、その中から抽出した標本について、単に算術平均をとったものである」
なるほど、この記述によれば、私は混同しています。たいへん失礼いたしました。
私は通常の確率・統計本より、機械学習本を読むことが多いのですが、機械学習本だと、標本での平均操作を普通にやり、それを期待値とみなします。もちろん、ある分布からの標本です。ただ、実際には正しい分布はわからないので、あるモデルを仮定し、そこから標本をとってやることになります。
このあたりは、もしかしたら多少の乖離があるのかもしれません。
サンプリングの謎
サンプリングは、日常普通に使われます。
たとえば、ヒトの身長の平均を求めたいときは、ランダムにサンプルを抽出、それの算術平均で計算します。これは誰も疑問に思いません。
しかし、ちょっと待ってください。平均の定義は、サンプル値にその確率をかけて、サンプル数で足し合わせたものですね。
ここに乖離があるわけですが、これはモンテカルロ法でサンプルした状況と同じです。つまり、サンプリングするということは、ある確率密度から抽出するので、すでに確率が考慮されているということです。
このあたり、初歩的な確率・統計本では、きちんと説明がされていないような気がします。気のせいかな?
たとえば、ヒトの身長の平均を求めたいときは、ランダムにサンプルを抽出、それの算術平均で計算します。これは誰も疑問に思いません。
しかし、ちょっと待ってください。平均の定義は、サンプル値にその確率をかけて、サンプル数で足し合わせたものですね。
ここに乖離があるわけですが、これはモンテカルロ法でサンプルした状況と同じです。つまり、サンプリングするということは、ある確率密度から抽出するので、すでに確率が考慮されているということです。
このあたり、初歩的な確率・統計本では、きちんと説明がされていないような気がします。気のせいかな?
二項分布 (4)
二項分布 Bin(n, p)の分散は、np(1-p)です。
これを求めるには、さまざまなやり方があります。もちろん、平均の計算よりも難しい。
まず、確率変数をひとつとして分散を計算します。これは分散の定義により、
(0-p)2(1-p) + (1-p)2p = p(1-p) --- (1)
そして、式(1)をn倍してやればよいです。
数式をいじりたい人は、以下の計算をすればよろしい。
Σ(r-np)2nCrpr(1-p)n-r --- (2)
やり方はたとえば、「高校数学の美しい物語」というブログに紹介されています。このサイトの記述は素晴らしく、よく参考にします。
これを求めるには、さまざまなやり方があります。もちろん、平均の計算よりも難しい。
まず、確率変数をひとつとして分散を計算します。これは分散の定義により、
(0-p)2(1-p) + (1-p)2p = p(1-p) --- (1)
そして、式(1)をn倍してやればよいです。
数式をいじりたい人は、以下の計算をすればよろしい。
Σ(r-np)2nCrpr(1-p)n-r --- (2)
やり方はたとえば、「高校数学の美しい物語」というブログに紹介されています。このサイトの記述は素晴らしく、よく参考にします。
二項分布 (3)
二項分布 Bin(n, p)の平均は、npです。
これを求めるには、さまざまなやり方があります。たとえば、ひとつひとつの確率変数の平均はpなので、それをn倍してやればよい。これが一番簡単です。
数式をいじりたい人は、以下の計算をすればよいです。
ΣrnCrpr(1-p)n-r --- (1)
計算してやると、npになりますが、これは少しややこしいです。やり方はたとえば、「高校数学の美しい物語」というブログに紹介されています。シグマ/コンビネーション/二項定理のよい練習になります。
これを求めるには、さまざまなやり方があります。たとえば、ひとつひとつの確率変数の平均はpなので、それをn倍してやればよい。これが一番簡単です。
数式をいじりたい人は、以下の計算をすればよいです。
ΣrnCrpr(1-p)n-r --- (1)
計算してやると、npになりますが、これは少しややこしいです。やり方はたとえば、「高校数学の美しい物語」というブログに紹介されています。シグマ/コンビネーション/二項定理のよい練習になります。
横浜マラソン2018顛末記
2018年10月28日、予定どおり、「横浜マラソン2018」が開催されました。昨年は台風で中止だったので、それのリベンジです。
最初は抑えて、というか、人混みで走れず、キロ6分半ペースです。しかるに、このペースが幸いして、前半なんとかこれで乗り切りました。
さて、後半です。いつものように、やはり低速走行がもたず、25キロ付近から、歩いたり走ったりの繰り返しとなりました。結局、ネットで5時間ちょうど。平均でキロ7分でした。
コースですが、みなとみらい地区と新杉田付近を往復します。帰りは首都高速を走りました。
天気はよく、昨年のメダルももらいました。一年間どこかに保管してあったわけですね。めでたしです!
最初は抑えて、というか、人混みで走れず、キロ6分半ペースです。しかるに、このペースが幸いして、前半なんとかこれで乗り切りました。
さて、後半です。いつものように、やはり低速走行がもたず、25キロ付近から、歩いたり走ったりの繰り返しとなりました。結局、ネットで5時間ちょうど。平均でキロ7分でした。
コースですが、みなとみらい地区と新杉田付近を往復します。帰りは首都高速を走りました。
天気はよく、昨年のメダルももらいました。一年間どこかに保管してあったわけですね。めでたしです!
二項分布 (2)
昨日(2018年10月31日)、湘南工科大学の講義で、二項分布を紹介しました。
二項分布は簡単そうに見えますが、その中にさまざまな数学のテクが入っていて、重要ですね。まず、場合の数を数えるので、コンビネーションの計算が必要。これには階乗が必要です。また、確率本体の計算では、乗数の計算があり、ゼロの場合も含みます。相応の計算知識が試されるところです。
分布としては最初に出てくるわけですが、思いのほか難しいです。
二項分布は簡単そうに見えますが、その中にさまざまな数学のテクが入っていて、重要ですね。まず、場合の数を数えるので、コンビネーションの計算が必要。これには階乗が必要です。また、確率本体の計算では、乗数の計算があり、ゼロの場合も含みます。相応の計算知識が試されるところです。
分布としては最初に出てくるわけですが、思いのほか難しいです。