FC2ブログ

ベクトル値関数の最適化 (7)

ベクトル値関数の最適化における、一次方程式系、

JTJh + JTf = 0 --- (1)

ですが、よくよく見ると(見なくても)、Jが横長のときは、JTJはランク落ちで、逆行列を持ちません。

気になって、以下の本、すなわち、最適化本の定番を読んでみましたが、

Nocedal, Wright, "Numerical Optimization", 2006.
Fletcher, "Practical Methods of Optimization",2000.

双方ともに、Jが横長のときの扱いには触れていません。でも、応用では、横長のときがでてくる。おかしいな...いまの疑問はこれです。勉強しよ!
スポンサーサイト

Project Plan 365

いま、某所で「プロジェクト管理」を教えているのですが、肝心のツールが手元にない状態です。プロジェクト管理にツールは必須と言っておきながら、これではいけない。

そこで、MS Projectの購入を検討しました。でも、これは価格が高いんです。どうしようかな...

Microsoftのサイトに入って、関連ツールを調べてみると、"Project Plan 365"というのを発見いたしました。仕様は、MS Projectにそっくりです。もしや、Microsoftのものは、ここからのOEM?などと疑います(事実は不明)。開発元は、Housatonic Softwareという会社です。初めて聞きました。

無料で使えるとのことで、試しました。ほぼMS Projectの操作方法と同じです。やはりツールは必須であることを再認識。

30日のトライアルがあり、1年間で129.99USDなので、おそらく購入するのではないかと思います。

OpenGL Programming Guide (5)

"OpenGL Programming Guide 8th Edition (2013)"、先日の立命館大学での講義に持参しました。

OpenGL Shading Languageの説明をしたあと、同書を学生さんに回覧しました。興味を持ってくれるかな?

講義が終わっても、同書が戻ってこないので、どうしたのかなと思ったら、ウガンダの学生さんがじっと読んでいます。それならと、「興味があるなら、どうぞ持ってて」と言ったら、「アリガトウゴザイマス」となりました。彼はGLSLを習得するのでしょうか。

ピアノ消音ユニット

我が家の半世紀以上経ったアップライトピアノ、今後どうしようか...

いろいろと迷ったあげく、消音ユニット(KORG社製HT-10)を取り付けることにしました。調律付きで10万円強。

これは大正解です。なんと、音色もいろいろ変えられる!

原理はよくわからないのですが、打弦を直前に止めるユニットを内蔵させます。そして、光センサで打弦を読み取り、それを電気信号に変換、ヘッドホンに音を出すという仕組み。

これはハイテクです。すごい仕組みです。

龍馬の命日

昨日(2018年11月15日)、京都のホテルにて、ニュースを見ていました。

この日は坂本龍馬の命日なんですね。龍馬の墓がある、京都霊山護国神社には多くの方が参拝にいらしたとのことでした。しゃも鍋もふるまわれたとのこと。

司馬遼太郎先生著「竜馬がゆく」の最後には、このときの惨劇が詳細に記されています。もちろん、どのような最後を遂げたかというのは知る由もないのですが、この小説は何度も読んだので、それが事実であるかのように、脳裏に刻まれています。

立命館大学レクチャ (3)

本日(2018年11月15日)、立命館大学・びわこ・くさつキャンパスを訪問します。先月に続いて二回目です。

前回(2018年10月25日)と同じで、industrial lectures (fall 2018) での、留学生向けの話です。今日のタイトルは、"Introduction to 3D CG and Stereoscopy"です。またヘタな英語で...

泊まりはまた京都。東本願寺のすぐそばです。なんでも、スタッフの人は常駐しているわけではないようで、カギで勝手に入る仕組みのようです。2年前のイタリアや、昨年のブダペストを思い出します。でも、日本なので不安はない。

OpenGL Programming Guide (4)

訳あって、"OpenGL Programming Guide 8th Edition (2013)"、パラパラとみています。

これは、version 4.3対応なのですが、書籍では更新(9th edition, 2016)がされていますね。Version 4.5対応です。ちなみに最新バージョンは、今年2018年のversion 4.6です。

さて、このversion 4.5対応版ですが、"with SPIR-V"と付記があります。SPIRは、Standard Portable Intermediate Representationの略ですが、おそらくここには踏み込まないと思います。

圏論 (3)

Tom Leinsterの"Basic Category Theory"、パラパラと読んでいます。

某輪講では、第1章のイントロをやっているようなので、それに追いつこうとしていますが、わかったようなわからないような...

ようするに、常識と思われることが書かれてあるものの、よくわからないところもある。もともとこういうのは苦手なんです。

飛ばし読みで、3.3 Historical remarksというのを読みました。これは自然言語なのでわかります。いまの集合論がなぜおかしいのかが書かれてあります。

Deep Learning (26)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.

ついに、第20章(最終章)までやってきました。"Deep Generative Models"です。

20.4がひとつのヤマですね。Deep Boltzmann Machinesです。テクとしては、ベルヌイ分布(0/1なので)、シグモイド関数、KLダイバージェンス、MCMC(ギプスサンプリング)、などですね。これまでの総動員。難しいですが、楽しいです。

岡谷先生の「深層学習」最終章がボルツマンマシンですが、3年前にここを読んだときは全くわかりませんでした(というか、途中でやめた)。でも、いま読むと、多少ともわかるのがうれしい。

自己責任

安田純平氏が、無事に帰国されました。

ここでまた、自己責任論が出ているようですね。私はこの論調に反対します。

自己責任という言葉は、自身に対して使う言葉であり、他者に対して使うべきではありません。自戒を込めて申し上げます。

また、自己責任などとヒトにモノを言うのであれば、匿名ではいけません。これはネットの根本的な問題です。

最後に、ジャーナリストの方々がおっしゃっていますが、ジャーナリストというのは、危険を冒してそのようなところに取材に行くのだということ。なぜか?誰も行かなくなってしまったら、そこがどのような状況になっているのかわからないわけです。我々を代表して、敢えて危険なところに行っているのだと思いたいです。

サンプリングの謎 (2)

昨日(2018年11月7日)の記事にて、コメントをいただきました。

「標本平均と期待値を混同されてはいませんか?」というものです。それで、少し調べてみました。

薩摩順吉先生「確率・統計-理工系の数学入門コース7」の103ページに、「標本平均」と題して以下の記述があります。

「3-2節で定義した平均は、全体の分布がわかっているとして、その確率密度にもとづいて計算した平均である。それに対して、標本平均は、全体のことはわからないまま、その中から抽出した標本について、単に算術平均をとったものである」

なるほど、この記述によれば、私は混同しています。たいへん失礼いたしました。

私は通常の確率・統計本より、機械学習本を読むことが多いのですが、機械学習本だと、標本での平均操作を普通にやり、それを期待値とみなします。もちろん、ある分布からの標本です。ただ、実際には正しい分布はわからないので、あるモデルを仮定し、そこから標本をとってやることになります。

このあたりは、もしかしたら多少の乖離があるのかもしれません。

サンプリングの謎

サンプリングは、日常普通に使われます。

たとえば、ヒトの身長の平均を求めたいときは、ランダムにサンプルを抽出、それの算術平均で計算します。これは誰も疑問に思いません。

しかし、ちょっと待ってください。平均の定義は、サンプル値にその確率をかけて、サンプル数で足し合わせたものですね。

ここに乖離があるわけですが、これはモンテカルロ法でサンプルした状況と同じです。つまり、サンプリングするということは、ある確率密度から抽出するので、すでに確率が考慮されているということです。

このあたり、初歩的な確率・統計本では、きちんと説明がされていないような気がします。気のせいかな?

二項分布 (4)

二項分布 Bin(n, p)の分散は、np(1-p)です。

これを求めるには、さまざまなやり方があります。もちろん、平均の計算よりも難しい。

まず、確率変数をひとつとして分散を計算します。これは分散の定義により、

(0-p)2(1-p) + (1-p)2p = p(1-p) --- (1)

そして、式(1)をn倍してやればよいです。

数式をいじりたい人は、以下の計算をすればよろしい。

Σ(r-np)2nCrpr(1-p)n-r --- (2)

やり方はたとえば、「高校数学の美しい物語」というブログに紹介されています。このサイトの記述は素晴らしく、よく参考にします。

二項分布 (3)

二項分布 Bin(n, p)の平均は、npです。

これを求めるには、さまざまなやり方があります。たとえば、ひとつひとつの確率変数の平均はpなので、それをn倍してやればよい。これが一番簡単です。

数式をいじりたい人は、以下の計算をすればよいです。

ΣrnCrpr(1-p)n-r --- (1)

計算してやると、npになりますが、これは少しややこしいです。やり方はたとえば、「高校数学の美しい物語」というブログに紹介されています。シグマ/コンビネーション/二項定理のよい練習になります。

横浜マラソン2018顛末記

2018年10月28日、予定どおり、「横浜マラソン2018」が開催されました。昨年は台風で中止だったので、それのリベンジです。

最初は抑えて、というか、人混みで走れず、キロ6分半ペースです。しかるに、このペースが幸いして、前半なんとかこれで乗り切りました。

さて、後半です。いつものように、やはり低速走行がもたず、25キロ付近から、歩いたり走ったりの繰り返しとなりました。結局、ネットで5時間ちょうど。平均でキロ7分でした。

コースですが、みなとみらい地区と新杉田付近を往復します。帰りは首都高速を走りました。

天気はよく、昨年のメダルももらいました。一年間どこかに保管してあったわけですね。めでたしです!

二項分布 (2)

昨日(2018年10月31日)、湘南工科大学の講義で、二項分布を紹介しました。

二項分布は簡単そうに見えますが、その中にさまざまな数学のテクが入っていて、重要ですね。まず、場合の数を数えるので、コンビネーションの計算が必要。これには階乗が必要です。また、確率本体の計算では、乗数の計算があり、ゼロの場合も含みます。相応の計算知識が試されるところです。

分布としては最初に出てくるわけですが、思いのほか難しいです。
プロフィール

加納裕(かのうゆたか)

Author:加納裕(かのうゆたか)


[略歴]
1983年3月東京工業大学工学部機械物理工学科卒業
1983年4月(株)図研入社
1987年1月同社退社
1987年2月(株)ソリッドレイ研究所を6名で設立、取締役
1994年3月同社退社
1994年4月(株)スリーディー入社
1996年10月同社取締役
1999年12月上海大学兼務教授
2002年10月同社代表取締役
2009年9月ものつくり大学非常勤講師~現在
2009年10月同社代表退任/退社
2010年1月ソフトキューブ(株)入社~現在(技術顧問)
2017年4月湘南工科大学非常勤講師~現在


[業界団体・学会活動]
電気学会・第三期次世代インタラクティブディスプレイ協同研究委員会(幹事)/最先端表現技術利用推進協会・アカデミック部会(旧:三次元映像のフォーラム)(副部会長)/日本バーチャルリアリティ学会ハプティクス研究委員会(委員)/ACM・SIGGRAPH(Professional Member)/情報処理学会(正会員、CVIM会員)/3Dコンソーシアム(賛助会員)/3DBiz研究会(個人賛助会員)/URCF(特別会員)

----------------

前職:立体映像産業推進協議会(幹事)/日本バーチャルリアリティ学会・論文委員会(委員)


[資格]
TOEIC805点
数学検定1級(数理技能)
中型・普自二免許
サッカー4級審判員

最新記事
最新コメント
最新トラックバック
月別アーカイブ
カテゴリ
検索フォーム
RSSリンクの表示
リンク
ブロとも申請フォーム

この人とブロともになる

QRコード
QRコード