Deep Learning (14)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) 2016.

第6章は、feedforward networkのおさらいです。もう知っていると言うなかれ。必ず新しい知見が得られます。

167ページに、有名な「XOR学習」の話題が提供されています。隠れ層のないNNでは、これは学習できない。よく知られた話です。なので、ここでの記述は、以下のように結果だけです。

After solving the normal equations, we obtain w = 0 and b = 1/2. The linear model simply outputs 0.5 everywhere.

この事実を実際に確かめたい人は、以下のようにします。まず、計画行列(design matrix)は、

Φ = {{1, 0, 0}, {1, 0, 1}, {1, 1, 0}, {1, 1, 1}} --- (1)

出力は、XORなので、

y = {{0}, {1}, {1}, {0}} ---(2)

Mathematicaで試したので、その記法となっています。これを解くと、

(b, w) = (ΦTΦ)-1ΦTy = {{1/2}, {0}, {0}} --- (3)

が得られました。
スポンサーサイト

Deep Learning (13)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) 2016.

第5章は、機械学習のクイックサマリです。よくこのように短くまとめられるものです。感心します。

111ページに、VC dimension (Vapnik-Chervonenkis dimension) の説明があります。これまでよくわからなかったのですが、読んでみました。すなわち、

The VC dimension is defined as being the largest possible value of m for which there exists a training set of m different x points that the classifier can label arbitrarily.

これは要するに、直線の場合だと、VC dimention = 2、ということですかね?点が2つであれば、どうラベル付けしても、直線で分類できます。でも、3つだと、配置によっては直線だとムリ。

イラストで学ぶ機械学習 (22)

ある仕事で、弱分類機が使えそうなので、それを調べるため、手元にあった、以下の書物を参照しました。

The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition, 2008/12/1
Trevor Hastie,‎ Robert Tibshirani,‎ Jerome Friedman

実はこれ、一時は手放そうと思っていたものです。落書きも消して、さて売るぞと思ったところに、なにかで必要となりました。それで、まだ手元にあります。

ただ、同書を見ても、よくわかりません。なぜかというと、いろいろなところに関連事項が分散されて書かれてあるんです。ちょっと読みづらい。というわけで、やはり「イラスト」。自宅にあるのですが、すぐに見たかったので、近くの本屋さんに行って、立ち読みしました。

実のところ、同じところでつまずいていました。またおバカなことをやってしまった。以下の記事に書かれていたようなことです。

http://kanouy.blog9.fc2.com/blog-entry-1775.html

最初に、これを見ればよかったわけですね。認めると、記憶から消えるということ?

なんでこれが理解できなくなるのかというと、理由はこうです。なぜ、このような複雑な境界を持つ分類機を、弱分類機のたんなる平均で作ることができるのか、ということ。種明かしとしては、この境界は「コンタ」なんです。境界線が、explicitに表現できているわけではない。これをきちんと記憶にとどめること(自分に言い聞かせる)。

Deep Learning (12)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.

3.13 は、情報理論のクイックガイドです。こんなに重要なものが、わずか4ページ!

73ページにcross-entropyの説明があります。これは分かりづらいもののひとつです。この定義と、PRMLの4章に出てくるcross-entropyは、同じものなのでしょうか?

PRMLをみてもよくわからないので、Wikipediaを見てみました。日本語版は、いつものとおり整備されていないのですが、英語版の、"Cross-entropy error function and logistic regression"を読んで、なるほどと思いました。書物よりも、記述が明快です。

Deep Learning (11)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) November 18, 2016.

2.12 はPCAの例ですが、これは面白いです。次元の圧縮と復元が、線型代数を駆使すれば導けて、それがPCAと等価であるということが、4ページもの数式で詳しく紹介されます。数式の変形を丁寧に追うことにより、線型代数のさまざまな技術を習得することができます。

ちなみに、この例の一般化が、「イラストで学ぶ機械学習」、13.2 主成分分析、で示されています。ただし、こちらのほうは、結果だけが示されますので、なぜそうなるのか解らない人には解らないと思います。以前の記事で導出しましたので、ご興味おありのかたは、下記をご覧ください。

http://kanouy.blog9.fc2.com/blog-entry-1821.html

イラストで学ぶ機械学習 (21)

「イラストで学ぶ機械学習」、最後まで到達したのですが、全部理解したかというと、それは甚だ怪しい。難書です。

そうしたところに、こちらも、再読する機会を得ました。がんばります!

Information Theory: a Tutorial Introduction (2)

ある事情により、情報理論を勉強したくなったので、1年以上前に購入した、以下の本を読むことにしました。

James V Stone, Information Theory: A Tutorial Introduction, February 1, 2015

同著者による、ベイズ本とICA本を読み、なかなか書き方が面白かったことから(最初は簡単なふりをして、後半いきなり難しくなる)、同書も購入しておいたのですが、なかなか読み出すきっかけがありませんでした。楽しみです。以前の関連記事はこちらです。

http://kanouy.blog9.fc2.com/blog-entry-1324.html

Deep Learning (10)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) Hardcover – November 18, 2016.

以前、何度か輪読をしましたが、今回、もう少しちゃんと読めそうな機会をいただきました。というわけで、本書にまた挑戦します。新しい知見が得られましたら、適宜報告いたします。

ポアソン分布 (2)

ポアソン分布は、以下の式で表されます。

p(x;μ) = (μxe)/x! --- (1)

pが最大となるxはμです。なぜか、これを導きたいと思いました。

式(1)をxで微分すればよいと思いきや、xはゼロ以上の整数です。なので微分はできません。でもやってしまう。

その前に、式(1)の対数をとります。計算を簡単にするためです。これは合法的。

log(p) = xlog(μ) - μ - log(x!) = xlog(μ) - μ - Σlog(x) --- (2)

式(2)をxで微分します。これは非合法。

d(log(p))/dx = log(μ) - Σ(1/x) --- (3)

式(3)をゼロとおいて解けばよろしい。

式(3)を見ると、第二項を積分とみなせば、log(x)ですね。なので、x=μが導けました。以上、連続離散混合計算でした!

bias and variance (3)

"bias and variance"、PRMLと並行して読んでいる、"Response Surface Methodology (2016)"、第10章ですが、ここの記載がなにかおかしい。

10.2に、PRMLと同じような式を計算しています。やはり(bias)2とvarianceに分かれるのですが、varianceのほうは、二乗しないといけませんよね。548ページの式(10.9)です。

bias and variance (2)

"bias and variance"、避けて通れそうにないので、PRMLの3.2"The Bias-Variance Decomposition"を、再度読み直しました。同書の式(3.38)は以下です。

{y(x;D) - h(x)}2 --- (1)

これを計算します。h(x)は正解(未知)、y(x;D)はデータDが与えられたときの回帰式です(データDに依存することに注意)。

式(1)を計算します。ある項のマイナスとプラスを入れてやるのがミソ(よくやる手)。すなわち、

式(1)
= {y(x;D) - ED[y(x;D)] + ED[y(x;D)] - h(x)}2
= {y(x;D) - ED[y(x;D)]}2 + {ED[y(x;D)] - h(x)}2 + 2{y(x;D) - ED[y(x;D)]}{ED[y(x;D)] - h(x)} --- (2)

ED[]というのは、データDを全て考えたときの平均です。

さて、式(2)のデータDによる平均をとります。PRMLでは、式(2)の3項めがゼロになると書かれてあります。私は最初、相関がないのでゼロになると思っていたのですが、そうではなく(そうかもしれないが)、よく考えれば自明ですね。3項めの最初の項をみれば、これの平均を取るとゼロになるのは明らかです。従って、

ED[{y(x;D) - h(x)}2] = ED[{y(x;D) - ED[y(x;D)]}2] + {ED[y(x;D)] - h(x)}2 --- (3)

が導けました。PRMLでは式(3.40)です。1項めがvariance、2項めが(bias)2です。2項めは、計算上はこれのED[]ですが、外しても同じことです。

IBIS2017 (4)

IBIS2017、三日目(2017年11月10日)の招待講演は、渡辺澄夫先生(東工大)です。これを楽しみにしていました。タイトルは「学習理論よ何処へ」。

理由ですが、ある方から教えてもらった、同先生の「ベイズ統計の理論と方法(2012)」、これが全くわからない。

http://kanouy.blog9.fc2.com/blog-entry-1843.html

こういう本を書かれる方の話を、ぜひお聴きしたいと思いました。

この講演の座長は、言わずと知れた、杉山将先生(だったと思います。間違ったらスミマセン!)でしたが、ご紹介のとき、「私も機械学習でドクターを取ったのですが、その当時、先生の本を見たら、知らない式が次々と出てきた」ということだったそうです。なので、ちょっと安心。

さて、講演です。会議の最後にも関わらず、安田講堂が満席となりました。おそらく、他の方々も、これを楽しみに来られたのではないでしょうか。内容ですが、多大な成果をあげられた人ならではの、まことに含蓄のあるお話でした。このスライドは、先生のサイトにアップされているそうです。

IBIS2017 (3)

「第20回情報論的学習理論ワークショップ(IBIS2017)」、二日目(2017年11月9日)午前中は、「自然言語処理への機械学習の応用」。

JST・中澤敏明氏による、「ニューラル機械翻訳(NMT)の動向」が、たいへん参考になりました。NMTは、そういうものがあるとは聞いていましたが、内容については存じませんでした。

従来の手法は、統計的機械翻訳(SMT)ですが、これとNMTとの比較がまずなされました。う~ん、これを聴いてしまうと、もうNMTしかない?

Google翻訳は、氏によりますと、すべてがNMTに置き換わったそうです。最近、翻訳の品質向上が言われていますが、おそらくこのせいでしょうか。

素晴らしいご講演でしたが、惜しむらくは、GoogleとFacebookの研究紹介に終始したこと。まあ、これは止むを得ませんよね。最先端は、この二社ですからね。

IBIS2017 (2)

IBIS2017、初日(2017年11月8日)の招待講演に、Edward Albert Feigenbaum先生が登壇されました。AIでは著名な方。でも、私はよく知らなかった。カオスで有名なFeigenbaum氏とは別人?

講演後の質問で、質問者の英語が聞き取れないとのことで、日本語を介しての通訳となりました。私は聞き取れた(日本英語のほうが聞き取りやすい)。そのあとの質問者の英語は、より本格的だったのですが(少なくとも私にはそう聞こえた)、これも聞き取れなかったのにはビックリ!

午後は、国際会議採択論文の紹介。面白かったのが、NIPS2017に通った、三井住友アセットマネジメントの方のご発表。タイトルは、"Learning from Complementary Labels"。要するに、ラベル付けが面倒くさいとのことで、「このカテゴリではない」というラベルもよしとするというもの。これが、complementary labelです。「このカテゴリである」というのは、通常のラベルとして扱い、その両者を組み合わせると、性能向上する、という研究です。英語もすばらしくご堪能でした。

IBIS2017

本日(2017年11月8日)から3日間、「第20回情報論的学習理論ワークショップ(IBIS2017)」、に参加してまいります。東大・吉田講堂にて。

最終日の渡辺澄夫先生(東工大)の招待講演が楽しみです。以下は、当該サイトからの引用。

-----------------------------------------------------

学習理論よ何処へ

概要:統計的機械学習が社会や産業のありかたを変革しつつある。その実践においては、人間力・構想力・コミュニケーション力こそが大切であり、統計的機械学習に関する学問的基礎の重要性は相対的に零に収束しつつあるようにも見える。もう学習理論は必要ないのだろうか。もうすぐ数理科学や理論科学がいらない時代になるのだろうか。この講演ではこの問題について考察を行なう。

bias and variance

有名な、"bias and variance"、PRMLの3.2"The Bias-Variance Decomposition"にしっかりと書かれてあります。でも、よくわかりません。アタマ悪いのかな?

そうしたところに、以前から読んでいる、"Response Surface Methodology (2016)"、第10章に、関連の記載を見つけました。この章は、"Advanced topics in response surface methodology"というタイトルなので、高度な話題が書かれてあるところです。あ、やはり高度か、ちょっと安心。

10.1に、biasとvarianceを、具体的な事例で、数式で導出しているところがあります。抽象的な議論が苦手な私としては、これはありがたいです。これを手掛かりに、攻略します。

GOFAI

アメリカ人AI研究者Sが薦めてくれた、'LIFE 3.0 (2017)'、持ち歩いていて、時間のあるときに読んでいます。厚いので、最初からきちんと読むと終わらないので、面白そうなところの拾い読み(よくやる)。

86ページあたりから、DeepMindによるAlphaGoの説明があります。2016年、Lee Sedolとの棋譜に関して、興味深い洞察があります。

88ページに、GOFAIという単語が登場します。これは"Good Old-Fashioned AI"の略だそうです。AlphaGoは、deep learningによる直観(intuition)と、GOFAIによる論理(logic)の融合(marriage)による勝利である、と結論されています。

イラストで学ぶ機械学習 (20)

「イラストで学ぶ機械学習」、第19章は、「マルチタスク学習」です。

回帰と分類について、タスク間の類似度を考慮して、そこからパラメタ推定を行います。これまでの様々な技術を総動員しています。最終章を飾るにふさわしい?

ややこしいのが、推定するパラメタについて、タスクで展開して、一次元ベクトルにしたり、またそれを行列にまとめたりしていることです。最後は、「シルベスタ方程式」というのが登場しますが、これは初めて見たので、よくわかりませんでした。

紆余曲折ありましたが、なんとか最後まで到達!非常に読み応えのある本です。お薦めいたします。

イラストで学ぶ機械学習 (19)

「イラストで学ぶ機械学習」、第18章は、「転移学習」です。

転移学習という単語は、もちろん聞いたことはありましたが、具体的な手法は知りませんでした。なるほど、このような設定なんですね。ちょっとイメージが違いました。

さて、何とか読み進み、199ページの最初の式に来ました。ここはガウシアンの計算です。式の先頭の、

(πσ2)d/2 --- (1)

を導きたい。これは積分の中のガウシアンを平方完成してやって、余りの項を相殺するようにすればよいはず。

まず平方完成をしてみると、ガウシアンの分散は、

σ2/2 --- (2)

であることがわかりました。ガウシアンの係数は、本書168ページのとおり、

(2π)-d/2det(Σ)-1/2 --- (3)

ですから、式(3)を計算してやって、それを打ち消すのが、式(1)となればよいのです。

さて、式(3)を計算してみると、なかなか合わない...ちょっと考えてしまったのですが、おバカな私は、det(Σ)が式(2)に等しいと勘違いしてしまった。正しくは、

det(Σ) = (σ2/2)d --- (4)

です。式(4)を式(3)に代入してやると、

(πσ2)-d/2 --- (5)

となり、式(1)で相殺されることが確認できました。

イラストで学ぶ機械学習 (18)

「イラストで学ぶ機械学習」、第17章は、「半教師付き次元削減」です。

ここは、これまでやったことの総動員です。具体的には、第13章、第14章、第16章、です。難しいです。

17.1 分類問題に対する判別分析、はなんとかクリアしましたが、17.2 十分次元削減、はまいりました。いろいろ疑問はあるにせよ、ついに最後の複雑な式へ。ここに引用したくない式ですが、これはつまり、

x2 / y --- (1)

という式の微分と同じです。さらにこれを、分子と分母の積と考えます。すると積の微分が使えますから、式(1)の微分は、

2xx' / y - x2y' / y2 --- (2)

となりますが、式(2)の構造は、本書の複雑な式と同じです。

Deep Learning (9)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) Hardcover – November 18, 2016.

Universal Approximation Theorem (UAT) というのが紹介されています。

これは何かというと、隠れ層一層のニューラルネットは、ノードを増やせば、どのような関数も近似できる、というものです。学習というのは、知りたい関数を精度よく近似していくということですから、ニューラルネットは、その意味では万能なわけです(ノードを増やせる限りにおいて)。

でも、ちょっとおかしくないですか?いまのニューラルネットは、層数を増やす方向に行っているわけです。UATからすれば、層数を増やす必要はないのではないでしょうか。

Deep Learning(DL)をやっているというヒトが身近にいらっしゃる方、そのヒトに、この疑問をぶつけてみてください。きちんとした回答が返ってきたら、そのヒトは、DLが解っているということです。

カイ二乗分布の謎

カイ二乗分布について、以下の本で勉強いたしました。

確率・統計 (理工系の数学入門コース 7) 単行本 – 1989/2/8 薩摩 順吉

少しクセのある本ですが、数式がきっちり載っていて、参考になります。

さて、カイ二乗分布の複雑な一般式を、数学的帰納法で導出しろと書かれているところがありますが、これを全てやるには、さまざまな数学の技法が必要です。

まず、さすがに正規分布は与えられたと仮定すると、自由度イチのカイ二乗分布を求めるには、変数変換が必要です。この場合は、Y=X2であり、Xの値ふたつがYに対応するので要注意です。

次に、自由度2の分布を求めるには、変数の和(Z=X+Y)の分布を求める必要がありますが、これは畳み込み積分です。この積分をやろうとすると、妙な形が出てきますが、これがベータ関数であることを知らなければ、どうにもなりません。

ここまできてやっと、数学的帰納法の準備が整いました。n=1のときに証明し(これはすでに求めてある)、n-1のときに正しいと仮定して、nのときを導く。たいへん手間がかかる計算だと思います。かなりの統計エキスパートでも、スクラッチで計算するのはしんどいのではないでしょうか。逆に言えば、鍛錬になる問題です。お試しあれ。

Deep Learning (8)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) Hardcover – November 18, 2016.

有志を募り、勉強会は継続!

有名な、XOR問題が丁寧に解説されています。ReLUを使った隠れ層一層で、分離可能。以前のニューラル本では、ReLUはありませんでした。確かに計算すると、分離されますが、なにか不思議な感じがしますね。

イラストで学ぶ機械学習 (17)

「イラストで学ぶ機械学習」、第16章は、「半教師付き学習」です。

ラプラス行列というのが主役をはります。私の疑問は、これはどのような事情で登場したか?式が簡単になるように、この形を決めたようが気がしますが...

それはさておき、この章は要するに、「総和」と「行列」の入れ替えの練習です。何を言っているかというと、

A = a(i,j) --- (1)
B = b(i,j) --- (2)

とすると、

AB = Σ(k)a(i,k)b(k,j) --- (3)

と書けます。

C = c(i,j) --- (4)

も追加すれば、

ABC = Σ(k,l)a(i,k)b(k,l)c(l,j) --- (5)

という具合です。これが解っていれば、総和記号と行列表記は行き来できるのです。添え字が逆のもので総和を取るのであれば、転置にするなど、機転を利かせます。

このようなとき、必ず総和を取るので、じゃあ、総和記号なんでやめちゃえばよいのでは?これを言い出したのが、アインシュタイン。これは、添え字が上と下でペアで出てきたときは、暗黙の了承で総和を取る、というものです。この表記だと、極めて簡単になるのです。

でも、物理以外だとこれは全く流行っていませんね。添え字が全て下であることに起因するのでしょうが、そういう細かいことは気にせずに適用したらダメなのでしょうか?

強化学習

アメリカ人で、機械学習について研究している人と、定期的に会う機会ができました。

最近の雑談から。「reinforcement learningに興味あるか?」と訊かれたので、それはあると言うと、DeepMindの話になりました。AlphaGoが囲碁を制したのは報道されたとおりですが、そのあと彼らは、「汎用AI」へ...

では、「汎用AI」とは?AlphaGoは、いくら強いとは言え、囲碁というルールがあってこその存在です。なので、これは「専用AI」。「汎用AI」とは、自らルールを作り出していく。でも、どうやって?それが、reinforcement learning、日本語では、強化学習と言われるしくみです。

勝手にコミュニケーションを取っていくエージェントとか、彼はさまざまな先端の研究を知っていて、私のヘタな英語でも、大いに参考になります。じゃあ、AIは今後ヒトを超えるのか?そこで、ペンローズの「皇帝の新しい心」を読んだかと訊くと、彼は読んでいて、当時のAIは否定的な面が言われていて、そのようなことが影響しているのではないか、との見解。

私はいまだに、「皇帝の新しい心」には、真実が隠されていると思っていますが、それを詳しく説明するには、私の英語力を超えますから、自然に別の話題となりました。具体的には、トヨタやアップルのAIへの取り組み。

ベイズ統計の理論と方法

ベイズは多少ともかじってきて、ある程度は解ったと思っていました。

しかるに、ある方から、「ベイズ統計の理論と方法(2012)」という本を教えてもらいました。渡辺澄夫先生(東工大)による書籍です。

どれどれと見てみると、私の自信は、見事に砕けました。いきなり3ページに、「逆温度」という用語が出てきて、??

どうも、ベースが物理のようですね。はたして、著者のご出身は物理です。私がこれまで読んできた書物は、どちらかと言うと、情報系の方のものだったのです。

でも、面白そうなので、がんばって読破します!

イラストで学ぶ機械学習 (16)

「イラストで学ぶ機械学習」、第15章は、「オンライン学習」です。これまでも難しかったのが、ついに「発展的話題」に突入!

まず、15.1 受動攻撃学習。これは日本語として意味が取れるのでしょうか。原語は英語なのでしょうから、こちらを知りたい。それから、なぜ二乗ヒンジ損失を使っているのか?

15.2 適応正則化学習では、泣きたくなるような、ガウシアン同士のKLダイバージェンスの計算が登場。170ページ最初の式ですが、さすがにこれを自前で導出する気力も技量もないので、'The Matrix Cookbook'、を参照しました。'The Matrix Cookbook'の関連記事はこちら(↓)。

http://kanouy.blog9.fc2.com/blog-entry-1520.html
http://kanouy.blog9.fc2.com/blog-entry-1494.html

同書の式を導出するには、'The Matrix Cookbook'、式(380)を使えばできます。最後の項の奇妙なd(次元数)は、単位行列のトレースの結果です。

Deep Learning (7)

Ian Goodfellow , Yoshua Bengio , Aaron Courville
Deep Learning (Adaptive Computation and Machine Learning series) Hardcover – November 18, 2016.

有志を募り、勉強会をすることにしました。私は怠け者なので、こうでもしないと読まないです。言い出しっぺなので、私が最初の第2~5章を担当しました。

第2章は、Linear Algebraです。ここは基本なので、特に難しくありません。でも、最後に紹介されていたPCAの説明は、面白いです。45~49ページ。つまり、次元の圧縮・伸長をしてやることで、PCAを導こうという試み。通常の線形代数本には載っていないと思います。

でもこれ、どこかでお目にかかったな...そうです!これは、「イラストで学ぶ機械学習」、第13章のやり方です。こちらのほうが、一般的な取り扱いをしています(この扱いは、DL本ではexerciseとなっている)。やはり「イラスト...」は凄い本ですな。

CNN vs RNN

CNNが2012年、画像認識で脅威的な成果をあげ、Deep Learningが一躍注目を浴びたのは、ご存じのとおり。

そののち、動画像の認識にて、RNNという技術が生まれました。これはニューラルネットにフィードバックを入れるものです。理由はわかりますが、なんか面倒くさそうだな、と思っていました。

そうしたところに、最近、Facebook AI Researchが、言語処理の分野ではありますが、RNNを凌駕する成果を、CNNであげました。正確には、そう主張する論文を出した。

CNN対RNN、ちょっと目が離せなくなりました。個人的にはCNNのほうが、やりやすそう。

イラストで学ぶ機械学習 (15)

「イラストで学ぶ機械学習」、第14章は、「クラスタリング」です。

14.1 K平均クラスタリング、はウォーミングアップ。これはさすがにわかっているはず。

14.2 カーネルK平均クラスタリング、14.3 スペクトル・クラスタリング、難しいですが、なんとか頑張って、最後の14.4 調整パラメータの自動決定、へ。私はこの話、てっきりクラスタ数を決めるものとばかり思って読んでいました。だって、159ページのグラフの横軸はkですからね。

あれ、待てよ、クラスタ数はcでした。ではこのkとはなんぞや?これが不思議なことに、「k最近傍類似度」というのがいきなり登場。むむ、これはなんでしょう...敷居が高いです。

続きを読む

プロフィール

加納裕(かのうゆたか)

Author:加納裕(かのうゆたか)


[略歴]
1983年3月東京工業大学工学部機械物理工学科卒業
1983年4月(株)図研入社
1987年1月同社退社
1987年2月(株)ソリッドレイ研究所を6名で設立、取締役
1994年3月同社退社
1994年4月(株)スリーディー入社
1996年10月同社取締役
1999年12月上海大学兼務教授
2002年10月同社代表取締役
2009年9月ものつくり大学非常勤講師~現在
2009年10月同社代表退任/退社
2010年1月ソフトキューブ(株)入社~現在(横浜オフィス)
2011年11月甲南大学特別講師
2011年11月関西大学特別講師
2012年11月東京理科大学特別講師
2017年4月湘南工科大学非常勤講師~現在


[業界団体・学会活動]
電気学会・第三期次世代インタラクティブディスプレイ協同研究委員会(幹事)/三次元映像のフォーラム(幹事、監査)/日本バーチャルリアリティ学会・論文委員会(委員)・力触覚の提示と計算研究会(委員)/ACM・SIGGRAPH(Professional Member)/情報処理学会(正会員、CVIM会員)/3Dコンソーシアム(賛助会員)/3DBiz研究会(個人賛助会員)/最先端表現技術利用推進協会(個人会員)/URCF(特別会員)

----------------

前職:立体映像産業推進協議会(幹事)


[資格]
TOEIC805点
数学検定1級(数理技能)
中型・普自二免許
サッカー4級審判員

最新記事
最新コメント
最新トラックバック
月別アーカイブ
カテゴリ
検索フォーム
RSSリンクの表示
リンク
ブロとも申請フォーム

この人とブロともになる

QRコード
QRコード