Wednesday, March 29, 2006

アメリカにおける経営者報酬ーストックオプションの視点からー

今日は、日本学術振興会経営問題第108委員会の第二回公開セミナーが丸ビルで開催されたので、第一回に続いて参加してきました。
ミシガン大学 客員研究員 吉田 博さんから、アメリカにおける経営者報酬について研究発表がありました。アメリカでは、経営者の巨額なストックオプションや退職金が問題になっています。
株主にとって、経営者は資本コスト(WACC)を上回ると予想される投資の実行を行い、予想された投資利益の実現により企業価値が増加し、株主価値が創造される。その株主価値の最大化を図る為に、経営者への動機づけのために株主価値創造にリンクした報酬としてストックオプションの供与が考えられた。ストックオプションの効果は、リスクを取らなければ株主価値を創造できないためである。
しかし、課題は、ストックオプションには経営者にとってダウンサイドリスクが無い為、経営者が過度のリスクを取り、株主価値を破壊する恐れがある。そのため。経営者に現物の株式保有をさせ、過度なリスクを取ることを回避させることが実施され始めた。Eastman Kodak, Campbell Soup, Exoon Mobile, GMなどの大企業では経営者の収入の1から16倍の株式保有を義務つけている。
吉田氏は、株主価値と最適報酬制度のモデルを作り、検証している。
株主価値の創造(ΔV)は、経営者の努力(E)の関数と仮説し、
ΔV=f(E)       ???(1)
ストックオプション・株式保有比率(SOR)=経営者のオプション保有数/経営者の自社株保有数?(2)
経営者の努力(E)は、インセンティブ関数
E=SORx(α - SOR)???(3)
α:経営者の目標SOR
ΔV=f(E)=β・E+γ ???(4)
(3)を(4)に代入して、
ΔV=?βSOR2 + αβSOR+ γ
という最大値を持つ負の2次関数となる。

このモデルを、S&P80社の2001年から2005年の株主価値と経営者のストックオプション数、株式保有数を当てはめると、ストックオプション数、株式保有数の偏差より小さい数値を示した。しかし、R2値が0.2と有意ではないので、更なる検証が必要との報告であった。
この報告から、米国も徐々に日本の取締役が、一度退職し、退職金で株式を保有すると共にストックオプション報酬制度を兼ね備えている日本の制度に近づいているように受け止められた。

Tuesday, March 28, 2006

情報におけるスケールフリー構造と分散構造

昨晩、M氏のデータ結晶化の研究成果についてゼミでの発表があった。
ダーミーノードを入れ、データを結晶化すると、スケールフリー構造になることがわかり、諜報活動における隠れたリーダーを発見できそうな可能性が示唆された素晴らしい研究であった。
しかし、もう一つのデータからは、スケールフリー構造が現れず、分散構造となっていることが課題としてあがり、諜報活動における隠れたリーダーの存在が見つからないということであった。
昨日から読み始めている、James Surowiecki著の『「みんなの意見」は案外正しい』(The Wisdom of Crowds)第4章「ばらばらのかけらを一つに集める」のなかで、アメリカ合衆国の諜報活動の分散性の問題点が記述されており、それが今回の状態ではないかとのヒントとなった。
1946年4月ニューヨーク・ヘラルド・トリビューン紙が主催したフォーラムで戦略情報局(OSS)の長官を務めたビル・ドノバンが、「我々の外交政策には中央情報局が必要だ」と主張した。第二次世界大戦前のアメリカは、複数の軍事機関が諜報活動を担っていた。しかしながら、日本の大規模な軍事行動に対する証拠が多数あるものの、どこも真珠湾攻撃を察知できなかった。
その後、1947年「指揮命令系統の統一と諜報活動の統一という原則を実行に移す事」を目標に中央情報局(CIA)が設立された。ところが、現実には中央集権化は起こらず、以前にも増して諜報活動が細分化していった。CIAの他にも、国家安全保障局、国立画像地図局、国家偵察局、国防情報局、それに陸海空の三軍の諜報活動も加わり諜報活動はごった煮状態で、責任範囲や任務が重複するようになった。建前は、CIA長官がアメリカの諜報活動機関すべてを統括する立場にあったが、現実はCIA長官の他機関への影響力は限られていた。また、諜報活動の予算は国防総省が決めていた。
ドノバンが描いたような情報と分析が一ヶ所に集中して管理され無い代わりに、アメリカの諜報機関はアメリカを守るという大きな共通目標の下にそれぞれ大きく異なる方法で協議する、分散化した自立的な集団の寄せ集めとなった
分散性は、労働、興味、関心など様々な視点から見た専門性を奨励し、その専門性が分散性を促進する。分散性はシステム全体として視野を広げ、意見や情報の多様性を生み出す。しかし、分散性の決定的な問題は、システムの一部が発見した貴重な情報が、必ずしもシステム全体に伝わらない点である。
理想は、、個人が専門性を通してローカルな知識を入手し、システム全体として得られる情報の総量を増やしながら、個人が持つローカルな知識と私的情報を集約して集団全体に組み込めるような状態になっていることである。
すなわち、リナックスのリーナス自身を含む一握りの人たちが、世界中から集まったコードの情報をOSのソース・コードに加えるべき修正点か綿密に検証し、決定するような状態であろう。

この記述から、M氏が入手したデータを再考すると、敵方諜報組織は組織構造がアメリカのように分散性に富んでおり、情報の集約は常時行われていない。常態は、分散構造である。ある行動を起こすときに、その分散構造の情報があるハブを中心に動き、スケールフリー構造になるのではないだろうか?
すなわち、組織が分散組織であるため常態は分散性にとも諜報活動を行っているが、ある情報を集約したり、意思決定を伝達する場合にある流動的なハブを中心にスケールフリー構造になるという、変態構造をもつ構造なのではないかと考える。

Monday, March 27, 2006

「みんなの意見」は案外正しい

先日、一橋大学大学院 米倉誠一郎教授とベンチャー企業の社長を交えたゴルフコンペがあり、そのパーティの席で最面白い書籍の一冊として紹介を受けました。
James Surowiecki著 「みんなの意見」は案外正しい(英語タイトル:The Wisdom of Crowds) 小高尚子訳 角川書店 2006年1月です。
まだ読みはじめですが、賢い集団の特徴は、四つの用件を満たしているとのことです。
1.意見の多様性:それが既知の事実のかなり突拍子もない解釈だとしても、各人が独自の私的情報を多少なりとも持っている。
2.独自性:他者の考えに左右されない。
3.分散性:身近な情報に特化し、それを利用できる。
4.集約性:個々人の判断を集計して集団として一つの判断に集約するメカニズムの存在

また、組織論のJames G. Marchは、「平均的な新メンバーが持っている優れた知識から集団のパフォーマンスが向上するのではない。新メンバーは、大体において前任者ほど知識を持っているわけではない。この効果は、彼らがもたらす多様性から生まれる」と提唱している。
この考えは、K氏の最近研究している「アホ学」、すなわち、「優秀なメンバーに一人のアホを入れると議論が活発化し、創発性促す」という発見の本質を示していると思える。
一方、ウォートン・ビジネススクールのJ.Scott.Armstrong教授は、「専門知識がもたらす決定的な優位性を示す研究は存在しない。専門性と正確性に相関は見られない」という結論に達したと述べています。

この記述は、新たな有用なシナリオを創発させるには、二重螺旋のプロセスでKeyGraphを使用するだけでなく、多様性、独立性、分散性、集約性を保持するグループの関与が必須であるという重要な示唆を含んでいる。

Sunday, March 26, 2006

ラフセット理論の更なる考察

ラフセット理論は、特徴的なものやあいまいな情報から特徴を見出す事が可能であるが、意思決定者にとって優先情報があるデータから分類や意思決定をすることが出来ないという課題がある。
すなわち、ラフセット理論は、データの頻出度が高く、共起度の高いサブセットからデータの特徴を抽出することが出来るが、意思決定者にとってデータのなかに稀にしかないが、意思決定に重大なデータを考慮することが出来ないということである。
この課題を解決するために、様々なアプローチの研究がなされている。
現在、"Rough sets theory for multicriteria decision analysis" (Salvatore Greco a, Benedetto Matarazzo a, Roman Slowinski、European Journal of Operational Research 129 (2001) 1?47) を読み始めている。
これらのラフセット理論の研究とKeyGraphの特徴を比較しながら、意思決定にとって重要なデータの抽出方法について考えていきたい。
今のところ、M氏と共同研究をし始めたデータ結晶化の手法が、新しいシナリオを抽出するのに適していると考える。
課題であった、ダミーノードとデータ上の赤ノードを表示できる可能性があるとのことで、期待が持てる。

Saturday, March 25, 2006

ラフ・セット理論の続き

ラフ・セット理論は、与えられたデータを数の少ない適切なサブセットを選択することにより、少ないデータ量で、データ全体の特徴をシンプルに把握するという考えです。その理論を一歩進めて、チャンス発見をするための創発性に応用できないのかと考えました。
データ全体の特徴を理解した後に、その概念の界面、周辺また外周にあるデータから、その特徴や事象に影響を与えている事象を探せないのかと考えてみました。それは、一般的には頻出度が少なく、気付きにくいが、実はデータ全体の特徴に影響を与える事象である可能性があります。
高頻出度であるが共起度が低いデータをサブセットとして選択し、そのサブセットと共起するようなデータを探すことにより、稀であるが重要な事象を探す事が出来る可能性があります。
もう少し考えてみたいと思います。

Friday, March 24, 2006

Slezak先生の講義(ラフ・セット理論と応用)

昨日、東大にてUniversity of REGINAのDominik Slezak助教授をお招きして、ラフセット理論とその応用について講義を受けました。
多量なデータを分析する場合、多用な特徴が現れてどれが主要な特徴かわからなくなり、意思決定しにくいという課題があります。
ラフ・セット理論は、データの最適と思われる最小の組み合わせを選定し、大量なデータからデータ量を減少させ、最適な解をシンプルな方法で求めようとするものです。
これにより、シンプルで最適な特徴が得られ、意思決定をしやすくなります。
考え方として、人間の思考方法のように大量なデータを間引きながら特徴を抽出し、その特徴から意思決定を行う手法と相似します。
最近のコンピュータのデータ処理能力が進んでいる状態では、大量データをかなりの速度で処理できるので、本当にこの理論が必要か疑問です。しかし、大量のデータのなかからその特徴を瞬時に認知し意思決定するという人間の思考方法を行わせるロボット工学などには必用かもしれません。

KeyGraphでは、独立した頻出頻度の高い言語を黒ノードで示す。文章内に表れる共起度の高い黒ノードを黒リンクで結び、その黒ノードと黒リンクの塊を島(Island)と呼び与えられたデータにおける主要な概念を示す。頻出頻度は低いが、黒ノード出示された高頻出頻度の言語と共起頻度の高い言語を赤ノードとして示す。赤ノードが、概念を示す島に含まれた黒ノードと他の概念を示す島に含まれた黒ノードを結ぶときに、この赤ノードは概念間の関係を示す重要な単語となり、橋(Bridge)と呼ばれる。

一方、島になるほど共起性は高くなく、黒リンクで結ばれていない単独で現れた複数の黒ノードを赤ノードが結ぶ場合がある。このような赤ノードは、概念を強く示さず、気付かれない言語であるが、新たなシナリオを創発する場合に、重要なキーワードの役割を果たす場合がある。
このような単独の黒ノードの組み合わせをサブセットとしてラフ・セット理論でデータを解析すると、赤ノードのような低頻度であるが、重要な役割を果たす単語を抽出することが出来るのではないかと推測する。結構共同研究するとチャンス発見にとって面白い成果を産めるかもしれません。
今回の講義では、説明されていませんが、最近は、エキスパート知識を使用したインターアクティブなグラフモデルを開発しており、人間の認知とデータ処理との研究も始められているようです。
講義の後は、一緒に会食をしました。Slezak先生は、ポーランド出身ですが、既に日本に6年前から数度来日されており、伊香保温泉に行ったり、日本食を臆せず食べたりしているそうです。
ソラマメ(ポーランド語でブブ?)は、ポーランドでも茹でて食べるそうで、大好物とのことでした。焼酎のお湯割りを飲みながら、刺身や焼き鳥をつまみ新たな研究などについて話が盛り上がりました。
http://www2.cs.uregina.ca/~slezak



http://www.clab.kwansei.ac.jp/~okada/www/contents/kinka97.pdf

Tuesday, March 21, 2006

時系列共起パターン解析エンジン「KIZASHI」とは?

K氏より、最近の新しいデータ入手方法としてKIZASHIの紹介がありました。
「時系列共起パターン解析エンジン」を株式会社シーエーシー 技術研究センターが開発しました。
http://kizasi.jp/

インターネット上のブログの時間情報を持つデータを収集し、言語処理、解析し、ある時間におけるブログで話題となっている共起頻度の高い言葉の順に順位を発表します。

特徴として、準実時間のインデクシングクローリングからインデクシングまでの処理をパイプライン化し、時間とともに増加するテキストデータを準実時間で解析できます。その結果、話題の傾向を遅延なく捉えることができます。
概念辞書(オントロジー)の内蔵語の分類属性を利用して、ジャンルによるランキングや関連性検索を可能としています。確率的アルゴリズムを使用し、同形異義語の判定も可能です。

この検索技術により、現在社会で話題となっている単語を明示し、今後の社会のトレンドを読んだり、マーケティングなどに役立てるのではないかとの提案です。

この手法は、累積データの解析ではなく、特定時間のデータを暫時時系列で解析していくので、話題の変化が時系列で解析する事ができます。
この技術を応用して、社会全般ではなく特定分野に絞り込んで時系列で話題となっている言葉を解析する事により、製品分野を絞り込んだ要望を解析することが可能になります。
掲示板より、ブログのほうが内面的な欲望や需要、感想などを自己表現しており、より本質的な需要を捉えられる可能性があり、時系列でとらえられることはマーケティング分析には非常に重要なものと思えます。
我々としては、このデータをKeyGraphで解析し、更に共起頻度だけでなく、高頻度の言語間を結ぶ稀な言語を時系列で解析することにより、より新たな発見が生まれることを期待したいと思います。

Sunday, March 19, 2006

知識構造化のワークショップに参加して

3月18日(土)の午後より東京大学小宮山学長の音頭で5年前にスタートした、「知識構造化プロジェクト」の成果を発表するワークショップに参加した。
東京大学で様々な学会に発表された論文や研究成果が、殆ど活用されていない惨状を見て、小宮山学長が、研究分野、研究者間の知識を構造化し俯瞰できるようにしたいとのことで発足したプロジェクトである。
美馬助教授がMIMAエンジンという自然言語処理の検索エンジンを開発し、論文、研究者、研究分野などの領域や領域間の関係などを俯瞰できるシステムを発表した。
MIMAエンジンは、4つのエンジンから構成されている。
第一のエンジンは、膨大なテキストから専門用語を自動抽出する。
第二のエンジンは、意味が同じ又は、類似した用語をオントロジーからクラス化する。
第三のエンジンは、用語の類似度を基に知識の類似度を計算する。
第四のエンジンは、類似した意味を持つ知識を集める。

ここでいう、「知識」の定義は、専門用語によって特徴付けられる文章、あるいは節、段落、フレーズといったパッセージのことをさす。
「オントロジー」の定義とは、用語を介した知識体系と用語間の関連性を認識し、更に分析、分類を行う方法論を総称していう。

テキストを処理して、専門用語の自動認識を行うのに、入力されたテキストの用語がどのくらい専門的な用語かスコア付けをする。自動分類処理において、先の自動認識で抽出された用語がどのようなクラスに属するのか、またどのように分類されるのかを自動計算する。分類処理の基本的な考え方は、「同じ分類に属する用語は、同じ文脈に表れやすい」というヒューリスティックによる。
分類の対象となる用語はその文脈に現れる頻度によってベクトル化できるとみなし、そのベクトルの向きが近ければ近いほど意味的にも近いと考える。ベクトルの向きの近さは、ベクトル間の内積演算によって求められる。
さらに、用語間の意味的類似度の計算を階層的に進めることで、デンドログラム(二分木構造)ができる。これにより、デンドログラムにおける用語間に近さを、移動距離で定量的に定義する。
上記にのような検索エンジンの計算方法や構成方法には、特に新しいと思えるものが無かった。
また、出力したデータを可視化出来るが、リンクが直線でなく曲線になっており見にくいと感じた。関係性の強いノード間は距離だけでなく、リンクの線幅を太くして可視化する工夫はあった。また、クラスターは、半透明な色彩で囲み、代表する概念を示すなどの工夫が見られた。
しかしながら、知識の構造化と呼ぶには、十分な成果とは言えず、斬新な用途に対する事例も無かった 。
一方、構造化された知識を学内対象だけでなく、社会で如何に活用するのかというアイデアや実施した事例がなく、応用面をまだ考察した段階に来ていないものであった。
チャンス発見学を提唱しKeyGraphを事例に適用して年々改善しながら進化させている大澤研究室の成果に方が5?6年進んでいるように感じた。

Saturday, March 18, 2006

インターネットのKeyGraph検索について

I氏が開発しているKeyGraphによるインターネットの検索について、試用してみました。
従来、インターネット検索では、自分の想定する関連のキーワードを入力して、検索を行いますが、関連すると想起するキーワードの選択やキーワードの組み合わせ方で、検索内容が変わったり、検索に時間がかかりる問題があります。
このKeyGraph検索を使うと、初期入力したデータベース上で自分の検索したいキーワードに関連した単語が可視化され、検索するキーワードの組み合わせの選定の手助けになります。
これにより、インターネット上での検索時間が短縮できると推測されます。
これを、進展させKeyGraphのアルゴリズムをインターネットのデータ全てに直接適用出来れば、かなり検索時間短縮と活用上便利になると思います。

Rough Set 理論について

3月23日に講義を受けるラフセット理論について調べてみました。
The operation of contemporary computers and software systems is based on the underlying classical set theory with its associated binary-valued, true/false Boolean logic. This approach, although extremely successful in many application areas, is revealing its limitations when it comes to some "tough" problems such as, for example, speech or image recognition, machine learning, data mining, some forms of control etc. This is due to the fact that the implicit assumption of the "classical" approach is that in there is always sufficient, perfect knowledge about the state of an object or a system to make a unique determination of a recognition or processing decision. Unfortunately, the fact of life is that more often than not the underlying knowledge is much less than perfect. One can argue that with except of "pure" artificial systems, such as existing computer systems, the knowledge about majority of most natural systems or phenomena appearing in physics, chemistry, biology, markets etc. is limited, often allowing only for uncertain predictions rather than unique decisions. These limitations of knowledge are not modeled by the fundamental mathematics behind today's computational devices and, in fact, there is no knowledge model at all in the underlying logic. The theory of rough sets can be viewed as an extension of the "classical" set theory by incorporating the model of knowledge into its formalism, thus allowing for representing sets approximately in terms of the available context knowledge. Such a representation, in general, leads to approximate decision logics in which uncertainty is its natural component, reflecting the imperfections of the context knowledge. The incorporation of the knowledge model into fundamental set theory opens up new possibilities in machine learning, pattern classification, control systems, data mining, medical diagnosis and in variety of other areas dealing with complex objects, systems or natural phenomena. The elementary nature of the rough set theory will lead to significant impact on the applicability and on the fundamentals of computing science, comparable to the influence the classical set theory had on the basics of contemporary computing systems. It is expected that research projects undertaken by researchers affiliated with RSTL will constitute an essential contribution to the general impact in terms of the growth of rough set theory and its applications.

Friday, March 17, 2006

ベイズの定理

English theologian and mathematician Thomas Bayes has greatly contributed to the field of probability and statistics. His ideas have created much controversy and debate among statisticians over the years.

Thomas Bayes was born in 1702 in London, England. There appears to be no exact records of his birth date. Bayes's father was one of the first six Nonconformist ministers to be ordained in England. (4) Bayes's parents had their son privately educated. There is no information about the tutors Bayes worked with. However, there has been speculation that he was taught by de Moivre, who was doing private tuition in London during this time.

Bayes went on to be ordained, like his father, a Nonconformist minister. He first assisted his father in Holborn, England. In the late 1720's, Bayes took the position of minister at the Presbyterian Chapel in Tunbridge Wells, which is 35 miles southeast of London. Bayes continued his work as a minister up until 1752. He retired at this time, but continued to live in Tunbridge Wells until his death on April 17, 1761. His tomb is located in Bunhill Fields Cemetery in London.

Throughout his life, Bayes was also very interested in he field of mathematics, more specifically, the area of probability and statistics. Byes is believed to be the first to use probability inductively. He also established a mathematical basis for probability inference. Probability inference is the means of calculating, from the frequency with which an event has occurred in prior trials, the probability that this event will occur in the future. (5) According to this Bayesian view, all quantities are one of two kinds: known and unknown to the person making he inference. (6) Known quantities are obviously defined by their known values. Unknown quantities are described by a joint probability distribution. Bayesian inference is seen not as a branch of statistics, but instead as a new way of looking at the complete view of statistics. (6)

Bayes wrote a number of papers that discussed his work. However, the only ones known to have been published while he was still living are: Divine Providence and Government Is the Happiness of His Creatures (1731) and An Introduction to the Doctrine of Fluxions, and a Defense of the Analyst (1736). The latter paper is an attack on Bishop Berkeley for his attack on the logical foundations of Newton's Calculus. Even though Bayes was not highly recognized for his mathematical work during his life, he was elected a Fellow of the Royal Society in 1742.

Perhaps Bayes's most well known paper is his Essay Towards Solving a Problem in the Doctrine of Chances. This paper was published in the Philosophical Transactions of the Royal Society of London in 1764. This paper described Bayes's statistical technique known as Bayesian estimation. This technique based the probability of an event that has to happen in a given circumstance on a prior estimate of its probability under these circumstances. This paper was sent to the Royal Society by Bayes's friend Richard Price. Price had found it among Bayes's papers after he died. Bayes's findings were accepted by Laplace in a 1781 memoir. They were later rediscovered by Condorcet, and remained unchallenged. Debate did not arise until Boole discovered Bayes's work. In his composition the Laws of Thought, Boole questioned the Bayesian techniques.

Boole's questions began a controversy over Bayes's conclusions that still continues today. In the 19th century, Laplace, Gauss, and others took a great deal of interest in this debate. However, in the early 20th century, this work was ignored or opposed by most statisticians. Outside the area of statistics, Bayes continued to have support from certain prominent figures. Both Harold Jeffreys, a physicist, and Arthur Bowley, an econometrician, continued to argue on behalf of Bayesian ideas. (1) The efforts of these men received help from the field of statistics beginning around 1950. Many statistical researchers, such as L. J. Savage, Buno do Finetti, Dennis Lindley, and Jack Kiefer, began advocating Bayesian methods as a solution for specific deficiencies in the standard system. (1)

However, some researchers still argue that concentrating on inference for model parameters is misguided and uses unobservable, theoretical quantities. (1) Due to this skepticism, some are reluctant to fully support the Bayesian approach and philosophy.

A specific contribution Thomas Bayes made to the fields of probability and statistics is known as Bayes Theorem. It was first published in 1763, two years after his death. It states:


P(H/E, C) = P(H/C) P(E/H, C) / P(E/C)
It uses probability theory as logic and serves as a starting point for inference problems. (3) It is still unclear what Bayes intended to do with this calculation.

The left hand side of the equation is known as the posterior probability. It represents the probability of a hypothesis H when given the effect of E in the context of C. The term P(H/C) is called the prior probability of H given the context of C by itself. The term P(E/H, C) is known as the likelihood. The likelihood is the probability of E assuming that H and C are true. Lastly, the term 1 / P(E/C) is independent of H and can be seen as a scaling constant. (3)

Bayes Theorem can be derived from the Product Rule of probability. The Product Rule is P(A, B/I) = P(A/B, I) * P (B/I) = P(B/A,I) * P(A/I). Rearranging this and extending the rule to multiple sequential updates gives: (3)


P(H/E1,E2,E3,C) = P(H/C)*P(E1,E2,E3/H,C) / P(E1,E2,E3/C)

= P(h/C)*P(E1/H,C) * P(E2/E1,H,C) * P(E3/E2,E1,H,C)

P(E1/C) * P(E2/E1,C) * P(E3/E2,E1,C)
This becomes very complicated because as each new piece of E is brought into the equation, the effect is conditional on all previous E. However, making the assumption P(E2/E1,C) = P(E2/C) and P(E1/E2,C) = P(E1/C) avoids this difficulty. This assumes given C knowing E2 gives no information about E1 and vice versa. (3) The product rule then reduces to P(E1,E2/C) = P(E1/C) * P(E2/C). (3) This must be used carefully though. Conditional Independence does not always hold. These principles are what much of the controversy is centered around.

As you can see, Thomas Bayes has made many important contributions to the development of probability and statistics. Although his work has been controversial, it has brought forth many new ideas that the world of mathematics continues to research and benefit from.




References

1. Bradley, P. & Louis, T. (1996). Bayes and Empirical Bayes Methods for

Data Analysis. London: Chapman & Hall.

2. http://ic.arc.nasa.gov/ic/projects/bayes-group/html/bayes-

theorem.html

3. http://ic.arc.nasa.gov/ic/projects/bayes-group/html/bayes-

theorem-long.html

4. http://www-groups.dcs.st-and.ac.uk/~history/Mathematicians/

Bayes.html

5. http://www.stat.ucl.ac.be/ISpersonnel/beck/bayes.html

6. Johnson, N. & Kotz, S. (1982). Encyclopedia of Statistical Sciences,

1, 197-205. New York: John Wiley & Sons, Inc.

Booleanについて

プログラミング言語で扱う変数や定数の型の一つで、真(true)と偽(false)の2種類の値だけを扱う最も単純な構造の型。
結果が真か偽で表される式を「AND」や「OR」などの演算子(論理演算子)で組み合わせて、複雑な式が真になるか偽になるか判断することをブーリアン演算(論理演算)と呼ぶ。コンピュータの扱う処理や計算の多くは、最終的に論理演算に変換されて実行される。
身近な例では、データベースやサーチエンジンで複雑な検索を行わせる時に使われている。

ベイズの理論

ベイズの理論は、事前確率 P(X)、事後観察P(D)、事後確率 P(XD)、尤度 P(DX)とした場合、
事後確率を示す、以下の式で示します。
P(XD) = P(DX)P(X) / P(D)
P(D) = Σ(Xの全ての場合についての和) P(DX)P(X)

ベイズ的行動決定は、不確実な状況 X のもとで最良の行動Aは、効用関数(utility function)U(A|X)で定義されるとした場合、期待効用 E[U]を最大にするように決めます。
期待効用 E[U] = Σ(Xの全ての場合についての和) U(AX)P(XD)

Wednesday, March 15, 2006

人の持つイメージについて

人が外部環境の事象を眺めたり、ある事柄を想起する場合、そのイメージは一様でない。
しかしながらN数を増やして、統計分析をすれば一定の分布となり、共通するイメージが抽出されてくる。しかし、それは世間でいう共通認識、常識という範疇のイメージにとどまり、想定しなかったような新しい概念やイメージではない。それでは、分布の外側又は、はずれ値のようなものは新たらしい概念やイメージといえるのであろうか?
一応、奇抜、異常、奇妙という評価のイメージや概念として取り上げられるものが多いであろうが、他の人から高く評価されるような概念やイメージは見つけだしにくい。
やはり、新しい概念やイメージ自身に意味や価値がなければならず、その意味や価値は既存の概念やイメージとの対比、統合関係から生じるものである。すなわち、新しいイメージや概念が、多くの人が賛同するイメージや概念と何らかの関係を持ち、意味や価値を生み出すことにより評価され採用されるのだ。
Human Interface Annealing(HIA)手法は、まさにそのような考え方に沿った新たなシナリオを創出するツールとなりえる。

Monday, March 13, 2006

KES2006 Abstract

Title:Emerging Novel Scenarios of New Product Design with Teamwork on Scenario Maps using
Pictorial KeyGraph
Author:Kenichi Horie, Yukio Ohsawa
Department of Quantum Engineering and Systems Science,
Graduate School of Engineering The University of Tokyo
Abstract. We developed a method of teamwork for products design in real manufacturing
company, where Scenario Maps using Pictorial KeyGraph assist creating novel
scenarios of new product design. In Pictorial KeyGraph, photographs of physical
objects corresponding to incomprehensible items in given data are embedded to the
visual result of KeyGraph applied to their business report. In their communications
with Pictorial KeyGraph, novel and practical scenarios of new products design were
extracted, and 5 new patents have been applied. We found evidences that the team
members tend to combine established concepts via rare words in creative designing.

IWES `06 Abstract

Title: Products Designed on Scenario Maps using Pictorial KeyGraph
Author: Kenich Horie1, Yukio Ohsawa1, and Naoaki Okazaki2
Affiliation: 1Department of Quantum Engineering and Systems Science,
Graduate School of Engineering, the University of Tokyo
2Department of Information Science and Technology, the University of Tokyo

Abstract: - We developed a method to emerge novel scenarios with group discussion for a product design in a real manufacturing company, where Pictorial KeyGraph aids in the creative consensus of team members. In Pictorial KeyGraph(Fig.1), photographs of real defects corresponding to incomprehensible words in given data are embedded to the visual result of KeyGraph applied to their business reports, in which tacit and explicit expertise of end users are written so as to design a product in the real world of business. In their communications, novel and practical scenarios of product behaviors were extracted, and 5 new patents have been applied. Behind this success, we found evidences that the team members tend to combine established concepts via rare words in creative designing: First pay attention to popular concepts in their business reports, appearing as islands in KeyGraph and create many practical scenarios. Then, they calm down to speak less, and finally produce new scenarios by referring to rare words lying between islands in KeyGraph.
Key-Words: - Data Visualization, Pictorial KeyGraph, Scenario Map, Design, Creativity

赤ノードの表示タイミング

KeyGraphにおいて、黒ノードは頻出単語であり、黒ノードと黒リンクの塊(島:Island)は、データ内部の主張や主要な事象や概念である。頻出頻度は少ない単語は、赤ノード(橋:Bridge)として現れるが、この島の概念と概念とを結び関係を示す役割を持つ。
頻出頻度が少なく稀な単語であるが、既存概念間の関係を示す重要な役割を持つと共に、最近の実験では、ヒトの頭にある断片的で散在している知識、経験、関心などを再構築し、新たな関係、すなわち新たな概念や新たなシナリオとして創出させる役割も持つ。

この稀で重要な単語が、新たなシナリオを創出させる契機となる実験は既にあるが、その契機となるには、赤ノードを示すタイミングが重要であると考えられる。
Eris Ozgurらの研究では、デザインを考察中に適切な質問を行い、デザイナーに気付きを与え、新たなデザインのアイデアを創出させる手法がある。

従来の手法ではデータをKeyGraphで処理後、可視化したシナリオマップを全て表示するだけである。
その場合、被験者の経験、知識、関心、専門分野の違いにより、シナリオマップを解読できない被験者が現れる。そのような状態では、グループディスカッションが活発化されず、関心が高まらない為、新たなシナリオが創出されない。
我々は、被験者のプロファイルに応じて、KeyGraphのデータ処理後のシナリオマップの表示の仕方を工夫し、最初は頻出頻度の多い概念を示す黒ノードと黒リンクの島を数個示し、徐々にその概念間を結ぶ赤ノードを表示して、関係を理解させる。次に、島の数を少しづつ増やし新たな概念を追加し、その後に赤ノード増やして、概念間の関係を理解させるという手法を考察した。
このように、関心が高まり分類が出来るようになると、次に示した判断基準を起点に概念の削除・追加や組み換え、更には判断基準を変えて概念間を新たな関係で結びつけるような創発性が生まれる。
すなわち、ヒトが創発性を生み出すには、そのような概念の組み換えを行う基準などのいくつも存在する起点を探し出す能力が必要であると思います。
我々は、文脈の関係を解釈し、関心を高めることにより、その判断基準や起点を探索させる動機を高め、注意力を向上させた上で、判断基準や起点となる赤ノードやデータに存在しないが、概念間を結ぶ可能性が高いダミーノードを示し、概念の削除・追加、組み換え、又は判断基準や起点となる赤ノードの交換を行わせ、新たな概念を創発させる手法を提案します。
具体的な、実験を行い、一つずつ確認しながら、手法の修正を加えて完成させたいと思います。

Friday, March 10, 2006

新たな発見について

新たなシナリオは、ヒトがシナリオに結びつく起点、又は転換点を認知することにより創出されます。
イノベーションは、4分類されます。
1.既存製品と既存製品の組み替え
2.既存製品の新たな用途
3.新たな製品の既存用途
4.新たな製品の新たな用途
この分類について良く考えると、必ず従来の考え方を転換させる発想がありますね。
その発想の起点や転換点を気付くことが非常に重要です。
分類の4については、全く新たな発想となりますが、1?3の分類は、必ず実在する概念間を結びつけ関係性を構築する事象が存在しています。
その事象に気付くことが重要なことです。この事象は、環境に存在する価値であり、アフォーダンスの心理学で既に説明した内容ですが、イノベーションにおいても同様な考え方で理解することが出来ます。

Tuesday, March 07, 2006

新たなシナリオ創発に関与するKeyGraphno赤ノードについて

今までの実験で、KeyGraphで出力されたグラフ図に表出する頻出度が低いが、概念を示す黒ノードと黒リンクの島と島とを結ぶ赤ノードの単語が、新たなシナリオを創出する契機となることが分かっている。しかし、グループディスカッションによって新たなシナリオを創出するときに、この赤ノードは、稀な単語であるため、経験、知識、価値観の違う被験者によって理解や意味の捉え方が異なるため(語彙の意味解釈のギャップ)、コンテクストの解釈が出来ない課題がある。この課題を解決する方法として、その単語に写真を貼付し、単語の意味をグループ内で同定し、共通化させる手法を提案した。
一方、赤ノードの稀な単語によって、被験者の解釈が異なるために一様な被験者の視点が異なり、被験者間でその意味や価値を定めるために、被験者間で様々な意見や発想が交わり、新たなシナリオが創出されるという研究もある。(Gaver W.W.、2003)
更に、最初は黒ノードと黒リンクだけの島だけで概念を示し、その後その島と島の関係を示す赤ノードをタイミングよく提示することにより、新しいシナリオを創出することが実験で示されている。
この実験件結果は、他の研究(Eris,O.、2004、Frutchter, R.、2005)でも同様な結果がでており支持されている。

今後の、実験として最初に、黒ノードと黒リンクの島を示し、徐々にその数を増やすに従い、赤ノードを増やすことで、どのくらい新たなシナリオが創発しやすくなるのか実験をしたいと考えている。

DATA CRSYTALIZATIONの課題について

昨晩M氏との秘密会議で、DATA CRSTALIZATIONの課題を打ち合わせしました。
現在の、計算方法では、赤ノードは、全て黒ノードとなり、黒ノードとリンクの塊である島に吸収されます。その後に、島と島とを結ぶ仮想赤ノードを加えます。
この手法では、最終的に、複数の島の間を複数の仮想赤ノードが結びつけられます。
人の認知から考えると、一組の概念間の仮想赤ノードの単語を創発することが可能ではあるが、他の概念間との仮想赤ノードの単語が不明であると、創発した最初の単語が他の概念との関係又は、全体のコンテクストから考えて適切な関係を示す単語か確信が持てない。人の認知から考えると、やはり適切な関係を示す単語とは、全体の概念の関係から考えても適合するものでなければ確信が持ちにくい。しかしながら、複数の仮想赤ノードで示された場合、その仮想ノードを全て埋めるには、相当時間がかかる上に創発しにくい。
また、島に黒ノードと黒リンクが全て現れてしまうために、その島の概念を示す核となる単語が良く分からないという課題がある。

仮想赤ノードについては、一つずつ示し、他の赤ノードは本データのものを示すようにすることで、全体のコンテクストの大部分を理解しながら、仮想赤ノードの単語を埋めていくことが可能になり、発想しやすい。特に、グループで活用する場合は、経験、知識の差異を十分考慮して、理解の度合いを深めながら創発していくことが、発想の交換を活発にする上で必要である。

島における核となる単語の表示や、多くの黒ノードを適度に間引く作業が必要である。ポテンシャル図であれば、高頻出度単語を高低で示せるので、この課題は解決できる。しかし、黒ノードの適度な間引きは、単語の表出数をどの段階で制御するかを考える必要がある。

最近の共同実験

M氏と昨晩、大澤研究室で秘密の打ち合わせをおこないました。
共同研究を現在進めている経過報告と今後の実験の展開について意見を交換しました。
  1. 実験の目的:複数の被験者で構成されるグループでKeyGraphの出力されたグラフ図の解釈や      新たなシナリオを創発させる場合に、被験者間の経験や知識の差異を調整し、解釈やシナリオの創発が円滑に進む手法を開発する。
  2. 実験の進め方:第一次段階では、熟練者と非熟練者によってKeyGraphによって出力されたグラフ図の解釈がどの程度容易に思えるのかを確認する。最初に、概念を示す黒ノードと黒リンクで形成される塊(「島(Island)」と呼称している)の粒度の大小でどのように異なるのかを確認する。次に、粒度が細密化するに従い、概念間を結ぶ赤ノードの表出が多くなるので、その赤ノード数の増加により、被験者の経験や知識によって解釈度合いが異なるか確認する。
  3. 実験条件:以前の実験を契機に創出された五つの特許のうちの一つの特許をKeyGraphで処理し、出力される黒ノード数を80個と固定し、黒リンク数を制御しながら、概念の塊となるIsland(島)を1個から複数個に生成し、その過程で赤ノード数を徐々に表出させて、6枚のKeyGraphを作成した。                                                        1.JaJa80?200?10?0 (概念1個)                                2.JaJa80?120?15?0 (概念2個)                                3.JaJa80?100?22?0 (概念5個)                               4.JaJa80?80?30?0 (概念6個)                                         5.JaJa80?60?40?0 (概念7個)                                        6.JaJa80?40?50?0(概念8個)
  4. 中間結果:非熟練者は、上記の1又は2のような概念が1又は2個程度で赤ノードが10?15程度と少ないグラフ図が解釈しやすい。熟練者は、3の概念が5個のもので、赤ノードが22個のものが解釈しやすいとしている。傾向として、両グループとも、4から6は解釈しにくいとしている。
  5. 結論:この結果から、KeyGrapの出力グラフ図に基づいて熟練者と非熟練者がコミュニケーションを行う場合、上記のような解釈難易度の認識の差異を事前に考慮して、提示することが必要であることがわかった。