
まず、変数の個数が大きくなると、データから知識を学習するいわゆる学習(設計)段階、知識と 一部の変数の観測値からそれ以外の変数の分布を計算する推論(運用)段階のいずれのフェーズにおいても、変数の個数に対して指数的な計算量が要求される。極端な言い方をすると、 何らかの近似がないと、まともに動かないといっても、過言ではない。
もう一つは、数学的に難しく、理解するのに敷居が高いということがある。たとえば、ベイジアンネットワークでも、人工知能の研究者で、理論を完全に理解している人は少なく、だましだまし応用している人が多い(挙動を理解していなくても、性能を実験的に評価するとか)。 人工知能全体からすれば、確率的グラフィカルモデルは 道具にすぎないという考えは、ある意味オーソドックスであるかもしれない。
さらにあげると、ベイジアンネットワークを使おうにも、スクラッチでシステムを構築することは不可能に近く、研究者でない限り、 ひな形やツールのようなものがないと、断念せざるを得ないように思われる。
|