機械学習で扱うデータ中には、往々にして学習に利用可能な離散構造が存在する場合が多い。 代表的なものは、変数間のグラフ構造やグループ構造、または階層的構造などである。 近年、このような構造を正則化学習の中で明示的に利用するための、構造正則化学習と呼ばれる枠組みが考案され盛んに議論されている。 特にF.Bach(NIPS'10-11)は、機械学習で議論される構造正則化ノルムのほとんどは、劣モジュラ関数の連続緩和(Lova'sz拡張)となっている事を示している。 劣モジュラ関数は、離散的な凸性を持つ集合関数として知られる。
本講演では、構造正則化と劣モジュラ性の関係を概説すると共に、この関係から得られるいくつかの学習上の有用性について議論する。 まず、劣モジュラ関数のあるサブクラスを構造正則化として用いる事で、グラフカットによる極めて高速な学習アルゴリズムが得られる事について述べる。 実際、機械学習で扱われる構造正則化ノルムのほとんどはそのサブクラスを考えれば十分であり、 特定の学習(相関ベースの特徴選択や主成分分析など)においては、問題を最小カットとして定式化する事も可能となる。 またこのような枠組みを考える事により、極めて高速なアルゴリズムが得られるのみでなく、 異なる正則化の強さに対する解の軌跡(いわゆる正則化パス)が容易に計算可能となる事についても述べる。 本講演の最後では、このような枠組みをゲノムワイド解析や大規模な画像処理などの応用へ適用した例についても紹介する。
(事情により最初の講演はキャンセルとなりました。そのため、品野先生のご講演のみ15時に開始します。終了は17時の予定です。)