第57回統計的機械学習セミナー / The 57th Statistical Machine Learning Seminar

【日時】
2023年8月28日(月) 15:00-

参加無料 / Admission Free

【場所】
東大・駒場ファカルティハウス・セミナー室(ハイブリッド)
オンライン参加を希望される場合は、以下のgoogle formに登録し、Zoom情報をお受け取りください。 https://forms.gle/3neie892Qchd7xe18

現地参加の場合は登録不要です。
【プログラム】
15:00-15:30 鈴木渓太さん(Preferred Networks)
15:30-16:00 岡野遼さん(東大・経済学研究科)
16:15-17:30 髙橋昂さん(東大・理学系研究科 附属 知の物理学研究センター)
【講演者1】
鈴木渓太さん
【タイトル】
Optimal criterion for feature learning of two-layer linear neural network in high dimensional interpolation regime
【概要】
Deep neural networks with feature learning have shown surprising generalization performance in high dimensional settings, but it has not been fully understood how and when they enjoy the benefit of feature learning. In this paper, we theoretically analyze the feature learning ability of a two-layer linear neural network with multiple outputs in a high-dimensional setting. For that purpose, we propose a new criterion so that we can properly learn this two-layer neural network in a high-dimensional setting. Interestingly, we can show that the estimator obtained by minimizing the criterion can generalize even when the normal ridge regression can not. This is due to the feature learning ability of the neural network, and because the proposed criterion is constructed so that it behaves like an upper bound of the predictive risk. As an important characterization of the estimator, we show that this network can achieve the optimal Bayes risk that is determined by the distribution of the true signals across the multiple outputs. To our knowledge, this is the first work that clarifies when the normal ridge regression does not generalize, but the optimized two-layer linear network can generalize in multi-output linear regression settings.
【講演者2】
岡野遼さん
【タイトル】
ワッサースタイン計量の下での多変量ガウス分布間の回帰モデル
【概要】
各サンプルが確率分布の形で与えられるようなデータセットを考える。このようなデータは分布値データと呼ばれ、それを解析するための統計手法の開発が近年進められている。分布値データを扱う主要なアプローチとして、確率分布の集合にワッサースタイン計量を導入するというものがあり、特に[1]などではこのアプローチに基づいて、一次元分布を一次元分布に回帰させるような回帰モデル(分布間回帰モデル)を提案している。しかしそれらのモデルは、分布が一次元の場合のワッサースタイン計量特有の性質に基づいており、分布が多次元のケースに拡張することが難しい。 本発表では、ガウス分布間の最適輸送問題が多次元分布であっても例外的に陽に解けることに注目し、ワッサースタイン計量の下での多変量ガウス分布間の回帰モデルを提案する。まず、ガウス分布を線形な行列空間の要素へ変換する方法を提案し、この変換がワッサースタイン計量をある程度保存することを示す。提案モデルは、変換した行列間の線形回帰モデルとして定義される。次に、提案したモデルを用いて分布の予測を行う場合の予測誤差の理論解析を行う。また、テンソルの低ランク分解を用いて分布の次元が大きい場合に対処する方法や、ガウス性の仮定を緩和する方法についても議論する。最後に、シミュレーションと実データ解析を通じて、提案手法による分布の予測が他手法による予測に比べてワッサースタイン距離の意味で誤差が少なくなることを示す。

参考文献:
[1] Chen, Y., Lin, Z. and Müller, H.-G. (2023). Wasserstein regression. Journal of the American Statistical Association, vol. 118(542), pp. 869-882.
【講演者3】
髙橋昂さん
【タイトル】
疑似ラベルを用いた学習のレプリカ解析
【概要】
深層学習の発展に伴って転移学習をはじめとした複数段階の学習を組み合わせる柔軟な手法が多く開発されており、これらの原理・有用性についての理論的な理解が進められている。本講演では特に、単純な有効問題を導出して考察することで対象の理解を試みる平均場理論的な解析に焦点をあてる。具体的に、前段階の学習で得たモデルの出力を、一種の仮想的な教師ラベルとして用いて次段階の学習を行う「疑似ラベル」の手法について考察する。この問題の数理的枠組みは物性物理の解析で用いられるFranz-Parisiポテンシャルの解析法と形式的に類似しており、統計物理学で知られているレプリカ法を用いることで疑似ラベルを用いた線形モデルの学習に対する有効問題が導出できる。2成分混合ガウス分布で生成されたデータに対して導出された有効問題の解析から、ラベルの不均衡が小さい場合には疑似ラベルを用いた学習は教師あり学習に肉薄した汎化性能が得られる場合が得られることを紹介する。
区切り線
【主催】
統計数理研究所・統計的機械学習研究センター
JST・CREST 「数理知能表現による深層構造学習モデルの革新」
【連絡先】
統計数理研究所・福水健次
E-mail: fukumizuism.ac.jp