2023年度FD研修会 「人工知能と数学」

年度別一覧

お知らせ

参加希望の方は, こちらから
(参加登録は2月14日PM 3:00までに行ってください。)

開催日: 2024年2月15日(木)15:00~17:15
場 所: 大阪公立大学 理学部E棟4階  数学大講究室(E408) オンライン併用(Zoom)
共 催: 理学研究科FD委員会・大阪公立大学数学研究所(OCAMI)
ポスターPDFをご覧ください。

概要

理学研究科主催(理学研究科FD委員会・数学研究所共催)の「新たな大学院教育の展開のためのFD研修会」を開催します。 尚、本FD研修会は,平成20年度に、当時の理学研究科長・今吉洋一先生のリードで開催された数学科主催の 理学研究科FD研修会 「現代理学において数学はどのように使われるか?」に始まり, これまでの理学研究科FD研修会 に続く第16回です。
学生,教職員,研究者,一般の方など,どなたでもご参加できます!!

プログラム

15:00~15:05  開会

15:05~15:55
園田 翔 氏(理化学研究所 革新知能統合研究センター・研究員)
講演タイトル  :  積分表現でニューラルネットを理解する
講演アブストラクト:  ニューラルネットは今日の AI 技術を支える学習機械です. 数学的には,無数のニューロンを並列・縦列に接続したネットワーク構造が定める非線形関数です. 学習の手続きは自動化されているため,学習を通じて獲得されるパラメータや内部での情報処理の仕組みはよく分かっていません. 積分表現理論は,このパラメータを数学的に解析するための強力なツールです.この方法の強みは,ニューラルネットが表す関数 f を分布関数 γ に対応付ける疑似逆作用素が,積分作用素として陽に書き下せることです. この逆作用素をリッジレット変換といいます.残念ながら,具体的なリッジレット変換が知られているネットワーク構成は限られていました. 講演者らの最近の研究により,多様体上の全結合層や,群畳み込み層,形式的な深層ニューラルネットに対してリッジレット変換を系統的に導出できるようになりました. 本講演では,ニューラルネットと積分表現理論の概要を説明し,リッジレット変換の自然な導出法について解説します.

16:15~17:05
鈴木 大慈 氏(東京大学大学院情報理工学系研究科・准教授)
講演タイトル  :  機械学習の数学
講演アブストラクト :  機械学習は現在,ChatGPTや拡散モデルといった基盤モデルの発展により,社会的に大きな影響を与える技術となっている. これら基盤モデルは大規模資本によるモデル開発による発展が著しいが,一方でその裏には数学的に興味深い理論的背景がある. 本発表では,そのような基盤モデルを支える深層学習の背後にある理論を紹介する.より具体的には,代表的な生成モデルの一つである拡散モデルの背後にある確率微分方程式による特徴付けやその推定理論について述べ, 大規模基盤モデルの基本構造であるTransformerの関数近似理論についても述べる.さらに,深層構造により高い学習効率を獲得できることの理論的特徴付けを紹介する. これは深層構造による特徴学習が,特徴を固定した手法に対して優位に立つことによる.最後に,ニューラルネットワーク最適化に関する理論を紹介し,そこに現れる数理構造を紹介する.具体的には,平均場ランジュバン動力学による大域的最適性や勾配法が平坦な最適解へ収束することについて説明する.

17:10~17:15  閉会