シラバス参照 |
講義概要/Course Information |
科目基礎情報/General Information |
授業科目名 /Course title (Japanese) |
データ解析最適化論 | ||
---|---|---|---|
英文授業科目名 /Course title (English) |
Advanced Topics in Data Analysis Optimization | ||
科目番号 /Code |
|||
開講年度 /Academic year |
2019年度 | 開講年次 /Year offered |
全学年 |
開講学期 /Semester(s) offered |
後学期 | 開講コース・課程 /Faculty offering the course |
博士前期課程、博士後期課程 |
授業の方法 /Teaching method |
講義 | 単位数 /Credits |
2 |
科目区分 /Category |
大学院専門教育科目 - 専門科目Ⅱ | ||
開講類・専攻 /Cluster/Department |
情報・ネットワーク工学専攻 | ||
担当教員名 /Lecturer(s) |
○笠井 裕之 | ||
居室 /Office |
東2-611 | ||
公開E-mail |
笠井<hiroyuki.kasai@waseda.jp> | ||
授業関連Webページ /Course website |
http://www.kasailab.com/ | ||
更新日 /Last update |
2019/10/07 07:38:24 | 更新状況 /Update status |
公開中 /now open to public |
講義情報/Course Description |
主題および 達成目標(2,000文字以内) /Themes and goals(up to 2,000 letters) |
This lecture addresses the fundamentals and algorithms of optimization theory which is one of core technologies of machine learning. Especially, non-linear programming is focused. Note that the topics related with combinational optimization, non-differential optimization, discrete optimization and linear programing are not provided. 講義では,データ解析のための機械学習(データ最適化手法)に関する技術と理論について学習する. |
---|---|
前もって履修 しておくべき科目(1,000文字以内) /Prerequisites(up to 1,000 letters) |
Linear algebra 線形代数 |
前もって履修しておくこ とが望ましい科目(1,000文字以内) /Recommended prerequisites and preparation(up to 1,000 letters) |
Linear algebra 線形代数 |
教科書等(1,000文字以内) /Course textbooks and materials(up to 1,000 letters) |
Not special 特に無し |
授業内容と その進め方(2,000文字以内) /Course outline and weekly schedule(up to 2,000 letters) |
以下の内容に従って講義を行うが,学生の理解度に合わせて適宜内容を調整する. 1:Introduction - Big and high-dimensional data analysis and its issues ビッグデータ&高次元データ解析とその問題 - Linear and logistic regression 線形回帰&ロジスティック回帰 - Optimization technique basis 最適化技術の基礎 2: Mathematic preliminaries - Space R^n and R^{mxn} space 数ベクトル空間,行列空間 - Inner product and norms 内積とノルム - Eigenvalues and eigenvectors 固有値と固有ベクトル - Basic topological concepts 位相の基礎 - Differentiability 微分可能性 - Linear/quadratic approximation theorem 一次&二次近似定理 3: Optimality conditions for unconstrained optimization - Global and local optima 大域的&局所領域の局値 - Classification of matrices 様々な行列 - First/second order optimality conditions 一次&二次最適性条件 - Quadratic functions 二次関数 4: Least squares - Overdetermined systems 優決定系のシステム - Data fitting データフィッティング - Regularized least squares 正則項付き最小自乗法 - De-noising ノイズ除去問題 - Numerical demonstrations 数値例デモ 5: Gradient method 1 - Descent direction 降下方向 - Gradient method 勾配法 - Condition number 条件数 - Scaled gradient (Diagonal scaling) スケールド勾配法 - Numerical demonstrations 数値例デモ 6: Gradient method 2 - Line search (Exact, Backtracking, Wolf conditions, etc.) 直線探索 - Convergence analysis (Lipschitz continuity, the descent lemma, sub-linear convergence rate) 最急降下法の収束解析 7: Newton's method - Pure Newton's method ニュートン法 - Convergence analysis (Quadratic local convergence rate) ニュートン法の収束解析 - Damped Newton's method Damped ニュートン法 - Cholesky factorization based Newton's method コレスキー分解に基づくニュートン法 - Numerical demonstrations 数値例デモ 8: Convex sets and functions - Definition and examples of convex sets 凸集合 - First/second order order characterizations of convex functions 凸関数の特性 9: Convex optimization 1 - Stationarity - Orthogonal projection 直交射影 - Gradient projection method 勾配射影法 10: Convex optimization 2 - Convergence analysis 最急降下法の凸関数における収束解析 11: Optimality conditions for linearly constrained problems - Separation and alternative theorems (Farkas' lemma) 分離定理,二者択一定理 - KKT conditions KKT条件 - Orthogonal regression 直交線形回帰 12: KKT conditions - Fritz-John theorem - KKT conditions for inequality/equality constrained problem 不等式・等式制約問題のためのKKT条件 - KKT conditions for convex optimization problem 凸問題のためのKKT条件 13: Duality - Motivations - Definition - Weak/strong duality in convex case 凸問題における弱・強双対定理 - Examples (LP, QP, Orthogonal projection, Chebyshev center, Sum of norms, Denoising, etc.) 14: Advanced topics 1 - Stochastic optimization (SGD, SAG, SVRG, etc.) 確率的勾配法等 15: Advanced topics 2 - Proximal (Stochastic) optimization methods 近接勾配法 - ADMM 交互方向乗数法 - Optimization on Riemannian manifolds 多様体最適化法 |
実務経験を活かした 授業内容 (実務経験内容も含む) /Course content utilizing practical experience |
|
授業時間外の学習 (予習・復習等)(1,000文字以内) /Preparation and review outside class(up to 1,000 letters) |
最適化理論に関わる書籍や論文などを理解する. |
成績評価方法 および評価基準 (最低達成基準を含む) (1,000文字以内) /Evaluation and grading (up to 1,000 letters) |
- Evaluation method Middle term report:50% Final term report:50% - Evaluation metrics How deeply students understand fundamentals and algorithms of optimization theory. |
オフィスアワー: 授業相談(1,000文字以内) /Office hours(up to 1,000 letters) |
10:40-11:20 on Monday |
学生へのメッセージ(1,000文字以内) /Message for students(up to 1,000 letters) |
The topics in the class are closely related with "big-data" analysis, signal processing and machine learning techniques. 大規模データの機械学習や信号処理,統計学習などの基盤技術です. |
その他 /Others |
- Students who are interested in machine learning, pattern recognition, and big data analysis are welcome. 機械学習,パターン認識,ビッグデータ解析に興味のある学生に適しています. - It is recommended to contact the lecturer by e-mail if you have any questions. 質問等があれば,教員にコンタクトしてください. - The spoken language can be English if less-than one non-Japanese student attends. 日本語の理解が難しい学生がいる場合には,英語で講義を行います. - Black board is used. 第1回以外は,黒板で講義を行います. - MATLAB simulation tasks are provided to students for their deeper understandings. MATLABでの演習課題が出る場合があります. |
キーワード /Keywords |
Optimization problem, Non-linear programming, Gradient, Hessian, Convex set/function, optimality conditions, Iterative gradient descent fundamentals, Line search methods (Back-tracking, Armijo condition), Steepest descent, Newton's method, Scaled/Preconditioning descent methods, Stochastic gradient descent, KKT conditions, Duality 最適化問題,非線形問題,勾配,へシアン,凸集合/凸関数,最適性条件,反復勾配法,直線探索,最急降下法,前処理勾配法,確率的勾配法,KKT条件,双対定理 |