知識情報学【土曜集中コース】(シラバス)
基本情報
- 科目名
- 知識情報学
- 教材担当
-
福井 健一
原 聡
岸本 充生
- 授業概要
ディープラーニングをはじめ近年のAIは識別などの機械学習が大変発展しています。本講義では、広範な機械学習の領域を体系的に学び、共通する基本的な考え方・概念、利活用に必要な素養を身に付けることを目標とします。機械学習の適切な利活用には数理的背景を理解すると共に、実際にデータにあたり、実装し、データの特性と機械学習の原理の両面から洞察する実学が重要になります。本講義ではこれらを座学と演習によりバランスよく習得することを目指します。さらに最近のトピックスとして、機械学習による異常検知、説明可能なAI (eXplainable AI: XAI) に関する技術的な話題、およびAIと倫理・法に関して学ぶことで、AI・機械学習システム開発において必要な素養を養います。
詳細情報
第1回 | (福井)機械学習の概要、演習環境(Python, scikit-learn, Jupyter notebook)について |
---|---|
第2回 | (福井)機械学習の基本的な手順:前処理、次元の呪い、次元圧縮、クロスバリデーション、ROC曲線、k-近傍法 【演習】k-近傍法によるIrisデータの識別 |
第3回 | (福井)識別 (1): 決定木学習:概念学習とは、C4.5、情報利得 【演習】決定木学習によるIrisデータの識別 |
第4回 | (福井)識別 (2): ベイズ学習:ナイーブベイズ分類器、ベイジアンネットワーク 【演習】ナイーブベイズ分類器によるゴルフプレイデータの識別 |
第5回 | (福井)識別 (3): ロジスティック回帰:ロジスティック回帰の導出、確率的最急降下法による学習、L1/L2正則化 【演習】ロジスティック回帰によるMNISTデータの識別 |
第6回 | (福井)識別 (4): サポートベクタマシン:マージン最大化による定式化、ラグランジュの未定乗数法、カーネルトリック、入れ子の交差検証によるハイパーパラメータ調整 【演習】SVMによる乳がん診断データの識別とハイパーパラメータ調整 |
第7回 | (福井)回帰:線形回帰、線形基底関数モデル、サポートベクトル回帰、逐次特徴選択 【演習】ボストン住宅価格データを用いた回帰手法の比較と特徴選択 |
第8回 | (福井)アンサンブル学習:バギング、アダブースト、ランダムフォレスト、勾配ブースティング 【演習】Wineデータを用いた各種アンサンブル学習の比較 |
第9回 | (福井)教師なし学習 (1): クラスタリング:階層型クラスタリング、K-means、ガウス混合モデル、クラスタリング妥当性指標 【演習】K-means法によるWineデータのクラスタリング |
第10回 | (福井)教師なし学習 (2): 可視化と自己組織化マップ:PCA、MDS、ばねモデル、ISO map、LLE、SOM、t-SNE 【演習】SOMによるglassデータの可視化 |
第11回 | (原)異常検知その1:確率密度推定に基づく異常検知 確率密度関数の推定(正規分布、混合正規分布、カーネル密度推定)と、確率密度推定に基づく異常検知 【演習】確率密度推定に基づく異常検知 |
第12回 | (原)異常検知その2:異常検知への様々なアプローチ 近傍距離に基づく異常検知、領域分割に基づく異常検知、ランダム分割に基づく異常検知 【演習】近傍距離/領域分割/ランダム分割に基づく異常検知 |
第13回 | (原)説明できるAI 局所的な説明法、大域的な説明法、深層学習モデルの説明法 【演習】LIMEによる局所的な説明 |
第14回 | (岸本)データを利活用するために必要となる法的、倫理的、社会的な課題について、特に個人情報の取り扱いに焦点を当てて概説する。 |