ディープラーニングの基礎から応用まで、初心者が押さえておくべき重要な概念をグラフィカルにまとめました 🔍
人間の脳の神経回路を模倣した多層ニューラルネットワークを用いた機械学習手法です。データから自動的に特徴を抽出し、複雑なパターンを学習できます。
ニューロン(パーセプトロン):情報を受け取り、処理して出力する基本単位
活性化関数:線形変換を非線形に変換する関数
重み・バイアス:ネットワークの学習パラメータ
損失関数:予測と真値の誤差を定量化
最適化アルゴリズム:誤差を最小化するよう重みを更新
関数名 | 特徴 | 用途 |
---|---|---|
ReLU | max(0,x) | 隠れ層の標準 |
Sigmoid | 0〜1の出力 | 二値分類 |
tanh | -1〜1の出力 | RNNなど |
Softmax | 確率分布出力 | 多クラス分類 |
Leaky ReLU | 負の値でも勾配あり | 勾配消失対策 |
MLP(多層パーセプトロン):最も基本的なフィードフォワードネットワーク
CNN(畳み込みニューラルネットワーク):画像処理に優れた構造
RNN(再帰型ニューラルネットワーク):系列データに対応
LSTM/GRU:長期依存関係を学習できるRNNの発展形
Transformer:自己注意機構を持つ並列処理が可能なアーキテクチャ
GAN(敵対的生成ネットワーク):生成モデルと識別モデルの対立で学習
順伝播(Forward Propagation):入力から出力への計算過程
逆伝播(Backpropagation):誤差を基に勾配を計算して重みを更新
SGD(確率的勾配降下法):基本的な最適化手法
Momentum:慣性を持たせて局所最適解を回避
AdaGrad:パラメータごとに学習率を調整
RMSProp:AdaGradの改良版
Adam:MomentumとRMSPropを組み合わせた手法
過学習(Overfitting)とは、訓練データには適合するが汎化性能が低い状態です。
対策方法:
ドロップアウト:学習時にランダムにニューロンを無効化
正則化:重みの大きさにペナルティを与える(L1/L2正則化)
データ拡張:訓練データに変形を加えて量を増やす
早期終了:検証誤差が改善しなくなったら学習を停止
バッチ正規化:各層の入力を正規化して学習を安定化
タスク | 主な評価指標 |
---|---|
分類問題 | 精度、適合率、再現率、F1スコア、AUC |
回帰問題 | MSE、RMSE、MAE、R² |
生成モデル | Inception Score、FID |
翻訳/テキスト | BLEU、ROUGE、METEOR |
💻 始め方のヒント:
1. Google Colabで無料GPUを使って実験
2. Kaggleのチュートリアルでデータセットと実践例を学習
3. 公開されている実装を読んで理解を深める
自己教師あり学習:ラベルなしデータから効率的に学習
マルチモーダル学習:複数の種類のデータを統合的に扱う
拡散モデル:画像生成などで注目される生成モデル
大規模言語モデル:GPTなどのトランスフォーマーベースモデル
強化学習:環境との相互作用から方策を学習
軽量化・効率化:エッジデバイスでの実行に適したモデル開発