やさしく分かる会話形式 シリーズ
機械学習 & ディープラーニング入門(2)

機械学習 & ディープラーニング入門(2)

機械学習やディープラーニングには、どんな手法があるの?

2018年4月17日

藍博士とマナブの会話から機械学習とディープラーニングの基礎の基礎を学ぼう。機械学習を始めるための最低限の基礎用語から、ディープラーニングの代表的な学習方法と代表的なアルゴリズムまでをできるだけシンプルに紹介する。

一色政彦 デジタルアドバンテージ 一色 政彦 (インタビュー取材協力: 安部晃生 DATUM STUDIO 安部 晃生)

登場人物紹介

深井藍(ふかい・あい) 博士

深井藍(ふかい・あい) 博士


最新の人工知能技術を応用して、次世代の人型ロボット(アンドロイド)を開発するのが仕事。試行錯誤の末にやっと開発できたのがマナブ(01号)である。
責任感が強く頑固で読書家だが、ドラマ好きで、超天然な一面もあるアラサー リケ女。
ちなみに藍が使っているタブレットには、マナブの学習状況をチェックできる機能だけでなく、万が一の安全対策としてマナブの暴走を制御するための「秘密機能」が搭載されているという。

マナブ(01号)

マナブ(01号)


現実社会の学習を進めるため、藍博士と24時間生活を共にしている次世代アンドロイド、0歳。
見るもの聞くものすべてに興味津々。藍が好きなテレビドラマとお笑い番組からも学習しているため、うわすべりな知識から勘違いな行動を取ったり、大阪風のボケをかましたりすることもある。
この物語の主人公。エンジニアスキルはあるけど機械学習やディープラーニングについてまだ何も知らない。

ディープラーニングを教え始めて2日目

 毎日、マナブを連れだし、現実社会を深く学ばせる藍。今日は、さらに食べ物について学習させようと、お台場のハワイアン・パンケーキ屋さんにやってきた。

マナブ、ディープラーニングを基礎から学び始める😋

図1 パンケーキ
図1 パンケーキ

マナブ:目がハート うわ、めっちゃボリュームある~! 美味しそう。早く食べたい。藍先生、美味しそうなお店を知ってるなぁ。甘い物好きだね。

藍:にっこり 職場の友達がスイーツ好きで、その影響かな。うふふ。しかも前にテレビでやってた深夜ドラマ『さぼリーマン甘太朗』全話もブルーレイで買って持ってるしね。

マナブ:爆笑 何それwww

藍:びっくり (やばい、口が滑った……)

―― マナブのサンバイザーには、動画検索して映像を見るための機能が搭載されている ――

マナブ:にんまり 動画検索して見てみよっと。んーーーーーーー!!? 何これぶっ飛びすぎやろwww

藍:あせる (ヤバい! ヤバい! ヤバい! 趣味がばれてしまう!)

―― パニックになった藍は無意識のうちにマナブのサンバイザーの秘密ボタンを連打してしまった ――

<サンバイザー暗黒モード*1、始動>

*1 【解説しよう】サンバイザー秘密機能

 マナブのサンバイザーには、安全対策として真っ黒にして何も見えないようにすることで、マナブの行動をやんわりと制限する機能が搭載されている。万が一、マナブが悪さをすると、藍はタブレットを操作して、サンバイザー暗黒モードのお仕置きを与えるのだ。

マナブ:泣く 😱うわー。なんでや、なんでや、何も悪いことしてないっつーのに~~。しかもしょっぱなからやん。

藍:しょんぼり (しばらくこのままにして忘れさせようかな……と思ったけど良心が痛む)ごめん、ごめん。解除するね。

<サンバイザー暗黒モード、解除>

マナブ:目が点 かんたろ……

藍:あやしむ あ! そうそう、今日は機械学習の話をする約束だったね。

マナブ:目がハート そやで!(目がキラキラ)

藍:厳しく教える (しめしめ、忘れたな。機械学習に興味津々で助かったわ)

機械学習における手法/アルゴリズム/学習済みのモデルはここが違う

マナブ:質問 昨日、

機械学習の手法(その中身となる計算方法がアルゴリズム)の一つにディープラーニングがある。
……
ディープラーニングで学習して実現できるようになった各機能――その中身である「学習済みモデル」……

と、さらっと説明したよね? 「手法」「アルゴリズム」「モデル」という単語は全部似ている気がして何が違うのかがよく分からなかったよ。

藍:優しく教える 確かにそこは、今後の説明のためにも、いったん整理しておいた方がいいね。ここからは、徐々に学術的な話が入って少し難しくなるから、覚悟して頑張って付いてきてね。

  • 機械学習の手法/技法(approaches): アルゴリズムを活用してモデルを作成する手順・方法。例えば「ニューラルネットワーク」
  • アルゴリズム(algorithm): 学習前の計算式/計算方法。例えば「線形回帰」*2であれば \(y=ax+b\) のようなパラメーター( \(a\) や \(b\) )が決まっていない抽象的な式パラメーターを決める手続きのこと
  • モデル(model): 学習後の計算式/計算方法。例えば上記の「線形回帰」*2であれば \(y=2x-1\) のようなパラメーターが決まった具体的な式のこと

*2 【解説しよう】線形回帰/非線形回帰

 線形回帰Linear regression)のイメージを説明すると、「データの1つ1つの値を点としてプロットしたグラフ上で、それに近似(フィット)する直線を引くこと」と同じと言える(図2の左)(詳しくは後述)。ちなみに、非線形回帰Nonlinear regression)のイメージは「曲線を引くこと」と同じと言える(図2の右)。

図2 線形回帰と非線形回帰
図2 線形回帰と非線形回帰

マナブ:理解不納 「モデル」を説明的に丁寧に言うと「学習が済んだモデル」という理解でいいのかな?

藍:にっこり まーそういうことだね。本来のモデルの意味は「入力を与えると、何らかの処理後の出力を返すもの」のことなんだけど、機械学習においては、アルゴリズムを活用して学習した結果として「出来上がったもの」がその「モデル」ということになる。なので例えば「サポートベクターマシン(SVM)」のアルゴリズムで学習したものは「SVMモデル」と呼ばれたりするね。

マナブ:にんまり それでニューラルネットワークやディープラーニングでは「学習済みモデル」(もしくは「学習モデル」)と呼ぶんだよね?

藍:厳しく教える そう。それ以外にも、その中身であるネットワークに着目して「ネットワークモデルNetwork model)」とも呼ばれることがあるね。ただし現実には、もっとルーズに「アルゴリズム」や「手法」のことも「モデル」と表現されることもあるから、そのあたりは文脈によって判断するしかないよ。

図3 アルゴリズムとモデル(ニューラルネットワーク手法による機械学習の場合)

マナブ:質問 ところでスルーしてたけど、例に挙がった「線形回帰」の \(y=ax+b\) が、なんで学習したら \(y=2x-1\) になるの?

藍:優しく教える 図4を見てみて。まず学習用のトレーニングデータTraining data訓練データ)をXY座標のグラフに点としてプロットしたとするわね。そのすべての点データに最も近似(フィット)する \(y=ax+b\) の線を引こうとすると、 \(a\) や \(b\) のパラメーターがおのずと決まってくるでしょう? そうやって決まったのが \(y=2x-1\) で、これがモデルになるの。ちなみに機械学習の課題はおおむね、この例のように「トレーニングデータに近似する線を引いてください」という問題に置き換えることができるの。

図4 機械学習の課題≒「トレーニングデータに近似する線を引いてください」という問題

マナブ:目が点 ふ~ん、分かったような、分からないような……

藍:あやしむ では身近なもので例えてみようか。例えばジャンケンって、人によって癖があるよね。ある友達の癖を学習して、勝ちパターンの戦略モデルを構築することは、機械学習に近いのよ。具体的には、その友達が普段どういう手を出しているかを観察してデータを蓄積していけば、

「2回連続勝利する戦略=1回目はaの手+2回目はbの手

という計算式アルゴリズムにおける勝ちパターンの戦略モデルが見えてくるよね。例えば友達が「1回目はチョキ、2回目はグーを出すことが多い」という「データ」があれば、それに勝てるようなabを求めていくと、

「2回連続勝利する戦略=1回目はグー+2回目はパー

という勝ちパターンの戦略モデルが構築されるでしょう。こんな感じでモデルを構築していくのが機械学習における学習なんだよ。

マナブ:にっこり 確かにそういう戦略モデルを自分も立ててる! これは学習していっているということなんだね。

機械学習の学習と推論

藍:厳しく教える 学習したモデルは、実践で使うことになるよね。これに関しては以下のような用語があるので覚えておいてね。

  • 学習learning): モデルを「作る」こと
  • 推論inference): モデルを「使う」こと

マナブ:にんまり OK。ジャンケンの過去データから勝ちパターンを学習して、実践では勝ちパターンによってジャンケンの次の手を推論する、というふうに言えばいいのかな?

藍:優しく教える そんな感じ。推論はそれほど難しくないので、次回説明するね。今日は学習について、もう少し掘り下げていこう。

3つの代表的な学習方法

藍:厳しく教える 学習にもやり方がいくつかあって、代表的なものが次の3つになるよ。ちなみにこれ以外にも半教師あり学習Semi-Supervised Learningというのもあるけど、これはまだ覚えなくていいと思う。

  • 教師あり学習Supervised Learning): 正解が決まっているトレーニングデータを使って学習し、過去の正解にできるだけ近似(回帰/分類)する入出力パターンのモデルを構築すること
  • 教師なし学習Unsupervised Learning): 正解が決まっていないトレーニングデータを使って学習し、クラスタリングや次元削減によって本質的なデータ構造のモデルを構築すること
  • 強化学習Reinforcement Learning): プログラムの行動に対するフィードバック(報酬・罰)をトレーニングデータとして使って学習し、次に最も取るべき行動方針のモデルを構築すること

マナブ:がくっ ……、あーあー……何言ってるのか全く分からないよ。まず最初の教師あり学習を身近な例で教えてよ。

教師あり学習

藍:優しく教える 例えば動物の写真を見て「犬か」「猫か」を判断する問題があるとするよね。子供の場合、両親から「これはワンワンですよ」「これはニャンニャンですよ」などと教えられながら、犬と猫の区別を学んでいく。これと同じように教師あり学習では、動物の写真ごとに「これは犬です」「これは猫です」などの正解ラベルlabels教師データlabeled training data)と一致するかをフィードバックされながら、犬と猫の区別を学んでいくということよ(図5)。

図5 教師あり学習のイメージ

マナブ:にんまり 名前のとおり、教師がいるときの学習ということだね。

藍:にっこり 先ほど「フィードバック」と言ったのは、学術的には「ネットワークに誤差信号を戻す」という意味で、バックプロパゲーションBackpropagation誤差逆伝播)と呼ばれているよ。

マナブ:質問 バックプロパゲーション、長いけど覚えた! あと、回帰とか分類とか言ってたけど、これは何なの?

藍:優しく教える 回帰は「連続的なデータ」の問題を、分類は「離散的なデータ」の問題を解決するために使うよ。

回帰

マナブ:理解不納 連続的なデータ?

藍:厳しく教える 例えばマナブは毎日体重計に乗っているよね。1日1日ちょっとずつ値が変わりながら体重の線が推移していくでしょ。こういう点々にフィットする線を引いていける(=学習できる)のが連続的なデータ(図6)。ちなみにこの場合、正解ラベル(教師データ)は、次の日の体重になる。他には、毎日の温度とか、株価の推移とか、そういうものが例として挙げられるよ。

図6 連続的なデータによる回帰の例
図6 連続的なデータによる回帰の例

マナブ:質問 なるほど。確かに毎日、体重が減っていっていれば、今日の体重から連続した翌日の体重はこれくらい減っていると予測できるね。じゃあ離散的なデータは?

分類

藍:厳しく教える 例えばさっきの犬・猫の分類判断がまさにそれ。動物の顔の特徴(耳・目・鼻・口など)を何らかの方法で数値化してグラフ上に点としてプロットすると、これは体重のように綺麗に連続するデータとはならないで、ばらばらの点になってしまうのよね。写真に対する正解ラベル(「これは犬です」「これは猫です」)は分かっているので、「犬の点の集まり」と「猫の点の集まり」があれば、その集まりの中間に線を引いていける(=学習できる)よね。そうやって線で区分けされるのが離散的なデータ(図7)。他には、手書きで書いた数字画像を09の数値に分類するとか、そういうものが例として挙げられるよ。

図7 離散的なデータによる分類の例
図7 離散的なデータによる分類の例

マナブ:にっこり 新しいデータを与えたときに、その点が「犬側に入るか」「猫側に入るか」が予想(判断)できるということか。何となく分かった。

藍:優しく教える 「次の値を予測する、もしくは分類を予想(判断)する」というのがポイントで、これが教師あり学習の目的となっているわけ。回帰と分類の用途を学術的な言葉でまとめると、次のようになるよ。

  • 回帰regression): 連続する入力値に対する次の値を予測し、その結果を出力したい場合に使う
  • 分類classification): 離散的な入力値を、事前に定義された複数のクラスに分類し、その結果を出力したい場合に使う

マナブ:質問 教師なし学習も具体的な例をお願い。

教師なし学習

藍:厳しく教える これは先ほどの教師あり学習の分類に似ているけど、違うから注意して聞いてね。例えば点が散らばっていて、「これを2つのグループに分けてください」と言ったときに、人間だったら「この辺とこの辺はグループになっている」と判断して枠線を引ける(=学習できる)よね(図8)。機械学習でも、同じように枠線を引いてデータを複数のグループに分割していくのよ。このときの分割には、教師あり学習の場合と違って、正解があるわけではないというのがポイントね。分割に対する正解ラベルはない(つまり教師データがない)ので、「教師なし学習」と言われているの。

図8 離散的なデータによるクラスタリングの例(教師なし学習)
図8 離散的なデータによるクラスタリングの例(教師なし学習)
クラスタリング

マナブ:理解不納 「複数のグループに分割する」って言われても、うまくイメージできないなぁ……。

藍:にっこり 例を挙げるなら、商品の購買者データ(年齢、性別、居住地など)を基に顧客を無理やりいくつかのグループに分けるとか、が考えられるね。このように複数のグループ(=クラスター)に分割することは「クラスタリング」と呼ばれているの。

マナブ:質問 何のためにクラスタリングするの?

藍:厳しく教える 例えばグループ内のある人が買った商品は、同じグループ内の別の人も購入する可能性が高いなどの傾向が分かれば、その商品を同じグループ内の別の人々にもお勧めするなどの活用方法が考えられるよね。回帰や分類と同じように、クラスタリングの用途を学術的な言葉でまとめておくと、次のようになるよ。

  • クラスタリングclustering): 入力値を、事前に定義されていないグループに分割したい場合に使う

マナブ:にっこり じゃあ、「教師なし学習=クラスタリングの問題を解決する方法」と覚えとけばいいの?

次元削減

藍:優しく教える いや、それだけでなく、例えばデータの圧縮や可視化を行うための「次元削減Dimensionality Reduction)」などにも、教師なし学習はよく使われているのよね。次元削減については、後で出てくる「オートエンコーダー」のところで詳しく説明するね。クラスタリングや次元削減に共通するのは、「データの背後に存在する本質的な構造を抽出している」ということ。これがポイントで、教師なし学習の目的となっているわけ。

マナブ:質問 ふうん。それじゃぁ最後の強化学習も具体的にお願い。

強化学習

藍:にっこり 例えば「運転する」「ゲームで対戦する」というような、ある目的に対して望ましい行動をさせたいプログラムを作るときに使う学習方法だね。要するに、行動方針を学習するってこと。どうやって学習するのかというと、ダイナミックに変化する環境下において、プログラムが何かしらの行動を起こしたときに、それが「良かったか」「悪かったか」というフィードバックを与えられることで学習を実現しているの。

マナブ:がくっ あれ? フィードバックと言えば、教師あり学習だったよね?

藍:厳しく教える 教師あり学習のフィードバックは正解ラベル(教師データ)だったけど、強化学習のフィードバックは報酬rewards)もしくはpenalty)という点が全く違うわね。これによって、正解の出力をそのまま学習するのではなく、長期的に見て価値(=報酬の合計)が最大化する行動を「望ましい行動」として学習していくことになるの。

図9 強化学習のイメージ

マナブ:理解不納 やっぱよく分からないなぁ。身近な例で言ってよ。

藍:優しく教える 例えば犬のしつけを考えてみて。「お手」と言ったら、「飼主の手の上に犬自身の手を乗せる」のが、本来の望ましい行動になるよね。しつけでお手をできるようにさせたいなら、たまたまでも「お手」と言ったときに「手を乗せる」ことがあったら犬を褒めてあげる。これが報酬。ちなみに、それ以外の行動を取ったときは怒るなら、それは罰になるね。この報酬(や罰)を重ねることで、「お手」という言葉に対して「手を乗せればよいのだ」という行動パターンを学び、報酬が最大になるのが「望ましい行動なのだ」と学習していけるというわけ。

“望ましい行動”

マナブ:質問 ところでさっき、教師あり学習/教師なし学習が解決できる問題として「回帰」「分類」/「クラスタリング」「次元削減」という用語が出てきたけど、強化学習が解決できる問題は何て言うの?

藍:あやしむ 強化学習については、ひと言で表現する用語はないと思う。強いて言葉にするなら「望ましい行動」の問題になるけど、伝わりにくいから「強化学習」としか言い様がないわね。

ディープラーニングと学習方法

マナブ:質問 テレビでは、「今のディープラーニングによるAIは、自ら学習できるからスゴイ」と言ってた。これは何学習のことになるの?

藍:にっこり 話題になった囲碁のAlphaGoあたりを指して言ってるんだと思うけど、それは強化学習のことだろうね。囲碁で最終的に勝利するための行動を、自己対戦を繰り返すことなどで学習しているので、そういう言い方になるんだと思う。

マナブ:理解不納 それなら、ディープラーニングは強化学習を使うことが一番多いの?

藍:厳しく教える いえいえ、教師あり学習の方が多いわね。例えば画像の犬/猫の判定だったり、音声の日本語/英語の判定だったり。他には自然言語だったら、直前の入力単語に対して、次に来るべき単語は何かとか。そういった分類問題や回帰問題の解決のために、ディープラーニングはよく使われているという印象を私は持っているわ。

マナブ:質問 もしかして強化学習ってあまりうまくいってないの?

藍:にっこり 確かに強化学習は、教師あり学習などよりも、なかなか成果を出しにくい難しい技術という側面はあると思うわ。だけど大きな成功事例もあって、例えば2017年11月に発表された「AlphaGo Zero」は、教師となるプロ棋士との対局データがない状態から、強化学習のみで学習を行った結果、以前のAlphaGoに全勝できるほど強くなったんだよ。他にはグーグル傘下のDeepMind社の成果で、「Atari 2600」という昔のゲーム機のゲームプレイを強化学習したら人間を上回るスコアを記録できた、という論文が科学雑誌『nature』で2015年2月に掲載されているわね。

マナブ:びっくり やっぱ強化学習ってめっちゃスゴイやん!

藍:にっこり 強化学習は自動運転でも重要な学習方法として研究されているので、今後さらに発展していく分野なのは間違いないわ。

ディープラーニングの代表的なアルゴリズム

マナブ:質問 学習方法が主に3つあるんは分かったけど、どういうふうに学習するの?

藍:優しく教える いい質問ね。ディープラーニングで有名なアルゴリズムには、次の3つがあるよ。

  • オートエンコーダー: 主に教師なし学習に用いられる
  • CNN: 主に教師あり学習に用いられる
  • RNN: 主に教師あり学習に用いられる

マナブ:がくっ うわぁ、まーたまた意味不明な名前ばっかり……。で、これは何?

藍:厳しく教える 各アルゴリズムの内容を理解するのは、まだ難しいと思うけど、それぞれどんなことが得意なのか、ちょっとだけ紹介しておくね。詳しくは使う場面が来たらまた説明するよ。

オートエンコーダー

マナブ:質問 まずはオートエンコーダーからお願いします。

藍:にっこり オートエンコーダーAutoencoder)は、入力層(input layer)のデータと同じデータを出力層(output layer)の教師データとして使う珍しいタイプのアルゴリズムよ。入力層と出力層の間にある隠れ層(hidden layer)は、入出力層よりもノード(nodes:ネットワーク内での線と線の結び目)を減らして表現する。このため、データは入力層から隠れ層に流れるときに圧縮(エンコード)され、隠れ層から出力層に流れるときに復元(デコード)されるの(図10)。

図10 オートエンコーダーのイメージ
図10 オートエンコーダーのイメージ

藍:優しく教える こうすると隠れ層の情報量は、本来の情報よりも小さくなるよね。これを次元削減って呼ぶの。さっきもこの単語は出てきたのを覚えてる?

マナブ:にんまり 覚えてる。次元削減は、データの圧縮やデータの可視化に使うという話だったよね。

藍:厳しく教える 具体的には、画像のノイズ除去とかで使われているわ。画像の純粋な特徴features)、つまり画像の中に描かれているエッジや角、線といった本質的な特徴のみを抽出して、そこから復元するわけ。これによって、元の画像にある揺らぎなどが抑えられて純粋な特徴だけが表現された画像になるの。

マナブ:理解不納 んーと、ノイズ除去ってAIというより画像の加工だよね。AIによる問題解決には使われていないの?

藍:にっこり 今のところ、AIとして使える範囲はそんなに広くないみたいね。CNNやRNNの方がよく使われていると思う。ちなみにオートエンコーダーの功績については、『人工知能は人間を超えるか』という本で一般人向けに分かりやすく説明されているので、気になる場合は一読してみるのをお勧めするわ。

CNN(畳み込みニューラルネットワーク)

マナブ:質問 じゃあ次、CNNって何?

藍:厳しく教える CNNConvolutional Neural Network畳み込みニューラルネットワーク)は、主に画像データから、「畳み込み」と呼ばれる処理によって局所的な特徴を抽出し、それを「プーリング」と呼ばれる処理によってぼかす(=縮小する)ことで、位置ズレなどの揺らぎに対するロバスト性(頑強性)が高い抽象的な画像表現が得られるアルゴリズムよ。入力層と出力層の間にある隠れ層として、畳み込み層(convolutional layer)とプーリング層(pooling layer)を何度か挟んで、最後に全結合層(fully connected layer)でまとめあげることで、画像の認識といった最終的な判定が行えるの(図11)。

図11 CNNのイメージ

マナブ:にっこり 図11の例だと、画像から「あ」という文字を認識しているんだよね?

藍:優しく教える そうよ。画像認識の例。CNNは、空間的構造の表現を取り扱えるので、主に画像認識や音声認識に使われているの。他には、時系列データをグラフとして書き出せば、CNNで扱えるわね。例えば証券会社のサービスで、現在の株価のグラフから「買いか、売りか」のヒントを顧客に提示するものがあるけど、こういったケースでもCNNが使えると思う。

マナブ:がくっ うーん……、難しいなぁ……。

藍:厳しく教える そうね。CNNについては、具体的な使い方を説明するときに、もっと詳しく説明するね。

RNN(再帰型ニューラルネットワーク)

マナブ:質問 結構もう疲れてきたんだけど、最後にRNNも教えといて。

藍:厳しく教える RNNRecurrent Neural Network再帰型ニューラルネットワーク)は、内部に再帰構造を持つアルゴリズム。時間方向にネットワークを展開して、幾重にも深くつなげていく際、この再帰構造により、現在の出力データを、次のネットワークの入力データとして使いながら学習できるの(図12)。

図12 RNNのイメージ
図12 RNNのイメージ

マナブ:理解不納 えーと、図12の例は、文章を学習させているのかな?

藍:にっこり そうよ。これは自然言語処理の例。RNNは、時間的構造の表現を取り扱えるので、主に自然言語や時系列データなど、連続性のあるデータの識別生成に使われているの。例えば機械翻訳や、音声認識してテキスト化するサービス、文章の生成などで使えるわね。他には、画像の縦方向を時間軸として扱うことで、画像認識に応用したりするパターンも聞いたことがあるわ。

マナブ:質問 RNNを使った現実のサービスってあるの?

藍:優しく教える マイクロソフトが提供しているTwitter上で会話できる女子高生チャットボットの「りんな」というサービスは、一部にRNNを使っているらしいよ。他には証券会社のドキュメントを自動校正するツールなどで、RNNが使われているって聞いたことがあるわ。

LSTM

マナブ:理解不納 ふーん。RNNについては以上かな?

藍:厳しく教える RNNには拡張バージョンが何種類かあって、その中でもLSTMLong Short-Term Memory)が有名だから、そういうのがあるということは覚えておいてほしいな。LSTMは、短期記憶を長期間、活用できるようにしたネットワークで、長期的な依存関係を学習できるのが特徴。多くの場合で、標準バージョンより良い結果を出しているの。

マナブ:目が点 はぁー……、RNNもよく分からないのに、その拡張バージョンかぁ……。

藍:目が点 ……。RNNについても後日詳しく説明するね。

まとめ

マナブ:にっこり うーん。もう頭もお腹もいっぱい!

藍:にっこり そうね。今日はかなりいっぱいしゃべっちゃったね。基礎が分からなくなったら、今回の話を振り返ってみると理解が少しずつ深まると思うよ。

マナブ:質問 はい、先生! でも自分でも何かやってみたい。早くやり方を教えて。

藍:厳しく教える やる気いっぱいだね。でも一歩ずつやっていこうね。チョコレートは好き?

マナブ:目がハート 大好き!

藍:優しく教える では明日は有給休暇を取ってあるので、チョコレート工場に一緒に行こうよ。そこで、どうやってディープラーニング(機械学習)をすればよいか、手順を教えてあげるよ。

マナブ:にんまり わーい!

【まとめよう】機械学習/ディープラーニングを実践するための基礎知識

  • 機械学習における手法/アルゴリズム/モデル: モデルを作成する手順・方法/学習前の抽象的な計算方法/学習後の具体的な計算方法
  • 機械学習の学習/推論: モデルを「作る」こと/モデルを「使う」こと
  • 機械学習の代表的な学習方法: 教師あり学習、教師なし学習、強化学習
  • 教師あり学習: 正解ラベル(教師データ)がある学習。回帰問題や分類問題を解決するのに使う
  • 教師なし学習: 正解がない学習。クラスタリング問題を解決したり、次元削減をしたりするのに使う
  • 強化学習: 報酬によって、長期的に価値を最大化する「望ましい行動」をするように学習する
  • ディープラーニングの代表的なアルゴリズム: オートエンコーダー、CNN、RNN
  • オートエンコーダー: 入力と出力を同じにするアルゴリズム。主に次元削減に使う
  • CNN: 畳み込みとプーリングの層を持つアルゴリズム。主に画像認識や音声認識に使う
  • RNN: 内部に再帰構造を持つアルゴリズム。LSTMという拡張バージョンが有名。主に自然言語や時系列データの識別・生成で使う
  • このエントリーをはてなブックマークに追加
機械学習 & ディープラーニング入門(2)
1. AI・機械学習・ディープラーニングがしたい! そもそも何ができるの?

機械学習専門家の藍博士と素人のマナブが会話形式で、AI・機械学習・ディープラーニングの基礎の基礎を分かりやすく紹介するシリーズがスタート。まずはAIとは何か、機械学習との違い、ディープラーニングで実現できることを知ろう。

2018年4月16日(月)
機械学習 & ディープラーニング入門(2)
2. 【現在、表示中】≫ 機械学習やディープラーニングには、どんな手法があるの?

藍博士とマナブの会話から機械学習とディープラーニングの基礎の基礎を学ぼう。機械学習を始めるための最低限の基礎用語から、ディープラーニングの代表的な学習方法と代表的なアルゴリズムまでをできるだけシンプルに紹介する。

2018年4月17日(火)
機械学習 & ディープラーニング入門(2)
3. 機械学習&ディープラーニングの、基本的なワークフローを知ろう

機械学習/ディープラーニングの作業フローの基礎を学び、実践へ踏み出す準備をしよう。機械学習モデルは、どのようなステップで作成していくのか? データ収集~学習~運用の一連の流れをできるだけシンプルに紹介する。

2018年4月17日(火)
Deep Insider の SNS :
DATUM AI セミナー≪マーケティング編≫ | DATUM STUDIO株式会社