軽い気持ちでAIって何だろう。
AIってどんなことができるのだろう。
そういったゆるふわ系の人向けの記事を書いております☆
私もAIを活用して、分析などをしていて、改めて全体像を俯瞰して、勉強したいなっと思ったので、
今回まとめさせて頂きました!!
- AIとはArtificial Intelligenceの略
- 別名人工頭脳
- 明確に定まった定義はなく、専門家によって見解が異なる
- AIのオススメ活用は”大量データからどんなパターンを見つけると有益か?”という視点
- 特化型AI(囲碁、画像認識等の特定の問題のみ解く)と汎用型AI(ドラえもん、ターミネーター等、人間みたいに意識を持ち何でも自発的に解く)があり、特化型AIのみ実在
- 特化型AIが出来る処理は“識別”→”予測”→”行動”
- AIは大量データを高速に処理することは得意、しかし、問いを立てたり感情を理解したり身体感覚が必要な事は苦手
識別、予測、実行の具体例
識別・・・音声認識、画像認識、動画認識、言語解析
予測・・・数値予測、マッチング、意図予測、ニーズ予測
実行・・・表現生成、デザイン、行動の最適化、作業の自動化
- AIの歴史 : 第1次AIブーム(1960年代)→冬の時代(1970年代)→第2次AIブーム(1980年代後半)→冬の時代(2000年代)→第3次Aiブーム(2010年代以降)
- 第1次は探索と推論の時代、第2次は知識の時代、第3次は学習の時代と呼ばれる
- 大量データを自ら学習することでブレークスルーが発生
第1次は探索と推論の時代
迷路やチェスなど限定されたルールの問題しか解けなかった
第2次は知識の時代
専門的な症状などに対して、適切な治療法提案などは出来たが、曖昧な症状に対して適切な治療法を提案することは難しかった。つまり、限定的な知識しか獲得できなかった
第3次は学習の時代
コンピュータが自ら大量のデータを学習するアプローチを取ることでAI活用が大きく広がった。
具体的には、”ニュートラルネットワーク”、”ビッグデータ”が重要な概念となり、近年では”ディープランニング”などが注目されている
- 機械学習とはコンピュータに大量のデータを学習させ、精度の高い判断をさせる技術
- 機械学習の主な手法として“教師あり学習”、”教師なし学習”、”強化学習”がある
- 主な手法以外としては“レコメンド”、”異常検知”、”頻出パターンマッチ”等もある
1.教師あり学習
学習方法 : 入力データと正解ラベルをセットで与えてその特徴を学習させる
例 : 入力データ(猫の画像)と正解ラベル(猫というラベル情報)を与えまくって、猫の特徴を大量学習し、猫を判断する
アルゴリズム | 活用事例 | 主なモデル |
---|---|---|
分類 データの属するクラスを予測 | ・スパムメールの判定 ・画像の識別 | ・パーセプトロン ・決定木 ・ランダムフォレスト ・ロジスティック回帰 ・SVM ・ニュートラルネットワーク ・k-NN |
回帰 データの連続する値を予測 | ・電力消費量の予測 ・広告のクリック数予測 | ・回帰木 ・線形回帰 ・Lasso回帰・Ridge回帰 ・Elastic Net ・SVR |
2.教師なし学習
学習方法 : 入力データだけ与えてその特徴を学習させる
例 : 教師あり学習の正解ラベルを付けるために、教師なしでまず学習をさせ正解ラベルを作ったり、顧客のセグメントをわけたいときなどに使われたりします
アルゴリズム | 活用事例 | 主なモデル |
---|---|---|
クラスタリング 主にデータの傾向を見る | ・顧客層に応じた販売戦略立案 ・顧客層に応じたレコメンド | ・k-means ・階層的クラスタリング |
次元削減 データを高次元から低次元へ変換 | ・顧客情報の分析レポート等でデータ可視化 | ・PCA ・t-SNE |
3.強化学習
学習方法 : 実際の経験をもとに試行錯誤、ある目的達成のために”この場合はこうすればいい”という最適行動の方針を獲得する手法
例 : 囲碁や将棋のようにゲームに勝つための行動選択を、良い or 悪いという学習させ、次の行動を決める
アルゴリズム | 活用事例 | 主なモデル |
---|---|---|
Q学習 ある状態のある行動の価値をQテーブルで管理し、 行動ごとにQ値を更新する手法 | ・ブロック崩し ・アルファ碁 ・自動運転 ・製造設備の自動制御 | ・DQN ・A3C |
モンテカルロ法 乱数を用いた試行実験を繰り返し妥当な判断を求める手法 | ・アルファ碁 | |
方策勾配法 エージェントの行動確率をニュートラルネットワークで表現するための手法 | ・アルファ碁 | ・PRO |
4.その他の機械学習
レコメンド・・・Amazon等のECサイトなどでよくあるユーザーが好みそうなアイテム提案に使われる
異常検知・・・クレジットの不正利用や異常な株価推移の早期発見等の異常データのパターン検知に使われる
頻出パターンマッチング・・・ビールと紙おむつが同時購入されています等のデータの中でこう頻出で出現するパターン抽出するために使われる
- ディープラーニングとは人間の操作なしで自動的に特徴を抽出できる学習
- 画像認識、音声認識、自然言語処理、異常検知などが行える
- 自動運転、自動翻訳、医療分野での診断支援、発注・在庫管理、サイバーセキュリティ等で応用されている
AIの分類

引用:https://web-camp.io/magazine/archives/108009
人工知能(AI)・・・大量データからパターンを見つけ出す技術
機械学習(ML)、ニュートラルネットワーク・・・大量データを学習させ、精度の高い判断をさせようとする技術
深層学習(DL)・・・人間による操作がなしで、大量データを学習させ、精度の高い判断をさせようとする技術
ニュートラルネットワークとディープラーニング(DL)の違い

引用 : https://markezine.jp/article/detail/24185
DLはニュートラルネットワークの入力とす津力の階層を多層化し、
深く(深層)学習できるようにしたもの☆
中間層を多層化し、情報の処理量を増やし、
特徴料の精度や予測精度を向上、汎用性の獲得、複雑な処理の実行を可能にする!!
- 機械学習とディープラーニングの違いは、人間が特徴量を設定する必要があるかどうか
- ディープラーニングで非構造化データも扱えるようになった
- ブラックボックス化への対処としてXAIが注目されている
機械学習とディープラーニングの違いは、
人間が特徴量を設定する必要の有無とそれと扱えるデータの種類の違い
ディープラーニングは人間による操作が不要、活用の幅が広まった
一方、処理のブラックボックス化問題などもある
1.非構造化データも扱えるディープラーニング
機械学習は人間が学習項目を設定する必要がある
ディープラーニングでは人間が学習項目を設定する必要がありません
例えば、明日のアイスクリームの売上予測の場合
機械学習の場合・・・売上に関係しそうな天気や気温、曜日などの変数(特徴量)を設定し学習させる
ディープラーニングの場合・・・特徴量は人間が決めず、コンピュータが設定を行い学習させる
人間が特徴量を設定すると例外が出るので、
画像認識や自然言語処理などはコンピュータに任せた方が上手くいく側面がある
ディープラーニング発明前は、機械学習で表形式などに整理された構造化データを用いる必要があった
しかし、画像や音声などは特徴量などを上手く決めれなかったので表形式にできなかった、これが非構造化データ
ディープラーニングは非構造化データも扱えるメリットがある
なぜなら、人間が特徴量を決めるのではなく、コンピュータが特徴量を決めるからだ
2.DLのブラックボックス化問題
ディープラーニング(DL)で扱えるデータが増えたのメリット
一方、人間が学習の方向性や内容をコントロールできないのがデメリット
つまり、なぜそのように識別または判断したのかのモデルが複雑すぎて説明できない
これがブラックボックス化問題と呼ばれている
3.説明可能なAIとしてXAI
DLにより、ブラックボックスの範囲が広くなりました。
そのため、近年ではXAIという説明可能なAIという概念が注目されている
XAIには主に3つのアプローチ手段がある
アプローチ名 | 手法 | 具体例 |
---|---|---|
Deep Explanation | 現在のDLに対して、説明能力を付加 | DLのモデルの特徴量の可視化、 モデルに予測理由の説明を学習等 |
Interpretable Models | 解釈可能なモデル構築 | ベイズ推論に基づくモデル構築等 |
Model Induction | ブラックボックスに対して、説明を行う別のモデルを構築 | ブラックボックスへの入出力とその挙動解析 |