TOP

アクティビティ

コラム

Laboroコラム

ニューラルネットワークの基本知識。仕組みや種類、活用事例

Laboro.AIコラム

ニューラルネットワークの基本知識。仕組みや種類、活用事例

2023.9.19公開 2024.12.5更新
株式会社Laboro.AI リードマーケター 熊谷勇一
執行役員 マーケティング部長 和田崇

概 要

ニューラルネットワークはディープラーニングの根本的なモデルであり、現在のAI・機械学習の基盤とも言えます。その仕組みや発生し得る問題と解決方法、種類など、基本を解説します。

目 次

ニューラルネットワークとは
 ・深層学習(ディープラーニング)とその他の機械学習の違い
 ・ニューラルネットワークの重要性
 ・2024年ノーベル物理学賞の対象にも
ニューラルネットワークの仕組み
 ・入力層、出力層、隠れ層の3種類で構成
 ・ニューラルネットワークの学習手法
  ・Dropout法
  ・確率的勾配降下法
  ・誤差逆伝播法
ニューラルネットワークの種類
 ・ディープニューラルネットワーク(DNN)
 ・畳み込みニューラルネットワーク(CNN)
 ・再帰的ニューラルネットワーク(RNN)
 ・敵対的生成ネットワーク(GAN)
 ・オートエンコーダ(自己符号化器)
関連して知っておきたい「分類」と「回帰」
 ・分類問題への適用
 ・回帰問題への適用
ニューラルネットワークの活用事例
 ・自動運転
 ・医療における診断・判定
 ・スマホの顔認証
 ・音声認証ソフト
ニューラルネットワークの基礎を知って自分の仕事に生かす

ニューラルネットワークとは

ニューラルネットワーク(neural network)とは、人間の脳の中の構造を模した学習モデルのことです。人間の脳にはニューロンと呼ばれる神経細胞が何十億個も張りめぐらされていて、互いに結び付いて神経回路というネットワークを構成しています。人間が何かの情報を感知すると、ニューロンに電気信号が伝わり、ネットワーク内をどのように伝わっていくかによって、人間はパターンを認識しています。ニューラルネットワークはこのニューロンの特徴を再現しようとする手法です。

ニューラルネットワークはデータのルールやパターンを自動的に学習する機械学習の一つであり、ニューラルネットワークを多層にしたものがディープラーニングです。

深層学習(ディープラーニング)とその他の機械学習の違い

深層学習(ディープラーニング)とその他の機械学習の最大の違いは、AIの学習過程において人間がどれほど関与しているかどうかです。

AIが自律的な判断能力を獲得するためには、インプットするデータが含む特徴量を取得しなければなりません。ディープラーニング以外の機械学習の場合、例えば売上予測をする際に曜日や気温などの特徴量と呼ばれる条件を考慮に入れるのが合理的で、そうした特徴量のうちどれを使うかは人間が判断する必要があります。問題が複雑になれば、データサイエンティストやエンジニアといったエキスパートが手掛ける領域になります。

一方のディープラーニングでは、データから特徴量をAIが自発的に抽出します。そのためには、膨大なデータをインプットする必要があります。そのため学習成果が現れるまでには、機械学習よりも多くの時間などのコストを要する点に注意しなければなりません。しかし逆に、人間の手には負えないほど膨大な量のデータから特徴量を抽出できるということでもあり、大きな利点になっています。

ニューラルネットワークの重要性

ニューラルネットワークは、人間の神経細胞の仕組みから着想を得たネットワーク手法で、入力層、隠れ層、出力層という3種の層で構成されています。

データに対して重み付けを行うことで、自ら高度な意思決定ができるような基準を設けられるニューラルネットワークは、高度な問題解決において活躍する技術です。従来のアルゴリズムでは解決が難しい、あるいは多くの時間などのリソースを必要としていた課題に対しても、ニューラルネットワークの採用によって次々と解決が進んでいます。

事実、2010年ごろまでは教師あり学習を主体とした機械学習が一般的だったところ、ディープラーニングが高度な問題を解決することが相次ぎ、普及していき、大きなゲームチェンジャーとなりました。今ではニューラルネットワーク・ディープラーニングなしには、AI開発はあり得ないと言わしめるほどとなっています。

自動運転や製薬など、さまざまな業界でさまざまなタスクにニューラルネットワーク・ディープラーニングが活用されており、多くの人がその活用の在り方をつぶさに知ることはなくとも恩恵を受けています。

2024年ノーベル物理学賞の対象にも

2024年のノーベル物理学賞は、「人工ニューラルネットワークによる機械学習を可能にする基礎的発見と発明」の功績で、米国のプリンストン大学のジョン・ホップフィールド教授と、カナダのトロント大学のジェフリー・ヒントン教授に授与されました。

ホップフィールド教授は、磁性の振る舞いを語るのに使われている物理学のモデルをヒントに、人間の神経回路を模倣した「人工ニューラルネットワーク」を使って、物理学の理論から画像やパターンなどのデータを保存し、再構成できる「連想記憶」と呼ばれる手法を開発しました。

ヒントン教授はこの手法を統計物理学の理論などを使って発展させ、学習した画像などの大量のデータを基に可能性の高さから未知のデータを導き出すモデル「ボルツマンマシン」を開発しました。学習していないパターンでも生成できるようになることから、現在の生成AIの原型とも言われます。

ボルツマンマシンは次第に多層化されていき、新たに未知のパターンを入力すると、学習したパターンのどれに近いかを高い精度で判断できるようになりました。ヒントン教授はこれを「ディープラーニング」名付けたのです。さらに、2006年にはニューラルネットワークの主要な構成要素となる手法である「オートエンコーダ」を提唱、2012年には画像認識の精度を競う競技会ILSVRC(ImageNet Large Scale Recognition Challenge)で圧倒的に勝利したシステムであるSuperVisionの開発を率いるなど、AIにおいて重要な役割を果たしてきました。

そうした成果がAIを進展させ、特に近年では生成AIが社会に大きな影響を与えています。

「物理学賞」の対象になったことには専門家からも驚きの声が上がっていますが、授賞理由としては以下が考えられます。

・2人の成果で物理学が活用されている。
・物理学の分野では、特定の性質を備えた新たな物質の開発など、幅広い分野で人工ニューラルネットワークが使われている。

出典:日本ディープラーニング協会監修『ディープラーニングG検定公式テキスト』第2版
  :NHK「ノーベル物理学賞にAIの中核「機械学習」の基礎に関わった2人
  :日経サイエンス「2024年ノーベル物理学賞:物理学からAIの基礎を築いた2氏に

ディープラーニングについてはこちらもご覧ください。
AIと機械学習、ディープラーニング(深層学習)の違いとは

ニューラルネットワークの仕組み

入力層、出力層、隠れ層の3種類で構成

ニューラルネットワークは、入力を受け取る部分である入力層、出力する部分である出力層、中間層(隠れ層とも呼ばれる、入力層と出力層の間にある層)の三つの層から構成されています。入力層にデータを入力して、データの指標で特徴量を入力し、出力層にニューロンを入力することで最終結果の算出が可能です。

入力層と出力層だけで構成されているモデルは単純パーセプトロンと呼ばれます。初めて開発されたパーセプトロンは、この隠れ層がない単純パーセプトロンでした。これには線形分離不可能な問題を解決できないという欠点がありました。しかしその後、入力層と出力層の間に隠れ層を追加し、ネットワーク全体の表現力が向上し、非線形分類など複雑な問題も解決できるようになりました。このモデルは多層パーセプトロンと呼ばれています。

Udemyメディア「ニューラルネットワークとは?人工知能の基本を初心者向けに解説!

ニューラルネットワークの学習手法

Dropout法

Dropoutはニューラルネットワークの過学習を防ぐために提案された手法で、一定の確率でランダムにニューロンを無視して学習を進める方法の一種です。

過学習とは、訓練データの正答率が 徐々に上がっていった際、テストデータの誤差が 減少が止まり、また増加し始めてしまう状態を指します。ニューラルネットワークの構造が複雑化していくにつれて、ニューロンの重みは訓練データセットに最適化されていってしまいます。汎化作用が働かず、一つひとつのデータを暗記していくように、訓練データセットにしか使えない融通の効かないモデルとなってしまうのです。

ニューラルネットワークの過学習を防ぐ方法は四つあります。

・訓練データセットを増やす
・モデルの複雑性を減らす
・Early Stopping(早期終了)
・モデルの複雑さにペナルティーを与える(正則化)

Dropoutはこの正則化の一つです。正則化とは、モデルが複雑な形状になった場合にペナルティを設けることで、モデルをなるべくシンプルな形状に保つという方法の一つです。

出典:ダイヤモンドオンライン「ディープラーニングを支える黒魔術「ドロップアウト」
   DeepAge「Dropout:ディープラーニングの火付け役、単純な方法で過学習を防ぐ」 

確率的勾配降下法

最急降下法の一種で、ランダムなデータ一つのみで勾配を求め、パラメータ更新をしていく作業をデータの数だけ行う方法です。最急降下法ではすべてのデータを毎回使用するため、全体ではなく局所的な最適解に陥ってしまう可能性がありますが、確率的勾配降下法では局所解に陥っても次のデータはランダムに選ばれるため、脱出が可能という利点があります。

出典:zero to one「確率的勾配降下法

誤差逆伝播法

誤差逆伝播法(Back Propagation)は、多層パーセプトロンの学習に使われる学習アルゴリズムです。ある学習データが与えられたとき、多層パーセプトロンの出力が学習データと一致するように各層の間の重みを修正するという学習法です。多層パーセプトロンは誤差逆伝播法によって教師あり学習を行い、パターン識別や関数の近似などに用いられます。

出典:九州工業大学大学院生命体工学研究科人間知能システム工学専攻古川研究室「誤差逆伝播法(BP:Backpropagation)

ニューラルネットワークの種類

ディープニューラルネットワーク(DNN)

ディープニューラルネットワーク(Deep Neural Network、DNN)とは、ニューラルネットワークをディープラーニングに対応させて4層以上に層を深くしたもののことです。ディープラーニング登場以前は、隠れ層を2以上に増やして合計4層以上のネットワークにすると、精度が出なくなる問題がありました。

しかし2006年以降、ディープラーニングの手法が考えられてから、その問題が克服されました。さらに2010年ごろから、ビッグデータがより容易に扱えるようになったことや、GPU(Graphics Processing Unit、画像処理装置)などのコンピュータ性能の大幅な向上が重なったことがきっかけとなり、今では高度なDNNを比較的容易に実行できるようになりました。

出典:@IT「ディープニューラルネットワーク(DNN:Deep Neural Network)とは?

畳み込みニューラルネットワーク(CNN)

畳み込みニューラルネットワーク(Convolution Neural Network、CNN)とは、AIが画像分析を行うための学習手法の一つで、一部が見えにくくなっているような画像でも解析することができます。畳み込み層とプーリング層という二つの層を含む構造を持つ、DNNの一つです。

分析する画像が入力層に読み込まれた後、このデータをくまなくスキャンし、データの特徴(勾配、凹凸など)を抽出するために使われるのがフィルタです。抽出された特徴データは畳み込み層に送られ、そこでさらに特徴の凝縮されたデータが作成されます。

畳み込み層で作成されたデータはプーリング層で集約します。例えば最大プーリングという集約方法をとる場合、各ユニット(領域)のピクセルを比較し、その中の最大値をそのユニットの特徴量とします。

出力では、プーリング層のユニットすべてを全結合し、計算結果を利用して、フィルタ、重み、バイアス(モデルとデータのズレ)を更新していきます。

出典:Udemyメディア「畳み込みニューラルネットワークとは?手順も丁寧に解説

再帰的ニューラルネットワーク(RNN)

画像処理に強いCNNに対して、自然言語処理に使われることが多いのが再帰的ニューラルネットワーク(Recurrent Neural Network、RNN)で、こちらもDNNの一種です。「再帰的」とは一種の「ループ」で、例えば「ニワトリが卵を生む」「卵からニワトリが生まれる」という二つの現象が延々と繰り返される状態は、再帰的と呼ばれます。

プログラミングの世界では、実行中のコードがそのコードの中で再び呼び出される処理のことを意味します。これをニューラルネットワークに応用すると「前のネットワークの計算が今のネットワークの計算の元になり、繰り返しながら情報が増えていく」という再帰的なニューラルネットワークになります。

この特徴が自然言語処理に役立ちます。言葉では、前の文章が今の文章に影響を与え、文脈次第で意味が変わることが当たり前に起きます。文章の並び順やつながりが非常に重要な意味を持つため「前の意味を踏まえて今の意味を考える」というプロセスが非常に重要であり、RNNと相性が良いのです。

出典:ビジネス+IT「再帰的ニューラルネットワークとは?自然言語処理に強いアルゴリズムの仕組み」

敵対的生成ネットワーク(GAN)

画像分野での深層生成モデルとして話題になった一つが、GAN(Generative Adversarial Network、敵対的生成ネットワーク)です。入力として潜在空間のランダムベクトルを受け取り、画像を生成して出力する「ジェネレータ」と、入力として受け取った画像が本物か(ジェネレータが生成した)偽物かを予測して出力する「ディスクリミネータ」と言う二つのネットワークから成ります。

ジェネレータはディスクリミネータが間違えるような偽物画像を作るように学習していき、ディスクリミネータは偽物をきちんと見抜けるように学習していきます。つまり、ジェネレータとディスクリミネータを競い合わせることで、本物と見分けのつかない新しい画像を作り出すことを狙ったものです。

日本ディープラーニング協会監修『ディープラーニングG検定公式テキスト』第2版

 

オートエンコーダ(自己符号化器)

オートエンコーダ(自己符号化器、autoencoder)とは、ニューラルネットワークを利用した教師なし機械学習の手法の一つです。次元削減や特徴抽出を目的に登場しましたが、近年では生成モデルとしても用いられています。

オートエンコーダは、入力データと一致するデータを出力することを目的とする学習法です。オートエンコーダのネットワークは、入力したデータの次元数(ノード数)をいったん下げ、再び戻して出力するという構造になっています。

このため、入力から出力への単なるコピーは不可能です。オートエンコーダの学習過程では、入出力が一致するように各エッジの重みを調整していきます。この学習を通して、データの中から復元のために必要となる重要な情報だけを抽出し、それらから効率的に元のデータを生成するネットワークが形成されます。

こうしてオートエンコーダの前半部分は次元削減、特徴抽出の機能を持ち、エンコーダとも呼ばれます。後半部分は低次元の情報をソースとするデータ生成機能を持つようになり、デコーダとも呼ばれます。

出典:MathWorks「オートエンコーダ(自己符号化器)とは

関連して知っておきたい「分類」と「回帰」

ニューラルネットワークはディープラーニングの根本的なモデルであり、そのディープラーニングは分類問題と回帰問題でもよく使われます。

分類問題への適用

分類問題には例えば、犬と猫の画像を推論することや、手書きの数字をどの数字に識別することなどがあります。言い換えれば、分布データをどこかで線引きして分類する問題であり、異常データと正常データを見分けることにも使えます。その際、データの分布が一次関数で境界を近似できるような簡単なものであればよいですが、データがバラバラに分布していて法則性を見つけるのが難しいことが少なくありません。そうした複雑な関数近似をしなければならない場合に活用されるのが、ディープラーニングなのです。

出典:ビジネス+IT「ニューラルネットワークの基礎解説:仕組みや機械学習・ディープラーニングとの関係は

回帰問題への適用

回帰の主な目的は、連続する値の傾向を基に予測をすることです。例えば、企業が商品やサービスの広告費用の増額を検討する際に、「広告費を増やすことでどのくらいの売り上げを見込めるか」という売上予測をすることがあります。下の画像のように、例えばx軸に広告費、y軸に売り上げを取って、傾向となる一次関数を見いだすことです。

回帰分析は、結果となる数値と要因となる数値の関係を調べ、それぞれの関係を明らかにする統計的手法です。 このとき、要因となる数値(上の例の場合、広告費)を「説明変数」、結果となる数値(同、売り上げ)を「目的変数」と呼びます。さらに、説明変数が一つの場合を「単回帰分析」、複数の場合を「重回帰分析」と言います。説明変数の種類が少ない場合は手計算で傾向の関数を得られるかもしれません。しかし説明変数の数が増えていくと困難になるため、ここでもディープラーニングが活用されます。

出典:総務省統計局「高等学校における「情報II」のためのデータサイエンス・データ解析入門

売上(需要)予測についてはこちらもご覧ください。
需要予測AIよ、需要は予測するものでなく作るものだ。

ニューラルネットワークの活用事例

前述の通り、ニューラルネットワークはすでに多くの業界で採用が進んでいる技術です。ここではそれぞれの領域で、どのように運用されているのか事例を確認しましょう。

自動運転

ニューラルネットワークの代表的な活用事例が、自動運転です。運転技術の自動化は、数ある自動化技術の中でも特に高度な技術実装が求められるため、2024年現在も一般公道での走行は限定的なものにとどまっています。

自動運転におけるニューラルネットワークの主な活用領域の一つは、他車両の軌道予測です。周囲の車両がどのように走行しているのか、この後どのような軌道を描いて走行するのかをリアルタイムで予測し、運転に反映します。

また、周囲の物体認識を高速で行い、回避の必要性の有無や、標識に描かれている内容を把握し、この後の走行に反映する機能の実装に活躍します。

参考:マイナビニュース「運転支援システムと自動運転を分ける「ニューラルネットワーク」

医療における診断・判定

医療分野において、ニューラルネットワークは多くの業務に適用が進みつつあります。

代表的な運用事例としては、画像診断による疾患の早期発見、あるいは誤診の回避です。過去の症例データから今回の検査機器から取得した画像データを比較し、疾患の見落としを減らすことができます。また、異常を検知した場合には医師にそう分かるようにし、より詳細な検査の実施を促すことにも貢献できる技術です。

医療関連では他にも、ニューラルネットワークは新薬開発の現場で導入が進んでいます。解決したい問題に応じた最適な組み合わせの発見を、過去のデータから推論し効率化することが可能です。結果、新薬開発の高速化を推進し、治療可能な疾患を増やしたり、安価な薬の提供につなげたりといった影響をもたらします。

参考:Array Corporation「医療AIとは?

スマホの顔認証

今となっては身近なスマートフォンの顔認証技術にも、ニューラルネットワークは採用されています。人間の顔に関する膨大なデータと、登録しているユーザーの顔を照合し、正確な認証が可能です。顔の形や各パーツについての特徴を正確にインプットすることで、誤認証を回避できるのがニューラルネットワークの効果といえます。

最近ではマスクをしたままでも顔認証を正確に行えるなど、もはや人間以上の判別能力を備えていることから、その信頼性の高さは一部では人間の目視確認を超えているといえます。

参考:Apple「顔照合のセキュリティ

音声認証

音声認証の正確性向上には、ニューラルネットワークの働きが欠かせません。入力する音声データから、音声以外の環境音やノイズを排除するのには、ニューラルネットワークによる働きがあります。また、余分なノイズを排除した音声に含まれる音や言葉を正確に判別するのにも、ニューラルネットワークが役立っています。

抽出した音声データを膨大なデータベースと瞬時に照合することで、正確な文字起こしや、声による照合を行えるのも、ニューラルネットワークのおかげです。

参考:AmiVoice Cloud Platform「音声認識の仕組みをざっくり解説!

ニューラルネットワークの基礎を知ってビジネスに生かす

以上、ニューラルネットワークとはどのような技術なのか、ニューラルネットワークをどのように生かすことでビジネスにつなげられるのかについて、解説しました。

ChatGPTなどの便利でオープンな生成AIが登場したことで、もはや企業はAIを開発するに当たってすべてを独自にする必要がなくなっています。そのため、むしろどのように活用してビジネスそのものや社会を変革するかの構想が求められているとも言えるでしょう。

ただし、導入したいAIのすべてを独自に開発する必要がなくなったからといって、AIについて深く理解しておく必要がないというのは、誤解といってもいいでしょう。どれだけ便利になっても、その技術の仕組みを根本から理解している場合と、そうでない場合では得られる結果にも大きな違いが出てくるものです。例えば、パソコンやインターネット、スマホは仕組みを理解せずとも多くの人が便利に使えるITですが、仕組みを理解せずにそれらを使ってイノベーションを起こすのがほぼ不可能であることは、想像に難くないでしょう。まずは各種生成AIなどのサービスを業務に取り込むことを試み、その可能性や運用課題についての知見を得るのがいいでしょう。

またビジネスのためのAI開発に当たっては、どのようなAI開発をすべきかがなんとなく見当がついたとしても、それが本当に最適な方法なのかどうかは社内の検討だけでは分からないことが少なからずあります。AI開発をご検討の際はぜひ、ビジネスとAIの両方を熟知した弊社のソリューションデザイナにご相談ください。議論を通して本当の課題を見極めた上で、ビジネスの成功という目的に合う最適なAIやその開発の在り方を提案いたします。

執筆者

マーケティング部 リードマーケター 熊谷勇一

中央大学文学部卒業、北陸先端科学技術大学院大学情報科学研究科博士前期課程修了。日本経済新聞社など日経ブランド企業で16年、雑誌、書籍、ウェブサイト、動画などの編集・執筆を手掛けた後、2022年からLaboro.AIに参画。

執行役員 マーケティング部長 和田 崇

立教大学大学院経営学修士(マーケティング論・消費者行動論)。立教大学大学院ビジネスデザイン研究科博士後期課程中退。KDDI株式会社に入社、コンシューマ向け商品・サービスのクロスメディアによるプロモーション施策の立案・企画運営に携わったのち、全国漁業協同組合連合会を経て、2019年にLaboro.AIに参画。マーケティング/ブランディング業務に従事する傍ら、NewsPicksプロピッカーとして活動するほか、日経クロストレンドなどメディア寄稿多数。

閉じる お問い合わせは
こちら