検索対象:     
報告書番号:
※ 半角英数字
 年 ~ 
 年

ニュウラルネットワークの微係数出力手法の開発

Derivative value outputs for neural networks

吉川 信治 ; 大草 享一 ; 小澤 健二

Yoshikawa, Shinji; Okusa, Ryoichi; Ozawa, Kenji

本報告書は、多層構造を有するニューラルネットワークに、出カ変数の入力変数に対する微係数を同時に出力する機能を付加する手法を開発、堤案するものである。多層構造を有するニューラルネットワークは、非線形の多変数関数を比較的容易に学習させられること、構築が容易なこと等の理由から、近年ますます広範囲の目的に使用されている汎用の関数学習/発生器である。しかしながら、学習の終了したニューラルネットワークが発生する関数の、特定の入力変数に関する感度解析等は、近接した2点での出力値を用いた計算によって行われるのが通常であり、非線形性の強い場合でも精度を確保できる微係数導出法が求められてきた。筆者らは、ニューラルネットワークの各ノードの特性関数として用いられるシグモイド関数が、微分値が自らの多項式で表現されることに着目し、通常のニューラルネットワークの処理に、四則演算のみを組み合わせた処理を付加することで、出カ変数の入力変数に対する微係数を同時に算出する機能を実現する手法を開発した。

This report discusses a method to equip a multi layer neural network(NN) with a calculational function to derive differential values of the output parameters against the input parameters. Multi layer NNs have been applied in various domains of engineering, because of easy construction, flexible interpolation of nonlinear multi-input functions, and some other preferable features. However, derivatives of those output parameters have been approximately calculated by interpolating between two different output values. And new methods to guarantee the accuracy of the derivatives have been desired. We payed their attention at sigmoid functions, which are commonly used to realize the nonlinear characteristics of nodes in NNs, and at one of important features of this function type that the derivative is represented by a polinomial of itself. And, we developed a method to add a calculational function to derive differentiated values of the output parameters to multi layer NNs, whose CPU cost is smaller than the original NNs.

Access

:

- Accesses

InCites™

:

Altmetrics

:

[CLARIVATE ANALYTICS], [WEB OF SCIENCE], [HIGHLY CITED PAPER & CUP LOGO] and [HOT PAPER & FIRE LOGO] are trademarks of Clarivate Analytics, and/or its affiliated company or companies, and used herein by permission and/or license.