05 Recurrent Neural Networks - PAI-yoonsung/lstm-paper GitHub Wiki
Recurrent neural networks (RNNs) [74, 75] are dynamic systems; they have an internal state at each time step of the classification.
Recurrent neural networks(RNNs)๋ ๋์ ์์คํ ์ผ๋ก, ๋ถ๋ฅ์ ๊ฐ ํ์ ์คํญ๋ง๋ค ๋ด๋ถ ์ํ๋ฅผ ๊ฐ๊ณ ์๋ค.
This is due to circular connections between higher- and lower-layer neurons and optional self-feedback connections.
์ด๊ฒ์ ๋ ๋๊ณ , ๋ ๋ฎ์ ๋ ์ด์ด์ ๋ด๋ฐ๋ค ์ฌ์ด์ ์ํ ์ฐ๊ฒฐ๊ณผ ์ ํ์ ์๊ธฐ์๋ต ์ฐ๊ฒฐ ๋๋ฌธ์ด๋ค
์ํ ์ฐ๊ฒฐ
์๊ธฐ์๋ต ์ฐ๊ฒฐ
These feedback connections enable RNNs to propagate data from earlier events to current processing steps.
์ด๋ฌํ ์๋ต ์ฐ๊ฒฐ๋ค์ RNN ์ด ์ด์ ์ ์ด๋ฒคํธ๋ก๋ถํฐ ํ์ฌ์ ์งํ ๋จ๊ณ๋ก ๋ฐ์ดํฐ๋ฅผ ์ ๋ฌํ ์ ์๋๋ก ํด์ค๋ค.
Thus, RNNs build a memory of time series events.
์ฆ, RNN์ ์๊ณ์ด ์ด๋ฒคํธ์ ๋ฉ๋ชจ๋ฆฌ๋ฅผ ๋ง๋ ๋ค.
5.1 Basic Architecture
RNNs range from partly to fully connected, and two simple RNNs are suggested by [46] and [16].
RNN ์ ์ผ๋ถ ์ฐ๊ฒฐ์์ fully connected ๊น์ง์ ๋ฒ์๋ฅผ ๊ฐ๊ณ , ๋ ๊ฐ์ง ๊ฐ๋จํ RNN์ด [46], [16] ์์ ์ ์๋๋ค.
The Elman network is similar to a three-layer neural network, but additionally, the outputs of the hidden layer are saved in so-called โcontext cellsโ.
Elman ๋คํธ์ํฌ๋ 3 ๋ ์ด์ด ์ ๊ฒฝ๋ง๊ณผ ๋น์ทํ์ง๋ง, ์ถ๊ฐ์ ์ผ๋ก ํ๋ ๋ ์ด์ด์ ์ถ๋ ฅ๋ค์ ๋ฌธ๋งฅ ์ (context cells) ์ด๋ผ๊ณ ๋ถ๋ฆฌ๋ ๊ณณ์ ์ ์ฅ๋๋ค.
The output of a context cell is circularly fed back to the hidden neuron along with the originating signal.
๋ฌธ๋งฅ ์ ์ ์ถ๋ ฅ์ ์ํ์ ์ผ๋ก ํ๋ ๋ด๋ฐ์๊ฒ ์๋ณธ ์ ํธ์ ํจ๊ป ์๋ต์ ์ค๋ค.
Every hidden neuron has its own context cell and receives input both from the input layer and the context cells.
๊ฐ ํ๋ ๋ด๋ฐ๋ค์ ๊ฐ์ ๊ณ ์ ์ ๋ฌธ๋งฅ์ ์ ๊ฐ๊ณ , ์ ๋ ฅ ๋ ์ด์ด์ ์ปจํ ์คํธ์ ๋ค๋ก๋ถํฐ ์ ๋ ฅ์ ๋ฐ๋๋ค.
Elman networks can be trained with standard error backpropagation, the output from the context cells being simply regarded as an additional input.
Elman ๋คํธ์ํฌ๋ ์ผ๋ฐ์ ์ธ ์๋ฌ ์ญ์ ํ๋ก ํ๋ จ๋ ์ ์๊ณ , ๋ฌธ๋งฅ์ ๋ก๋ถํฐ์ ์ถ๋ ฅ์ ๋จ์ํ ์ถ๊ฐ์ ์ธ ์ ๋ ฅ์ผ๋ก์จ ์ธ์๋๋ค.
Figures 5 and 6 show a standard feed-forward network in comparison with such an Elman network.
๊ทธ๋ฆผ 5, 6์ Elman ๋คํธ์ํฌ์ ์ผ๋ฐ์ ์ธ ์์ ํ ๋คํธ์ํฌ์ ๋น๊ต๋ฅผ ๋ณด์ฌ์ค๋ค.
Figure 7: This figure shows a partially recurrent neural network with selffeedback in the hidden layer.
์ด ๊ทธ๋ฆผ์ ํ๋ ๋ ์ด์ด ์์ ๋ถ๋ถ ์ํ์ ๊ฒฝ๋ง์ ๋ณด์ฌ์ค๋๋ค.
Jordan networks have a similar structure to Elman networks, but the context cells are instead fed by the output layer.
Jordan ๋คํธ์ํฌ๋ Elman ๋คํธ์ํฌ์ ๋น์ทํ ๊ตฌ์กฐ๋ฅผ ๊ฐ์ง๋ง, ๋ฌธ๋งฅ์ ์ด ์ถ๋ ฅ ๋ ์ด์ด์ ์ํด ์๋ต์ ๋ฐ์ต๋๋ค.
A partial recurrent neural network with a fully connected recurrent hidden layer is shown in Figure 7.
์์ ์ฐ๊ฒฐ ์ํ ํ๋ ๋ ์ด์ด๊ฐ ์๋ ๋ถ๋ถ ์ํ ์ ๊ฒฝ๋ง์ Figure 7์ ๋์์์ต๋๋ค.
Figure 8 shows a fully connected RNN.
Figure 8 ์ ์์ ์ฐ๊ฒฐ RNN ์ ๋ณด์ฌ์ค๋๋ค.
RNNs need to be trained differently to the feed-forward neural networks (FFNNs) described in Section 4.
RNN์ Section 4์ ๋์์๋ฏ์ด, ํผ๋ํฌ์๋ ์ ๊ฒฝ๋ง๊ณผ๋ ๋ค๋ฅด๊ฒ ํ๋ จ๋์ด์ผํ ํ์๊ฐ ์์ต๋๋ค.
This is because, for RNNs, we need to propagate information through the recurrent connections in-between steps.
์๋ํ๋ฉด, RNN์ ์ ๋ณด๋ฅผ ๋ฐ๋ณต ์คํญ ์ค์ ์ํ ์ฐ๊ฒฐ์ ํตํด ์ ๋ฌํด์ผ๋๊ธฐ ๋๋ฌธ์ ๋๋ค.
The most common and well-documented learning algorithms for training RNNs in temporal, supervised learning tasks are backpropagation through time (BPTT) and real-time recurrent learning (RTRL).
ํ ์์ ์ ์ง๋ ํ์ต ์๊ณ ๋ฆฌ์ฆ์์ RNN ์ ํ์ต์ํค๊ธฐ ์ํ ๊ฐ์ฅ ์ผ๋ฐ์ ์ด๊ณ ๋ฌธ์ํ๊ฐ ์๋ ์๊ณ ๋ฆฌ์ฆ์ backpropagation through time (BPTT) ๊ณผ real-time recurrent learning (RTRL) ์ ๋๋ค.
In BPTT, the network is unfolded in time to construct an FFNN.
BPTT(์ญ์ ํ) ์์๋ ๋คํธ์ํฌ๋ฅผ ์ ๋ ํผ์ณ ์์ ํ ์ ๊ฒฝ๋ง์ ๊ตฌ์ฑํฉ๋๋ค.
Then, the generalised delta rule is applied to update the weights.
๊ทธ๋ฌ๊ณ ๋๋ฉด, ๊ฐ์ค์น๋ฅผ ๊ฐฑ์ ํ๊ธฐ ์ํด ์ผ๋ฐํ๋ ๋ธํ ๋ฃฐ(?) ์ ์ ์ฉ์ํต๋๋ค.
This is an offline learning algorithm in the sense that we first collect the data and then build the model from the system.
์ด๊ฒ์ ์คํ๋ผ์ธ ํ์ต ์๊ณ ๋ฆฌ์ฆ์ผ๋ก, ๋ฐ์ดํฐ๋ฅผ ๋จผ์ ๋ชจ์ ๋ค์ ์์คํ ์์ ๋ชจ๋ธ์ ๋ง๋ค๊ฒ ๋ฉ๋๋ค.
In RTRL, the gradient information is forward propagated.
RTRL(์ค์๊ฐ ์ํ ํ์ต) ์ ๊ฒฝ์ฌ ์ ๋ณด๊ฐ ์ ๋ฐฉ์ผ๋ก ์ ๋ฌ๋ฉ๋๋ค.
Here, the data is collected online from the Figure 8: This figure shows a fully recurrent neural network (RNN) with selffeedback connections.
์ฌ๊ธฐ์, ๋ฐ์ดํฐ๋ Figure 8 ์์ ์จ๋ผ์ธ์ผ๋ก ๋ชจ์ด๊ฒ ๋ฉ๋๋ค. ์ด ๊ทธ๋ฆผ์ ์๊ธฐ ์๋ต ์ฐ๊ฒฐ์ด ์๋ ์์ ์ํ ์ ๊ฒฝ๋ง์ ๋ณด์ฌ์ค๋๋ค.
system and the model is learned during collection.
์์คํ ๊ณผ ๋ชจ๋ธ์ ์์ง ์ค์ ํ์ต๋ฉ๋๋ค.
Therefore, RTRL is an online learning algorithm.
๊ทธ๋ฌ๋ฏ๋ก, RTRL ์ ์จ๋ผ์ธ ํ์ต ์๊ณ ๋ฆฌ์ฆ์ ๋๋ค.