알고리즘 2009.11.04 14:13


친구 녀석과 특정 대회에 출품할 작품을 위하여 신경망을 만들었다.
수업들었을땐 한번에 만들었었는데 시간이 흐른후에 만드려니 여간 힘든게 아니었다.


BackPropagation
 1. V, W weight의 값을 초기화한다. [-0.5~0.5] 사이의 값으로
 2. 각 Layer의 NET과 f(x)를 구한다. 
 3. Output Layer에서 각 뉴런들의 Error를 구한후 합친다.
 4. delta rule을 적용하여 output layer의 각 뉴런에 변화량을 구한다.
     그리고 hidden layer와 output layer 사이의 w weight의 변화량을 구해서 합친다.
     마지막으로 hidden layer의 변화량을 구한다.
 5. V, W weight의 변화량을 구해서 새롭게 수정한다.

더보기

'알고리즘' 카테고리의 다른 글

비트코인 채굴량 계산법  (0) 2017.10.23
[알고리즘] Backpropagation  (0) 2009.11.04

태그들 ,