Multi Layer Perceptron 개요
다층 퍼셉트론은 1개 이상의 Hidden Layer를 가지는 퍼셉트론 입니다. Multi Layer Perceptron은 다수의 입력값과 각 입력값에 대한 가중치 곱을 한 결과들이 합쳐지고, 그 합쳐진 결과값이 활성화 함수의 입력값이 됩니다. 이후에 활성화 함수의 결과값은 다음 노드의 입력값이 됩니다. 이런 방식으로 여러 은닉층을 거친 결과는 최종 출력 값이 됩니다.
가중치는 각 노드의 연결강도를 말하는 것이며, 학습에 의해 변경됩니다.
뉴런은 입력 신호를 처리하여 출력 신호를 내보내는 처리 역할을 합니다. 따라서, Processing Element 또는 Threshold Unit 라고도 합니다.
활성화 함수는 가중치 곱에 의해 생성된 값을 결정 짓는 결정함수 또한 전이함수 라고 부릅니다.
Multi Layer Perceptron 학습 과정
다층 퍼셉트론의 학습과정은 아래와 같습니다. 각 가중치를 최적화하기 위해 오차를 줄이는 방향으로 모델을 학습합니다. 각 가중치의 값은 최종 출력인 y1, y2를 계산하는 방식의 역순으로 구하는데, 이를 Back Propagation 이라고 합니다. 오차를 낮추는 방향으로 학습하는 방법은 Gradient Descent 입니다. 이로써, 다층 신경망을 학습할 수 있습니다.
1. 가중치 초기화
2. 출력값 계산
3. 출력값과 목표값 비교
4. 가중치 조정
5. 가중치 최적화까지 반복
Multi Layer Perceptron 한계
다층 퍼셉트론의 한계는 이미지를 학습하고 예측하는 능력이 떨어진다는 것입니다. 같은 이미지라도 이미지 내 물체의 위치가 조금만 달라져도 동일 이미지에 대해 매번 연산을 수행하는 비효율적 문제입니다. 이는 위치가 달라짐에 따라 전혀 다른 입력값으로 인식하는 Multi Layer Perceptron의 한계입니다.
다층 퍼셉트론 한계 : 이미지 학습
이미지 학습 알고리즘 도입 : CNN
이미지를 학습하기 위해 새로운 방식의 뉴럴 네트워크 알고리즘이 탄생했는데 해당 알고리즘은 Convolutional Neural Network (CNN) 입니다. CNN은 이미지 인식에 강력한 성능을 발휘하는 알고리즘 입니다. 실제로 딥러닝이 많이 사용되는 분야는 이미지나 영상을 입력으로 받고 분류하는 모델이기 때문에 CNN은 딥러닝에서 중요한 포션을 차지하고 있습니다.
댓글