본문 바로가기
Machine Learning

DL #2 : 딥러닝의 기본, 퍼셉트론 구조 및 활성화함수 (Perceptron, Activation Function)

by 무적물리 2020. 5. 4.

인공지능 알고리즘 변화

기존 입력 데이터와 알고리즘을 통해 출력데이터를 구하는 인공지능 알고리즘 구현 방식에서 입력 데이터와 출력 데이터를 통해 알고리즘을 구하는 방식으로 변화했습니다. 이러한 방식이 최근 의미있는 결과를 보이며, 많은 곳에서 활용되는 딥러닝 알고리즘의 접근 방식이 되겠습니다.


기존 : 입력 데이터 + 알고리즘 → 출력 데이터

변화 : 입력 데티어 + 출력데이터 → 알고리즘




퍼셉트론 (Perceptron)


퍼셉트론은 신경망 초기 연구 과정에서 제안된 방식으로, 맥컬록-피츠 모델을 기반으로 한 기계학습 방법입니다. 퍼셉트론은 가장 간단한 구성의 신경망 구조이며, 입력되는 각 값에 가중치를 곱해 출력을 확인하는 알고리즘 입니다. 위 그림에서 x1, x2, x3는 입력 값, w1, w2, w3는 가중치, b는 bias, z는 출력 값 입니다. 퍼셉트론의 가중합 (Weighted Sum)을 구하는 공식은 다음과 같습니다.


z = w1 * x1 + w2 * x2 + w3 * x3 + b


아래 그림의 'transfer function'으로 명명된 부분이 'z'라고 보시면 됩니다. bias는 생략되었습니다.



퍼셉트론은 다수의 신호를 입력 받아 하나의 신호를 출력하는 구조로 가중합 (Weighted Sum) 이후, 활성화 함수 (Activation Function)를 통해 힘계 값을 넘어서는지 아닌지 최종 출력에 대한 결정을 합니다. 이와 같이, 퍼셉트론은 뇌의 작동원리 중 가장 중요한 신경세포들의 연결 관계를 노드들의 연결 가중치로 모델링합니다.



활성화 함수 (Activation Function)


퍼셉트론은 인간 두뇌와 뉴런처럼 임계치인 0을 넘을 때, 출력이 발생하는 계단함수를 기본적으로 사용하게 됩니다. 실제 사용되는 함수는 ReLU, Sigmoid와 같은 함수 입니다. 해당 함수 외에도 다양한 함수가 있는데, Back Propagation을 통해서 퍼셉트론들을 학습시킬 때, 편미분을 거듭하며 학습합니다. 하지만, 계단함수와 같은 활성화 함수는 미분이 불가능하기 때문에 곡선형태의 활성화 함수를 사용합니다.


댓글