본문 바로가기

Deep Learning4

DL #3 : 딥러닝 활성화 함수 종류 및 특징 (Activation Function) 활성화 함수는 Transfer Function 으로부터 전달 받은 값을 출력할 때 일정 기준에 따라 출력값을 변화시키는 비선형 함수입니다. 활성화 함수를 통해 출력 값을 0~1 사이의 실수 값으로 정규화해 확률적 개념으로 사용 가능합니다. 비선형함수는 직선으로 표현할 수 없는 데이터 사이의 관계도 표현할 수 있습니다. 대표적인 활성화 함수는 Sigmoid, tanh, ReLU 입니다. 계단 함수 (Step Function) 계단 함수는 선형 함수의 결과를 이진 분류로 나타내기 위한 함수로, 임계치 이상에서 1, 아니면 0을 출력합니다. 시그모이드 (Sigmoid) 시그모이드는 선형함수의 결과를 0~1 까지의 비선형 형태로 변형하기 위한 함수입니다. 해당 함수는 로지스틱 회귀와 같은 분류 문제의 확률 표현.. 2020. 5. 4.
DL #2 : 딥러닝의 기본, 퍼셉트론 구조 및 활성화함수 (Perceptron, Activation Function) 인공지능 알고리즘 변화기존 입력 데이터와 알고리즘을 통해 출력데이터를 구하는 인공지능 알고리즘 구현 방식에서 입력 데이터와 출력 데이터를 통해 알고리즘을 구하는 방식으로 변화했습니다. 이러한 방식이 최근 의미있는 결과를 보이며, 많은 곳에서 활용되는 딥러닝 알고리즘의 접근 방식이 되겠습니다. 기존 : 입력 데이터 + 알고리즘 → 출력 데이터변화 : 입력 데티어 + 출력데이터 → 알고리즘 퍼셉트론 (Perceptron) 퍼셉트론은 신경망 초기 연구 과정에서 제안된 방식으로, 맥컬록-피츠 모델을 기반으로 한 기계학습 방법입니다. 퍼셉트론은 가장 간단한 구성의 신경망 구조이며, 입력되는 각 값에 가중치를 곱해 출력을 확인하는 알고리즘 입니다. 위 그림에서 x1, x2, x3는 입력 값, w1, w2, w3는 .. 2020. 5. 4.
ML #1 : 머신러닝의 역사와 종류, 용어 정리하기! (AI, 딥러닝, 한계) 머신러닝 역사머신러닝이라는 용어는 1959년에 아서 사무엘 (Arthur Samuel)의 논문에서 최초로 아래와 같이 정의되었습니다. 이후에 머신러닝에 대한 수많은 연구가 진행되었고 발전에 발전을 거듭하다가 침체기에 빠지고 21세기에 와서야 빛을 발한 기술입니다. 머신러닝이란, 명시적으로 프로그램을 작성하지 않고 컴퓨터에 학습할 수 있는 능력을 부여하기 위한 연구 분야 머신러닝은 최근에 주목을 받게 되었습니다. 물론, 이전의 역사가 주목받기 시작한 역사보다 훨씬 깁니다. Neural Net이 처음 만들어졌고, XOR 논리를 해결하기 위해 다층 신경망이 개발되었고 딥러닝 모델이 만들어졌지만 컴퓨팅 파워와 테크닉의 부재로 딥러닝 모델을 학습 시키지 못해서 인공지능의 겨울이 찾아왔다가 Weight와 Bias의.. 2020. 4. 1.
AI 머신러닝 딥러닝 온라인 무료 교육 사이트 공유 몇년전 알파고의 흥행과 더불어 이제는 엔지니어와 직장인이라면 누구나 AI의 중요성에 대해 알고 계실 것입니다. 현재 AI를 써서 데이터마이닝으로 공정을 제어하고 사람이 하는 단순 반복성 작업들은 컴퓨터가 대신할 수 있을 정도로 AI의 보급화가 빠르게 진행되고 있습니다. 이번 포스팅에서는 이러한 AI에 대해 전문적으로, 그리고 무료로 사람들과 지식을 나누는 Open Course를 공유하고자 합니다. 아래 네 개의 사이트를 접속해서 확인하면 되겠습니다. ◎ 코세라 : https://www.coursera.org ◎ K-MOOC : https://www.kmooc.kr◎ edwith : https://www.edwith.org◎ KOOC : https://kooc.kaist.ac.kr 2020. 2. 7.