딥러닝의 개념들.

Slides:



Advertisements
Similar presentations
2006 년 장항교회 청년회 운영 계획서. 1. 교육목표 : 예수그리스도의 은혜가 넘치는 청년들 말씀 :( 데살로니가전서 5:12~22) 형제들아 우리가 너희에게 구하 노니 너희 가운데서 수고 하고 주 안에서 너희를 다스리며 권하는 자들을 너희가 알고 저의 역사로 말미암아.
Advertisements

HTS 광 고 금요예배 안내 HTS 휴강 안내 둘째주 기도: 교회 지체들을 위한 기도
2014년도 주요법령 개정사항 (월) ~ (금) 대한전문건설협회 강원도회.
D1 GRANDPRIX OSD 설정 메뉴얼 - Check! - LOBIT 300GT
12장. 음성 신호처리 12.1 개 요 12.2 음성생성 모델 12.3 음성 합성 12.4 음성 부호화 12.5 음성 인식
SW사업자신고 안내
Introduction of Deep Learning
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Multiple features Linear Regression with multiple variables (다변량 선형회귀)
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
의료영상정보학발표 2장(화질론),3장(의료영상의평가)
판별분석의 개념과 적용(→ 추계통계적 성격)
Chapter 5. Q-LEARNING & DEEP SARSA
쉽게 배우는 알고리즘 6장. 해시 테이블Hash Table.
Ch. 4. 전위와 에너지(Potential and Energy)
제 3 장 신경회로망 (Neural Networks)
5. 비제약 최적설계의 수치해법 (Numerical Methods for Unconstrained Optimum Design)
Gamma(감마) 발표일 : 발표자 : 임정환.
Machine Learning to Deep Learning
12장. 혼성 모델 오일석, 패턴인식, 교보문고, © 오일석, 전북대학교 컴퓨터공학.
개요 신경회로망(Neural Networks)
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
<정보이론(Information Theory)> 제6장 정보의 특성과 Entropy
Optimization for Training Deep Models
7 영역처리를 이용한 에지 검출 01 에지 검출의 개요 02 에지 검출기 03 1차 미분을 이용한 에지 검출
[생산 • 공정관리] 생산 • 공정관리 품질향상 • 원가절감 기법 1.1 품질향상 실천기법 1.2 원가절감 실천기법.
AI 전문 인력 양성 교육 교육명 : Embedded Deep Learning (CNN을 이용한 영상인식)
경제통계학 개요 사공 용 서강대학교 경제학과.
(제8강) 기술로드맵 발표 및 신기술/신제품 기획
Tensorboard Lecture 데이터 마이닝 최 현영 컴퓨터학부.
기계학습과 R 실습.
Ch06_인공 신경망.
2부 ♬ ‘진짜 사나이 - 남자 교사들의 합창으로 분위기를 up시킨다 - 학생들이 아주 실감나게 즐김.
학교 홈페이지 U-Campus 클릭.
기업경영진단 방법론.
Exponential and Logarithmic functions
IPHONE용 cross21 사용법 1. 프로그램을 실행하면 아래와 같은 청이 뜹니다.
년 9월호 영업현황1p 주가동향 4p 알림 5p.
Natural gas f d 1마일 에이 커 제곱 미터 E-Mini Natural Gas June 2012 (NYMI)
무작위 계 컴퓨터시뮬레이션학과 2016년 봄학기 담당교수 : 이형원 E304호,
수술 후 5일되는 날 perfusion 한 18, 20, 21, 22번 mouse BBB test :
제2장 통신 신호 및 시스템 해석(2).
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
이론적 확률분포 앞서: 확률변수의 임의의 확률분포 수학의 이론으로부터 도출될 확률분포 이항분포, Poisson 분포, 정규분포
Ch13_ 신경 세포 모델링 : 인공 신경망.
물류관리사 기출 문제 (보관하역론 ) 문제 유형 : 이론 문제.
C언어 응용 제 15 주 검색.
평 가 SHEET 3정5S(15점) 평 가 항 목 E급 D급 C급 B급 A급 평가점수 특기 사항 5S 정리 정돈 청소 청결
Loading.
제19장 호텔의 안전관리 제 3부 호텔 업무지원부문의 경영관리 1절 호텔 안전관리의 의의 2절 안전사고의 관리과정
정의역, 공역, 치역 수학 7-가 함수 > 함수의 뜻 > 5-6/14 수업계획 수업활동 [제작의도]
Neural Networks & Deep Learning
매 일 유업 ESL 마케팅전략 온미선.
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #23)
1. 전문대학기초학습지원센터 접속하기 전문대학 기초학습지원센터 접속 접속URL : LOG-IN 클릭.
1. 전문대학기초학습지원센터 접속하기 전문대학 기초학습지원센터 접속 접속URL : LOG-IN 클릭.
1. 전문대학기초학습지원센터 접속하기 전문대학 기초학습지원센터 접속 접속URL : LOG-IN 클릭.
Lagrange 방정식의 응용사례 접근방법 (1) 일반화 좌표계 선정 (2) 직교 좌표와 일반화 좌표 사이의 변환
Progress Seminar 선석규.
Progress Seminar 선석규.
품사 분류의 기준과 실제.
[ 딥러닝 기초 입문 ] 2. 통계적이 아니라 시행착오적 회귀분석 by Tensorflow - Tensorflow를 사용하는 이유, 신경망 구조 -
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Model representation Linear regression with one variable
Progress Seminar 선석규.
Presentation transcript:

딥러닝의 개념들

Activation

Activation linear sigmoid tanh softmax relu elu softplus softsign hard_sigmoid

Activation linear 입력이 그대로 출력으로 나가는 형태

Activation sigmoid 0~1 사이의 출력 2 category를 예측할 때 출력층에서 사용

Activation tanh -1 ~ 1 사이의 출력 은닉층에 사용

softmax logistic function의 일반화 여러 값을 0~1사이의 값으로 바꾸고 합이 1.0이 되도록 함 Activation softmax logistic function의 일반화 여러 값을 0~1사이의 값으로 바꾸고 합이 1.0이 되도록 함 여러 category를 예측할 때 출력층에 사용

relu 0보다 작을 때는 0, 0보다 클 때는 linear처럼 작동 sigmoid에 비해 학습이 빠른 장점 Activation relu 0보다 작을 때는 0, 0보다 클 때는 linear처럼 작동 sigmoid에 비해 학습이 빠른 장점

Loss

Loss binary_crossentropy categorical_crossentropy mean_squared_error mean_squared_logarithmic_error hinge squared_hinge sparse_categorical_crossentropy kullback_leibler_divergence poisson cosine_proximity mean_absolute_error mean_absolute_percentage_error

cross entropy − 𝑦 log 𝑦 𝑦: 실제 값(0, 1) 𝑦 : 예측 값(확률) Loss cross entropy − 𝑦 log 𝑦 𝑦: 실제 값(0, 1) 𝑦 : 예측 값(확률) 낮은 확률로 예측해서 맞으면 loss가 커짐 binary_crossentropy  category가 2개인 경우 categorical_crossentropy  3개 이상인 경우

Loss mean_squared_error − 1 𝑁 𝑦− 𝑦 2 오차제곱의 평균 연속변수를 예측할 때 사용

Optimizer

Optimizer Optimizer SGD Adagrad Adadelta Adamax Nadam Adam RMSprop

경사하강법(gradient descent) Optimizer 경사하강법(gradient descent)

SGD batch gradient descent: 전체 데이터로 경사를 구함 Optimizer SGD batch gradient descent: 전체 데이터로 경사를 구함 stochastic gradient descent: 한 데이터로 경사를 구함 mini-batch gradient descent: 일부 데이터로 경사를 구함

Optimizer 모멘텀(momentum) SGD는 지그재그로 움직이는 경향이 있음 경사를 누적시켜 완만하게 움직이게

Adagrad 학습률(η)을 서서히 감소시키는 방법 gt: t번째 경사 Gt: t번째까지 모든 경사의 제곱합 Optimizer Adagrad 학습률(η)을 서서히 감소시키는 방법 gt: t번째 경사 Gt: t번째까지 모든 경사의 제곱합 ε: 아주 작은 값

Optimizer RMSprop 모든 경사를 더하는 대신 지수이동평균을 사용

Optimizer Adadelta RMSprop + 변화의 단위가 θ의 역수에 비례하는 것을 보정

Optimizer Adam 경사에도 지수이동평균 적용 0으로 편향된 것을 보정 나머지는 Adagrad와 비슷

Optimizer 비교

Optimizer 비교