Introduction of Deep Learning

Slides:



Advertisements
Similar presentations
김수연 Capstone Design Realization Cost Reduction through Deep Artificial Neural Network Analysis.
Advertisements

윤준혁 (12), 이주연 (13), 박혜원 (14), 안혜경 (15) 허니버터칩으로 알아본 SNS 의 영향 력.
일과 삶의 균형잡힌 조화를 통한 올바른 직업생활을 지원하는. CONTENTS 왜 인성교육인가 ? 01 인성교육 전문가 양성 교육과정 소개 02 인성교육 전문가 양성과정 특장점 / 기대효과 03.
1 ‘ 우리나라의 주요공업 ’ - 정도웅, 주민혁, 안수진, 백경민, 엄다운, 박경찬 -.
일 시 : (목) 장 소 : 문산종합사회복지관장) 파주시문산종합사회복지관 기관안내.
벡터 미적분학.
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Multiple features Linear Regression with multiple variables (다변량 선형회귀)
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
공부할 내용 조상들이 살던 곳 자연과 잘 어울리는 한옥 지방에 따라 서로 다른 집의 모양 섬 지방의 집
사랑, 데이트와 성적 자율성 :데이트 성폭력!!! 성폭력예방교육 전문강사 / 여성학 전공 신 순 옥.
퇴계와 율곡의 사회사상 비교 남 일 재 동서대학교 교수/ 정치학 박사 1. 퇴계 이황과 율곡 이이의 약전(略傳)
MIS Report 2 제출일: 2008년 11월 04일 과목명: 경영정보시스템 교수명: 이 건창 교수님 성 명:조재선.
제3장 사회 복지 발달사.
501. 군인들의 세상 502. 민정 이양과 한일회담 이선용.
2015년 하반기 소방교육 자 유 전 공 학 부 (금) 안녕하십니까 자유전공학부 행정실 입니다.
Chapter 5. Q-LEARNING & DEEP SARSA
데이터마이닝 데이터마이닝.
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
제4장 자연언어처리, 인공지능, 기계학습.
네트워크 프로그래밍 및 실습.
아동복지 제9장.
Python Network Data Science Lab Seunghun Lee, KangHee Lee
1장. 인공 지능 개론 인공 지능(Artificial Intelligence: AI)이란 무엇일까?
Tel : Office : 2공학관 408호 오토마타 및 형식언어 김 현 성 Tel : Office : 2공학관 408호
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
Machine Learning to Deep Learning
개요 신경회로망(Neural Networks)
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
Optimization for Training Deep Models
Parallel software Lab. 박 창 규
기 초 통 계 인하대학교 통계학과.
뉴런과 인공 신경망 2018 경기오산고등학교 이규성.
제13장 장애인 복지.
Data Mining Final Project
AI 전문 인력 양성 교육 교육명 : Embedded Deep Learning (CNN을 이용한 영상인식)
정보 추출기술 (Data Mining Techniques ) : An Overview
3장. 다층 퍼셉트론.
딥러닝의 개념들.
Ch06_인공 신경망.
Ch01. 지능형 시스템 개론.
정치개혁의 가능성 논의 권력구조 개편을 통하여 본 -개헌을 통한 정부형태의 변화를 중심으로 [한국정치론] 윤성이 교수님
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
치료 레크레이션 프로그램 (지적 장애 대상) 과 목: 학 과: 학 번: 이 름: 제 출 일 자 담 당 교 수:
Ch13_ 신경 세포 모델링 : 인공 신경망.
광고 모델의 영향력.
노년기 발달 장안대 행정법률과 세류반 정 오 손
태국 문학 욜라다 왓짜니 싸란차나 팟차라와라이 끼따야펀 르앙다우 타니다.
Neural Networks & Deep Learning
평생 저축해도 강남 아파트 못산다 학 과 : 회계학과 1학년 B반 과 목 : 회계학원론 담당교수: 박성환 교수님
신경회로망 Perceptron 알고리즘 윤병국 양락준 양영준.
경영학의 상황학파에 대해서… 경제학과 3학년 최준용 회계학과 4학년 진현빈
워밍업 실뭉치 전달게임.
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #23)
Chapter 7. A3C Ho-Bin Choi A3C.
음파성명학 최종욱.
Progress Seminar 선석규.
Progress Seminar 선석규.
Progress Seminar 선석규.
[ 딥러닝 기초 입문 ] 2. 통계적이 아니라 시행착오적 회귀분석 by Tensorflow - Tensorflow를 사용하는 이유, 신경망 구조 -
Traditional Methods – Part 1
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Model representation Linear regression with one variable
Presentation transcript:

Introduction of Deep Learning 2016. 1.25 Dong-Hyun Kwak

Table of Contents Artificial Neural Networks Perceptron Rate coding / Spiking Perceptron XOR Non linear Problem Multi-layer Perceptron Universal Function Approximator Non Linear Activation Function Logistic Regression Gradient Descent Momentum: Per-dimension Learning Rate Error Back-propagation Chain Rule Why Deep? Gradient Vanishing Problem RBM layer-wise pretraining ReLU Regression / Binary Classification / Multi Classification Linear Regression + Least Mean Square / Softmax + Cross Entropy

Artificial Neural Networks – Spiking Neuron 포아송 프로세스가 아웃풋임. Computational Neuro-Science에서 주로 연구하는 모델. 여기는 사람의 뉴런을 분석하기 위해 모델링을 함 http://journal.frontiersin.org/article/10.3389/fnins.2013.00153/full

Artificial Neural Networks – Rate Coding Neuron 근데 frequency 도메인으로 보면 처리할 수 있는 정보량이 같음 http://lis2.epfl.ch/CompletedResearchProjects/EvolutionOfAdaptiveSpikingCircuits/

https://blog.dbrgn.ch/2013/3/26/perceptrons-in-python/ Perceptron https://blog.dbrgn.ch/2013/3/26/perceptrons-in-python/

Perceptron - XOR https://www.wikipendium.no/TDT4137_Cognitive_Architectures

Perceptron Linearly Non-Separable http://lab.fs.uni-lj.si/lasin/wp/IMIT_files/neural/nn04_mlp_xor/

Multi-layer Perceptron

Multi-layer Perceptron Universal Function Approximation In the mathematical theory of artificial neural networks, the universal approximation theorem states[1] that a  feed-forward network with a single hidden layer containing a finite number of neurons (i.e., a multilayer perceptron), can approximate continuous functions  http://slideplayer.com/slide/4807219/ https://blog.dbrgn.ch/2013/3/26/perceptrons-in-python/

Multi-layer Perceptron Universal Function Approximation [여창준a] [오후 1:54] measurable function [여창준a] [오후 1:54] lebesgue integral 같은거 할줄알아야 [여창준a] [오후 1:54] 아 그리고 borel set이 뭔지도 알아야되고 [여창준a] [오후 1:54] Lp space가 뭐고 [여창준a] [오후 1:54] 그 위에서 적분은 또 어떻게 하고 [여창준a] [오후 1:54] 이런거 다 알아야 저 논문 보는데

Activation Function

Sigmoid Function 확률적 해석이 가능함

Multi-layer Perceptron https://blog.dbrgn.ch/2013/3/26/perceptrons-in-python/

Multi-layer Perceptron Hidden Layer에 Activation Function이 없으면?  2층 네트워크 == Logistic Regression과 같음 https://blog.dbrgn.ch/2013/3/26/perceptrons-in-python/

Gradient Descent Loss Function 을 W(parameter)로 편미분해서 W에 대한 Gradient를 구한다. Gradient를 이용해서 W를 업데이트 한다. W* = W − λ Loss'(W)

Gradient Descent http://imgur.com/a/Hqolp

Gradient Descent의 문제점 1) Local Optima  Momentum (사실은 per-dimension learning rate) Divergence  Gradient Decaying V = µV' + λ Loss'(W)   W* = W - V - 모멘텀은, 원래 가던 방향을 남겨놓기 때문에, 발산하는걸 상쇄시켜줌 adagrad는 글로벌하게 디맨전마다 러닝레이트를 다르게 주는 것임. 그래서 Gradient decaying은 어떤 optimizer와도 같이 사용이 가능함.

Gradient Descent의 문제점 느림  Stochastic Gradient Descent (또한 랜덤한 요소의 작용으로 더 수렴이 좋음. 그러나 subset이 전체의 분포를 충분히 반영해야함)

Error Back-propagation Chain Rule Delta = node’s error http://newsight.tistory.com/70

Deep Layer https://theneural.wordpress.com/2013/01/07/universal-approximation-and-depth/

Deep Layer https://theneural.wordpress.com/2013/01/07/universal-approximation-and-depth/

Gradient Vanshing http://www.slideshare.net/ckmarkohchang/neural-turing-machine-tutorial-51270912

Gradient Vanishing Layer-wise Pretraining http://www.dmi.usherb.ca/~larocheh/projects_deep_learning.html

Gradient Vanishing 의미 1) Global optima와 더 가까운 Initial Weight 제공 의미 2) Layer간의 긴밀함이 증가해서 gradient가 더 잘 전파됨

Gradient Vanishing 2) ReLU http://www.dmi.usherb.ca/~larocheh/projects_deep_learning.html

Output Node 1) Regression  Weighted Sum + Least Mean Square 2) Classification  Softmax + Cross-Entropy

THANK YOU