Neural Network - Perceptron

Slides:



Advertisements
Similar presentations
김수연 Capstone Design Realization Cost Reduction through Deep Artificial Neural Network Analysis.
Advertisements

DNN 을 활용한 메일 분류 임영욱 백창훈 정강우.
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
Copyright © 2012 Pearson Education, Inc. Publishing as Prentice Hall
Introduction of Deep Learning
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Multiple features Linear Regression with multiple variables (다변량 선형회귀)
세종대학교 항공우주공학과 유도항법제어연구실
Lec 4 Backpropagation & Neural Network
MIS Report 2 제출일: 2008년 11월 04일 과목명: 경영정보시스템 교수명: 이 건창 교수님 성 명:조재선.
원전에서의 제어시스템 지능제어연구실 이창구.
분류 (Classification) 2014년 가을학기 강원대학교 컴퓨터과학전공 문양세.
Chapter 5. Q-LEARNING & DEEP SARSA
알고리즘(Algorithm)  알고리즘 개요 (효율, 분석, 차수) Part 1 강원대학교 컴퓨터과학전공 문양세.
데이터마이닝 데이터마이닝.
REINFORCEMENT LEARNING
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
제4장 자연언어처리, 인공지능, 기계학습.
EPS Based Motion Recognition algorithm Comparison
Numerical Analysis - preliminaries -
공통역량 교육과정 개발 - 최종보고
Genetic Algorithm 신희성.
Technological Forecasting & social change(2014)
11장. 적응 신호처리 11.1 랜덤신호처리 11.2 적응 시스템 11.3 적응 신호처리의 예 11.4 적응 알고리즘
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
9. 기계학습.
Cluster Analysis (군집 분석)
5. 비제약 최적설계의 수치해법 (Numerical Methods for Unconstrained Optimum Design)
머신 러닝 2 ㈜ 퀀트랩.
Machine Learning to Deep Learning
개요 신경회로망(Neural Networks)
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
GPU Gems 3 Chapter 13. Volumetric Light Scattering as a Post-Process
Parallel software Lab. 박 창 규
Data Mining Final Project
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
정보 추출기술 (Data Mining Techniques ) : An Overview
캠퍼스 리크루팅 안내 (화) 삼성전자 글로벌기술센터
알고리즘(Algorithm)  알고리즘 개요 (효율, 분석, 차수) Part 년 봄학기
Ch06_인공 신경망.
인공지능 소개 및 1장.
Machine Learning using Neural Networks
정보처리학회논문지 B 제10-B권 제1호(2003.2) 김만선, 이상용
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
Ch13_ 신경 세포 모델링 : 인공 신경망.
장애인단체 간담회 마스터 제목 스타일 편집 마스터 제목 스타일 편집 장애인 단체 간담회 마스터 부제목 스타일 편집
모사방지시스템 운영기준.
MR 댐퍼의 동특성을 고려한 지진하중을 받는 구조물의 반능동 신경망제어
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
진행상황 박노열.
Neural Networks & Deep Learning
K Nearest Neighbor.
정보활용실무 김호중 (금).
Linear Model.
신경회로망 Perceptron 알고리즘 윤병국 양락준 양영준.
CH557 진화연산 2003년도 제 2학기.
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #23)
Progress Seminar 선석규.
CSI 진화연산 2008년도 제 1학기.
Progress Seminar 선석규.
[ 딥러닝 기초 입문 ] 2. 통계적이 아니라 시행착오적 회귀분석 by Tensorflow - Tensorflow를 사용하는 이유, 신경망 구조 -
Traditional Methods – Part 1
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Model representation Linear regression with one variable
Presentation transcript:

Neural Network - Perceptron 숭실대 전기공학과 Control Information Process Lab 김경진

Variant of Network Variety of Neural Network Recurrent Layer Feedforward Network – Perceptron Recurrent Network - Hopfield Network 입력과 출력을 동일하게 하는 Network Optimization Problem에 이용 Competitive Network - Hamming Network Feedforward + Recurrent Network 입력에 대하여 Hamming distance를 최소화 하는 Network Target 불필요함 Recurrent Layer Layer with Feedback 초기조건 필요 2009-10-23

Hopfield Network – Example W = [w11 w12 w13 w21 w22 w23 w31 w32 w33] b = [b1 b2 b3]T P1 = [-1 1 -1]T(banana) P2 = [-1 -1 1]T(pineapple) T1 = [-1 1 -1]T, T2 = [-1 -1 1]T 2009-10-23

Hamming Network – Example W1 = [P1T P2T]T, b = [R R]T, (R = 입력의 개수) W2 = [1 -ε;- ε 1], 0< ε<1/s-1 (s = Recurrent Layer의 Neuron 개수) 2009-10-23

Single Neuron Perceptron - definition The Perceptron is a binary classifier. Single Neuron Perceptron 2009-10-23

Perceptron - Algorithm Learning Rule – Perceptron e = t – o (t = target, o = output, e = error) W = W + eX = W + (t – o)X b = b + e = b + (t – o) 초기값에 따라 Weight, Bias 값이 달라짐. 2009-10-23

Single Neuron Perceptron – example1(AND) 1 -1 1 -1] O = [1 -1 -1 -1] Simulation Result1 Initial Weight : [0 0] Initial Bias : 0 Iteration Number : 3 Weight : [2 2] Bias = -2 Simulation Result2 Initial Weight : [-1.5 -1.5] Initial Bias : -10 Iteration Number : 4 Weight : [4.5 4.5] Bias = -4 2009-10-23

ADALINE Network – Algorithm ADAptive LInear NEuron Perceptron과의 차이 Transfer Function : Hard Limit vs Linear Algorithm(Least Mean Square) W(k+1) = W(k) + 2αe(k)pT(k) b(k+1) = b(k) + 2αe(k) 2009-10-23

ADALINE Network – example1(AND) 1 -1 1 -1] O = [1 -1 -1 -1] Simulation Result1 Initial Weight : [0 0] Initial Bias : 0 α : 0.5 Iteration Number : 2 Weight : [0.5 0.5] Bias = -0.5 Simulation Result2 Initial Weight : [-1.5 -1.5] Initial Bias : -10 α : 0.5 Iteration Number : 2 Weight : [0.5 0.5] Bias = -0.5 2009-10-23

ADALINE Network – example1(AND) Simulation 시 주의사항 적정한 α값 찾기 α가 크면 발산 α가 작으면 반복 횟수 증가 error가 더 이상 줄어들지 않으면 멈추기 ADALINE은 선형시스템 Simulation Result4 Initial Weight : [0 0] Initial Bias : 0 α : 0.1 Iteration Number : 162 Weight : [0.5 0.5] Bias = -0.5 Simulation Result3 Initial Weight : [0 0] Initial Bias : 0 α : 1.2 Weight : [-5.2 -5.2]*e153 Bias = 5.2e153 2009-10-23

ADALINE Network – example2(XOR) Linearly Separable 직선으로 구분 가능한 것 AND Problem Not Linearly Separable 직선으로 구분 불가능 한 것 XOR Problem ADALINE Network로는 분류 불가능 해결 방법1 - Multi Neuron 사용 해결방법2 - Multi Layer 사용 2009-10-23

ADALINE Network – example2(XOR) 해결방법1. Multi Neuron 사용 Target의 차원을 늘린다. Ex) 1, 0 -> [0;0], [0;1], [1;0], [1;1] Simulation 결과 Initial Weight : [1 2;-1 -5] Initial Bias : [3;-2], α : 0.5 Iteration Number : 2 W = [0 0;0 0], b = [0;0] 한계점 - ① 차원 늘리기 ② 선형적 분류 ∴ 해결방법2. Multi Layer Perceptron 사용 2009-10-23

Multi-Layer Perceptron - Characteristic MLP의 장단점 Not Linear Separable 문제 해결, 함수 근사화 복잡한 구조 및 알고리즘, 국소적 최소값 수렴 2009-10-23

Multi-Layer Perceptron – Algorithm1 BackPropagation Forward Propagation Backward Propagation (Sensitivity) 3. Weight Bias Update 2009-10-23

Multi-Layer Perceptron – Variable Weight, Bias Rand 함수로 임의의 값 선정 Hidden Layer Neuron 은닉층 뉴런의 개수(HDNEU) HDNEU가 많을수록 복잡한 문제 해결 가능 Alpha Steepest Descent Method에서와 같은 개념 Stop Criteria 수치적인 Algorithm이므로 학습을 중단할 기준이 필요함 Mean Square Error로 판단함 2009-10-23

Multi-Layer Perceptron – example2(XOR) HDNEU = 20 α = 0.1 Stop Criteria = 0.005 Iteration Number : 480 MSE : 4.85e-3 Elapsed Time : 113.65[sec] 2009-10-23

Multi-Layer Perceptron – example3(sine Function) BP Algorithm HDNEU= 20 α = 0.2 Stop Criteria = 0.005 Iteration Number : 4710 MSE : 0.0081 Elapsed Time : 1328[sec] 2009-10-23

Multi-Layer Perceptron – Algorithm2 MOmentum BackPropagation Backpropagation Algorithm + Low Pass Filter Weight, Bias Update Variable Gamma(γ) – 전달함수에서의 pole 2009-10-23

Multi-Layer Perceptron – example3(sine Function) MOBP Algorithm HDNEU = 20 α = 1 γ = 0.9 Stop Criteria = 0.005 Iteration Number : 625 MSE : 0.005 Elapsed Time : 150[sec] 2009-10-23

Multi-Layer Perceptron – Algorithm3 Conjugate Gradient BackPropagation 최적화 이론의 Conjugate Gradient Method 인용 복잡한 알고리즘이지만 수렴속도는 빠름 Variable α, γ 불필요 HDNEU, Stop Criteria Algorithm Step1. Search Direction( ) Step2. Line Search( ) Step3. Next Search Direction( ) Step4. if Not Converged, Continue Step2 2009-10-23

Multi-Layer Perceptron – example3(sine Function) CGBP Algorithm HDNEU = 20 Stop Criteria = 0.005 Iteration Number : 69 MSE : 0.0046 Elapsed Time : 22[sec] 2009-10-23

Multi-Layer Perceptron – example3(sine Function) HDNEU = 20 Stop Criteria = 0.0005 Iteration Number : 125 MSE : 0.0005 Elapsed Time : 37[sec] 2009-10-23

Multi-Layer Perceptron – Local Minima Global Minima : 전역적 최소값 LMS Algorithm은 언제나 Global Minima 보장 Local Minima : 국소적 최소값 BP Algorithm은 Global Minima 보장 못 함 여러 번의 시뮬레이션이 필요함 HDNEU = 10 Stop Criteria = 0.001 Iteration Number : 3000 MSE : 0.2461 Elapsed Time : 900[sec] 2009-10-23

Multi-Layer Perceptron – Over Parameterization 신경회로망에서 은닉층 내의 뉴런의 개수가 필요이상으로 많을 때, 학습 데이터는 제대로 학습 시키지만 그 외의 데이터에서는 오차가 발생하는 것 Generalization Performance(일반화 성능) 학습 데이터가 아닌 다른 입력을 통해 신경회로망의 성능을 시험하는 것 2009-10-23

Multi-Layer Perceptron – Scaling 모든 입력의 attribute를 0~1사이의 값으로 만드는 것 학습 데이터로 Scaling할 때, 최대·최소값을 저장하고 그 값을 통해 검증 데이터를 Scaling 한다. Nearest Neighbor에서의 normalize 개념과 유사 선택사항 – Target 값의 Scaling 유무 Target 값이 백단위 이상이라면 Scaling 필요 Ex) 전력수요 예측 [어제 전력수요;요일;최고온도;최저온도] – 하루치 데이터 Origin Data [34780 31252 39317 7 1 2 34 32 33 20 23 24] Modification Data [0.4374 0 0 1 0 0.1667 1 0 0.5 0 0.25 1] 2009-10-23

Multi-Layer Perceptron – Scaling 전력수요 예측 Simulation HDNEU = 20, Stop Criteria = 0.01, Max Iteration Number = 1000 Case1. Not Scaling Iteration Number : 1000, Train Set MSE : 11,124,663, Test Set MSE : 20,425,686 Case2. Scaling Case3. Target Scaling Iteration Number : 6, Train Set MSE : 0.008628, Test Set MSE : 0.0562 2009-10-23

Multi-Layer Perceptron – Overfitting Stop Criteria를 지나치게 작게 선정하여 학습 데이터의 에러는 작아지도록 Weight, Bias를 학습시키나 검증 데이터의 에러는 오히려 커져서 일반화 성능이 떨어지는 것을 말한다. ☆ Issue 1. Stop Criteria를 얼마로 선정해야 하는가? 2. HDNEU는 몇 개가 적당한가? Stop Criteria : 0.01 / 0.001 Test Set MSE : 0.0562 / 0.1697 2009-10-23

Reference Machine Learning, Tom Mitchell, McGraw Hill. Introduction to Machine Learning, Ethem Alpaydin, MIT press. Neural Network Design, Martin T.Hagan, Howard B.Demuth, Mark Beale, PWS Publishing Company. Neural Networks and Learning Machine, Simon Haykin, Prentice Hall. 2009-10-23