다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.

Slides:



Advertisements
Similar presentations
수학 7- 가 문자와 식 > 일차방정식의 풀이 > 교과서 p.111 일차방정식의 활용 수업계획수업활동.
Advertisements

3 학년 문제가 남느냐, 내가 남느냐 1. ( 아씨방 일곱 동무 ) 아씨의 방에는 바느질을 위한 친구가 몇 명이 있었나요 ? 정답은 ? 일곱.
©2004 by South-Western/Thomson Learning 1 베이커리소비자 개인소비가치에 따른 유기농제품의 소비태도가 구매 후 만족도에 미치는 영향 이 윤 희이 윤 희 지도교수 : 진양호 교수님.
인공지능과 예술 <PUBLIC ART 5월호> 뇌 과학자 김대식
제 6 장 네트워크 모형 (Network Model)
경희대 모의 논술(2차) <모의논술고사의 평가기준> - 이해 ․ 분석능력(30%) - 논리적 구성능력(20%)
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
인터넷교육 사업계획서. 인터넷교육 사업계획서 목 차 1. ㈜ △△△ 사업의 개요 11. 회사가 주최하는 교육 및 행사 12. 사업자 원천징수 2. ㈜ △△△ 사업의 특징 목 차 1. ㈜ △△△ 사업의 개요 2. ㈜ △△△ 사업의 특징 3. ㈜ △△△
질병과 그에 따른 치료비 및 후유장해에 대한 부담감
Introduction of Deep Learning
乖乖♂坐好 开始♂上课.
圣诞快乐 乖乖♂坐好 开始♂上课.
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Multiple features Linear Regression with multiple variables (다변량 선형회귀)
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
MIS Report 2 제출일: 2008년 11월 04일 과목명: 경영정보시스템 교수명: 이 건창 교수님 성 명:조재선.
2013 여름방학중 근무지외 연수 결과보고서 함수발생기 사용법 (전자기계제어교과 교수학습자료) 교사 O O O.
추석특집: 특별프로 대한민국 NO.1 약사를 찾아서 약사와 함께하는 인터뷰 추석 뉴스.
Chapter 5. Q-LEARNING & DEEP SARSA
Computer System Architecture
데이터마이닝 데이터마이닝.
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
제4장 자연언어처리, 인공지능, 기계학습.
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
Machine Learning to Deep Learning
개요 신경회로망(Neural Networks)
“마음을 열고 진심으로 들어주세요” 경청의 기술 1. 몸을 틀어 주세요 !! 2. 눈을 봐 주세요!!
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
Parallel software Lab. 박 창 규
1. Log in WCMS에서 사용하는 ID와 PW를 동일하게 사용.
Data Mining Final Project
V. 인류의 건강과 과학 기술 Ⅴ-3. 첨단 과학과 질병 치료 1. 과학적 진단.
자동제어 개념 1 1.
부품·소재전문기업육성등에관한특별조치법안(개요)
딥러닝의 개념들.
Ch06_인공 신경망.
중간보고회 제2기 전라남도 지역사회복지계획 수립 전남발전연구원.
뉴로 컴퓨터 개론 제 6 장.
여행 가이드의 개념, 국외 여행 인솔자 개념, 국외 여행 인솔자 업무
4.19 혁명의 원인과 과정, 결과 사 회 6학년 1학기 3. 대한 민국의 발전 [2]민주 시민이 승리하던 날들(9/14)
정품 라이센스.
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
Dal Ta Nyan.
Ch13_ 신경 세포 모델링 : 인공 신경망.
여행사 오픈 절차 순서 목 차 여행사 설립 기본 절차 여행사 종류별 자본금 규모 여행 업 창업과 제한 조건
7장. 준지도 학습과 전이 학습.
모사방지시스템 운영기준.
3단원 디지털 세상 속으로 1. 0과 1의 비밀.
인공신경망 실제 적용사례 및 가상사례 조사.
진행상황 박노열.
Neural Networks & Deep Learning
의사결정지원시스템 6조 오나연 송혜정 신은수 오경석
Basic Function 김윤성 박로빈 이지호 천영재
신경회로망 Perceptron 알고리즘 윤병국 양락준 양영준.
수학 2 학년 1 학기 문자와 식 > 부 등 식 ( 2 / 2 ) 부등식의 성질 이용 풀기.
코로케이션 서비스 안내 정보화본부 정보화지원과.
신경망 (Neural Networks) (Lecture Note #23)
Progress Seminar 선석규.
Progress Seminar 선석규.
[ 딥러닝 기초 입문 ] 2. 통계적이 아니라 시행착오적 회귀분석 by Tensorflow - Tensorflow를 사용하는 이유, 신경망 구조 -
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
Deep Learning Basics Junghwan Goh (Kyung Hee University)
아프타성 구내염- 환자 교육용.
Model representation Linear regression with one variable
체력 운동과 건강.
Presentation transcript:

다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호

Perceptron 새로운 개념들 등장 Input layer, output layer Node, Weight(connection strength) Activation function

Perceptron – 구조 구조 Input layer: d+1개의 node (특징 벡터 x=(x1 , … , xd)T) Output layer: 한 개의node (따라서 binary classifier) Edge와 weight

Perceptron - 원리 노드의 연산 Perceptron = Binary classifier 입력 노드: 받은 신호를 단순히 전달 출력 노드: 합 계산과 활성 함수(activation function) 계산 Perceptron = Binary classifier

Perceptron - 예제

Perceptron - 학습 Perceptron의 학습 a=(0,0)T b=(1,0)T c=(0,1)T d=(1,1)T ta= -1 tb= -1 tc= -1 td=1 1 c d ? ? x1 y ? a b x2

일반적인 학습 알고리즘 설계 과정 단계 1: 분류기 구조 정의와 분류 과정의 수학식 정의 단계 2: 분류기 품질 측정용 비용함수 J(Θ) 정의 단계 3: J(Θ)를 최적화하는 Θ를 찾는 알고리즘 설계 단계 1과 2 단계 3

Perceptron의 학습 – 단계 1 매개변수 집합 Θ={w, b}

Perceptron의 학습 – 단계 2 분류기 품질을 측정하는 J(Θ)를 어떻게 정의할 것인가? 𝑌: 오분류된 샘플 집합 𝐽(Θ)는 항상 양수 𝑌가 공집합이면 𝐽(Θ)=0 |𝑌|가 클수록 𝐽(Θ) 큼

Perceptron의 학습 – 단계 3 현재 해를 방향으로 이동 학습률(learning rate) ρ를 곱하여 조금씩 이동 J(Θ)=0인 Θ를 찾아라. 내리막 경사법 (Gradient descent method) 현재 해를 방향으로 이동 학습률(learning rate) ρ를 곱하여 조금씩 이동

Perceptron의 학습 – Delta rule 알고리즘 스케치 초기해를 설정한다. 멈춤조건이 만족될 때까지 현재 해를 방향으로 조금씩 이동시킨다. 알고리즘에 필요한 수식들 퍼셉트론 학습 규칙 (델타 규칙)

Perceptron의 학습 - 알고리즘

Perceptron의 학습 – 예제 ① ② w(0)=(-0.5,0.75)T, b(0)=0.375 d(x)= -0.5x1+0.75x2+0.375 Y={a, b} ② d(x)= -0.1x1+0.75x2+0.375 Y={a}

Perceptron의 학습 – 예제 ③ ④ d(x)= -0.1x1+0.75x2-0.025 Y={b} Y={a}

Perceptron의 학습 - 구현 구현 초기값 어떻게? 학습률 어떻게? 패턴 모드와 배치 모드 패턴 모드 학습 알고리즘

Perceptron의 학습 – 포켓 알고리즘 선형 분리 불가능한 상황 J(Θ)=0이라는 목표 를 버리고, J(Θ)를 최 소화하는 목표로 수 정

Multi-layer Perceptron(MLP) 선형 분리 불가능한 상황 퍼셉트론의 한계 퍼셉트론으로 최대 몇 개까지 맞출 수 있을까?

MLP - 구조와 원리 XOR 문제 퍼셉트론은 75% 정인식률이 한계 이 한계를 어떻게 극복? 두 개의 퍼셉트론 (결정 직선) 사용

MLP - 구조와 원리 두 단계에 걸쳐 문제 해결 단계 1: 원래 특징 공간을 새로운 공간으로 매핑 단계 2: 새로운 공간에서 분류

MLP - 구조와 원리

MLP - 아키텍처 입력층, 은닉층, 출력층 가중치: u와 v

MLP – 입/출력 신경망은 일종의 함수

MLP - 전방 계산 (forward computation)

MLP – Activation Function 시그모이드라는 비선형 함수 사용

MLP - 아키텍처 은닉층은 몇 개로? 층간의 연결은 어떻게? Free-forward MLP(FFMLP)? 각 층의 노드는 몇 개로? 어떤 활성 함수 사용할까? 2019-07-05

MLP - 학습 패턴 인식에서 일반적인 학습 알고리즘 설계 과정 단계 1: 분류기 구조 정의와 분류 과정의 수학식 정의 단계 2: 분류기 품질 측정용 비용함수 J(Θ) 정의 단계 3: J(Θ)를 최적화하는 Θ를 찾는 알고리즘 설계 2019-07-05

MLP – 학습 단계 1 & 2 단계 1 단계 2 (비용 함수 정의) (4.12)와 (4.13)의 전방 계산이 분류기의 식 매개변수 집합 Θ={u, v} 단계 2 (비용 함수 정의) 2019-07-05

MLP – 학습 단계 3 단계 3 (최적 해 찾음) 오류를 줄이는 방향으로 Θ를 수정해 나감 2019-07-05

MLP - 학습 vjk를 위한 갱신값 Δvjk 의 유도 vjk가 미치는 영향

MLP - 학습 uij를 위한 갱신값 Δuij 의 유도 uij가 미치는 영향

MLP – 오류 역전파

MLP 학습 예제

MLP 학습 예제

오류 역전파 알고리즘의 계산 복잡도 Θ((d+m)pHN) H는 세대 수 많은 시간 소요 예) MNIST 필기 숫자 데이터베이스는 N=60000

MLP - 인식 인식 알고리즘 시간 복잡도 Θ((d+m)p) N에 무관, 빠름 2019-07-05

구현과 몇 가지 부연 설명 몇 가지 부연 설명 네트워크 아키텍처 (은닉 노드 개수 등) 가중치 초기화 언제 종료할 것인가? 목적 벡터의 표현과 활성 함수 (이진 모드와 양극 모드) 샘플 처리 순서 학습률 국소 최적 점 탈출 2019-07-05

매개변수 설정 일반적인 경우에 적용되는 보편 규칙은 없다. 경험과 실험을 통해 설정해야 한다. 신경망 성능이 매개변수에 아주 민감하지는 않기 때문에 어느 정도의 실험과 경험을 통해 설정 가능