신경망 (Neural Networks) (Lecture Note #23)

Slides:



Advertisements
Similar presentations
수련회 안내 6.4~6.5. 언제, 어디로 ? ✽일시 2015 년 6 월 4 일 ( 목 ) ~ 5 일 ( 금 ) (1 박 2 일 ) ✽장소 강원도 정동진 ( 레일바이크 ), 경포대 ( 모터보트 ), 오죽헌, 용평리조트 일대 ✽참가인원 중학교 1 학년 ~ 고등학교 3 학년.
Advertisements

돈 되는 도시형생활주택은 따로 있습니다. - 주거지역내 수요가 많은 지역을 과학적 / 통계적으로 선정 - 수익률과 시세차익을 함께 누릴 수 있는 곳을 선정 - 개발지 내 투자 ( 재개발 예정구역 ) - 시행초기에 투자 분양가 5,400 만원 실투자금 2,500 만원으로.
폭력. 폭력이란 무엇인가 우상의 눈물 물리적인 폭력 ( 최기표 ) VS 지능적인 폭력 ( 임형우, 담임선생님 )
중국의 자연환경 지형과 기후 한양대 공과대학 건축학부 동아시아건축역사연구실 한 동 수 2013 년 9 월 18 일.
( 금 ) 11:00 상망동주민센터 2 층 회의실. 1. 아이의 웃음소리가 커지는 상망동 만들기 (2012 년도 인구증가 대책 ) 2. 제 18 대 대선 선거 중립 유지 및 개입 금지 3. 여성친화도시 조성 시민참여단 모집 영주 풍기인삼축제.
산 & 계곡의 매력 = 마음의 부자 _ “ 윤 ” 의 생각 산 행 기산 행 기 산 행 흔 적 이 동 윤 2012 년 04 월 01 일 ( 일 ) 창원 불모산 – 진해 안민고개 산행.
국토의 자존심 ! 우리 영토 독도 !! 창기중학교 교사 박 정 희 2012 독도연수자료.
1 박 2 일 !!! 인천마장초등학교 유수아. 1 박 2 일 멤버 인기순 위 1 위 이승기 2 위 엄태웅 3 위 은지원 4 위 김종민, 이수근 ※인터넷에서 본것이기 때문에 사람에따라 서 다를 수 있다. ※
삭막한 세상 그러나 아직까지 이런 모습이 남아 있기에 이세상은 아직 살만한 곳이 아닐까 신 ( 神 ) 마저 외면 할 수 없는 인간들이 만든 감동의 순간 우리는 무엇을 해야 할 것인가 ?
아시아 김예소,이주희.
제24과 서울 단어 이후 体词+이후, 谓词+ㄴ/은 이후 ¶그날 이후 공휴일마다 도서관에 가서 책 한 권씩 읽습니다
석관중앙교회 5남전도회 석 관 중 앙 교 회 회원 소식 통권 05-04호 발행일 : 2005년 04월 회 장 : 장진호 집사
지역 사회의 조사 사회 1학년 1학기 Ⅰ. 지역과 사회 탐구>1.지역사회의 조사(1/6)
지역사회복지론 1조. 요양보호시설에 대해서 황성국 임재형 이동영
Introduction of Deep Learning
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
MIS Report 2 제출일: 2008년 11월 04일 과목명: 경영정보시스템 교수명: 이 건창 교수님 성 명:조재선.
불확실성 (Lecture Note #11) 인공지능 이복주 단국대학교 컴퓨터공학과 Modified from the slides
I 문학의 개념과 역할 1. 문학의 개념 (1) 언어 예술로서의 문학 (2) 소통 활동으로서의 문학
분류 (Classification) 2014년 가을학기 강원대학교 컴퓨터과학전공 문양세.
Chapter 5. Q-LEARNING & DEEP SARSA
4. 목적론적 윤리와 의무론적 윤리 01. 경험주의와 이성주의 01. 경험주의와 이성주의 02. 결과론적 윤리와 공리주의
신경망 2.
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
제4장 자연언어처리, 인공지능, 기계학습.
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
뉴로 컴퓨터 개론 제 1 장 충 북 대 학 교 오 창 석.
동북공정, 독도,이어도 손원태 동북공정이란? 동북공정의 현재 진행 상황? 독도의 위치 및 각 국의 주장 이어도
Machine Learning to Deep Learning
개요 신경회로망(Neural Networks)
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
(A technique for producing Idea)
서 울 정 보 시 스 템 (02) 북집(BookZip) 지식N요약 DB 국내서 요약, 해외서 Preview, Global Trend, Media 브리핑 ‘모바일 서비스 이용방법 서 울 정 보 시 스.
나사렛.
개항기 조선과 동아시아 박 범 한국역사입문Ⅱ.
Ch06_인공 신경망.
대구의 부도심 대구의 주요축 동대구 부도심 4조 강민석 / 박성균 / 최은지/ 황재현/김예지.
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
?category=mbn00009&news_seq_no=
Ch13_ 신경 세포 모델링 : 인공 신경망.
-. 용인 처인구/기흥/수지구 고사장 중 가장 소요시간이 긴 고사장은 보정고(58분/39.18Km) 사전조기출발 필요!
힘의 합성 피라미드의 축조 2.5톤의 돌 230만개 우주인의 작품? --제5원소 힘의 합성-합력.
대기권의 구조 학습목표 대기권을 기온의 연직 분포에 따라 대류권, 성층권, 중간권, 열권으로 구분할 수 있다.
사도행전 13장 22절 말씀 –아멘 다 윗 을 왕 으 로 세 우 시 고 증 언 하 여 이 르 시 되 내 가 이 새 의 아 들
탐색 (Lecture Note #3) 인공지능 이복주 단국대학교 컴퓨터공학과 Modified from the slides
태양계 사진 모음 태양 목성 이 프로그램은 혜성이나 위성,소행성,왜소행성을 소개하지 않습니다 수성 토성 금성 천왕성 지구
정의역, 공역, 치역 수학 7-가 함수 > 함수의 뜻 > 5-6/14 수업계획 수업활동 [제작의도]
Neural Networks & Deep Learning
P (6) 암석의 순환과 이용.
(생각열기) 인체의 혈관의 길이는 약 몇 km인가? 답 : 약 10만 km로 지구를 두 바퀴 반 정도 돌 수 있는 길이 이다.
1-1 지구계의 구성 요소.
학습주제 제주도의 독특한 자연 환경 학습목표 · 제주도의 지형적 특징을 조사한다. · 제주도의 기후적 특징을 조사한다. 목차
K Nearest Neighbor.
신경회로망 Perceptron 알고리즘 윤병국 양락준 양영준.
P 조산운동 생각열기 – 히말라야 산맥은 길이가 약 2,400 km에 이르며, 높이가 7,000 m가 넘는 산들이 백 개 이상 분포한다. 이처럼 규모가 큰 산맥은 어떻게 만들어졌을까? ( 히말라야 산맥은 인도판이 유라시아판 밑으로 파고 들어갈 때, 두.
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #22)
Progress Seminar 선석규.
우수사원 연수 제안서 2-1. 항공, 호텔, 식사, 차량 세부 안내 (지역순서대로 작성 발리-싱가포르-괌)
퍼지 이론 (Lecture Note #13) 인공지능 이복주 단국대학교 컴퓨터공학과
학 습 문 제 화산 활동이 우리에게 주는 영향을 알아보자 학 습 활 동 안 내 화산이 발생한 지역 알아보기 2. 화산 활동의 이로운 점과 해로운 점 발표하기 학 습 활 동 안 내 화산이 발생한 지역 알아보기 2. 화산 활동의 이로운 점과 해로운 점 발표하기.
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
시각 (Vision) (Lecture Note #25)
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Model representation Linear regression with one variable
Presentation transcript:

신경망 (Neural Networks) (Lecture Note #23) Modified from the slides by SciTech Media 신경망 (Neural Networks) (Lecture Note #23) 인공지능 2002년 2학기 이복주 단국대학교 컴퓨터공학과

Outline 개요 Biological Motivation 역사 정의 및 특징 종류 Hopfield NN Perceptron 경쟁 학습 Self Organizing Map ART NN 응용

단층 퍼셉트론 (Perceptron) 눈의 망막을 모델화함 (Rosenblatt) 지도학습, 이진 & 아날로그 입력처리 알고리즘: 전체 출력뉴런들에 대하여 계산된 출력값과 목표값과의 차이를 최소화시킴 (Widrow-Hoff 규칙(델타규칙)이 유명) 만일 계산된 출력값과 목표값 간에 차이가 없으면 연결 가중치는 변경되지 않으며, 차이가 있으면 차이를 줄이는 방향으로 가중치를 변경. 학습단계 1단계. 가중치(Wi(0))와 임계치()를 초기화. 2단계. 새로운 입력패턴(X0, X1, … )과 목표출력 패턴(d(t))을 제시 3단계. 하드리미터 함수를 사용하여 실제 출력값(y(t))을 계산 4단계. 가중치를 갱신 5단계. 2단계로 분기하여 반복 수행

단층 퍼셉트론 (Perceptron) AND, XOR 예제 뉴런에 입력되는 가중치의 합이 임계치를 초과하면 1, 아니면 0 을 만족하는 W0, W1은? W0 = 0.4, W1 = 0.2 f 함수의 경우: W0 = -0.3, W1 = 0.6 입력 출력 X0 X1 AND f XOR X0 W0  = 0.5 Y 입력 출력 1 1 1 1 1 X1 W1 1 1 1

단층 퍼셉트론 (Perceptron) XOR의 경우 → 만족하는 W0, W1 는 존재하지 않음

단층 퍼셉트론 (Perceptron) OR 예제 임계치  에 대한 다른 view: 그림 9.9 1단계: 가중치 임의로 초기화 y(t) = fh(i=0..NWi(t)Xi(t)), WN(t) = , XN(t) = -1 1단계: 가중치 임의로 초기화 W0 = 0.2, W1 = -0.1, W2 (즉 ) = 0.3 2단계: 패턴 제시, W 계산 X = (0, 0, -1), d = 0 X = (0, 1, -1), d = 1 X = (1, 0, -1), d = 1 X = (1, 1, -1), d = 1 3단계: W0 = 0.2, W1 = 0.1, W2 = 0.1 얻음

단층 퍼셉트론 (Perceptron) 프로그램 (p. 241)

단층 퍼셉트론 (Perceptron) 선형 분리성 (linear separability): 그림 9.10 (a) 2X0 + X1 = 2.5 이러한 문제를 해결하기 위해서 2개 또는 3개의 층(layer)을 사용 다층 퍼셉트론: 3층 퍼셉트론으로 어떤 문제도 해결가능 퍼셉트론은 다층 퍼셉트론 및 오류역전파 알고리즘의 기반 모델이 됨

다층 퍼셉트론 (Multi-Layer Perceptron) 입력층과 출력층 사이에 하나 이상의 은닉층을 가지는 전방향 신경회로망 단층 퍼셉트론의 문제점을 해결 → 효과적인 학습 알고리즘이 없어서 60-70년대 사용되지 않았다 80년대 중반 오류 역전파 (EBP) 알고리즘 학습규칙(Rumelhart) → 일반화된 델타 규칙 (generalized delta rule) 알고리즘: 원하는 목표값(d)과 실제 출력값(o) 사이의 오차제곱합으로 정의된 비용함수(cost function) E의 값을 경사하강추적법(gradient-descent method)에 의해 최소화 하는 방향으로 학습 p: p번째 학습 패턴 Ep: p번째 패턴에 대한 오차 dpj: p번째 패턴에 대한 j번째 요소 opj: 실제 출력의 j번째 요소

다층 퍼셉트론 2층 퍼셉트론 Opk dpk k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 학습 규칙 활성화 함수: 시그모이드 함수 1단계. 가중치와 임계치를 초기화 2단계. 입력과 목표 출력을 제시 f(x) = 1/(1+e-x) 1단계. 가중치와 임계치를 초기화 2단계. 입력과 목표 출력을 제시

다층 퍼셉트론 3단계. 제시된 입력벡터를 이용하여 은닉층 j번째 뉴런으로 입력값 계산 4단계. 시그모이드 함수를 사용하여 은닉층의 출력(Opj)을 계산 Opj = fj(netpj) Opk dpk k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 5단계. 은닉층의 출력을 이용하여 출력층 뉴런 k로의 입력값을 계산 6단계. 시그모이드 함수를 사용하여 출력층의 출력(Opk)을 계산 Opk = fk(netpk) Opk dpk k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 Opk dpk 7단계. 입력패턴의 목표출력(dpk)과 실제 출력 (Opk) 과의 오차값(pk)을 계산하고 출력층 오차합(E)을 학습패턴의 오차(Ep)로 누적 시킨다. k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 8단계. 출력층 오차값(pk)과 은닉층과 출력층의 가중치값(Wkj)을 이용하여 은닉층의 오차(pj)를 계산한다. Opk dpk k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 9단계. 4단계와 7단계에서 구한 은닉층 뉴런 j의 출력값(Opj)과 출력층의 오차 값(pk)을 사용하여 출력층의 가중치(Wkj)를 갱신한다(임계치도 조정) Opk dpk k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 10단계. 출력층에서와 마찬가지로 입력층과 은닉층의 가중치 값과 임계치값을 갱신한다. Opk dpk k M-1 k M-1 …… …… pk Wkj  k Opj 임계치 j pj L-1  j 임계치 Wji i N-1 …… …… Xp0 Xpi XpN-1

다층 퍼셉트론 11단계. 모든 학습패턴에 대하여 전부 학습 할 때까지 2단계로 분기하여 반복 수행한다. 12단계. 출력층의 오차합 E가 허용값 이하이거나 최대 반복회수보다 크면 종료, 그렇지 않으면 2단계로 가서 반복한다.

다층 퍼셉트론 XOR를 풀 수 있는 2층 퍼셉트론의 예: 그림 9.13 X1 = 1, X2 = 0일 때 출력 f(x) = 1/(1+e-x) 숨김 neuron의 출력: 1/(1+ e6.4 + 2.2) = a 출력 neuron의 출력: 1/(1+e4.2 +9.4*a + 6.3) = 0.877  1에 근사하므로 1이 출력된다고 봄

다층 퍼셉트론 XOR 문제를 풀기 위한 2층 퍼셉트론 디자인: 그림 9.12 초기치는 그림처럼 설정됨 입력 = (1, 1), 목표 출력 = 0 일 때 임계치와 가중치 O4 = O5 = 1 O2 = 1/(1+ e-(0.2*1 + 0.3*1 + 0.1*(-1)) = 0.6 O3 = 1/(1+ e-((-0.1)*1 + 0.1*1 + (-0.2)*(-1)) = 0.55 O1 = 1/(1+ e-(0.2*0.6 + (-0.3*0.55) + 0.4*(-1)) = 0.391 1 = (dpk – Opk)Opk(1-Opk) = (0-0.391)*0.391*(1-0.391)= -0.093 2 = k=0..M-1pkWkjOpj(1-Opj) = (-0.093)*0.2*0.6*(1-0.6) = -0.004 3 = (-0.093)*(-0.3)*0.55*(1-0.55) = 0.007

다층 퍼셉트론 Wkj(t+1) = Wkj(t) + pkOpj Wji(t+1) = Wji(t) + pjOpi W24 = 0.2 + 0.3*(-0.004)*1 = 0.2 – 0.001 = 0.199 W25 = 0.3 + 0.3*(-0.004)*1 = 0.3 – 0.001 = 0.299 W34 = -0.1 + 0.3*0.007*1 = 0.1 + 0.002 = -0.098 W35 = 0.1 + 0.3*0.007*1 = 0.1 + 0.002 = 0.102

다층 퍼셉트론 예제 9.5: y = 0.5(cos(8x) + sin(4x) –x + 0.8) 인 시스템 입력 값을 0.1에서 0.95까지 변화 시키면서 출력 관측 후 얻어진 데이터 이용하여 퍼셉트론 학습 Internal layer에 6개의 뉴론을 배치 학습된 퍼셉트론이 위의 함수와 같은 행동을 보이는지 조사 그림 9.14: (a) 1000회 (d) 20000회 Function approximation

다층 퍼셉트론 예제 9.5: y = 0.5(cos(8x) + sin(4x) –x + 0.8) 인 시스템 (계속) 20000번 반복 후 얻어진 퍼셉트론: 그림 9.15 학습에 사용 안된 0.23을 입력: 0.547 출력  실제 함수값=0.55

다중 퍼셉트론 특징 오류역전파 (error backpropagation) 개념 문제점 실수 데이터 학습 학습에 사용되지 않은 데이터에도 근사값 출력 오류역전파 (error backpropagation) 개념 은닉층의 학습을 위해 출력층에서 발생한 오류를 이용하여 은닉층 오차계산 다시 이 값을 입력층으로 역전파시켜 출력층의 오차가 원하는 수준이 될 때까지 반복 문제점 결과 해가 최적 보장 안됨 Local optimum vs. global optimum 이유: 경사하강 추적 (그림 9.16)

다층 퍼셉트론 실제 적용시 고려사항 지도학습에서 효율성 나타냄 → 보편적으로 많이 사용 문제점 (계속) 신경망 구조에 대한 기준 없음 몇 개의 은닉층, 은닉층에서 몇 개의 뉴런 너무 적으면  학습 능력 떨어짐 너무 많으면  학습 시간 오래 걸림; overfitting 문제 초기 가중치 문제 학습률 데이터의 개수 상위층의 목표값과 실제 출력값 간의 오류를 하위층으로 역전파시키는 것은 생물학적으로 타당하지 않음 (목표를 알지 못함) 오류 수렴까지 많은 회수의 학습 반복 실제 적용시 고려사항 최소평균제곱 비용함수의 국부 최적해를 위해 뉴런수를 증가 이득항(, )을 낮출 필요 있음 초기 가중치를 다르게 하여 여러 번 학습하는 방법 지도학습에서 효율성 나타냄 → 보편적으로 많이 사용

Summary 개요 Biological Motivation 역사 정의 및 특징 종류 Hopfield NN Perceptron 경쟁 학습 Self Organizing Map ART NN 응용