인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron

Slides:



Advertisements
Similar presentations
수학 7- 가 문자와 식 > 일차방정식의 풀이 > 교과서 p.111 일차방정식의 활용 수업계획수업활동.
Advertisements

어떻게 성경을 읽느냐 ?.  39+27=66 ( 삼구 이십칠 )  역사서 (17 권 )  시가서 (5 권 ): 욥기시편잠언전도서아가  선지서 (17 권 )
3 학년 문제가 남느냐, 내가 남느냐 1. ( 아씨방 일곱 동무 ) 아씨의 방에는 바느질을 위한 친구가 몇 명이 있었나요 ? 정답은 ? 일곱.
 수학 10- 나  1 학년 2 학기  Ⅰ. 도형의 방정식 1. 평면좌표 (1/24) 두 점 사이의 거리 수업 계획 수업 활동.
수학과 김 지하 제 5 장 문제해결의 지도 5.1 문제와 문제해결의 정의.
2 Ⅰ Ⅱ Ⅲ 3 Ⅰ 4 1. 추진배경 2. 사업의 정의 3. 사업의 범위 4. 개선방향.
인공지능과 예술 <PUBLIC ART 5월호> 뇌 과학자 김대식
과학 태양계의 형성.
Introduction of Deep Learning
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Multiple features Linear Regression with multiple variables (다변량 선형회귀)
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
확률변수의 기대값, 분산 등.
MIS Report 2 제출일: 2008년 11월 04일 과목명: 경영정보시스템 교수명: 이 건창 교수님 성 명:조재선.
BP 윤리실천서약서 공급하는 자(이하 “[당사/본인]”)은, 귀사와의 거래(현재 진행 중인 거래 및 장래 귀사와 체결하는 계약에 따라 진행되는 모든 거래를 포함함. 이하 동일함)와 관련하여 발생하는 비윤리 행위 및 그에 따른 책임에 대하여 아래와 같이 서약합니다. ****
정밀 입자 가공.
쌍둥이의 탄생 제주 아라중 영재학급 1학년 강나연.
Chapter 5. Q-LEARNING & DEEP SARSA
Computer System Architecture
데이터마이닝 데이터마이닝.
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
제4장 자연언어처리, 인공지능, 기계학습.
1장. 인공 지능 개론 인공 지능(Artificial Intelligence: AI)이란 무엇일까?
3.2 구조 및 기능 예측 part 1 (Prediction of Structures and Functions)
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
9. 기계학습.
뉴로 컴퓨터 개론 제 1 장 충 북 대 학 교 오 창 석.
Machine Learning to Deep Learning
개요 신경회로망(Neural Networks)
수학8가 대한 119~123 쪽 Ⅴ. 부등식 탐구하는 수학, 연습문제, 끝내기 전에 (10/10) 일차부등식문제.
부산 워크인 센터 1월 트레이닝 룸 일정 일 월 화 수 목 금 토 신정 [트레이닝] 11시-1시, 최희목 [팀트레이닝]
Data Mining Final Project
Sequence Logic.
생명과학Ⅰ.
[15984] 딥 러닝 기술 및 응용 University of Science and Technology
수학8가 대한 92~95 쪽 Ⅳ. 연립방정식 1. 연립방정식과 그 풀이 및 활용 >끝내기전에(9/9) 끝내기 전에.
3장. 다층 퍼셉트론.
딥러닝의 개념들.
Ch06_인공 신경망.
연립방정식 활용 수학8가 대한 87~89 쪽 Ⅳ. 연립방정식
뉴로 컴퓨터 개론 제 6 장.
정보처리학회논문지 B 제10-B권 제1호(2003.2) 김만선, 이상용
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
Ch13_ 신경 세포 모델링 : 인공 신경망.
여행사 오픈 절차 순서 목 차 여행사 설립 기본 절차 여행사 종류별 자본금 규모 여행 업 창업과 제한 조건
인공신경망 실제 적용사례 및 가상사례 조사.
선천이상 (congenital anomalies)
정의역, 공역, 치역 수학 7-가 함수 > 함수의 뜻 > 5-6/14 수업계획 수업활동 [제작의도]
수학8가 대한 108~110 쪽 Ⅴ. 부등식 2. 일차부등식 §1.일차부등식의 풀이(5/10) 일차부등식의 풀이.
제약이 없는 비선형계획모형 등식제약하의 비선형계획모형 부등식제약하의 비선형계획모형 secom.hanabt.ac.kr
신경회로망 Perceptron 알고리즘 윤병국 양락준 양영준.
수학 2 학년 1 학기 문자와 식 > 부 등 식 ( 2 / 2 ) 부등식의 성질 이용 풀기.
퍼지 시스템 (요약).
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #23)
초파리.
신경망 (Neural Networks) (Lecture Note #22)
제 2장 인체의 구조와 성장〮발달.
Progress Seminar 선석규.
1-3 함수의 그래프.
진리표 진리조건 진리함수의 수  ∧ ∨ → ↔  =.
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
Deep Learning Basics Junghwan Goh (Kyung Hee University)
아프타성 구내염- 환자 교육용.
Model representation Linear regression with one variable
Presentation transcript:

인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron Multilayer Perceptron Boltman machine 등

퍼셉트론(Perceptron): 가장 간단한 신경망 1957년 Rosenblatt가 제안한 모델로써, 생물의 신경 전달 조직인 시냅스를 수학적으로 모델링한 신경망의 초기 형태 현재의 패턴 인식, 신경 전달 과정의 구조적 이론 등에 많은 영향을 주었다.

퍼셉트론(Perceptron): 가장 간단한 신경망 뉴런neuron 가중치weight 활성화 함수activation function

임계치를 반영한 활성화 함수

퍼셉트론의 동작 방식 예시 입력 벡터 x = [1 2], 웨이트 w = [1 1], 임계치(T)가 2

퍼셉트론의 간단한 응용 논리 회로logic circuits에서 사용하는 AND 게이트

퍼셉트론의 원리 및 의미: 선형 분리 linearly separable 함수 x1w1 + x2w2-T > 0 x1=x, x2=y, w1=a, w2=b, -T=c라고 바꾸면 ax + by + c > 0

XOR 문제

퍼셉트론 학습 방법 인공 신경망의 학습은 웨이트의 학습 퍼셉트론의 웨이트를 어떻게 설정할 수 있을까? 어떻게 웨이트 벡터를 설정할 수 있을까? 1957년 Rosenblatt가 제안한 방법 초 기 웨이트는 임의의 값 목표치와 퍼셉트론의 실제 출력의 차이 즉, 오차를 반복적인 웨이트 수정에 반영 퍼셉트론의 웨이트 학습은 각 입력에 대한 신경망의 출력값의 오류를 최소화하는 것을 목표

퍼셉트론 학습 방법 신경망의 출력값: y = w ∙ x 목표 출력값: d 오차: r = d - y 학습률(learning rate): α 학습 반복 횟수: t 샘플의 개수: s

활성화 함수 시그모이드sigmoid 함수

다층 퍼셉트론(Multi-Layer Perceptron: MLP) 1969년에 Minsky와 Papert의 퍼셉트론의 선형 분기성에 대한 단점 제기 신경 망의 연구는 암흑기를 맞게 된다. 퍼셉트론은 기본적으로 문제 공간의 선형 분리만 가능하기 때문에, XOR 문제와 같은 비선형non-linear 분리를 위해서는 지금부터 소 개될 다층 퍼셉트론Multi-Layer Perceptron을 사용한다.

다층 퍼셉트론 예

다층 퍼셉트론의 개념

MLP 학습 방법: 역전파(Back-Propagation: BP) 알고리즘

숫자 인식 신경망 예제