Model representation Linear regression with one variable

Slides:



Advertisements
Similar presentations
시모노세키 및 하카타 (CJ, YS) 실제수출비용 비교분석표 시모노세키 및 하카타 (CJ, YS) 실제수출비용 비교분석표 ㈜케이로즈 사무국.
Advertisements

Ck601-note10. 정수계획법의 필요성  선형계획법은 분할성의 가정을 두고 있다. 즉 모든 결정 변수는 제약조건을 충족하고 음수가 아닌 한 어떠한 값 도 가질 수 있다는 전제를 두고 있다.  항공회사에서 여객기 구매계획을 위한 모형의 최적해가 B747 을 1.
The H, J & L Company For your Feet & Shoes.
원가관리회계Ⅱ 중간고사 대비 특강.
Ⅰ 원가회계의 개념.
Introduction of Deep Learning
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
Multiple features Linear Regression with multiple variables (다변량 선형회귀)
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
서초동 00공동주택신축공사 ㈜ 천 지 수 성.
아하! 청소년의 성교육은 이렇게!.
판별분석의 개념과 적용(→ 추계통계적 성격)
REC 가격예측 분석 발표자: 김주철.
Chapter 5. Q-LEARNING & DEEP SARSA
REINFORCEMENT LEARNING
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
실습 (using SPSS) Department of Biostatistics, Samsung Biomedical Research Institute Samsung Medical Center.
단순(선형)회귀분석.
목표 구성 의료분야에서 사용되는 운영관리 개념과 계량적 분석기법 이해
과학기술 발전의 형태와 특성 최 영 락 고 려 대 학 교.
Technological Forecasting & social change(2014)
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
5. 비제약 최적설계의 수치해법 (Numerical Methods for Unconstrained Optimum Design)
출석수업 강의교안 경영분석.
머신 러닝 2 ㈜ 퀀트랩.
Machine Learning to Deep Learning
개요 신경회로망(Neural Networks)
성탄절을 향한 길에서.
기업경영분석기법.
올바른 이메일 사용법
Parallel software Lab. 박 창 규
AI 전문 인력 양성 교육 교육명 : Embedded Deep Learning (CNN을 이용한 영상인식)
1. 세포의 구조와 기능 (1) 식물 세포 와 동물 세포 조영희
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
Tensorboard Lecture 데이터 마이닝 최 현영 컴퓨터학부.
딥러닝의 개념들.
Ch06_인공 신경망.
개 념 개요 지능을 가진 객체의 특징 컴퓨터에게 지능 부여 학습의 일반적 정의 새로운 환경에 적응
기업회생 절차.
2. 윤리학의 원리와 적용 가. 상대주의와 절대주의.
사회복지사무소 시범사업 안내 보 건 복 지 부
전판점 유니폼 상세페이지 4월 2째주부터 판매 예정 하나투어 전판점 유니폼 색 상 : 와인 소 재 : 폴리 100%
데이터 사이언스 실무 시계열 분석 기초 유재명.
시공 계획 및 계약 관리.
제 10장 인터넷 소비자 비용.
3장 인터넷 마케팅의 개념 및 특징.
地方自治團體의 財政 < 地方自治團體의 財政 > 1. 意義
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
COCO & JAMES DKU.SOWFTWARE.COCO DKU.SOWFTWARE.JAMES.
Neural Networks & Deep Learning
▶ 평생교육 기획과 운영 평생교육 프로그램 설계 및 실행 평생교육 프로그램 설계 및 실행 평생교육사 교육과정.
제3장 사회조사방법의 기본개념 변수(variable): 사람, 물건, 사건 등의 특성이나 속성이 두 가지 이상의 가치(value)를 가질 때 변수라고 함. 즉 상호배타적인 속성들의 집합 1) 속성에 따른 분류 -. 명목변수(Nominal Variable): 분류에 기초를.
성전기공식(안) 식 순 1. 기공미사 2. 기 공 식 3. 축 하 연 천주교 수원교구 퇴촌성당.
제9주 예산 수립과 집행.
김진승 한국물리학회 교육위원장, 전북대학교 물리학과
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #23)
토론의 기술 3 쟁점분석과 입론.
Progress Seminar 선석규.
제 5 장 의사결정지원시스템 : 모델.
Progress Seminar 신희안.
[ 딥러닝 기초 입문 ] 2. 통계적이 아니라 시행착오적 회귀분석 by Tensorflow - Tensorflow를 사용하는 이유, 신경망 구조 -
Problem Based Learning
Traditional Methods – Part 1
제3장 선교 구역.반장학교 제1단계.
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Presentation transcript:

Model representation Linear regression with one variable Machine Learning

집 가격 (Portland, OR) 가격 (in 1000s of dollars) 크기 (feet2) 감독학습(Supervised Learning) 자료의 “정확한 답"이 각 예들에 대해 주어진 회귀문제(Regression Problem) 실수-값을 갖는 출력을 예측

집 가격의 훈련 집합 (Portland, OR) Size in feet2 (x) Price ($) in 1000's (y) 2104 460 1416 232 1534 315 852 178 … 기호: m = 훈련자료의 갯수 x’s = “입력” 변수 / 특징(features) y’s = “출력” 변수 / “목적(target)” 변수

훈련자료집합 학습 알고리즘 h 우리는 h 를 어떻게 표현하는가? 추정 가격 집 크기 변수가 하나인 선형회귀. 단변량 선형회귀 (Univariate linear regression)

Linear regression with one variable Cost function Machine Learning

‘s : 파라메타(Parameters) 는 어떻게 선택하는가 ? 훈련자료 가설(Hypothesis): Size in feet2 (x) Price ($) in 1000's (y) 2104 460 1416 232 1534 315 852 178 … 가설(Hypothesis): ‘s : 파라메타(Parameters) 는 어떻게 선택하는가 ?

y x 생각: 이 우리의 훈련자료 에 대한 에 가깝도록 를 선택한다.

Cost function intuition I Linear regression with one variable Cost function intuition I Machine Learning

간략화 가설: 파라메타: 비용함수 : 목적:

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 ) y x

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 ) y x

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 ) y x

Cost function intuition II Linear regression with one variable Cost function intuition II Machine Learning

Hypothesis(가설): 파라메타: 비용함수: 목적:

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 ) Price ($) in 1000’s Size in feet2 (x)

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 )

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 )

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 )

(고정된 에 대하여, 이것은 x의 함수) (파라메타 의 함수 )

Linear regression with one variable Gradient descent Machine Learning

어떤 함수 를 가지고 를 원한다 Outline: 어떤 로 시작한다. 최소값에 도달할 때까지, 가 감소하도록 를 계속 변화시킨다

J(0,1) 1 0

J(0,1) 1 0

Gradient descent algorithm Correct: Simultaneous update Incorrect:

Gradient descent intuition Linear regression with one variable Gradient descent intuition Machine Learning

경사하강(Gradient descent) algorithm

α 가 너무 작으면, 경사하강이 느릴 수 있다. α 가 너무 크면, 경사하강은 최소점을 지나칠 수 있다. 수렴에 실패하거나, 심지어는 발산할 수 있다.

at local optima Current value of

경사하강은 학습률 α 가 고정된 상태로도, 국지적 최소점으로 수렴할 수 있다. 우리가 국지적 최소값에 접근함에 따라서, 경사하강은 자동적으로 더 작은 단계를 취한다. 따라서, 시간에 따라서 α 를 줄일 필요가 없다.

Gradient descent for linear regression Linear regression with one variable Gradient descent for linear regression Machine Learning

Gradient descent algorithm Linear Regression Model

Gradient descent algorithm 과 를 동시에 갱신

J(0,1) 1 0

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

(for fixed , this is a function of x) (function of the parameters )

“Batch”: 경사강하의 각 단계마다 모든 훈련자료를 사용한다.