Multiple features Linear Regression with multiple variables (다변량 선형회귀)

Slides:



Advertisements
Similar presentations
Classroom English How do you say _________ in Korean? _________ 는 한국어로 뭐예요 ?
Advertisements

실험 8. Cyclic Voltammetry - 7 조 : 한지영, 이호연, 최은진, 최효린 -
문화에 관련된 다양한 인터넷 자료를 활용한 영어 학습 지도 - 타문화에 대한 이해와 자국 문화 소개를 통한 말하기 능력 신장 방안 2002 교수학습 경진대회 안산공고 김수경.
한국사회의 성문화 팀원: 안종진 한승엽 남근호 김지수 안진석.
Master Thesis Progress
2-4.세계속의 우리 경제.
Lecture 9 프로그램 실행의 비용 computation cost – 시간 time, 메모리 memory – tractable vs intractable problems.
Regularization 과적합(overfitting) 문제 Machine Learning.
Training Neural Networks
Machine Learning to Deep Learning_2
6.9 Redundant Structures and the Unit Load Method
Neural Network - Perceptron
Chapter 5. Q-LEARNING & DEEP SARSA
정 의 학습의 일반적 정의 기계학습(Machine Learning)의 정의
변화 하는 세계 무역 환경 (p.144~147) 5303김민영.
REINFORCEMENT LEARNING
7장 : 캐시와 메모리.
EPS Based Motion Recognition algorithm Comparison
Multimedia Programming 06: Point Processing3
Word2Vec Tutorial 박 영택 숭실대학교.
Strategic Advertising Planning 전략적 광고기획 H B J.
CHAPTER 21 UNIVARIATE STATISTICS
Genetic Algorithm 신희성.
Internet Computing KUT Youn-Hee Han
3D Vision Lecture 7 동작 이해 (광류).
제 3 장 신경회로망 (Neural Networks)
5. 비제약 최적설계의 수치해법 (Numerical Methods for Unconstrained Optimum Design)
숭실대학교 마이닝연구실 김완섭 2009년 2월 8일 아이디어  - 상관분석에 대한 연구
영어 퀴즈대회(예선) 총 10문제입니다.
Developmental Screening
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
논문을 위한 통계 논문과 통계의 기초 개념 하성욱 한성대학교 대학원.
4-1 Gaussian Distribution
Parallel software Lab. 박 창 규
PCA Lecture 9 주성분 분석 (PCA)
2.1 재배정 재배정요구등록 재배정승인취소 재배정부서연결 재배정단위업무연결
7. Korea in the World One more step, DIY reading 영어 8-b단계
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
9. Do you have a scientific mind?
과거사 청산, 밝은 미래를 위하여 역사 청산 비교 분석-독일과 우리나라.
Inferences concerning two populations and paired comparisons
★ Lesson 9 Four Seasons in One Day? (8/8)
사회복지조사론 강의마무리 사회복지연구 다지선생 이정은.
Progress Seminar 신희안.
약속 November 9th, 2012.
Read and Think 영어 8-a단계 A Story of Two Seeds(3/8) [제작의도] [활용방법]
: 부정(negative)의 의미를 나타내는 접두사
The normal distribution (정규분포)
Operating System Multiple Access Chatting Program using Multithread
이산수학(Discrete Mathematics) 비둘기 집 원리 (The Pigeonhole Principle)
이산수학(Discrete Mathematics)
평생 간직할 멋진 말 Excellent thought applicable through our whole life
3장 인터넷 마케팅의 개념 및 특징.
성립전예산 요구등록 (사업담당자) 사업관리카드 1 2
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
점화와 응용 (Recurrence and Its Applications)
CHAPTER 05 프로세스 및 프로그램 설계.
사례 연구.
다문화 사회의 이해 배 상 훈 . 1. 한국사회의 다문화현상 2. 원인과 정책으로 살펴본 다문화 한국사회.
대한민국-스웨덴 수교 60주년 기념 행사 주 스웨덴 대한민국 대사관 (토)
청소년 댄스 경연대회 제35회 문화체육관광부장관大賞 전국레크리에이션대회
Can Automatic Calculating Machines Be Said To Think?’
Hongik Univ. Software Engineering Laboratory Jin Hyub Lee
Speaking -첫 번째 강의 ( Part 1 유형별분석) RACHEL 선생님
경사 식각을 이용한 폴리머 광 스위치 2층 배선 기술
Traditional Methods – Part 1
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Model representation Linear regression with one variable
스톤 테라피 과목:뷰티 테라피 뷰티 디자인과 황선아,손희정.
Speaking -여섯 번째 강의 (Review ) RACHEL 선생님
Presentation transcript:

Multiple features Linear Regression with multiple variables (다변량 선형회귀) Machine Learning

다수의 특징들 (변수: variables). Size (feet2) Price ($1000) 2104 460 1416 232 1534 315 852 178 …

Multiple features (variables). Size (feet2) Number of bedrooms Number of floors Age of home (years) Price ($1000) 2104 5 1 45 460 1416 3 2 40 232 1534 30 315 852 36 178 … Notation: = number of features = input (features) of training example. = value of feature in training example. Pop-up Quiz

Hypothesis: Previously:

For convenience of notation, define . Multivariate linear regression.

Gradient descent for multiple variables Linear Regression with multiple variables Gradient descent for multiple variables Machine Learning

Hypothesis: Parameters: Cost function: Gradient descent: Repeat (simultaneously update for every ) Repeat Gradient descent:

Gradient Descent New algorithm : Repeat Previously (n=1): Repeat (simultaneously update for ) (simultaneously update )

Gradient descent in practice I: Feature Scaling Linear Regression with multiple variables Gradient descent in practice I: Feature Scaling Machine Learning

Idea: 특징들이 유사한 스케일이 되게 하는 것. Feature Scaling Idea: 특징들이 유사한 스케일이 되게 하는 것. E.g. = size (0-2000 feet2) = number of bedrooms (1-5) size (feet2) number of bedrooms

특징 크기조정(Feature Scaling) 모든 특징들이 대략적으로 구간이 되게 ..

평균 정규화(Mean normalization) 를 로 교체 <= 특징들의 평균이 대략적으로 0 이 되도록 (Do not apply to ). E.g.

Gradient descent in practice II: Learning rate Linear Regression with multiple variables Gradient descent in practice II: Learning rate Machine Learning

“Debugging”: 어떻게 경사하강을 제대로 작동되게 할 수 있나 Gradient descent “Debugging”: 어떻게 경사하강을 제대로 작동되게 할 수 있나 학습률 를 어떻게 선택하는가? .

Making sure gradient descent is working correctly. Example automatic convergence test: Declare convergence if decreases by less than in one iteration. No. of iterations

Making sure gradient descent is working correctly. Gradient descent not working. Use smaller . No. of iterations No. of iterations No. of iterations For sufficiently small , should decrease on every iteration. But if is too small, gradient descent can be slow to converge.

Summary: 가 너무 작으면: 천천히 수렴. 가 너무 크면 : 가 반복 때마다 감소하지 않을 수 있고; 수렴 안할 수도 있다. To choose , try

Features and polynomial regression Linear Regression with multiple variables Features and polynomial regression Machine Learning

집 값 예측(Housing prices prediction)

다항식 회귀(Polynomial regression) Price (y) Size (x)

특징 선택(Choice of features) Price (y) Size (x)

정규방정식 (Normal equation) Linear Regression with multiple variables 정규방정식 (Normal equation) Machine Learning

Gradient Descent Normal equation: 를 해석적으로(analytically) 푸는 방법.

Intuition: If 1D (for every ) Solve for

Examples: Size (feet2) Number of bedrooms Number of floors Age of home (years) Price ($1000) 1 2104 5 45 460 1416 3 2 40 232 1534 30 315 852 36 178 Size (feet2) Number of bedrooms Number of floors Age of home (years) Price ($1000) 2104 5 1 45 460 1416 3 2 40 232 1534 30 315 852 36 178 Pop-up Quiz

examples ; features. E.g. If

is inverse of matrix . Octave: pinv(X’*X)*X’*y

training examples, features. Gradient Descent Normal Equation Need to choose . Needs many iterations. No need to choose . Don’t need to iterate. Works well even when is large. Need to compute Slow if is very large.

Normal equation and non-invertibility (optional) Linear Regression with multiple variables Normal equation and non-invertibility (optional) Machine Learning

What if is non-invertible? (singular/ degenerate) Normal equation What if is non-invertible? (singular/ degenerate) Octave: pinv(X’*X)*X’*y

What if is non-invertible? Redundant features (linearly dependent). E.g. size in feet2 size in m2 Too many features (e.g. ). Delete some features, or use regularization.