패턴인식 개론 Ch.12 선형 판별 분석법 (LDA).

Slides:



Advertisements
Similar presentations
1. 2 차원 배열  배열은 동일한 데이터 유형으로 여러 개의 변수를 사용할 경우 같은 이 름으로 지정하여 간편하게 사용할 수 있도록 하는 것으로서 앞에서 1 차원 배열을 공부하였습니다.  2 차원 배열은 바둑판을 생각하면 되며, 1 차원 배열에서 사용하는 첨자를 2.
Advertisements

수치해석 (Numerical Analysis) 보간법 (Interpolation). Page 2 보간법 (Interpolation) In this chapter … 보간법이란 ? 통계적 혹은 실험적으로 구해진 데이터들 (x i ) 로부터, 주어진 데이터를 만족하는 근사.
제3장제3장 제3장제3장 이산균등분포  확률질량함수 :  평균 :  분산 : 공정한 주사위를 한 번 던지는 경우 나온 눈의 수를 확률변수 : X 확률질량함수 : 평균 : 분산 :
Add Your Text 5. 지수함수와 로그함수 1. 지수함수 2. 로그함수 · 지수함수와 그 그래프 · 지수방정식과 지수부등식 · 로그 함수와 그 그래프 · 로그방정식과 로그부등식.
출석수업 과제 – 총 5문제, 10월 25일 제출 정보통계학과 장영재 교수.
예비보고서1 : 8개의 푸시버튼 스위치가 있다. 이 스위치에 각각 0~7개까지의 번호를 부여하였다고 하자
Report #5 - due: 4/13 다음 10*5의 희소 행렬 A, B를 고려하라.
수치해석 6장 예제문제 환경공학과 천대길.
Report #2 - Solution 문제 #1: 다음과 같이 프로그램을 작성하라.
사원수 (Quaternion)
패턴인식 개론 Ch.3 선형 대수학 - 벡터와 행렬.
Windows Server 장. 사고를 대비한 데이터 백업.
Chapter 13 Wired LANs: Ethernet.
NLP Lab. 세미나 발표자:이주호 2007년 7월 18일 수요일
질의 사항 Yield Criteria (1) 소재가 평면응력상태에 놓였을 때(σ3=0), 최대전단응력조건과 전단변형에너지 조건은σ1 – σ2 평면에서 각각 어떤 식으로 표시되는가? (2) σ1 =σ2인 등이축인장에서 σ = Kεn로 주어지는 재료의 네킹시 변형율을 구하라.
11장. 포인터 01_ 포인터의 기본 02_ 포인터와 Const.
SqlParameter 클래스 선문 비트 18기 발표자 : 박성한.
멀티미디어 시스템 (아날로그 이미지,신호를 디지털로 변환 방법) 이름 : 김대진 학번 :
비선형 방정식 김영광.
CH 4. 확률변수와 확률분포 4.1 확률 확률실험 (Random Experiment, 시행, Trial) : 결과를 확률적으로 예측 가능, 똑 같은 조건에서 반복 근원사상 (Elementary Event, e) : 시행 때 마다 나타날 수 있는 결과 표본공간.
9장. 특징 선택 오일석, 패턴인식, 교보문고, © 오일석, 전북대학교 컴퓨터공학.
Ⅲ. 이 차 방 정 식 1. 이차방정식과 그 풀이 2. 근 의 공 식.
C 프로그래밍 C언어 (CSE2035) (Chap11. Derived types-enumerated, structure, and union) (1-1) Sungwook Kim Sogang University Seoul, Korea Tel:
빅데이터 연구회 6주차 발표 주제 : 서포트 벡터 머신 통계학과 서태석.
자바 5.0 프로그래밍.
프로그래밍 개요
군집 분석.
벡터의 공간 이문현.
Report #3 - due: 4/6 100*100의 2개의 희소 행렬 A, B를 전달 받아서 이들의 덧셈을 구하고, 그 결과의 행렬 C를 반환하는 add_sparse_matrix(A, B, C)를 다음과 같이 작성하라. 희소 행렬은 sparse_matrix 타입으로 표현된다.
Quiz #7 다음 수들을 합병 정렬과 퀵 정렬 알고리즘을 이용하여 오름 차순으로 정렬하였을 때, 데이터 이동 회수를 각각 구하라. 여러분은 정렬 과정을 단계별로 보이면서 이동 회수를 추적해야 한다. 단, 퀵 정렬시에 피봇으로 배열의 왼쪽 첫 번째 원소를 선택한다. 5.
뇌를 자극하는 Windows Server 2012 R2
Term Projects 다음에 주어진 2개중에서 한 개를 선택하여 문제를 해결하시오. 기한: 중간 보고서: 5/30 (5)
Computer Vision & Pattern Recognition Lab. 위 은 영 (월)
두 모집단에 대한 검정.
Fitting / Matrix / Excel
5강. 배열 배열이란? 배열의 문법 변수와 같이 이해하는 배열의 메모리 구조의 이해 레퍼런스의 이해 다차원 배열
9강. 클래스 실전 학사 관리 프로그램 만들기 프로그래밍이란 결국 데이터를 효율적으로 관리하기 위한 공구
보고서 #7 (기한: 6/2) 2개의 스택, stk1, stk2를 이용하여 큐를 구현하라.
객체기반 SW설계 팀활동지 4.
미분방정식.
Week 3-2: 데이터분포 3_2장_1(백분율:Percentile)에서 동영상 1,2
Excel 일차 강사 : 박영민.
01 로그의 정의 ⑴ 일 때, 양수 에 대하여 을 만족시키는 실수 는 오직 하나 존재한다. 이때 를
알고리즘 알고리즘이란 무엇인가?.
약식 진리표를 이용한 타당성 증명 진리표 그리기 방법의 한계
문서 클러스터링 일본언어문화학과 서동진.
Chapter 1 단위, 물리량, 벡터.
DA :: 퀵 정렬 Quick Sort 퀵 정렬은 비교방식의 정렬 중 가장 빠른 정렬방법이다.
Word2Vec.
Word Embedding.
Support Vector Machine
원의 방정식 원의 방정식 x축, y축에 접하는 원의 방정식 두 원의 위치 관계 공통접선 원과 직선의 위치 관계
Chapter 1 단위, 물리량, 벡터.
Flow Diagram IV While.
중복 멤버의 처리 조 병 규 한 국 교 통 대 학 교 SQ Lab..
11장 배열 1. 배열이란? 1.1 배열의 개요 1.2 배열의 선언과 사용.
발표자 : 이지연 Programming Systems Lab.
상관계수.
통계학 R을 이용한 분석 제 2 장 자료의 정리.
Static과 const 선언 조 병 규 한 국 교 통 대 학 교 SQ Lab..
수치해석 ch3 환경공학과 김지숙.
DNA Implementation of Version Space Learning
2014년 가을학기 손시운 지도 교수: 문양세 교수님 행렬과 배열 2014년 가을학기 손시운 지도 교수: 문양세 교수님.
9장. spss statistics 20의 데이터 변수계산
 6장. SQL 쿼리.
버스와 메모리 전송 버스 시스템 레지스터와 레지스터들 사이의 정보 전송을 위한 경로
교착 상태 해결 : 교착 상태 탐지 교착 상태 탐지(Deadlock Detection)
문제의 답안 잘 생각해 보시기 바랍니다..
: 3차원에서 입자의 운동 방정식 제일 간단한 경우는 위치만의 함수 : 시간, 위치, 위치의 시간미분 의 함수
Ch8.기본적인 RL, RC 회로 자연응답, 강제응답, 시정수, 계단입력과 스위치 회로
Presentation transcript:

패턴인식 개론 Ch.12 선형 판별 분석법 (LDA)

선형판별분석에 의한 차원 축소 주성분 분석법(PCA)은 데이터의 최적 표현의 견지에서 데이터를 축소하는 방법인데 반하여 선형판별 분석법(LDA)은 데이터의 최적 분류의 견지에서 데이터를 축소하는 방법이라고 할 수 있다.  (목적) 가능한 클래스간의 분별 정보를 최대한 유지시키면서 차원을 축소시키는 것 D-차원 표본 데이터 집합 X={x(1, x(2,..., x(N} 가 주어진 경우, ω1 클래스에 속하는 것이 N1개 이고, ω2 클래스에 속하는 것이 N2개 일 때, x를 임의의 선을 따라서 사영하여 스칼라 y를 얻고자 한다. 가능한 모든 선들 중에서 이러한 스칼라 값들의 분리를 최대화하는 것을 선택한다. (2차원의 경우를 예를 들면 다음과 같다.)

선형판별분석법이란? 크다  ---------------------------  작다 선형판별분석법(LDA)은 특징 공간상에서 클래스 분리를 최대화하는 주축으로 사상시켜 선형 부공간으로 차원을 축소하는 방법. 선형판별분석법(LDA)에서는 클래스간 분산(between-class scatter)과 클래스내 분산(within-class scatter) 의 비율을 최대화하는 방식으로 데이터에 대한 특징 벡터의 차원을 축소한다. 판별하기 용이한 분포 판별하기 어려운 분포 클래스간 분산 (between-class Scatter) 크다  ---------------------------  작다 클래스내 분산 (within-class Scatter)

선형판별분석법이란?

2진 분류에 적용된 LDA 어느 사영을 취하는 것이 좋을 것인가?  좋은 사영을 찾기 위해서는 사영들 간의 분리 정도를 측정할 수 있어야 한다. 선형변환에 의한 사영  평균을 기준 척도로 하면, 각 클래스들의 x 와 y 에서의 평균백터는 다음과 같다. 사영된 데이터들의 중심(평균)간의 거리를 목적 함수로 선택하면, 평균만을 고려하면, 클래스 안에서의 표준편차가 고려되지 않으므로 좋은 척도가 아니다.

2진 분류에 적용된 LDA Fisher 에 의해서 제안된 방법은 클래스내(within-class)의 스캐터로 정규화한 평균들 간의 차이로 표현된 함수를 최대화시키는 것이다. 각 클래스들에 대하여 스캐터 (공분산과 같은 개념)는 다음과 같이 주어지며 사영 표본들의 클래스내 분산(within-class scatter)  Fisher의 선형판별은 다음의 목적함수를 최대화 하는 선형함수 wTx 에 해당한다. 최대 최소 따라서, Fisher의 선형판별식은 동일한 클래스의 표본들은 인접하게 사영이 취해지고, 동시에 클래스 간의 사영은 중심이 가능한 멀리 떨어지게 하는 변환행렬(w)를 찾아내는 것이다. 어떻게 변환행렬(w)에 대한 함수로 표현되는 위의 목적함수 J(w)를 최대화하는 변환 행렬 w을 찾을 것인가?

Fisher’s Linear Discriminant 최적의 사영 w 를 구하기 위해서는 J(w) 를 w 에 대한 함수로 표현해야 한다. 다차원 특징 공간에서 스캐터(scatter) 행렬은 사영 상에서 분산과 동일한 형태 클래스내 스캐터(within-class scatter) 행렬  사영된 y의 스캐터를 특징벡터 x의 스캐터 행렬의 함수로 다음과 같이 표현된다. 따라서

Fisher’s Linear Discriminant 마찬가지로 사영된 평균들의 간의 차이 (분산)를 원래의 특징공간에서의 평균들 간의 차이 (분산)으로 다음과 같이 동일한 형태로 표현된다. 클래스간 스캐터(between-class scatter) 행렬 SB 와 SW로 표현된 Fisher의 기준  이 목적함수를 최대로 하는 변환행렬 w 를 어떻게 찾을 것인가? dJ(w)/dw = 0 J(w)의 최대값을 찾기 위해서는 w 에 대하여 미분한 식을 0 으로 놓고, 이를 만족하는 w 를 구하면 된다. J(w) w

Fisher’s Linear Discriminant J(w) 의 최대값을 찾기 위해서는 w 에 대하여 미분한 식을 0으로 놓고, 이를 만족하는 w 를 구하면 된다. 로 나누고 2 를 제거하면,

Fisher’s Linear Discriminant 일반화한 고유값 문제 ( )의 또 다른 해법으로 는 같은 방향의 벡터이므로 Ronald Aylmer Fisher (1890-1962) 벡터 w 의 크기는 중요하지 않으므로 이를 무시하면  Fisher's Linear Discriminant(1936)

LDA Example 다음의 2차원 데이타에 대한 선형판별사영을 구하라. X1 = (x1,x2) = {(4,1),(2,4),(2,3),(3,6),(4,4)} X2 = (x1,x2) = {(9,10),(6,8),(9,5),(8,7),(10,8)} Solution : 클래스들의 분산 및 평균 클래스간의 분산과 클래스내의 분산은 각간 다음과 같다. 일반화된 고유값 문제의 해로 LDA 사영을 구하면 또는 직접

C-클래스 분류에 적용된 LDA Fisher의 LDA는 C-클래스 문제로 자연스럽게 일반화 될 수 있다. y 로의 단일 사영 대신에, (C-1)개의 사영벡터 wi 에 의한 (C-1) 개의 사영 [y1,y2,...,yc-1]을 구하게 되며, 이때의 사영벡터들은 사영행렬 W=[w1|w2|...|wc-1] 의 열들로 정렬된다. 클래스내 분산(within-class scatter) 의 일반화는 클래스간 분산(between-class scatter) 의 일반화는 는 총 스캐터 행렬이라 한다.

C-클래스 분류에 적용된 LDA 사영된 표본들에 대한 평균벡터와 스캐터행렬 : 를 최대화하는 최적의 사영행렬 W*는 위의 에 대하여 일반화된 고유값 문제에서의 가장 큰 고유값들과 관련된 고유벡터들을 열로 하는 행렬이 된다.

LDA의 두가지 접근법과 한계 클래스-종속 변환 : 이 접근법은 클래스간 분산과 각각의 클래스내 분산의 비율을 최대화 하는 방법이다. 이 변환의 주된 목적은, 적절한 클래스 분류 능력을 가지도록 (클래스간 분산과 클래스내 분산의) 비율을 최대화하는 변환법이다. 해당 클래스의 변환 행렬을 클래스마다 지정하여야 하므로 2클래스 분류에서는 두 개의 최적화된 변환 행렬을 사용하게 된다. 즉 의 고유값 문제를 푼다 클래스-독립 변환 : 이 접근법은 클래스간 분산과 전체의 클래스내 분산 비율을 최대화하는 방법이다. 이 방법은 데이터 집합을 변환하기 위해서 하나의 최적화된 변환 행렬을 사용하며, 모든 자료는 그들의 해당하는 클래스와 상관 없이 같은 변환을 사용한다. 이러한 종류의 LDA에서는 각각의 클래스는 모든 다른 클래스에 대하여 분리된 클래스로 간주된다. 즉 의 고유값 문제를 푼다 클래스-종속 변환 클래스-독립 변환

LDA의 두가지 접근법과 한계 LDA의 한계

LDA의 알고리즘 선형판별분석(클래스-종속)에 의한 변환행렬 구성 및 분류 방법 1. 클래스간 분산(between-class scatter) SB 를 구한다. 2. 각각의 클래스내 분산 (within-class scatter) SWi 를 구한다. ( )  클래스-독립의 경우. 3. 각각의 에 대한 고유값 분석을 수행한다. i-클래스의 고유치들 중에서 q 개의 가장 큰 고유값 에 해당하는 고유벡터 를 선택하여 이를 열로 하는 i-클래스의 변환행렬 Wi 를 구성한다. 4. 각각의 훈련자료들을 변환한다. 5. 임의의 시험자료들을 변환하여(using WiT), 변환된 훈련자료의 평균과 비교하여 클래스를 결정한다.

LDA vs PCA 냄새감지문제에서의 PCA와 LDA의 효용성 실험. - 다섯 종류의 커피빈을 화학가스감지기에 실험하였다. 각각의 커피에 대하여 45회 실험을 한 후에 가스감지반응을 처리하여 60차원의 특징벡터를 얻어 냈다. 3차원 분산플롯결과는 LDA 가 PCA보다 클래스판별에 뛰어나다는 것을 명확히 보여주고 있다.

MATLAB 실습