패턴인식 개론 Ch.11 주성분 분석법( PCA ).

Slides:



Advertisements
Similar presentations
수학 7- 가 문자와 식 > 일차방정식의 풀이 > 교과서 p.111 일차방정식의 활용 수업계획수업활동.
Advertisements

3 학년 문제가 남느냐, 내가 남느냐 1. ( 아씨방 일곱 동무 ) 아씨의 방에는 바느질을 위한 친구가 몇 명이 있었나요 ? 정답은 ? 일곱.
건국대학교 산업공학과 Ch 7. 공급사슬에서의 수요예측. 기업과 공급사슬에서 예측의 역할을 이해 수요예측의 요소를 파악 시계열 방법론을 이용한 수요 예측 Contents 과거의 수요정보는 미래 수요를 예측하는데 어떻게 사용할 수 있고, 이러한 예측들이 어떻게 공급사슬에.
2009 년도 중소기업기술개발지원사업안내 중소기업기술개발지원사업안내 중소기업 기술혁신개발사업 4. 기업협동형 기술개발사업 5. 구매조건부 기술개발사업 6. 중소기업 이전기술개발사업 7. 창업보육 기술개발사업 8. 생산환경혁신 기술개발사업 9. 중소기업.
Steel 선물 옵션 분석 설민혁 윤재영 양승환 김서진 index 2. 최근 Steel 동향 3. 선물을 이용한 헤지비율 4. 이론적 옵션투자전략 4. 이론적 옵션투자전략 5. 옵션을 이용한 차익거래 1. Steel 선물 Review 6. 전망.
새가족부 워크샵 결과 '09 Review 및 '10 섬김계획 새가족부.
저출산·고령화 사회의 극복을 위한 기업의 역할 (여성 고용에 대한 기업의 사례) 아시아나항공 주식회사.
컴퓨터애니메이션 3장 이규민 김태일.
성결 어린이 영등포교회 유년부 정답은 뒷면에 제 11-31호 2011월 8월 14일 어디로 가세요?
2015년도 6월 문산읍 기업인협의회 회의.
제6장. 현금예금, 대여금, 차입금 대구대학교 회계세무학부 이장형 교수.
Ⅵ. 빛(단원학습목표).
Principal Component Analysis
01. 과업의 개요 공간적ㆍ시간적 범위 내용적 범위 과업의 기대효과
12 프로젝트 실습.
통로이미지㈜ 마케팅실 신입/경력 모집 ◎ 모집부분 및 자격요건 ◎ 채용인원 ◎ 전형절차 ◎ 제출서류 ◎ 연봉 ◎ 사전인터뷰
클릭 시 하이퍼링크 활성화됨.
데이터 마이닝을 이용한 분류 분석.
판별분석의 개념과 적용(→ 추계통계적 성격)
교동 장독대 마을 회의 2010년 3월 7일.
TOTAL BI SOLUTION 낚시카페 솔루션 1차
논문을 위한 통계 집단간 평균 차이: t-test, ANOVA 하성욱 한성대학교 대학원.
(Statistical Modeling)
최소 자승 오차법 (Least Squares Method)
EPS Based Motion Recognition algorithm Comparison
Medical Instrumentation
영덕풍력발전단지 준공 기념식 행사(안) 경영기획실.
PCA (Principal Component Analysis)
경영과학(Ⅰ) 제4장 쌍대이론과 민감도 분석 서론 쌍대이론 쌍대심플렉스법 민감도분석 secom.hanbat.ac.kr.
2007 겨울 통계강좌 중급과정 제7강 중다회귀분석에 대한 이해.
영상공학수학 Mathematical methods in computer graphics and vision
기초통계학 제 7장 연관성 분석 1. 상관분석 2. 교차분석
논문을 위한 통계 논문과 통계의 기초 개념 하성욱 한성대학교 대학원.
강동경희대학교병원 영상의학과 석, 박사과정 및 연구원 모집
Medical Instrumentation
Chapter 8 손실 압축 기법 8.1 소개 8.2 왜곡측정 8.3 빈도 왜곡 이론 8.4 양자화 8.5 변환 부호화
【한국방송영상산업진흥원】
PCA Lecture 9 주성분 분석 (PCA)
7장: 빛의 간섭과 회절 빛의 간섭 단일슬릿과 회절 회절격자 – 더 선명해진 간섭무늬.
8장. 특징 추출 오일석, 패턴인식, 교보문고, © 오일석, 전북대학교 컴퓨터공학.
패턴인식 개론 패턴인식 개요 ( CSCE 666 Pattern Analysis | Ricardo Gutierrez-Osuna | )
Progress Seminar 권순빈.
기초통계학 Chapter 5: 회귀분석 (Regression analysis)
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
패턴인식 개론 Ch.10 비모수 밀도 추정법.
Department of Electrical Engineering
학교 성고충상담원 연수 (2018.5~6) 고충상담원의 역할 이해 및 상담의 실제 서울삼정초등학교 김혜순.
KIST 특성분석센터 우리의 에너지원 지방산은 무엇일까요? 트리글리세라이드(Triglyceride) 지방산 종류
절대오차(ε) = | 측정값(x) - 참값 (X) |
1 장. 소개 오일석, 패턴인식, 교보문고, © 오일석, 전북대학교 컴퓨터공학.
DEVSimHLA 다운로드 및 설치 수신자: 메일 내용
PCA This course is a basic introduction to parts of the field of computer vision. This version of the course covers topics in 'early' or 'low' level vision.
제 4 장 유전자 알고리즘 (Genetic Algorithm)
과학 중학교 8학년 2학기 Ⅷ. 혼합물의 분리, 1.순물질과 혼합물
Modeling one measurement variable against another Regression analysis (회귀분석) Chapter 12.
고전 소설 갈래 정리 이 CD의 ppt 자료를 정상적으로 보기 위해서는 나눔글꼴 설치가 꼭 필요합니다.
허생전 許生傳 소단원 정리 문학에서 삶을 찾다 (3) 문학과 삶의 다양성
연구 진행 상황 보고서 연구 결과 문제점 및 대책 목표 및 계획 어지럼증 기타
“상례와 제례”.
전략적 경영관리.
기술가정 2학년 1학기 2.재료의 이용>1) 목재,플라스틱,금속재료의 특성>11/15제품의 구상
2007 겨울 통계강좌 중급과정 제7강 중다회귀분석에 대한 이해.
제약이 없는 비선형계획모형 등식제약하의 비선형계획모형 부등식제약하의 비선형계획모형 secom.hanabt.ac.kr
수학 2 학년 1 학기 문자와 식 > 부 등 식 ( 2 / 2 ) 부등식의 성질 이용 풀기.
15 향 소 제 소사고 제15회 일시|` (목) 9:00~17:00 장소|소사고등학교 교정 th
투썬 창업보육센터 입주안내서 투썬비아이관리전문 ㈜.
Lagrange 방정식의 응용사례 접근방법 (1) 일반화 좌표계 선정 (2) 직교 좌표와 일반화 좌표 사이의 변환
Progress Seminar 신희안.
연구 진행 상황 보고서 Insulin Pump CPF Xproject 2주전 계획 연구 결과 문제점 및 대책 목표 및 계획
ECMiner를 이용한 데이터마이닝 기본교육
Presentation transcript:

패턴인식 개론 Ch.11 주성분 분석법( PCA )

학습목표 이 장에서는 대표적인 특징 벡터의 차원 축소 방법 중의 하나인 주성분 분석법에 관하여 공부한다. 특징 벡터의 차원 축소의 필요성과 응용 부분을 간단히 설명하고, 고유벡터와 고유값에 대하여 복습하고, 주성분 분석법을 유도과정과 함께 소개하도록 한다. 실습에서는 MATLAB을 이용하여 주성분 분석법을 실제 시뮬레이션 해봄으로써 입체적으로 이해하도록 한다. 특히, 얼굴 인식에 적용된 주성분 분석법을 상세히 설명하고, 직접 얼굴을 인식하는 시뮬레이션을 해본다.

차원의 저주(Curse of dimensionality) 차원의 저주 : 다변량 자료분석 시 차원이 증가함에 따라 생기는 문제들을 말함 Example : 3클래스 패턴인식 문제를 고려해보자 : 가장 간단한 접근법은 (1) 특징공간은 일정한 구역(bin)으로 나누고 (2) 각 구역에 속한 각 클래스 표본들의 비를 구하고 (3) 새로운 표본의 경우는 해당하는 구역을 찾아 그 구역에서 우세한 클래스로 선택한다. 단일 특징을 사용할 경우 아래와 같이 1차원 축을 세 부분으로 나누게 될 때 너무 많은 부분에서 클래스들이 겹치게 됨을 발견하게 된다. 두 개의 특징을 사용하게 되면 bin 의 개 수는 9개로 증가하게 되고 (1) 각 bin 마다 포함되는 표본의 개수를 일정하게 하던지 ( 표본 수가 1차원의 9 개 에서 2차원의 27 개로 증가) 또는 (2) 1차원의 경우와 같은 수의 표본을 유지하던지를 (매우 희박한 2차원 분산플롯) 선택을 해야 한다.

차원의 저주(Curse of dimensionality) 3 개의 특징을 사용하게 되면 문제는 더욱 심각하다. Bin 의 개 수는 33=27 개가 되고, (1) bin 마다 같은 표본 밀도를 유지하고 싶으면 81개의 표본이 (2) 같은 수의 표본을 사용하면 너무 많은 bin 들이 비어있게 된다. <벡터의 차원이 높아짐에 따라 생길 수 있는 문제점들> 특징이 많으면 잡음 특징들까지 포함되므로 오히려 분류에 상처를 줄 뿐이다. 특징이 많으면 패턴 분류기에 의한 학습과 인식 속도가 느려진다. 특징이 많으면 모델링에 필요한 학습 집합의 크기가 커진다. 실제로 “차원의 저주”는 주어진 표본의 크기에서 분류기의 성능을 개선하기 보다는 감소시키는 최대 특징 수 가 존재함을 의미한다. 차원의 저주를 극복하기 위해서는 (1) 사전지식을 활용하거나 (2) 타겟 함수의 smoothness를 증가시키거나 (3) 차원을 줄인다.

차원 축소 차원을 축소시킬 두 가지 방법 특징선택 (feature selection) : 전체 특징들로부터 부분집합을 선택함 특징추출 (feature extraction) : 기존의 특징들의 조합으로 구성된 새로운 특징들의 부분집합을 생성함. 특징추출의 문제는 주어진 특징공간 xi ∈ RN 에서 M<N 인 매핑 y=f(x): RNRM 을 찾는 것이다. 이 때 변환된 특징벡터 yi ∈ RM 는 RN의 정보 또는 구조의 대부분을 보존하고 있어야 한다. 일반적으로 최적의 매핑 y=f(x) 는 비선형 함수일 수 있지만, 이러한 비선형함수를 만들 체계적인 방법이 없으므로, 특징 추출에서는 y=Wx 와 같은 선형변환으로 국한하게 된다.

차원 축소 특징추출 매핑 y=f(x)의 선택은 우리가 최적화 시키고자 하는 목적에 의해서 결정되며, 크게 두 가지 방법이 있다. 신호표현(Signal Representation): 특징추출매핑의 목적이 낮은 차원공간에서 정확하게 표현하고자 함일 경우  주성분분석법 (PCA: Principal Components Analysis) 분류(Classification): 특징추출매핑의 목적이 낮은 차원에서의 클래스 구분을 증대하고자 함일 경우  선형판별분석법(LDA: Linear Discriminant Analysis)

고유벡터와 고유값 (Review) 고유벡터와 고유값 (2x2 example) 예1 : 예2 : 고유값 변환행렬 고유벡터 고유벡터는 정방행렬에서만 찾을 수 있다. 고유벡터에 대한 스케일 처리는 고유벡터의 방향에 영향을 미치지 않는다. 대칭행렬의 고유벡터들은 서로 직교한다.  기저 벡터로 이용할 수 있다. 고유벡터는 그 크기가 1이 되도록 정규화하여 이용한다.

고유벡터와 고유값 (Review) 고유벡터와 고유값 (3x3 example) 3×3 정방 대칭 행렬 3개의 열벡터를 가정 c1, c2, c3 는 고유벡터에 해당되며 이들의 단위벡터를 열로 하는 행렬 U를 가정해 보자.

Principal Component Analysis (PCA)  (Optional) x를 정규직교하는 기저 벡터 [φ1, φ2, …, φN]들의 선형결합으로 표현되는 N-차원 무작위 벡터라 하자. 기저벡터 M (M<N) 개만으로 x를 표현하려 한다면, 일부 성분 [yM+1, …, yN]T 를 미리 정한 상수 bi 로 대체하면 된다. 이 때 표현 상에 오차는 다음과 같이 된다. 이러한 표현상의 오차는 크기 Δx의 평균제곱의 형태로 측정할 수 있다. 우리의 목적은 이러한 평균제곱오차를 최소화 하는 기저벡터 φi 와 상수 bi 를 찾는 것이다. N

Principal Component Analysis (PCA)  (Optional) 최적의 상수 bi 는 목적함수의 미분을 제로로 하는 식으로부터 구할 수 있다. 평균제곱오차는 다음과 같이 표현할 수 있다. 위의 표현을 최소화하면서 직교성을 갖는 해를 구하게 되며, 이를 위해서 라그랑제 승수 (Lagrange Multiplier) λ i 를 포함시킨다. 기저 벡터에 대한 편미분을 계산하면 따라서 φ i, λ i 는 공분산 행렬 Σx 의 고유벡터와 고유치에 해당한다. where y i = x φ I i.e. i-th 성분은 i-th 기저백터를 곱하여 얻어진다.

Principal Component Analysis (PCA)  (Optional) 평균제곱오차를 다음과 같이 표현할 수 있다. 이러한 크기를 최소화하기 위해서는 λ i 가 가장 작은 고유치어야 한다. 따라서, 최소한의 제곱오차로서 x를 표현하기 위해서는 가장 큰 고유치 λ i 에 해당하는 고유 벡터 φ i 들을 선택해야 한다. PCA 차원축소 N차원의 무작위 벡터 x ∈ RN 를 서로 독립인 M개 (M<N) 벡터의 선형결합으로 근사시킬 최적의 방법은 공분산 행렬 ∑x 의 가장 큰 고유치들 λ i 에 해당하는 고유벡터들 φ i 에 무작위 벡터를 사영(투영)시킴으로 이룰 수 있다.

주성분 분석 (a) 특징 벡터의 분포 PCA후의 주축 변환결과 주축 U1로 사영을 취하여 1차원으로 축소한 결과 평균 특징데이터 (a) 특징 벡터의 분포 PCA후의 주축 변환결과 주축 U1로 사영을 취하여 1차원으로 축소한 결과 주축 U2 로 사영을 취하여 1차원으로 축소한 결과 (b) PCA후의 주축 변환 결과 (c) 주축 u1로 사영 (d) 주축 u2로 사영

Principal Component Analysis (PCA) 주성분 분석법은 다차원 특징 벡터로 이루어진 데이터에 대하여 고차원의 정보를 유지하면서 저차원으로 차원을 축소하는 다변량 데이터 처리 방법 중의 하나다. 특징 데이터는 특징 벡터 차원의 수만큼 존재하는 기준 축을 기준으로 표현되며, 3차원 데이터는 3개의 기준 축을 기준으로 표현된다. 결국 차원을 축소한다는 의미는 이 기준 축의 개수를 줄이는 것으로 생각할 수 있다. 10차원 데이터를 4차원으로 축소하려면 기준 축을 10개에서 4개로 축소하면 된다는 이야기다. 따라서 다변량 데이터의 주성분에 해당하는 주축을 통계적인 방법으로 구하고, 이렇게 해서 얻은 특징 벡터 x를 주축 방향으로 사영(projection)시킴으로써 차원을 축소할 수 있는 것이다. 사영은 행렬의 내적을 이용해 쉽게 구할 수 있다. 주성분 분석은 상관(correlated)이 있는 변량들의 변동(분산)을 줄이는 차원에서 상관이 없는 변량의 집합으로 기준 축을 변환하여, 특징 벡터를 재배치하는 것을 말한다. PCA 차원축소 N차원의 무작위 벡터 x ∈ RN 를 서로 독립인 M개 (M<N) 벡터의 선형결합으로 근사시킬 최적의 방법은 공분산 행렬 ∑x 의 가장 큰 고유치들 λ i 에 해당하는 고유벡터들 φ i 에 무작위 벡터를 사영(투영)시킴으로 이룰 수 있다.

주성분 분석 주성분 분석을 통하여 변환행렬 구성 단계 1. N개의 D차원 자료들 xn 으로부터 공분산 행렬 (DxD)를 계산한다. (cov() in Matlab) 2. 고유값 분석을 행한다. (eig() in Matlab) 3. D개의 고유값들 중에서 가장 큰 고유값 C(<D)개를 을 선택한다. 4. 선택된 고유값과 관련된 고유벡터를 구하고 연결하여 변환 행렬 을 만든다. 5. 특징 벡터를 다음의 변환식으로 변환한다.

주성분 분석법의 한계 PCA는 공분산 행렬의 고유벡터를 사용하기 때문에 유니모달(unimodal) 가우시안을 따르는 자료들에 있어서 서로 독립적인 축을 찾는데 사용될 수 있다. 즉, 가우시안이 아니거나 비선형인 멀티 모달(multimodal) 패턴에는 적용하기가 곤란하다. PCA의 주요 한계는 특징벡터의 클래스 라벨을 고려하지 않기 때문에 클래스들의 구분성은 고려하지 않는다는 데 있다. PCA는 단순히 변환된 축이 최대 분산방향과 정렬되도록 좌표회전을 수행하는 것이다. 따라서 최대 분산방향이 특징 구분을 좋게 한다는 보장은 없는 것이다.

차원 축소의 필요성 주성분 분석 주성분 분석의 역사 특징벡터를 효과적으로 다룰 수 있다. 주성분 분석은 다변량 분석 (multivariate analysis) 분야에서는 아주 오래된 기술이다. 주성분 분석법은 통신 분야에서는 Karhunen-Loeve(카루넨 뢰베) 변환(KL-변환)으로도 알려져 있으며. 이는 다차원 특징 벡터로 이루어진 데이터에 대하여 높은 차원에서의 정보를 유지하면서 낮은 차원으로 차원을 축소시키는 다변량 데이터 처리 방법이다. 주성분분석은 1901년 Pearson에 의해서 처음 소개되었으며, 1963년 Loeve에 의해서 일반화 되기까지 여러 번의 수정을 경험했다. 차원 축소의 필요성 특징벡터를 효과적으로 다룰 수 있다. 높은 차원이 가지는 문제점들을 해결할 수 있다.

PCA Example (1) 다음과 같은 파라미터를 갖는 3차원 가우시안 분포인 경우를 고려해 보자. 세 쌍의 주성분 투영이 다음에 보여지고 있다. 첫 번째 투영이 가장 큰 분산을 보이게 되며, 그 다음은 차례대로 감소함을 보인다.

PCA Example (2) 아래의 그림은 3차원 자료를 2차원으로 투영한 경우이다. 처음에는 자료 구름의 연장 방향을 제외하고는 자료 점들의 명확한 구조가 보이지를 않으나, 적절한 회전을 하게 되면 숨겨진 구조가 드러나게 된다. 이는 3차원 자료 주위를 돌면서 가장 적절한 관찰방향을 찾는 것과 같다. PCA는 그러한 숨겨진 구조를 찾는데 도움을 준다. PCA는 주어진 자료에서의 대부분의 분산이 처음 몇 개의 차원에 표현되도록 회전을 시키는 것이다.

PCA Example (3) 다음과 같이 주어지는 2차원 자료에 대한 주성분을 계산하시오. X = [x1,x2] = {(1,2),(3,3),(3,5),(5,4),(5,6),(6,5),(8,7),(9,8)} Solution 공분산 행렬은 고유값(eigenvalue)은 다음과 같은 특성방정식이 0 이 되는 경우이다. 고유벡터가 이 문제의 답이며 다음과 같이 구한다.

MATLAB Simulation 실습 1 MATLAB을 이용한 공분산 행렬의 계산과 고유값, 고유벡터 연습 단계 1: 랜덤 발생기를 사용하여 0과 1사이의 값을 갖는 1000 x 2벡터 R1을 생성하고 x, y 좌표상에 생성된 랜덤 수를 그려 본다. 단계 2: MATLAB함수 mean으로 x와 y축의 평균이 0이 되도록 원 데이터의 집합을 재배치하고, 조정된 점들을 Rctr 이라 이름 붙인다. 새로운 그림을 열어 Rctr 의 모든 점을 그려 본다.

MATLAB Simulation 실습 1 MATLAB을 이용한 공분산 행렬의 계산과 고유값, 고유벡터 연습 단계 3: 원점에서 반경 0.5보다 멀리 떨어진 Rctr에 있는 점들은 제거한다. 그 결과 점의 집합을 Rcirc라고 이름 붙인다. 이제 Rcirc 내의 점들은 반지름이 0.5인 원 안에 있다. 새 그림을 열어서 Rcirc에 있는 보든 점을 그려본다.

MATLAB Simulation

MATLAB Simulation 실습 2 주성분 분석법 시뮬레이션 주성분 분석법을 통하여 2차원 데이터를 1차원으로 축소하는 과정을 시뮬레이션해 보도록 한다. 단계 1 : 데이터 설정 단계 2: MATLAB에서는 공분산 행렬에서 주성분을 바로 구하여 고유값의 크기 순으로 정렬까지 해주는 pcacov 라는 함수가 있다. 이를 이용하여 주성분을 찾아보자.

MATLAB Simulation 실습 2 주성분 분석법 시뮬레이션 단계 3 : 원 데이터 집합과 주성분을 곱하면 데이터들은 주성분이 주축이 되도록 회전하게 된다. 단계 4: 축 상으로 주성분이 놓여 있는 지를 확인하기 위해서 다시 주성분을 계산해 보자.

MATLAB Simulation 실습 2 주성분 분석법 시뮬레이션 실습 2 주성분 분석법 시뮬레이션 단계 5 : 원 데이터 집합과 주성분으로 내적을 취하면 데이터들이 주성분 상으로 사상되어 1차원 데이터로 차원이 축소된다.

MATLAB Simulation

MATLAB Simulation 단계 1: 인식후보 얼굴 벡터 집합(S )의 구성

MATLAB Simulation 단계 2: 이미지 정규화

MATLAB Simulation 단계 3: 평균 얼굴 벡터 (Ψ) 계산 단계 5: N2 ×1 벡터 Φi 에서 공분산 행렬(C) 계산

MATLAB Simulation 단계 6: 공분산 행렬(C)의 고유벡터/고유값 계산

MATLAB Simulation 단계 7: 주성분 선택 행렬 AAT 의 고유벡터 ui 의 계산은 고차 행렬이므로 계산복잡도가 높다. 그러나 행렬 ATA의 계산 복잡도는 낮다 (MxM 행렬). 우선 ATA 의 고유벡터 vi 를 계산하며, 다음과 같다. ui 와 vi 간의 관계는 다음과 같다. 따라서 AAT 와 ATA 는 같은 고유값을 갖고, 그 고유벡터는 다음과 같은 관계가 성립한다. 결국 AAT 는 N2 개의 고유값과 고유벡터를 가지며, ATA 는 M 개의 고유값과 고유벡터 를 갖는다. 그리고 ATA 의 M개의 고유값은 AAT 의 M개의 가장 큰 고유값과 관련된다. 따라서 ATA 에서 최상의 고유 벡터 M개의 계산 ( ) 하는 것은 AAT 에서 M개의 고유값과 고유벡터를 구하는 것과 같다.

MATLAB Simulation 단계 8: 얼굴 인식 단계 인식하고자 하는 입력 얼굴 영상의 중심에 맞추고, 학습얼굴과 같은 크기의 영상( )을 만든 후에 이 영상을 정규화 ( ) 한다. 그리고 각 고유얼굴 (ui ) 에 대하여 사영을 취해 그 성분값( )을 구한다. 사영을 취한다는 것은 내적을 의미한다. 입력되는 얼굴 영상에 대한 각 고유얼굴에 대한 각 고유얼굴 가중치( )는 다음과 같이 계산된다. 여기서 M’는 아주작은 고유값에서 얻은 고유 얼굴을 제외한 개수이므로 그 수는 M 조다 작거나 같다. 이렇게 얻은 가중치를 이용하여 입력 영상을 표현하는 고유얼굴 성분 벡터( )를 구할 수 있다. 그리고, 입력 얼굴은 성분벡터( )의 선형결합으로 입력 얼굴을 재구성할 수 도 있다. 이 값을 구하면, 후보 얼굴 영상들의 고유 얼굴상에서 가중치와 유클리디안 거리를 비교한다. 그 거리가 최소가 되는 얼굴이 가장 입력 얼굴과 유사한 얼굴이 되므로 이 영상 후보를 인식 결과로 결정한다. 만약 얼굴 검출(detection)에 적용하려면 유클리디안 거리가 일정 임계값보다 큰 경우에는 비 얼굴로 반정하고, 작은 경우에는 얼굴로 판정하면 된다.

MATLAB Simulation 단계 8: 얼굴 인식 단계