2 장. 베이시언 결정 이론 오일석, 패턴인식, 교보문고, 2008..

Slides:



Advertisements
Similar presentations
Page 1 화곡동 도시형생활주택 분양전략 ( 案 ) 광명시 소하동 1238 번지 소하동 기아파크빌 상가 분양 / 임대 가격표 ( 경도 광명시 소하동 1238 번지 ) ( 경도 광명시 소하동 1238 번지 ) 분양 / 임대 ☎ 02)899~3811.
Advertisements

목 차 Ⅰ 제도 도입 배경 및 개요 내일채움공제 사업 안내 내일채움공제 연계 지원 사업 Ⅲ Ⅱ.
2013 년 헬스케어 이해와 전망. 헬스케어 산업의 이해 건강하게 아름답게 그리고 장수하고 싶은 인간의 기본적 요구에 충실한 사업 건강하게 아름답게 그리고 장수하고 싶은 인간의 기본적 요구에 충실한 사업 한국 헬스케어 산업의 성장은 산업화 만큼 빠르게 진행 중 1) 고령화.
생활 속의 확률과 진실성 하안북중 1학년 서동조.
2014년도 주요법령 개정사항 (월) ~ (금) 대한전문건설협회 강원도회.
(목) 심형석 영산대학교 부동산∙금융학과 교수 영산대학교 부동산연구소 소장
SW사업자신고 안내
싸고 간편한 초스피드 건강식단 동양:醫食同源(의식동원) 의약과 음식은 근원이 같다-중국
안녕하십니까! 아파하는 이웃을 위한 치료제, 약 사 팀의 발표를 시작하겠습니다..
1. 기관별 맞춤형 집중교육 : 실습 및 개인별 집중지도    1. 기관별 맞춤형 집중교육 : 실습 및 개인별 집중지도 (상설) 기관별 맞춤형 교육 - 당 교육기관에서.
로케이션 팀 이진욱 < PHYSIOGEL treatment a >
미세먼지가 수중생물에게 미치는 영향 광명교육지원청부설영재교육원 교과 영역 학교/학년 성 명 생 물 소하중/2 박 인 우
소프트웨어시스템 실습 머신러닝 Machine Learning (1) 학기.
발표일자 : 조 원 : 김한나, 이순형, 이은길 차현태, 최윤희, 허지혜
제 11 장 단순한 형태의 패턴 검출.
주택형 : 59m²(24py), 75m²(30py), 84m²(34py) 견본주택 : 18年 05月 18日 OPEN
공학적 실패사례 동물성 사료(광우병).
1장 : 확률이론 확률통계론 TexPoint fonts used in EMF.
국제무역론 무역학과 한복연교수.
제 5장 기체.
영상 복원 7.1 영상의 열화 모델 7.2 잡음 모델 7.3 공간 영역 필터를 통한 잡음 제거
인트로 10.html 나레이션에 맞추어 제시 1 환기 2) 송풍기 송풍기 풍량제어 방법의 종류 및 특징
C 프로그래밍.
Semi-supervised Document classification (probabilistic model and EM)
확 률 변 수 2 1 이산확률변수 2 연속확률변수 3 기대값.
8장. 특징 추출 오일석, 패턴인식, 교보문고, © 오일석, 전북대학교 컴퓨터공학.
모형 선택과 적합도 지수.
제2장 의사결정 분석 위험하의 의사결정 불확실성하의 의사결정 의사결정나무 베이지안 의사결정 효용분석 AHP에 의한 의사결정
Private & Confidential
제주북초등학교 영재학급 심화반 6학년 14번 오정훈
김포 한강베네치아 상가분양 3층~5층 오피스텔 226세대 1층~2층 상가 분양문의 : 이효철( )
Week 6:확률(Probability)
문찬식 현대적 원자모형.
Ⅶ. 원 의 성 질 1. 원 과 직 선 2. 원 주 각 3. 원 과 비 례.
톡톡 튀고, 개성 넘치는 우유팩으로 새롭게 꾸며봐요!
학교 홈페이지 U-Campus 클릭.
예산안 원가 구분 금액 총 제작비 대비 원가세부항목 기획개발비 270,000, % 기획비 120,000,000
수직선 위의 점의 좌표와 순서쌍 점의 좌표 원점 수직선 위의 한 점에 대응하는 수 A 수직선 위의 좌표가 0인 점
학습 주제 p 크기가 달라지면 성질이 달라질까?.
홈페이지 제작 스토리 보드 제작 방식 : 맞춤형 제작.
의료정보 빅데이터 기반 맞춤형 유의질병 및 병원정보 제공 서비스
이론적 확률분포 앞서: 확률변수의 임의의 확률분포 수학의 이론으로부터 도출될 확률분포 이항분포, Poisson 분포, 정규분포
(생각열기) 염화나트륨은 고체 상태에서는 전류가 통하지 않지만 용융 상태나 물에 녹으면 전류가 잘 통한다. 그 이유는?
우리 고장에도 산성비가 ! 과학 본 차시의 주제입니다.
AP 수량 산정 및 도면 2014 서강대학교 정보통신원.
어떤 금속이 열전도가 빠른지 찾기 평택여자중학교 김수민.
제2장 통계학의 기초 1절 확률 기본정의 확률의 기본 공리와 법칙 2절 확률변수와 확률분포 3절 정규분포와 관련 분포 정규분포
체육관용 SD-201 system(특허 ) 장선: 30x70x1.0t 지주: 주 장선 간격 : 700mm
집단상담의 윤리적, 법률적 쟁점들.
미지의 이온 찾아내기 꼭꼭 숨어라 ! 그래도 찾아 낸다 ! 앙금 생성 반응으로 이온 검출하기 불꽃 반응으로 이온 검출하기.
2015년 2학년 1반.
고급 베이지안 통계학 프로젝트 1 정구환, 최성준
농심 기업분석 3조 조재록 정대주 김원중 오기영 이주열.
앙금의 생성 물에서 생기는 돌멩이 ! 앙금 생성 반응.
제3장 제품설계 1. 신제품 도입전략 2. 신제품 개발과정 3. 품질기능전개 4. 가치분석/가치공학 5. 모듈러 설계
사람들의 용인 -에버랜드 옆- 힐링랜드(전대리)타운하우스 [9,918m2<3,000.2py>(26필지)〕
추천 PicK !! 미녀 개그우먼 김지민의 기획전 / 메일링 ti / 좋은블러블러B
㈜위너스커뮤니케이션즈 서울시 강남구 청담동 72-3 루나빌딩 2층
위챗(We chat) 영어영문학과 최가현.
1. 전문대학기초학습지원센터 접속하기 전문대학 기초학습지원센터 접속 접속URL : LOG-IN 클릭.
1. 전문대학기초학습지원센터 접속하기 전문대학 기초학습지원센터 접속 접속URL : LOG-IN 클릭.
1. 전문대학기초학습지원센터 접속하기 전문대학 기초학습지원센터 접속 접속URL : LOG-IN 클릭.
2 장. 베이시언 결정 이론 오일석, 패턴인식, 교보문고,
확 률 1 1 사건 2 확률 3 조건부 확률.
집합의 표현 수학 7-가 집합과 자연수 > 집합 > 2-3/20 수업계획 수업활동 [제작의도]
Chapter 3. 집합론.
곱하기 - XT식 인트로 화면 성우 나레이션 : 로고 곱하기 – XT식
알루미늄 투명형 방음벽.
2016년 3정 5행 추진현황보고 (5월 실적) 생산관리팀.
Kuajing121 플랫폼 회원가입 / 제품등록 매뉴얼 ㈜장풍홀딩스
Presentation transcript:

2 장. 베이시언 결정 이론 오일석, 패턴인식, 교보문고, 2008.

가장 그럴듯한 이라는 보편 법칙 보편적인 인식 법칙 기계 (컴퓨터)의 인식 ‘가장 그럴듯한’ 부류로 분류 라디오 목소리가 배철수인지 배칠수인지 헛갈리는데 배칠수 같다. 도로 표지판이 전주인지 진주인지 확실치 않은데 전주인것 같다. 기계 (컴퓨터)의 인식 수학 틀에 넣어야 프로그래밍이 가능해짐 P(ωi|x): x가 주어졌을때 그것이 부류 ωi에서 발생했을 확률 (사후 확률) 2019-04-25

어렵고 중요한 문제 사후 확률 P(ωi|x)의 추정 어려운가? (그림 1.6을 가지고 생각해 보자.) 왜? 어떻게 추정하나? 2~3장의 핵심 주제 2019-04-25

2.1.1 확률 기초 주사위 사람 키 패턴 인식에서 특징 각각이 랜덤 변수에 해당 주사위 던졌을 때 3이 나올 확률 P(X=3)=1/6 X를 랜덤 변수라 부름 이 경우 X는 이산 값을 가짐 사람 키 연속 값 확률 밀도 함수 p(X) 패턴 인식에서 특징 각각이 랜덤 변수에 해당 2019-04-25

확률 실험 (사전 확률, 우도, 사후 확률을 설명할 목적의 시나리오) 2.1.1 확률 기초 확률 실험 (사전 확률, 우도, 사후 확률을 설명할 목적의 시나리오) 주머니에서 카드를 뽑아 상자를 선택하고 선택된 상자에서 공을 뽑아 관찰 랜덤 변수 X∈{A,B}, Y={파랑, 하양} 2019-04-25

P(X)를 사전 확률이라prior probability 부름 2.1.1 확률 기초 확률 상자 A가 선택될 확률은? P(X=A)=P(A)=7/10 상자 A에서 하얀 공이 뽑힐 확률은? 조건부 확률 P(Y=하양|X=A)=P(하양|A)=2/10 상자는 A이고 공은 하양이 뽑힐 확률은? 결합 확률 P(A, 하양)=P(하양|A)P(A)=(2/10)(7/10)=7/50 하얀 공이 나올 확률은? 주변 확률 P(하양)=P(하양|A)P(A)+P(하양|B)P(B) =(2/10)(7/10)+(9/15)(3/10)=8/25 P(X,Y)=P(X)P(Y)이면 X와 Y는 독립 P(X)를 사전 확률이라prior probability 부름 2019-04-25

2.1.1 확률 기초 이런 문제를 생각해 보자. 생각 1 하얀 공이 뽑혔는데 어느 상자에서 나왔는지 맞추어라. 기본 전략: 상자 A와 B에서 나왔을 가능성 각각을 구하고 큰 가능성을 보인 상자를 답으로 취한다. 이렇게 해야 맞출 가능성이 최대 (오류 범할 가능성이 최소)가 됨 가능성은 어떻게 계산? 생각 1 상자 A의 하얀 공 확률과 상자 B의 하얀 공 확률을 비교하여 큰 쪽을 취한다. P(하양|B)=9/15 > P(하양|A)=2/10 이므로 ‘상자 B에서 나왔다’고 말함 조건부 확률 P(Y|X)를 사용한 셈이다. 타당한가? 이 조건부 확률을 우도라고likelihood 부름 2019-04-25

2.1.1 확률 기초 생각 2 올바른 생각 상자 A와 상자 B의 선택 가능성을 비교하여 큰 쪽을 취한다. P(A)=7/10 > P(B)=3/10 이므로 ‘상자 A에서 나왔다’고 말함 사전 확률 P(X)를 사용한 셈이다. 타당한가? 올바른 생각 생각 1과 생각 2의 한계 극단적으로 P(A)=0.999라면 생각 1이 틀린 것이 확실하다. 극단적으로 P(하양|A)=0.999라면 생각 2가 틀린 것이 확실하다. 우도와 사전 확률을 모두 고려함이 타당해 보임 문제에 충실하자. 조건부 확률 P(A|하양)과 P(B|하양) 을 비교하여 큰 쪽을 취함 즉 P(X|Y)를 사용하겠다는 생각이 타당하다. P(X|Y)를 사후 확률 이라posterior probability 함 어떻게 게산할 것인가? 2019-04-25

2.1.1 확률 기초 베이스 정리의 유도 베이스 정리를 이용한 사후 확률 계산 2019-04-25

2.1.2 평균과 분산 평균 벡터와 공분산 행렬 2019-04-25

2.1.2 평균과 분산 예제 2.3 8개 샘플이 주어진 상황에서 평균 벡터와 공분산 행렬 구함 2019-04-25

2.1.3 확률 분포의 표현과 추정 이산인 경우 연속인 경우 차원의 저주 변수의 수가 d이고 각 변수가 q개의 구간을 가진다면 qd에 비례하는 메모리 필요 연속인 경우 일정한 형태를 가는 상황 그렇지 않은 상황 2019-04-25

분류기 학습 (훈련)에 사용하는 정보는 ‘훈련 집합’ 2.2 베이시언 분류기 분류기 학습 (훈련)에 사용하는 정보는 ‘훈련 집합’ 훈련 집합 X={(x1,t1), (x2,t2), …, (xN,tN)} xi=(x1,x2,…,xd)는 특징 벡터 ti∈{ω1,ω2,…,ωM} 부류 표지 (이진 분류기인 경우 M=2) 예) 필기 숫자 x1=(13/11,12/12)T, t1=ω1 (숫자 0) x2=(12/7,14/5)T, t2=ω2 (숫자 1) x3=(6/11,13/4)T, t3=ω3 (숫자 2) x4=(13/11,10/14)T, t4=ω4 (숫자 3) …… x40=(15/13,11/17)T, t40=ω10 (숫자 9) 2019-04-25

주어진 특징 벡터 x에 대해 ‘가장 그럴듯한’ 부류로 분류 2.2.1 최소 오류 베이시언 분류기 주어진 특징 벡터 x에 대해 ‘가장 그럴듯한’ 부류로 분류 (2.16)에서 사후 확률은 직접 구할 수 없음. 왜? 베이스 정리를 이용하여 사후 확률 계산을 사전 확률과 우도로 대치 분모는 무시해도 됨. 왜? 우도와 사전 확률은 어떻게 계산? 2019-04-25

2.2.1 최소 오류 베이시언 분류기 사전 확률 계산 우도 계산 P(ω1)=n1/N, P(ω2)=n2/N 훈련 집합에서 ωi에 속하는 샘들들을 가지고 P(x|ωi) 추정 부류 조건부 확률 이라고도class-conditional probabilty 함 3장의 주제 2019-04-25

2.2.1 최소 오류 베이시언 분류기 최소 오류 베이시언 분류기 결정 규칙 특수한 경우로 (2.18)의 의미 해석하면, 사전 확률이 0.5인 경우 우도만으로 분류 P(ω1)>>P(ω2)인 경우 사전 확률이 의사 결정 주도 2019-04-25

2.2.1 최소 오류 베이시언 분류기 최소 오류 베이시언 분류기 오류 확률 최적성 2019-04-25

2.2.2 최소 위험 베이시언 분류기 성능 기준으로 오류가 적절하지 못한 상황 손실 행렬 정상인과 암 환자 분류 과일을 상품과 하품으로 분류 손실 행렬 2019-04-25

2.2.2 최소 위험 베이시언 분류기 최소 위험 베이시언 분류기 우도비로 다시 쓰면 우도비 결정 규칙 2019-04-25

2.2.3 M 부류로 확장 M 부류 최소 오류 베이시언 분류기 M 부류 최소 위험 베이시언 분류기 사후 확률로 쓰면 사전 확률과 우도로 쓰면 M 부류 최소 위험 베이시언 분류기 2019-04-25

2.3 분별 함수 지금까지 분류기를 분별 함수로 다시 작성하면 2019-04-25

2.3 분별 함수 분별 함수 표현의 장점 여러 분류기를 하나의 틀로 표현 f(.)가 단조 증가라면 p(x|ωi) P(ωi)대신 gi(x)=f(p(x|ωi) P(ωi)) 사용하여도 같은 결과 f(.)로 log 함수를 주로 사용 log는 곱셈을 덧셈으로 바꾸어 주므로 수식 전개에 유리하고 log 취하면 값의 규모가 커져 수치 오류에 둔감한 이점 2019-04-25

우도가 정규 분포를 따른다는 가정 하에 베이시언 분류기의 특성을 해석해 보자. 2.4 정규분포에서 베이시언 분류기 정규 분포 (가우시언 분포) 현실 세계에 맞는 경우 있음 평균과 분산이라는 두 종류의 매개 변수만으로 표현 가능 수학적인 매력 우도가 정규 분포를 따른다는 가정 하에 베이시언 분류기의 특성을 해석해 보자. 2019-04-25

2.4.1 정규분포와 분별 함수 정규 분포 2019-04-25

2.4.1 정규분포와 분별 함수 우도를 다시 쓰면, 로그를 취하여 분별 함수를 만들어 보면, gi(x)는 변수 x에 대한 2차 식 2019-04-25

2.4.1 정규분포와 분별 함수 예제 2.4 d=2이고 아래와 같다고 가정 분별 함수를 유도해 보면, 2019-04-25

2.4.1 정규분포와 분별 함수 결정 경계 두 부류가 차지하는 영역의 경계 gi(x)=gj(x)인 점 즉 gij(x)=0인 점 2019-04-25

2.4.2 선형 분별 모든 부류의 공분산 행렬이 같은 상황, 분별 함수를 다시 쓰면 i에 무관한 항은 제거해도 됨. 따라서 2차 항 xTΣ-1x 없어짐 선형식이 됨 2019-04-25

2.4.2 선형 분별 결정 경계 2019-04-25

2.4.2 선형 분별 예제 2.5 2019-04-25

2.4.3 2차 분별 임의의 공분산 행렬 2019-04-25

2.4.3 2차 분별 예제 2.6 2019-04-25

2.4.4 최소 거리 분류기 최소 거리 분류기로 다시 해석해 보자. 거리 척도 수식 유도 편의를 위해 두 부류의 사전 확률과 공분산 행렬 같다고 가정 최소 거리 분류기 거리 척도 2019-04-25

2.4.4 최소 거리 분류기 예제 2.7 2019-04-25

2019-04-25

2.5 베이시언 분류의 특성 베이시언 분류의 특성 2019-04-25

2.5 베이시언 분류의 특성 나이브naïve 베이시언 분류기 특징들이 서로 독립이라는 가정 우도 계산을 (2.45)로 하는 분류기를 나이브 베이시언 분류기라 함 얻은 것: 차원의 저주를 피함 잃은 것: 성능 저하 2019-04-25

2.6 기각 처리 기각 신뢰도가 충분치 않은 경우는 의사 결정 포기 그림 2.16에서 두 부류의 확률 차이가 Δ보다 작으면 기각 2019-04-25