Bayesian Network 2006년 2학기 지식기반 시스템 응용 석사 3학기 송인지.

Slides:



Advertisements
Similar presentations
 수학 10- 나  1 학년 2 학기  Ⅰ. 도형의 방정식 1. 평면좌표 (1/24) 두 점 사이의 거리 수업 계획 수업 활동.
Advertisements

1 통계를 왜 공부해야 하나 ? Dept. of Public Administration Chungnam National University.
P(B|A) P(A|B) 5.4 베이즈의 법칙(Bayes’ Law)…
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
15 장. 알고리즘의 설계 알고리즘 설계 학습목표 기본 패턴 패턴의 한계점 일곱 가지 패턴의 알고리즘 설계 기법을 이해한다.
Shortest Path Algorithm
확률분포의 개념 미분과 적분의 개념을 사전에 공부한다.
(Classification – Advanced Techniques)
M원 탐색트리.
분류 (Classification) 2014년 가을학기 강원대학교 컴퓨터과학전공 문양세.
정 의 학습의 일반적 정의 기계학습(Machine Learning)의 정의
베이즈 정리(Bayesian Theory)
1장 : 확률이론 확률통계론 TexPoint fonts used in EMF.
제 09 장 데이터베이스와 MySQL 학기 인터넷비즈니스과 강 환수 교수.
제4장 자연언어처리, 인공지능, 기계학습.
제1장 과학과 사회조사방법 과학적 지식(scientific knowledge): 과학적 방법에 의해 얻어진 지식, 즉 논리적, 체계적, 경험적, 객관적 절차를 통해 얻어진 지식 과학적 지식의 특성 1) 재생가능성(reproducibility) 2) 경험가능성(empiricism)
Information Technology
MySQL 및 Workbench 설치 데이터 베이스.
On the computation of multidimensional Aggregates
불확실성(Uncertainty) 현실세계: 과학, 공학 시스템 내외부에 존재하는 불확실성에 대처할 필요
제 5장. Context-Free Languages
최현진 정경대학 정치외교학과 국제정치론 2014 가을학기 제1주(2) 최현진 정경대학 정치외교학과
Computational Finance
Sung-Hae Jun 자연어 처리의 이해 Sung-Hae Jun
Simulating Boolean Circuits on a DNA Computer
Missing Value.
프로그래밍 랩 – 7주 리스트.
CH 4. 확률변수와 확률분포 4.1 확률 확률실험 (Random Experiment, 시행, Trial) : 결과를 확률적으로 예측 가능, 똑 같은 조건에서 반복 근원사상 (Elementary Event, e) : 시행 때 마다 나타날 수 있는 결과 표본공간.
논문을 위한 통계 논문과 통계의 기초 개념 하성욱 한성대학교 대학원.
소프트컴퓨팅 연구실 소개자료 . 소프트컴퓨팅연구실 조성배.
CHAPTER 6 그래프.
1.4 중첩된 한정기호 (Nested Quantifiers) 이산수학 (Discrete Mathematics)
자료구조(SCSC) Data Structures
군집 분석.
자료구조: CHAP 7 트리 –review 순천향대학교 컴퓨터공학과 하 상 호.
Initial Concepts for Modeling
Chip-based Computing + UMDA
Week 6:확률(Probability)
Linear Mixed Model을 이용한 분석 결과
(independent variable)
정보 검색 연구 내용 및 연구 방향 충남대학교 정보통신공학부 맹 성 현 데이타베이스연구회 2000년도 춘계 튜토리얼
경제통계학 개요 사공 용 서강대학교 경제학과.
연산자 (Operator).
Week 5:확률(Probability)
Association between two measurement variables Correlation
CSI8751 인공지능특강 Hybrid Intelligent Systems: Methodologies and Applications 2007년도 제 1학기.
Statistical inference I (통계적 추론)
인공지능 소개 및 1장.
2 장. 베이시언 결정 이론 오일석, 패턴인식, 교보문고,
그래프와 트리 (Graphs and Trees)
Sampling Distributions
제2장 통계학의 기초 1절 확률 기본정의 확률의 기본 공리와 법칙 2절 확률변수와 확률분포 3절 정규분포와 관련 분포 정규분포
이산수학(Discrete Mathematics)
IBM Corporation {haoxing, eleve, kravets,
Analysis and Testing of Programs with Exception-Handling Constructs
Definitions (정의) Statistics란?
UI설계및평가 UX Evaluation 숙명여자대학교 임순범.
최소의 실험 횟수에서 최대의 정보를 얻기 위한 계획방법 분석방법: 분산분석(Analysis of Variance, ANOVA)
제3장 사회조사방법의 기본개념 변수(variable): 사람, 물건, 사건 등의 특성이나 속성이 두 가지 이상의 가치(value)를 가질 때 변수라고 함. 즉 상호배타적인 속성들의 집합 1) 속성에 따른 분류 -. 명목변수(Nominal Variable): 분류에 기초를.
비교분석 보고서 Template 2015.
Chapter 7 – Curves Part - I
엔화 대환/대출 자금용도 대상 이자 차액 효과 (A,B,C) 환율 리스크 헷징 (A,B) 엔화의 평균환율 (A,B,C)
4. 분자 상호 작용의 네트워크 분석 4.1 네트워크 표현과 계산
Additional fitness measures for Sequence Generation
07. DB 설계 명지대학교 ICT 융합대학 김정호.
Dynamic Graph Query Primitives for SDN-based Cloud Network Management Ramya Raghavendra, Jorge Lobo, Kang-Won Lee 2012 HotSDN 정보통신공학과.
NACST progress report 신수용.
확 률 1 1 사건 2 확률 3 조건부 확률.
<정보이론(Information Theory)> 제8장 채널의 특성과 상호정보
6 객체.
Presentation transcript:

Bayesian Network 2006년 2학기 지식기반 시스템 응용 석사 3학기 송인지

Outline Introduction Independent assumption Consistent probabilities Evaluating networks Conclusion

당신이 병에 걸렸을 확률? Introduction 당신은 병이 있다는 판정을 받았다. 이 검사의 오진율은 5%이다. 일반적으로 이 병에 걸릴 확률은 0.1%이다. 1970년대: 미국의 병원 의사 80%가 95%라고 답 P(질병|질병판정) = ? P(질병판정|질병X) = 0.05, P(질병X판정|질병) = 0.05 P(질병) = 0.001

Disease-test Bayesian network Introduction Causal Relationship

Bayesian Networks Introduction 변수 집합 사이에 확률적 관계를 표현한 graphical model 조건부 확률들에 기반한 결합 확률 분포의 간략한 표현 Qualitative parts: graph theory DAG Vertices: 변수들 Edges: dependency or influence Quantitative part: probability theory 각 변수 Xi와 그의 부모 Pa(Xi)에 마다, P(Xi|Pa(Xi))를 위한 조건부 확률 테이블

d-Connection & d-Sepeartion Independence Assumption 증거 노드 E에 대해 두 노드 q와 r 사이의 path가 d-connecting 이려면, path 안의 각 내부 노드 n이 다음과 같은 성질 중 하나를 충족 Linear or diverging: n의 어떤 노드도 E안에 포함X Converging: n 또는 그 하위 노드 중 하나라도 E안에 포함 만약 두 노드 사이에 d-connecting path가 없으면, 두 노드는 d-seperated 대략적으로 말해 Causal path가 존재 또는 두 노드가 관련 있다는 증거가 존재

Question 1: Is BP dependent on FO? Independence Assumption Converging Node No! 만약 두 사건 사이에 아무 연관관계가 없지만, 같은 사건의 원인이 된다면, 두 사건은 독립 BN은 원인 판별에 주로 사용됨  converging nodes 자주 사용됨

Question 2: Is BP independent on FO? Independence Assumption Evidence No! 두 노드 사이의 path에 증거 노드가 존재하는 경우는 Q1과 다름 BP의 확률이 증가하면 FO의 확률은 감소 가장 그럴 듯 한 원인을 원인 목록에서 제거하면, 덜 그럴 듯 하던 원인이 조금 더 그럴 듯 해짐

Nothing looks amiss? Consistent Probability P(a|b) = .7 P(b|a) = .3 P(a) = P(b)P(b|a)/P(b|a) = .5 * .7 / .3 = 1.16 > 1 BN의 또 다른 장점! 만약 일부의 필요한 확률 값들만 정해 주면, 전체 확률 테이블은 consistency를 유지 유일하게 distribution이 정의됨

Parameter saving in BN Consistent Probability Complete distribution for doubled FO : 2N-1 = 210-1 = 1023 Required value for doubled FO BN : 21

Detailed explanation Consistent Probability To define a network Requires Joint distribution for all values For set of boolean var (a,b): P(a,b), P(∼a, b), P(a, ∼b), P(∼a, ∼b) For n boolean var: 2n-1 values Requires the probability of every node given all possible combinations of its parent 각각의 joint distribution  Chain rule 독립 가정 Chain rule 계산 쉬워짐 Marginal independence A⊥B ⇔ P(A|B) = P(A), P(B|A) = P(B) Conditional independence A⊥B|C ⇔ P(A|B,C) = P(A|C), P(B|A,C) = P(B|C)

Inference tasks Evaluating Networks Single Marginal: P(x) or P(x|y) Subjoint: P(x,y) All Marginal: P(x) for all x Arbitary subset of queries: {P(x,y), P(z)} Boolean: P(X^Y) MPE(Most Probable Explanation): Full JPD에서 확률이 가장 높은 경우의 레이블 MAP(Maximum A posteriori Probability): Sub JPD에서 확률이 가장 높은 경우의 레이블

Inference methods Evaluating Networks Exact inference Factoring Variable elimination Junction tree Approximate inference Simulation Search Model reduction

Exact inference Evaluating Networks

Factoring Evaluating Networks 단순한 greedy heuristics을 일반적으로 적용 – 계산 량이 적은 것을 우선적으로 선택 Single-query tasks에만 사용

Variable elimination Evaluating Networks Query에 포함되지 않은 변수들의 삭제 순서를 정하고 변수들을 삭제해가며 계산 삭제 순서  NP-Hard Approximation methods: Minimum deficiency ordering (Connection이 가장 적은 노드 우선 삭제) Factoring과 마찬가지로 Single Marginal Query 전용

Unified computational tree Evaluating Networks Multiple query를 위해 unified computational tree를 구성

Computation trees for P(Cold) & P(Cat) Evaluating Networks

Information flows in merged computation Evaluating Networks

Junction tree Evaluating Networks 모든 marginal task를 위해 structure sharing을 최대화 Tree 생성을 위해 elimination ordering 사용 Elegant! Simple! Well-understood! Efficient! P(A)*P(B|A)*P(C|A)

Approximate inference Evaluating Networks Simulation 무작위로 생성된 샘플들을 바탕으로 추측 Search 가장 큰 확률 값 몇 개만 계산에 이용 Model reduction 변수나 연결선의 개수를 줄이는 방법 등 Searching example P(Cold=True) = .035/(.83+.035) = .04 ≒ .05 (True value)

“She ordered a milk shake. She picked up the straw” Conclusion Knowledge base의 간략한 확률적 표현 불확실하고 복잡한 문제에 주로 사용됨 Mobile intelligence & BN ? Word-sense ambiguity “She ordered a milk shake. She picked up the straw”