Hierarchical Classification: Comparison with Flat Method

Slides:



Advertisements
Similar presentations
인공지능 소개 부산대학교 인공지능연구실. 인공 + 지능 인공지능이란 ? 2.
Advertisements

김예슬 김원석 김세환. Info Northcutt Bikes Northcutt Bikes The Forecasting problem The Forecasting problem The solution 1~6 The.
2008 년 7 월 24 일 신문기사 자동 분류 시스템 한국과학기술정보연구원 최성필 목차 문서분류시스템의 예시와 정의 자동문서분류시스템의 구조 문서분류 모델 및 알고리즘의 종류 문서분류 모델 별 정확도 실험결과 실험결과에 대한 단상 세 가지 분류모델.
What Opinion mining? Abstract 이 논문에서는... 1.Different granularity levels (word, sentence, document) 2. Discussion about terms of challenges 3. Discussion.
C ontents Ⅰ 서 론 Ⅱ 교육훈련프로그램 효과성 평가 개념 및 모형 Ⅲ 교육훈련프로그램 효과성 평가 우수 사례 Ⅳ
Chapter 2 정보시스템 아키텍처 (IS Architecture)
Sentiment analysis support vector machines with diverse information sources 데이터베이스 연구실 이 상환.
스테레오 비젼을 위한 3장 영상의 효율적인 영상정렬 기법
Neural Network - Perceptron
Dialogue System Seminar
(Classification – Advanced Techniques)
분류 (Classification) 2014년 가을학기 강원대학교 컴퓨터과학전공 문양세.
신입생 예비대학 안내 2007학년도 2. 장 소 : 에버랜드(행사기간 자유이용권 지급) 4. 세부행사 일정
INI STEEL 성과관리시스템 구축을 위한 SAP 제안설명회
Mesh Saliency 김 종 현.
부산대학교 인공지능연구실 김민호 Text Categorization 부산대학교 인공지능연구실 김민호
제4장 자연언어처리, 인공지능, 기계학습.
Information Retrieval (Chapter 4: 질의언어)
Internet Computing KUT Youn-Hee Han
12. 데이터베이스 설계.
Heuristic Evaluation.
EPS Based Motion Recognition algorithm Comparison
On the computation of multidimensional Aggregates
SSAS 변화된 구조와 사용자 분석 화면 구현 우철웅 기술이사 BI 사업부 인브레인.
모바일 햅틱 디스플레이를 위한 렌더링 시스템 Rendering System for Mobile Haptic Display
TCM PROGRAM 개요.
Accelerometer Data Collection and Preprocessing
- Make Processes Manageable -
Genetic Algorithm 신희성.
Technological Forecasting & social change(2014)
Internet Computing KUT Youn-Hee Han
HEURISTIC EVALUATION Human Computer Interface Tack-Don Han
A Survey of Affect Recognition Methods :
Information Retrieval (Chapter 5: 질의연산)
Cluster Analysis (군집 분석)
Oracle의 인적자원관리 Oracle Korea /
Semi-supervised Document classification (probabilistic model and EM)
for Robust Facial Landmark Localization
머신 러닝 2 ㈜ 퀀트랩.
Medical Instrumentation
제1장 서론.
프로젝트 관리 Project Management
Parallel software Lab. 박 창 규
Data Mining Final Project
Progress Seminar 권순빈.
제 8 장 객체지향 데이타베이스와 데이타베이스의 새로운 응용 분야
정보 추출기술 (Data Mining Techniques ) : An Overview
정보 검색 연구 내용 및 연구 방향 충남대학교 정보통신공학부 맹 성 현 데이타베이스연구회 2000년도 춘계 튜토리얼
뇌신경정보학연구사업 인지/추론 : 추론 기술 2002년 11월 15일 숭실대학교 컴퓨터학과 김명원.
Progress Seminar 신희안.
개 념 개요 지능을 가진 객체의 특징 컴퓨터에게 지능 부여 학습의 일반적 정의 새로운 환경에 적응
소프트웨어 형상관리: 목차 변경 및 형상관리의 기초 개념 형상항목 확인 및 버전관리 변경관리 감사 및 감사보고 99_11
Optimal placement of MR dampers
정보처리학회논문지 B 제10-B권 제1호(2003.2) 김만선, 이상용
성공적인 웹사이트 구축 (2) 변화 발전하는 Site의 미래를 예측 반영해야 함.
Extracting Schedule Information from Korean
TCM PROGRAM 개요.
Search Engine 4조 해외 여행 준비 4조와 함께 ! 하나투어와 모두투어 비교를 중심으로.
MR 댐퍼의 동특성을 고려한 지진하중을 받는 구조물의 반능동 신경망제어
자동제어공학 4. 과도 응답 정 우 용.
우리는 오늘도 동영상을 봅니다. 7조 (김예지, 민지선, 제해솔).
Bug Localization Based on Code Change Histories and Bug Reports
교육훈련 기획 및 운영실무 교육훈련 기획 및 운영실무 교육훈련 기획 및 운영실무.
Hongik Univ. Software Engineering Laboratory Jin Hyub Lee
Dynamic Graph Query Primitives for SDN-based Cloud Network Management Ramya Raghavendra, Jorge Lobo, Kang-Won Lee 2012 HotSDN 정보통신공학과.
[CPA340] Algorithms and Practice Youn-Hee Han
Progress Seminar 신희안.
Progress Seminar 선석규.
Progress Seminar 이준녕.
Progress Seminar 선석규.
Presentation transcript:

Hierarchical Classification: Comparison with Flat Method Yongwook Yoon Jun 12, 2003 NLP Lab., POSTECH

Contents Hierarchical vs. Flat Classifier System Overview Experiment & Results Comparison with Flat Methods Future Work

Hierarchical Classification Natural Method in very large group of classes Top-down Classification Human readability promotion The better performance than flat method Much better recall and precision Flexible strategy: applicable to different levels of hierarchy

Flat vs. Hierarchical classification Business Root Grain Oil D1 D2 D3 Dn D1 D2 Di Dj Dj+1 Dn

System Overview (1) Baseline system currently BOW (Bag Of Words) approach No syntactic or semantic feature yet Naïve Bayesian classifier Many feature selection methods Pruning vocabulary by document count or word count Information gain Hierarchical classification added

System Overview (2) Many Extensions possible BOW Library (by Mccallum) supplies Support Vector Machine Not on-line but batch Maximum Entropy K-nearest neighbor Pr-TFIDF Bow does not supplies On-line learning methods Syntactic or semantic classification features

System Overview (3) Functions implemented for hierarchical classification Construct the hierarchy prototype as a directory structure Division of documents into different levels of hierarchy Training of each classifiers in hierarchy Testing of documents from the root to the leaf classifiers automatically Logging and evaluation

Construct Hierarchical Structure Business Grain Oil Make up Logical hierarchy Documents Divide docs Into hierarchy Training of Each classifier Training parameters

Classifying documents A doc From Root node Input a document Level_0 From intermediate Result, Go further Grain Steel Oil Class_j Final classification Class_1 Class_i Class_k Class_N

Experiment Data: 20 newsgroup documents Two major trials 20 classes 1,000 documents per class Intrinsic hierarchy rec.sport.hockey, talk.politics.mideast Two major trials Flat vs. Hierarchy Evaluation and comparison ck ck

Experiment detail Sigir-2001(Bekkerman et. al) 과 동일한 환경에서 실험 News의 header부분 제외 단 subject 라인은 살림 모든 문자를 소문자화 Multi-labeled class허용 4-fold cross-validation

4-fold cross validation Flat and hierarchy case 에 동일 적용 20,000의 문서를 random하게 5,000개의 문서로 된 4 set로 구분 위 4 set중 3개씩을 training으로 1개는 testing으로 조합 4번의 실험을 수행 최종 evaluation은 위 4개를 평균 Sigir-2001 evaluation 방법

root alt comp misc rec sci soc talk 총 8개의 classifier가 필요 forsale religion atheism os graphics sys windows crypt electronics med space sport motor- cycles autos christian x ms-windows ibm mac baseball hocky politics religion misc hardware hardware guns mideast misc misc 총 8개의 classifier가 필요

Result – Flat method The result of 4-fold cross-validation: ./test_out/cv3_info900.stats Correct: 16573 out of 19996 ( 82.88% percent accuracy) classname 0 1 2 3 4 5 6 7 8 18 19 :total 0 alt.atheism 825 . . . 1 . . 1 23 11 82 :1000 82.50% 1 comp.graphics . 866 33 17 14 42 4 2 1 . 1 :1000 86.60% 2 comp.os.ms-windows.misc . 25 873 34 2 65 1 . . . . :1000 87.30% 3 comp.sys.ibm.pc.hardware 1 60 97 662 126 12 8 1 . . . :1000 66.20% 4 comp.sys.mac.hardware . 33 13 25 902 5 4 1 . . . :1000 90.20% 5 comp.windows.x . 122 65 8 1 783 1 2 1 . 1 :1000 78.30% 6 misc.forsale . 8 5 25 17 6 801 31 61 4 1 :1000 80.10% 7 rec.autos . 1 . . 2 2 11 846 98 2 . :1000 84.60% 8 rec.motorcycles . 2 . . . . 2 17 971 . . :1000 97.10% 9 rec.sport.baseball . . . . . 1 1 11 55 1 . :1000 86.60% 10 rec.sport.hockey 2 . . . . 1 2 4 11 1 . :1000 96.70% 11 sci.crypt . 8 6 . . 8 . . 2 1 . : 999 93.99% 12 sci.electronics . 30 6 13 31 3 10 35 12 . . :1000 74.30% 13 sci.med . 16 . . 2 4 1 5 8 3 . :1000 93.00% 14 sci.space 2 13 3 . 3 1 . 3 2 3 1 :1000 95.70% 15 soc.religion.christian 4 . . . . . . . . 1 2 : 997 99.10% 16 talk.politics.guns 1 . 1 . . . 2 3 12 68 22 :1000 87.00% 17 talk.politics.mideast 6 2 . . . 7 3 . 10 149 2 :1000 78.50% 18 talk.politics.misc 5 1 . . 1 . . 6 6 673 38 :1000 67.30% 19 talk.religion.misc 330 3 . . . . . 4 2 107 326 :1000 32.60%

Evaluation measure From the four entries αi, βi, γi of the confusion matrix we compute Precision = Recall = Micro-averaged BEP = (P+R) / 2 Overall recall and precision are the same βi: 원래 Ci가 아니나 Ci로 분류된 문서 수, γi: 원래 Ci이나 Cj로 분류된 문서 수

Result – Hierarchical (1) # level_0 The result of 4-fold cross-validation: ./test_out/cv3_info20000.stats Correct: 18440 out of 19996 ( 92.22% percent accuracy) classname 0 1 2 3 4 5 6 :total 0 alt.atheism 962 1 . 3 12 4 18 :1000 96.20% 1 comp. 1 4807 32 13 147 . . :5000 96.14% 2 misc.forsale . 117 771 62 49 . 1 :1000 77.10% 3 rec. 1 18 14 3916 43 . 8 :4000 97.90% 4 sci. 6 187 23 39 3730 . 14 :3999 93.27% 5 soc.religion.christian 4 1 . . . 978 14 : 997 98.09% 6 talk. 409 17 2 60 160 76 3276 :4000 81.90% # level_1/comp. The result of 4-fold cross-validation: ./test_out/cv3_info900.stats Correct: 4276 out of 4807 ( 88.95% percent accuracy) classname 0 1 2 3 :total 0 comp.graphics 802 33 35 67 : 937 85.59% 1 comp.os.ms-windows.misc 13 848 55 75 : 991 85.57% 2 comp.sys. 42 78 1743 44 :1907 91.40% 3 comp.windows.x 47 31 11 883 : 972 90.84%

Result – Hierarchical (1) # level_1/sci. The result of 4-fold cross-validation: ./test_out/cv3_info900.stats Correct: 3596 out of 3730 ( 96.41% percent accuracy) classname 0 1 2 3 :total 0 sci.crypt 969 5 1 2 : 977 99.18% 1 sci.electronics 20 731 6 43 : 800 91.38% 2 sci.med 8 14 931 14 : 967 96.28% 3 sci.space 6 10 5 965 : 986 97.87% # level_1/talk. Correct: 3014 out of 3276 ( 92.00% percent accuracy) classname 0 1 :total 0 talk.politics. 2680 113 :2793 95.95% 1 talk.religion.misc 149 334 : 483 69.15% # level_2/comp.sys. The result of 4-fold cross-validation: ./test_out/cv3_info10.stats Correct: 1709 out of 1743 ( 98.05% percent accuracy) 0 comp.sys.ibm.pc.hardware 815 22 : 837 97.37% 1 comp.sys.mac.hardware 12 894 : 906 98.68%

Evaluation measure in Hierarchical Recall Same as the flat method case The correct classification count in leaf node Precision Should consider the incorrect count in the upper level classification Divide the incorrect count by the count of classes in the lower level Finally, in the computation at the leaf node we consider all of the averaged incorrect count of the upper levels into account

Evaluation measure in Hierarchical Recall Same as the flat method case The correct classification count in leaf node Precision Should consider the incorrect count in the upper level classification Divide the incorrect count by the count of classes in the lower level Finally, in the computation at the leaf node we consider all of the averaged incorrect count of the upper levels into account

Evaluation measure in Hierarchical – Cont’ # level_0 The result of 4-fold cross-validation: ./test_out/cv3_info20000.stats Correct: 18440 out of 19996 ( 92.22% percent accuracy) classname 0 1 2 3 4 5 6 :total 0 alt.atheism 962 1 . 3 12 4 18 :1000 96.20% 1 comp. 1 4807 32 13 147 . . :5000 96.14% 2 misc.forsale . 117 771 62 49 . 1 :1000 77.10% 3 rec. 1 18 14 3916 43 . 8 :4000 97.90% 4 sci. 6 187 23 39 3730 . 14 :3999 93.27% 5 soc.religion.christian 4 1 . . . 978 14 : 997 98.09% 6 talk. 409 17 2 60 160 76 3276 :4000 81.90% # level_1/comp. The result of 4-fold cross-validation: ./test_out/cv3_info900.stats Correct: 4276 out of 4807 ( 88.95% percent accuracy) classname 0 1 2 3 :total 0 comp.graphics 802 33 35 67 : 937 85.59% 1 comp.os.ms-windows.misc 13 848 55 75 : 991 85.57% 2 comp.sys. 42 78 1743 44 :1907 91.40% 3 comp.windows.x 47 31 11 883 : 972 90.84% (1+117+18+187+1+17) / 5 = 68.2 Precision of comp.graphics = 802 / (802+13+42+47+ 68.2 ) = 82.5

Comparison of Flat vs. Hierarchical Algorithm BEP condition Flat 82.9 Naïve Bayesian, infogain – 900 words Hierarchical 85.8 Infogain – 10 ~ 20,000 words Sigir-2001 (Flat) 86.3 (unfair) SVM, MI – 15,000 words 88.6 IB clustering – 300 groups

Analysis Hierarchical이 Flat case보다 월등한 성능향상 Naïve Bayesian 과 word feature 만의 결과 SVM, Maximum entropy 등 다른 방법 적용할 필요 Hierarchical에서는 level마다 다른 classifier와 다른 feature selection방법 사용 가능 보다 flexible한 적용 가능 성능향상을 위한 tuning의 여지가 많음 실험에서는 level마다 feature갯수를 달리 적용 Level_0: 20,000; Level_1:900; Level_2: 10~900 words Class 추가, 삭제에 대하여 국부적인 영향 Relevant level에 대해서만 재 학습

Future Work Naïve Bayesian을 대체한 다른 classifier 적용 Support Vector Machine, Maximum Entropy, K-nearest neighbor, Pr-TFIDF 등 Hierarchy + Adaptive learning Hierarchy 에 적합한 adaptive 방법 발굴 다른 feature selection 방법 적용

Discussion Overall precision 과 recall이 일치하는 게 우연인가 필연인가? Micro-averaged 라서 그런가 아니면, class당 문서수가 일정한 결과인가? Hierarchical의 classification 단계에서 어느 한 단계의 분류결과에 대해서 정답만 추출하여 다음단계로 내려보내지 말고 다 내려보내야 맞음(현실적, 합리적인 적용) 현실에선 중간단계마다 정답을 구분하지 않음 또, Hierarchical precision계산시 상위레벨에서 틀린것을 평균해서 하위로 내려보낼 필요 없이, 위에서 처럼 틀린것까지 다 하위레벨로 내려보낸후 leaf node에서 정답과 비교, precison을 계산하는 것이 맞지 않나? 지금의 계산방법과 비교 필요 Future Work에 대하여 Baseline이후 연구방향 확정 필요 Class 의 추가, 삭제를 incremental learning으로 cover 하는 방법 Hard Problem ! 단순 Hierarchical + adaptive learning

The End