A Survey of Affect Recognition Methods :

Slides:



Advertisements
Similar presentations
SPEAKER VERIFICATION SYSTEMS 대화형 사용자 인터페이스 개론 정보와 추론 연구실.
Advertisements

동서 식사예절 박재용이은미. 보기 닫기 카톡 안철수가 빌게이츠에게 면박 당한 이유는...??
Computer Science and Engineering. 컴퓨터는 미래 지식 사회의 핵심 요인  지식 사회의 도래 : 매 50 년 마다 큰 기술, 사회적 변화 발생.
Rethink: Big Intelligence? 2014 년 9 월 27 일 삼성전자 어길수 부사장.
일과 삶의 균형잡힌 조화를 통한 올바른 직업생활을 지원하는. CONTENTS 왜 인성교육인가 ? 01 인성교육 전문가 양성 교육과정 소개 02 인성교육 전문가 양성과정 특장점 / 기대효과 03.
1 ‘ 우리나라의 주요공업 ’ - 정도웅, 주민혁, 안수진, 백경민, 엄다운, 박경찬 -.
설득커뮤니케이션 황진규  작가 소개  ▶지은이 노버트 오부숀 (NORBERT AUBUCHON)  독보적인 세미나 설득의 해부학 (THE ANATOMY OF PERSUASION) 의 창시자다. 그는 듀폰 사에서 판매 / 광고 / 마케팅 부 서를 두루 거치며 성공적인.
기업교육의 이해 학습목표 1. 기업에 대한 이해 2. 기업교육의 중요성 및 역할에 대한 이해 3. 기업교육의 체계, 운영방법 및 교육부서의 역할 이해 4. 기업교육의 실제 사례 1. 기업에 대한 이해 2. 기업교육의 중요성 및 역할에 대한 이해 3.
2008 년 7 월 24 일 신문기사 자동 분류 시스템 한국과학기술정보연구원 최성필 목차 문서분류시스템의 예시와 정의 자동문서분류시스템의 구조 문서분류 모델 및 알고리즘의 종류 문서분류 모델 별 정확도 실험결과 실험결과에 대한 단상 세 가지 분류모델.
모든 접점의 스텝들이 동일한 질의 서비스를 제공하고 역할별 스텝들이 접점을 매끄럽게
4. 지 각 1. 지각(Perception)의 의의  감각기관을 통해 두뇌로 유입된 자극을 개인적 차원에서
한국연구재단 학제간 융합연구팀 주최 세미나 음성인식 기술을 이용한 일본 드라마 감성 분석 (Analysis of Japanese Drama using Emotional Speech Recognition) (금). 김성호 영남대학교 전자공학과.
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
사례분석 경영학과 박현수 경영학과 김영녕.
교육과 언어적 상호작용, 체험학습 3조 E41040 김권 E46038 최병문 E46059 강에리 E46060 강주희
Brain-Computer Interfaces for Communication and Control
Snake : Active Contour Model Computer Vision & Pattern Recognition
공부할 내용 조상들이 살던 곳 자연과 잘 어울리는 한옥 지방에 따라 서로 다른 집의 모양 섬 지방의 집
사랑, 데이트와 성적 자율성 :데이트 성폭력!!! 성폭력예방교육 전문강사 / 여성학 전공 신 순 옥.
1636 쇼핑몰.
퇴계와 율곡의 사회사상 비교 남 일 재 동서대학교 교수/ 정치학 박사 1. 퇴계 이황과 율곡 이이의 약전(略傳)
14주차 1교시 강화계획 [학습목표] 1. 강화계획의 정의를 안다 [학습내용] 1. 단순한 강화계획 2. 간헐적 강화 3. 복합 계획 4. 선택과 대응법칙 [사전학습] 강화계획이 일어날 수 있는 사례를 생각해본다.
연장근로와 야간·휴일근로 김영호 노무사 나눔 노사관계연구소 소장 연세대 일반대학원 박사 수료 고려사이버대 법학과 외래교수
분류 (Classification) 2014년 가을학기 강원대학교 컴퓨터과학전공 문양세.
501. 군인들의 세상 502. 민정 이양과 한일회담 이선용.
쌍용차 회생계획안을 통한 투기자본(=먹튀자본) 수강과목: 회 계 학 원론 담당교수: 박 성 환 교수님
안녕하세요. 생체인식(BIOMETRICS)에 대해 발표를 맡은 08학번 최재건입니다.
제4장 자연언어처리, 인공지능, 기계학습.
Lab Assignment 2 Neural Network & Ensemble Data Mining 2016 Fall 1 1.
EPS Based Motion Recognition algorithm Comparison
Word2Vec Tutorial 박 영택 숭실대학교.
Accelerometer Data Collection and Preprocessing
조기숙 이화여자대학교 국제대학원 교수 (주) 리더십 프런티어 대표이사
Dept. Computer science of Engineering
CH 851 지식기반 시스템 응용 (모바일 시스템) 2006년도 제 2학기.
국가우주개발 미래 비전 수립 김 병 수 한국과학기술기획평가원 전략협력실
for Robust Facial Landmark Localization
시스템 분석 및 설계.
Computer Vision & Pattern Recognition Lab. 김 태 철 (월)
웨이브렛 프레임과 공간 정보를 이용한 질감 영상 분할 Texture Segmentation Using Wavelet Frame and Spatial Information 지도교수: 조 석 제 예 병 길 제어계측공학과.
제 3 강. 소 비 자 행 동 1 과목명 : 마케팅 원론.
마 케 팅 Marketing 관리적 접근 제 3판 제2부 마케팅 환경분석 제3장 소비자 행동분석
경제성평가와 약가협상 국민건강보험공단 (보험급여실 약가개선부).
Data Mining Final Project
감성지능 ( Emotional Quotient)
정보 추출기술 (Data Mining Techniques ) : An Overview
세종학당(King Sejong Institute) – Free Korean Language Class
Wee Class 란? 전남생명과학고 wee class 임은주.
프로젝트 학습 -프로젝트의 운영- 초등교육학과B 정예은.
[한국방송통신대학교 청소년교육과 출석수업] 청소년과 부모 김 성 현 [교육학박사]
좋은징조 담당교수 : 조성제 김도엽 김현일 이상훈.
Problem-Based Learning
인공지능 소개 및 1장.
vrlab.suwon.ac.kr/mwlee
정치개혁의 가능성 논의 권력구조 개편을 통하여 본 -개헌을 통한 정부형태의 변화를 중심으로 [한국정치론] 윤성이 교수님
정품 라이센스.
중국은 평평하지 않다 차이와 격차 알아야 중국 사업 성공한다
PhoeniX Technologies Incorporated
광고 모델의 영향력.
vrlab.suwon.ac.kr/mwlee
노년기 발달 장안대 행정법률과 세류반 정 오 손
태국 문학 욜라다 왓짜니 싸란차나 팟차라와라이 끼따야펀 르앙다우 타니다.
김종철 (변호사, 서울공익법센터 어필) 국내 난민 판결 10년 김종철 (변호사, 서울공익법센터 어필)
평생 저축해도 강남 아파트 못산다 학 과 : 회계학과 1학년 B반 과 목 : 회계학원론 담당교수: 박성환 교수님
워밍업 실뭉치 전달게임.
음파성명학 최종욱.
연구 진행 상황 보고서 Insulin Pump CPF Xproject 2주전 계획 연구 결과 문제점 및 대책 목표 및 계획
Progress Seminar 선석규.
안심귀가 서비스 원스톱 모바일 안전 도우미 시민이 안전한 보령시 Mobile Safety Business
Progress Seminar 선석규.
Presentation transcript:

A Survey of Affect Recognition Methods : Audio, Visual, and Spontaneous Expressions 감정 인식에 대한 Survey 논문 . 2009 년도 / 내용이 많아서 핵심 키워드만 추출하였음. 기존에는 6가지 기본 감정 분류를 이용했으나, 최근에는 2차원적인 감정 분 류를 사용함 인위적인 감정 표현에 대해서는 많이 연구가 이루어졌으나, 자발적인 감정 표현 부분은 연구가 더딤. Single-modal 방법보다 Multi-modal 방법이 좋은 성과를 보이나, 연구가 많 이 필요함. (ex)어떻게 다른 종류의 데이터를 합성할 것인가) 얼굴 표정 인식은 대부분 객관적인 분석 방법인 FACS-AUs를 사용함. (그러 나 음성 데이터에서는 객관적인 분석 방법이 부족.) Zhihong Zeng, Member, IEEE Computer Society, Maja Pantic, Senior Member, IEEE, Glenn I. Roisman, and Thomas S. Huang, Fellow, IEEE

1. INTRODUCTION

“Affect Recognition” 필요성 이제는 기존의 컴퓨터 중심의 인터페이스 (마우스, 키보드)가 아닌, 인간 중심의 인터페이스가 필요 “Affect Recognition” 응용 분야 : 고객 서비스, 콜 센터, 게임-엔터테이먼트, 지능형 자동 모바일 시 스템 등에 응용 가능 관련 연구 : 심리학, 정신의학, 행동과학, 신경과학 등의 다양한 학문 발전에 도움

Happiness, Sadness, Anger, Fear, Surprise, Disgust 기본 감정 표현 6 basic emotions Happiness, Sadness, Anger, Fear, Surprise, Disgust (연구 결과 위의 6가지 감정들은 문화에 상관없이 공통적으로 표 현되는 감정이라고 알려짐)

Multi-modal > Single-modal 연구 현황 Multi-modal > Single-modal 최근 연구에서 Audiovisual fusion 접근방식이 좋은 성과를 보이고 있음 Limitation 1. 제한적인 환경에서 의도적으로 표현된 감정들에만 정확도가 높음 2. 실제 자발적인 감정 표현은 의도적인 감정 표현과 매우 다름 3. Multi-modal의 경우 시간적인 연관성에대한 연구가 더 필요함. 기존에는 싱글 모델위주. 1. 얼굴이 가려지면 안되고, 빛이나 배경도 일정해야한다. 2. 예를 들어 자발적인 웃음은 크기가 더 작고, 지속시간이 긴 특징을 갖고 있음

2. Human Affect Perception

Limitation of 6 basic emotion 감정 분류 Limitation of 6 basic emotion 사람 감정의 오직 일부분만을 다룰 뿐임. Alternative : Dimensional labeling Evaluation(Valence) : positive vs negative Activation : active vs passive activation Anger, fear Joy 2차원적으로 감정들의 범위를 배치하면 좀더 다양한 감정을 다룰 수 있다. 그러나 이 역시도 몇가지 감정들은 잘 구분되지 못한다. Ex) Fear and Anger 또한 Surprise 는 이 2차원 안에 표현되기 힘들다. 최근에는 위와 같은 접근 방법으로, 차원을 확장하여 감정을 나타내려는 연구가 있다. 그러나 공학적으로 적용되는 것은 아직 진행 중이다. evaluation Sadness Happiness

Ex) “Facial Action Coding System (FACS)” 감정 판단 Message judgment : 행동자의 내재된 의미 판단 평가자의 주관적인 판단에 기반함 Sign evaluation: 객관적인 외형표현만 판단 Ex) “Facial Action Coding System (FACS)” Message judgment 는 전통적인 접근방법으로, 표정등을 보고 어떤 감정인지 찾으려하는것. FACS는 매우 객관적이기 때문에 연구에 있어 활용도가 높다.

Action Units(AUs) FACS : Action Units(AUs)라는 얼굴의 움직임을 나타내는 단위를 이용해, high-level 의사결정에 필요한 정보 제공(27개의 기본 AUs가 있음.) (High-level mapping의 예) EMFACS : FACS기반의 기본 감정 인식 FACSAID : FACS기반의 감정 해석 데이터베이스 Audio, Visual 신호는 주로 개별적으로 연구되어 왔는데, 이 둘사이의 시간적 연관성이 있음이 밝혀짐. 그러나 더 많은 연구가 필요한 상황.

3. THE STATE OF THE ART

6 basic emotion, dimensional labeling, 자체 기준 5. Labeling 방법 요약 Summary Databases 1. 감정 표현 유도 방법 자발적, 의도적 2. 표본 집단 3. Modality Audio, Video 4. 감정 표현 종류 6 basic emotion, dimensional labeling, 자체 기준 5. Labeling 방법 FACS, self report, human judgment 6. 접근 가능성

exp, per, cues, rea, class, sub, samp, acc 요약 Summary Vision-Based Affect Recognition 1. Facial Feature Gabor wavelets, AAM 등 2. Classifier SVM, HMM 등 3. Performance exp, per, cues, rea, class, sub, samp, acc - Gabor wavelet = gabor filter / 선형 필터, 외곽선 검출. 널리 쓰임 http://thinkpiece.tistory.com/304 - active appearance model (AAM) / 얼굴 인식 알고리즘. 널리 쓰임 http://en.wikipedia.org/wiki/Active_appearance_model - Support vector machine (SVM) / 데이터를 2개의 클래스로 나누어주는 초평면을 구해준다. 오래걸리는 대신 정확함 http://blog.naver.com/minas_isil?Redirect=Log&logNo=140072165900 - Hidden markov model (HMM) / 음성인식에 가장 널리 쓰이는 모델, http://msnayana.blog.me/80102408151

prosody, linguistic, spectral, lexical 2. Classifier 요약 Summary Audio-Based Affect Recognition 1. Feature prosody, linguistic, spectral, lexical 2. Classifier Decision tree, SVM, GMM, HMM 등 3. Performance exp, per, cont, class, sub, samp, acc, other Spectral : 스펙트럼의 Lexical : 어휘적인

prosody, AAM, Gabor wavelets, motion units 2. Fusion 요약 Summary Audiovisual Affect Recognition 1. Feature prosody, AAM, Gabor wavelets, motion units 2. Fusion Feature/Decision/Model- level 2. Classifier SVN, HMM, RNN 3. Performance exp, per, cue, class, sub, samp, acc, other

4. CHALLENGES

1. Limited Data 2. Audio Data 3. Labeling Databases 자발적인 감정 행동 데이터는 실험실 환경에서 얻기 매우 힘듦 Ex) 분노, 슬픔, 공포 등 2. Audio Data 음성 데이터를 어떻게 객관적으로 표현할 것인가 3. Labeling Labeling은 사람이 수동으로 직접하기에 상당한 시간이 소모됨. -> Semisupervised active learning 을 사용할 것을 제안함 1. 대부분의 현존하는 데이터들은 인위적인 감정 행동 웃음은 얻기 쉽다고 함. - 2. 영상 데이터는 객관성을 위해 FACS를 필수적으로 사용함 3. 그럼에도 사람에의한 labeling은 시간이 많이 소모되며 높은 신뢰성을 얻기 위해 관찰자의 충분한 훈련이 필요하다. (아직 시도되지 않음) 자연적인 감정 표현 데이터가 연구에 있어 매우 중요하다. 그러나 이는 수집 하기가 매우 힘들다. 또한 수동적으로 분류하는 작업 또한 비효율적이다. 그래서 대부분의 연구는 인공적인 감정 표현 데이터를 사용한다.

Vision-Based Affect Recognition 1. Constrained condition 자발적인 얼굴 표현 인식은 아직도 제한적인 환경에서만 가능 2. Additional Information 얼굴 표정을 제외한 “머리 움직임, 시선 방향, 몸짓” 등에 대한 연구는 공 학적으로는 아직 연구가 부족함. 1. 가까이 정면에서 본 얼굴 이미지, 그리고 일정한 조명환경 등 실제 환경보 다 제약이 심하다.

Audio-Based Affect Recognition 1. Linguistic And Paralinguistic 어떻게 두 가지 요소를 분리해낼 것인가. 2. Nonlinguistic 한숨이나 하품 같은 표현에 대한 감정 인식은 아직 연구가 부족 두가지 요소를 모두 고려한 것이 이상적인 방법이다.

Audiovisual Affect Recognition Fusion : 서로 다른 두 가지 요소를 어떻게 결합시켜 해석할 것인가 Feature-level fusion audio 와 video 특징을 하나로 붙여서 인식 Decision-level fusion(Classifier fusion) 각각의 정보들을 독립적으로 인식한 다음 최종적으로 하나의 정보로 통합하는 것 Hybrid fusion, Model-level fusion 두 가지 방법의 장점을 적절히 혼합

A Few Additional Related issues 1. Context 대상 컨텐츠나 상황의 문맥을 고려한 감정 인식에 대한 연구가 많이 필요. 2. Segmentation 연속된 정보들을 어떠한 경계로 분할해서 감정을 인식할 것인가. 그리고 multimodal 에서는 어떻게 동기화 할 것인가. 3. Evaluation 각각의 기술에 대한 공통되고 일반적인 평가 방법이 필요. 이와 관련된 추가적인 이슈.

THANK YOU