Lab Assignment 2 Neural Network & Ensemble Data Mining 2016 Fall 1 1.

Slides:



Advertisements
Similar presentations
Data Mining Lab Assignment 4 Deep Learning Data Mining (CSE5312/CSEG312), 2015 Fall1.
Advertisements

인공지능 소개 부산대학교 인공지능연구실. 인공 + 지능 인공지능이란 ? 2.
언어의 자서전 소단원 (1) 단원. 언어의 특성 기호성 자의성 사회성 규칙성 창조성 역사성.
지도교사 : 김은이 선생님 연현초등학교 5 학년 조인해 연현초등학교 5 학년 최지원 우리는 항상 먹기 싫은 쓴 약을 먹을 때 달콤한 주스 나 탄산음료와 함께 마시면 쓴 약을 쉽게 먹을 수 있 을 텐데, 사람들은 감기약, 두통약, 영양제등과 같은 알약을 먹을 때 너무나.
2008 년 7 월 24 일 신문기사 자동 분류 시스템 한국과학기술정보연구원 최성필 목차 문서분류시스템의 예시와 정의 자동문서분류시스템의 구조 문서분류 모델 및 알고리즘의 종류 문서분류 모델 별 정확도 실험결과 실험결과에 대한 단상 세 가지 분류모델.
직장내 성희롱 예방교육 제주지방노동사무소.
SOC 연구실 최지호 원천관 339-2호 ABEL 프로젝트 SOC 연구실 최지호 원천관 339-2호
사이버 수사 및 디지털 증거수집 실태조사 곽병선 노명선 이종찬 권양섭.
‘1+3 방과후학교’운영 영재학생 당기고 부적응학생 끌어주는 부천부곡중학교 경기도교육청지정 방과후학교 시범학교
제10회 부모님과 함께 읽는 과학도서 독서감상문 대회
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
1. 기관별 맞춤형 집중교육 : 실습 및 개인별 집중지도    1. 기관별 맞춤형 집중교육 : 실습 및 개인별 집중지도 (상설) 기관별 맞춤형 교육 - 당 교육기관에서.
팀명 : 정효가현팀 팀원 : 김효진, 이가현, 이정민
행동강령 해설 기 획 조 정 실.
소프트웨어시스템 실습 머신러닝 Machine Learning (1) 학기.
Neural Network - Perceptron
비뇨계통.
Smart-phone 액정교체 비용 40만 원 2013년 model 12.0만 원 엣지model 30만 원 20만 원
성창기업 설비관리분야 신입사원 모집 사업분야 소개
분류 (Classification) 2014년 가을학기 강원대학교 컴퓨터과학전공 문양세.
REC 가격예측 분석 발표자: 김주철.
Chapter 5. Q-LEARNING & DEEP SARSA
Machine Learning Network Data Science Lab Seunghun Lee, KangHee Lee
제4장 자연언어처리, 인공지능, 기계학습.
2016 “ 경제교육 봉사단 대학생 (재)광주광주광주원 경제교육센터 지원대상 모집일정 활동혜택 활동내용 지원시 유의사항
데이터마이닝의 소개 Data Mining Introduction
SSAS 변화된 구조와 사용자 분석 화면 구현 우철웅 기술이사 BI 사업부 인브레인.
아파트관리비 청구서 이용 프로세스 안내 ㈜한국전산기술.
Word2Vec Tutorial 박 영택 숭실대학교.
Progress Seminar 선석규.
Technological Forecasting & social change(2014)
A Survey of Affect Recognition Methods :
Semi-supervised Document classification (probabilistic model and EM)
머신 러닝 2 ㈜ 퀀트랩.
Parallel software Lab. 박 창 규
2014년 가을학기 손시운 지도 교수: 문양세 교수님 군집 2014년 가을학기 손시운 지도 교수: 문양세 교수님.
Lab Assignment 3 Deep Learning 1 1.
소프트웨어시스템실습 3강: R 프로그래밍 및 데이터 조작
Data Mining Final Project
Progress Seminar 선석규.
(Data Exploration & Analysis)
정보 추출기술 (Data Mining Techniques ) : An Overview
(신)비취가인천비방진연3종기획1 182,000 ▶ 91,000 (신)비취가인 천비방 진연수
2014년 가을학기 손시운 지도 교수: 문양세 교수님 분류 2014년 가을학기 손시운 지도 교수: 문양세 교수님.
소금물과 물의 부력 차이 실험 작성자 - 백민준.
뇌신경정보학연구사업 인지/추론 : 추론 기술 2002년 11월 15일 숭실대학교 컴퓨터학과 김명원.
좋은징조 담당교수 : 조성제 김도엽 김현일 이상훈.
Progress Seminar 신희안.
인공지능 소개 및 1장.
Machine Learning using Neural Networks
사과는 왜 갈변 할까? 조장: 31017유수빈 조원:31024이지은.
인공신경망 실제 적용사례 및 가상사례 조사.
과학 1 학년 2 학기 생명> 04.태아의 발생 과정은 어떻게 진행될까?[ 4 / 6 ] 수정과 착상 수업계획 수업활동.
<2013 과학탐구 보고서> 우유와 발효유가 일정온도에서 만나면?
2015년 2학년 1반.
천국 가는 길 천국 가는 길 ♧ 천국 가는 길 ♧ 1. 죄와 사망(지옥) 1) 사람의 3가지 공통점 - 죄인, 죽음, 심판
K Nearest Neighbor.
Advanced Data Analytics 데이터분석 전문가
P 보일의 법칙 - 생각열기 – 기포가 수면으로 올라가면 크기는 어떻게 될까?
Ⅱ. 물질의 특성 물질의 끓는점.
(Ⅰ) 독서와 언어의 본질 언어의 본질 1 2 [고등 국어] – 독서와 문법 독서의 본질 (1) 독서의 특성
▶서류관리 프로그램 1. 로그인….2 2. 서류등록 … 서류도착 서류스티커발행
2015 교원능력개발평가 “학부모는 제2의 교원입니다” 여러분의 의견을 들려주세요.
Progress Seminar 선석규.
Progress Seminar 선석규.
우수사원 연수 제안서 2-1. 항공, 호텔, 식사, 차량 세부 안내 (지역순서대로 작성 발리-싱가포르-괌)
2015년도 연세대학교 의과대학 의과학자육성 장학금 신청안내
Progress Seminar 선석규.
“용산복지재단과 함께 꿈을 이룹니다” 함 께 이 룸.
[2019 한양대 ERICA 졸업사진 촬영 안내] A type B type C type
Presentation transcript:

Lab Assignment 2 Neural Network & Ensemble Data Mining 2016 Fall 1 1

Exercise 1 Neural Network Data Mining 2016 Fall 2

Example 1: Neural Network R 패키지 neuralnet 설치 install.packages("neuralnet") 함수를 사용하여 패키지를 설치한다. neuralnet 소스코드 설치 untar(download.packages(pkgs = "neuralnet", destdir = ".", type = "source")[,2]) neuralnet 패키지 설명 help(neuralnet) 데이터 사용 data() 함수를 사용하여 확인할 수 있는 데이터 중 하나를 사용 Iris 데이터셋: http://en.wikipedia.org/wiki/Iris_flower_data_set Data Mining 2016 Fall 3

Example 1: Neuralnet #패키지 설치 및 다운 setwd("작업 공간 위치") install.packages("neuralnet") untar(download.packages(pkgs = "neuralnet", destdir = ".", type = "source")[,2]) library("neuralnet") # 데이터 로드 및 샘플링 test = sample(1:nrow(iris), 50) train = sample(setdiff(1:nrow(iris), test)) itest = iris[test,] itrain = iris[train,] Data Mining 2016 Fall 4

Example 1: Neuralnet # Neural network 에서의 Output Layer 생성 Itrain$setosa <- c(itrain$Species == 'setosa') itrain$versicolor <- c(itrain$Species == 'versicolor') itrain$virginica <- c(itrain$Species == 'virginica') # 학습 및 네트워크 출력 inet <- neuralnet(setosa + versicolor + virginica ~ Sepal.Length + Sepal.Width + Petal.Length + Petal.Width, itrain, hidden=3, lifesign="full") plot(inet) Data Mining 2016 Fall 5

Example 1: Neuralnet 학습 단계 및 네트워크 확인 Data Mining 2016 Fall 6

Example 1: Neuralnet (Predict & performance) # 예측 결과를 Output Vector로 출력 predict <- compute(inet, itest[1:4]) # Performance 계산 corr = 0 for (i in 1:nrow(itest)) { if (as.numeric(itest$Species[i])==which.max(predict$net.result[i,])) corr = corr + 1 } acc = corr / nrow(itest) acc Data Mining 2016 Fall 7

Exercise 1 Data 선택 Data Preprocessing UCI ML Repository에서 제공하는 데이터셋 중 임의로 하나의 데이터셋을 선택한다. 선택한 데이터셋에 대한 Spec을 보고서에 기술한다. Data Preprocessing 데이터셋을 적절한 방법을 사용하여 데이터를 읽어온다. 그 과정을 자세히 기술한다. Data Mining 2016 Fall 8

Exercise 1 Data Sampling Learning & Prediction 보통 대부분의 데이터셋은 Training, Test의 구분이 없이 하나의 파일로 제공된다. sample() 함수를 사용하여, 전체 Data Set 을 두 개의 독립된 Training/Test 데이터셋 으로 분리한다. Learning & Prediction 앞에서 마련한 Training 데이터셋으로 Neuralnet를 학습하되 개인이 적절하게 Arguments 값을 변형하여 적용해 보고 Test 데이터셋으로 예측하는 작업을 수행한다. 사용한 Arguments에 대한 내용을 보고서에 기술한다. Test 분류 정확도를 측정한다. Data Mining 2016 Fall 9

Exercise 2 Ensemble Learning Data Mining 2016 Fall 10

Example 2: Ensemble Learning Emsemble Learning 하나의 Classifier Model 만을 사용하는 것이 아닌 여러 개의 Classifier Model을 생성하고, 그 결과들을 조합하여 최적 예측 결과를 내고자 하는 방법 https://en.wikipedia.org/wiki/Ensemble_learning 참고 예제 http://www.r-bloggers.com/an-intro-to-ensemble-learning-in-r/ Data Mining 2016 Fall 11

Example 2: Ensemble Learning 사용할 두 가지 알고리즘 Decision Tree Naïve Bayes install.packages('tree') library("tree") install.packages('e1071') library("e1071") Data Mining 2016 Fall 12

Example 2: Ensemble Learning 이전 과제에서 수행한 데이터 분할 data(iris) test = sample(1:nrow(iris), 50) train = setdiff(1:nrow(iris), test) iris_test = iris[test,] iris_train = iris[train,] Data Mining 2016 Fall 13

Example 2: Ensemble Learning 학습 및 예측 결과 #tree model 생성 Iris_tr = tree(Species~.,iris_train) #naïve bayes model 생성 iris_nb = naiveBayes(Species~.,iris_train) #test set을 모델에 적용 #tree에서 예측 결과가 데이터에 속할 확률 predict(iris_tr, iris_test[1:4], type='vector') #naïve bayes에서 예측 결과가 데이터에 속할 확률 predict(iris_nb, iris_test[1:4], type='raw') Data Mining 2016 Fall 14

Example 2: Ensemble Learning 출력 결과 Decision Tree Naïve Bayes Data Mining 2016 Fall 15

Exercise 2: Ensemble Learning 이전의 출력 결과들을 바탕으로 속할 확률이 더 높은 모델을 선택한다. Decision Tree Naïve Bayes Naïve Bayes 에서 virginica 에 속할 확률이 0.99로 Decision Tree 에서 versicolor 에 속할 확률인 0.6 보다 높으므로 Virginica로 선택한다. ` ` Data Mining 2016 Fall 16

Exercise 2: Ensemble Learning 두 개의 모델들에 Test set을 적용한 결과들을 바탕으로 속할 확률이 더 높은 Class들을 선택하는 Ensemble을 구현하여 각각의 결과들과 비교하여 본다. Ensemble accur ` Decision Tree accur ` Data Mining 2016 Fall 17 Naïve Bayes accur `

Exercise 3 Ensemble – Training Set Data Mining 2016 Fall 18

Example 3: Ensemble – Training Set 여러 개의 모델의 결과를 활용하는 것이 아닌 훈련 집합을 조작함으로써 성능 향상을 기대한다. Bagging(Bootstrap aggregation) 훈련집합들 중 훈련 집합을 뽑는 방법을 균일한 확률 분포에 따라 반복적으로 샘플링하여 모델을 여러 개 만든다. 생성된 여러 모델을 바탕으로 앞서 수행한 Exercise 2에서와 같은 방법으로 클래스를 선택한다. Boosting 모델을 생성할 때 이전 모델에서 잘못 분류한 학습 데이터를 다음 모델이 생성될 때 학습 집합으로 선택되어질 가능성을 높여주어 다음 모델에서 오차에 대한 보완을 유도하는 방법이다. Package : adabag https://en.wikipedia.org/wiki/Ensemble_learning Data Mining 2016 Fall 19

Example 3: Ensemble - Bagging install.packages('adabag') library(adabag) data(iris) sub <- sample(1:150,100) train_data = iris[sub,] test_data = iris[-sub,] iris.bagging <- bagging(Species ~ ., data=train_data, mfinal=10) iris.bagging iris.bagging.pred <- predict.bagging(iris.bagging, newdata=test_data) iris.bagging.pred Data Mining (CSE5312/CSEG312), 2014 Fall 20

Example 3: Ensemble - Boosting install.packages('adabag') library(adabag) data(iris) sub <- sample(1:150,100) train_data = iris[sub,] test_data = iris[-sub,] iris.adaboost <- boosting(Species~., data=train_data, boos=TRUE, mfinal=10) iris.adaboost iris.adaboost.pred <- predict.boosting(iris.adaboost, newdata = test_data) iris.adaboost.pred Data Mining (CSE5312/CSEG312), 2014 Fall 21

Exercise 3: Ensemble – Traning data Bagging과 Boosting에 대해 학습하고 Example을 수행한다. Example에서 수행한 Bagging과 Boosting의 학습 모델인 iris.bagging iris.adaboost 을 각각 출력해보고, 각 인자($tree, $votes, $prob …)들의 의미 및 차이점을 분석해본다. 분류 정확도를 수행해 보고 그 결과를 분석해본다. Data Mining (CSE5312/CSEG312), 2014 Fall 22

Summary Exercise 요약 (해야 할 일) Exercise 1 Exercise 2 Exercise3 1, 2, 3, 4를 수행하고 사용한 데이터 및 코드에 대한 설명을 보고서에 기술한다. Exercise 2 두 개의 알고리즘의 결과를 클래스에 속할 확률로 출력하고 이 정보를 바탕으로 두 알고리즘 중 보다 높은 확률의 클래스를 선택하는 Ensemble을 구현한다. 구현한 Ensemble의 결과와 Decision Tree, Naïve Bayes 알고리즘을 비교한다. 수행한 과정을 보고서에 기술하고, 구현된 코드를 제출한다. Exercise3 Bagging 및 Boosting에 대한 개념을 간략하게 보고서에 기술한다. Bagging과 Boosting을 수행해보고 학습된 모델을 출력해본 뒤, 그 의미와 각 모델의 차이점을 보고서에 기술한다. (출력 값 원본 첨부 대신 각 인자와 그에 대한 설명 기술) Data Mining 2016 Fall 23

Submission 제출물: 각 Exercise 에 대한 보고서 제출 기한: 2016년 11 월 23 일 수업시간 전까지 제출 방법 Softcopy(보고서 파일): 조교에게 e-mail로 제출 ( lheadjh@naver.com ) dm2016_hw2_학번_이름.zip (보고서, hw2_1.R, hw2_2.R, dataset) + @ Email 제목 : dm2016_hw2_학번_이름 Hardcopy(보고서 출력물): 수업시간 전 교탁 위에 제출 기타 질문 사항은 위 조교 e-mail로 문의 바랍니다. Data Mining 2016 Fall 24