Progress Seminar 2018. 7.10 선석규.

Slides:



Advertisements
Similar presentations
1 그리드 테스팅 제안서 스마트폰 앱 기능테스트 솔루션 TestOne Mobile 소개
Advertisements

김수연 Capstone Design Realization Cost Reduction through Deep Artificial Neural Network Analysis.
ㅋㅋ 다른 집단과 명확히 구별되는 가치체계와 지식 그리고 그에 부합하는 기술을 가지고 있어야 한다. 가치체계 - 사회복지사윤리강령, 선서 등 기본요소 완성 지식 - 사회복지사 1 급 자격증 시험으로 완성 기술 - 명확하지 않으나 실습, 보수교육을 통해 완성 Client.
REVISION HISTORY 비고 v.1.00 ( ) 홍승현 생성
DNN 을 활용한 메일 분류 임영욱 백창훈 정강우.
연관규칙기법과 분류모형을 결합한 상품 추천 시스템:
Let’s Speak English Well
Introduction of Deep Learning
Training Neural Networks
Machine Learning to Deep Learning_2
Lec 4 Backpropagation & Neural Network
Neural Network - Perceptron
Chapter 5. Q-LEARNING & DEEP SARSA
소형화된 인공두뇌의 제작과 생물학적 이용에 관한 탐구
Lab Assignment 2 Neural Network & Ensemble Data Mining 2016 Fall 1 1.
Men In the Middle, Simple but critical issue.
Word2Vec Tutorial 박 영택 숭실대학교.
1장. 인공 지능 개론 인공 지능(Artificial Intelligence: AI)이란 무엇일까?
Progress Seminar 선석규.
Progress Seminar 선석규.
2장 운영 체제의 개요 운영체제의 개념 운영체제의 유형 운영체제의 발전 과정 운영체제의 구성 운영체제 서비스 시스템 구조
Technological Forecasting & social change(2014)
개요 신경회로망(Neural Networks)
제 3 장 신경회로망 (Neural Networks)
머신 러닝 2 ㈜ 퀀트랩.
개요 신경회로망(Neural Networks)
Progress Seminar 선석규.
인공 신경망의 종류 Hopfield Self-Organizing Map Perceptron
Parallel software Lab. 박 창 규
Lab Assignment 3 Deep Learning 1 1.
Data Mining Final Project
Progress Seminar 선석규.
AI 전문 인력 양성 교육 교육명 : Embedded Deep Learning (CNN을 이용한 영상인식)
Progress Seminar 권순빈.
P2P를 연결을 위한 여러기술 휴즈플로우 이재동 예전에 간략하게 크로스 플랫폼 p2p를 이야기한적이 있었는데요
멀티 쓰레드 기반의 채팅 프로그램 문성영 김현진 학번 이름 장용하 차희진 연구제안서.
3장. 다층 퍼셉트론.
Progress Seminar 신희안.
인공지능 소개 및 1장.
정품 라이센스.
Progress Seminar 선석규.
수술 후 5일되는 날 perfusion 한 18, 20, 21, 22번 mouse BBB test :
Progress Seminar 선석규.
4 장. 신경망 오일석, 패턴인식, 교보문고. © 오일석, 전북대학교 컴퓨터공학.
2016 하계 현장실습 매뉴얼 ≫≫ 학생용.
사회복지실천기술 사회복지실천기술의 의의 의사소통기술 대상별 실천기술 기록 및 평가기술.
Progress Seminar 선석규.
빅데이터 딥러닝 기술활용 스마트 T-커머스 서비스
진행상황 박노열.
Neural Networks & Deep Learning
천국 가는 길 천국 가는 길 ♧ 천국 가는 길 ♧ 1. 죄와 사망(지옥) 1) 사람의 3가지 공통점 - 죄인, 죽음, 심판
통신 메모리 공유를 이용한 클라이언트/서버 설정 방법
▶서류관리 프로그램 1. 로그인….2 2. 서류등록 … 서류도착 서류스티커발행
다층 퍼셉트론의 학습과 최적화 알고리즘 부산대학교 전자전기컴퓨터공학과 김민호.
신경망 (Neural Networks) (Lecture Note #23)
Peer-to-Peer SIP Network Using Distributed Hash Table
Progress Seminar 선석규.
Progress Seminar 선석규.
Progress Seminar 선석규.
Progress Seminar 선석규.
Progress Seminar 선석규.
[ 딥러닝 기초 입문 ] 2. 통계적이 아니라 시행착오적 회귀분석 by Tensorflow - Tensorflow를 사용하는 이유, 신경망 구조 -
Progress Seminar 선석규.
Progress Seminar 선석규.
Python 라이브러리 딥러닝 강의소개 정성훈 연락처 : 이메일 :
Deep Learning Basics Junghwan Goh (Kyung Hee University)
Model representation Linear regression with one variable
Progress Seminar 선석규.
ISL 트렁크로 VLAN 정보들이 함께 다닌다.
Presentation transcript:

Progress Seminar 2018. 7.10 선석규

Neural-rim Segmentation 연구 진행 상황 보고 녹내장 진단 (안과 Pf. 박기호) 재난 대응 (응급 의학과 Pf. 신상도) MER 분석 (신경외과 Pf. 백선하) 기타 녹내장 예후예측 OCT Classification 시야검사지 판별 Neural-rim Segmentation 2주전 계획 Segmentation 알고리즘 구현 반대쪽 Recording 신호 이용하여 분석 연구 결과 Method작성하여 전달 GCIPL, RNFL만 이용 데이터 변경 후 재 진행 및 안과전달 U-Net 설계 및 적용 PAPR착용부 개선 및 추가 장비 제작 주제 마무리 하아늘 선생님 학위논문 revision Federated Learning 시험삼아 진행 문제점 및 대책 목표 및 계획 필드테스트 준비

Federated Learning Federated Learning : 데이터 공유 없이 각자 device에서 train 후 최종 weight를 합치는 방법(데이터 공유 없어서 개인정보 issue 없음) Distributed Learning : computation만 여러 컴퓨터로 진행 통합 모델(하늘색) 각각의 client에서 각자 데이터로 학습 Communication-Efficient Learning of Deep Networks for Decentralized Data

Federated Learning 새 통합 모델(분홍색) 통합 모델 배포

Federated Learning(Update) Federated SGD Gradient Averaging Weight averaging Federated AVG Minibatch 개념이 도입됨(batch 별로 update) Hyperparameter(C(Communication),E(Epoch),B(Batch) 설정에 따라 communication줄음

Result Communication count 99% Accuracy를 달성하는 동안의 Epoch과 batch E,B에 따라 communication count를 절약할 수 있음

Result 성능 비교 : 통합> FedAvg 성능보다는 보안성

입술 데이터에 적용 본원 보라매 본원2 분당 연구목표 Client를 하나씩 추가했을 때 Test accuracy가 올라가는 것을 확인 현재 상황 보유 컴퓨터 3대를 이용해서 simulation중(병원ip는 포트가 다 막힘) Train data : 본원(1628), 분당(289), 보라매(100), Open data(100) Test data : 본원(345)고정 본원

입술 데이터에 적용 - Result 현재 상황 보유 컴퓨터 3대를 이용해서 simulation중 Train data : 본원(1628), 분당(289) (두 종류만 이용) Test data : 본원(345)고정 Model : Multi Layer Perceptron(1-hidden layer) 결과 : Test acc 66%(논문 acc 80%) Parameter Server Worker 0 chief 모델이 저장되는 곳 Worker 1

입술 데이터에 적용 - Result 추후 진행 사항 모델을 SE-net, ResNet으로 바꿔 봄 Worker 1의 데이터를 본원을 제외한 모든 데이터로 바꿈 성능 향상 확인(local training과 비교) Batch와 Epoch변경 후 성능비교 저장 된 모델