KISTI (Korea Institute of Science and Technology) PPNP Workshop, March 25, 2008 KISTI, Daejeon 핵·입자물리연구회 조기현 KISTI (Korea Institute of Science and Technology) (http://hep.kisti.re.kr)
핵·입자물리연구회 목적 워크샵 개최 고에너지물리 분야 e-Science 선도 응용 연구 및 커뮤니티 선도 사용자 입장에서 KISTI의 사이버인프라 (슈퍼컴, 네트워크, 그리드팜 등) 자원을 효율적으로 활용 및 KISTI 사이버인프라 활성화 워크샵 개최 1차: 슈퍼컴코리아 학회 (서울 KIAS, 2006.11.20) 2차: KISTI (2007.2.26) 3차: HPC Asia 2007 (서울 소공동 Lotte Hotel, 2007.9.12) 4차: KISTI (2007.3.25) 5차: e-Science all hands meeting 중 국제 물리 학술 대회 (2008.9.4-5)
KISTI Data Processing Center 핵·입자물리연구회 Lattice Gauge Theory, Phenomenology STAR/PHENIX @ BNL, USA CDF @FNAL, USA U. Tskuba, Japan IN2P3, France (LIA) Caltech, USA (EVO) Pacific CAF CDF CR NA61,ALICE @CERN, Swiss (2008) Belle @ KEK, Japan ASGC, Taiwan Pacific CAF KISTI Data Processing Center Remote CR - Alice Tier 2 center - CDF Computing Center H/W : 64 CPU / 5TB ’08 : 50 node/50 TByte 17
The goal of e-Science To study any research any time and anywhere
e-HEP Data Processing Community KISTI e-Science Service Middleware 핵-입자물리연구회 한-불 입자물리공동연구소(LIA) e-Science 응용개발연구팀 KISTI e-Science Service 사이버인프라사업팀 ALICE Tier 2 Center Middleware CDF Bio ILC R&D … CI 미들웨어연구팀 슈퍼컴퓨팅 응용팀 슈퍼컴퓨팅 응용팀 KISTI CA AIX OS(IBM) Linux OS LCG/gLite Resource e-Science 기술개발팀 Storage Visualization Daejeon Seoul KREONET GLORIAD Busan Gwangju 연구망 개발팀 Supercomputer, Cluster 슈퍼컴퓨팅사업팀 수퍼컴퓨팅 사업팀 연구망 사업팀
독일 (John Von Neuman Institute for Computing] CPU (Peak TeraFlops/s) 표 1. 독일에서 향후 요구되는 CPU양 (Peak TeraFlops/s) 입자물리 전체 20%
LHC (CMS, ATLAS, ALICE, LHCb) 프랑스 IN2P3 실험 분야 실험장소 CPU 할당량 D0 & CDF 실험 미국 페르미연구소 21.6% BaBar 실험 미국 SLAC 연구소 9.5 % LHC (CMS, ATLAS, ALICE, LHCb) 유럽 CERN 29.9 % 입자물리 CPU 합계 61.0 %
CDF Grid ComputingCenter LCG 팜 수요조사표 [2007.10.10] 소속 이름 목적 최소 필요 슈퍼컴 현재 사용 필요 네트워크 필요 그리드 관련 근거 강릉대 김도원 ALICE Tier2 센터 2,400 ALIEN 세종대 Kreonet- GLORIAD LCG 팜 과기부 CNRS MoU LIA 경북대 김동희 미국 페르미 연구소 CDF Grid ComputingCenter 1,200 페르미연구소, 경북대 Cluster 활용 10Gbps KREONET- GLORIAD 운영 중 CDF MoU 경북대공문 총 요구량 3,600 core process
Lattice Guage Data Grid Center 핵·입자물리연구 수요 조사표 [2007.10.10] 소속 이름 목적 최소 필요 슈퍼컴 현재 사용 슈퍼컴 필요 네트워크 필요 그리드 관련 근거 서울대 이원종 Lattice Guage Theory 128 node* 3GFlops 이상 *5년 일본 KEK BlueGene/L 미국페르미연구소 슈퍼컴 KREONET -GLORIAD Lattice Guage Data Grid Center 구축 필요 (KISTI CA 필요) 슈퍼컴 Korea 고려대 원은일 일본 Belle 실험 100 CPU 클러스터 자체 Cluster활용 GLite farm도 무관 (Belle VO 사용 KISTI CA 필요) 부산대 유인권 BNL STAR 300 CPU 1 Pbyte 자체 Cluster 활용 cluster 방문 CERN NA61 100 Tbyte 경북대 함승우 현상론 64CPU*365*24시간*3년 전략과제 슈퍼컴Korea 이정일 슈퍼컴64CPU*365*24시간*3년 학진 연계 사용 전화 서울 시립대 박인규 CMS-HI - 512CPU 자체 클러스터 KREONET 1Gps 전북대 /연세대 김은주 /권영일 BNL PHENIX 100CPU 10TByte 25 CPU dual KREONET-GLORIAD 면담 총 요구량 856 core process