Download presentation
Presentation is loading. Please wait.
1
USP 운영 매뉴얼 – 하드웨어 - V1.1
2
목 차 제1장 USP 개요 제2장 USP 구성 제3장 기능 및 운영 제4장 유지 보수 제5장 문제 해결 1.1 주요 기능
1.2 장점 1.3 멀티플랫폼 연결 1.4 Open-시스템 호환성제 1.5 프로그램 제품 1.6 소프트웨어 제품 1.7 확장성 1.8 안정성, 가용성, 서비스 제2장 USP 구성 2.1 외형 2.2 DKC 2.3 DKU 2.4 SVP 2.5 스토리지 네비게이터 제3장 기능 및 운영 3.1 USP의 새로운 특징과 기능 3.2 I/O 운영 3.3 캐시 관리 3.4 CU (Control Unit) 이미지, LVI와 LU 제4장 유지 보수 4.1 운영자 제어 판넬 4.2 EPO 4.3 Power Off 4.4 Power On 제5장 문제 해결 5.1 운영자 제어 판넬 5.2 SIM (Service Information Message) 5.3 장애 내용 확인 5.4 장애 내용 확인 후 완료 처리 별첨 첨부#1 단위 변환 첨부#2 축약어
3
제1장. USP 개요
4
1.1 주요 기능 Hitachi TagmaStore® Universal Storage Platform(USP)는 기존의 저효율화된 자원사용의 한계를 지닌 경직되고 고비용 체계의 컴퓨팅 환경으로부터 벗어날 수 있는 효과적이고 유연한 IT 인프라의 제공을 약속하는 새로운 컴퓨팅 혁명을 약속합니다. USP는 과거의 스토리지 제품이 신기술의 혜택을 받을 수 있도록 하므로 기존의 스토리지 투자분에 대한 사용 연장을 제공하며, 이는 다중의 이기종 스토리지 시스템이 USP에 연결 관리될 수 있도록 함으로써 호환성의 이슈를 제거합니다. USP는 메인프레임, 유닉스, 윈도우, 리눅스등의 다양한 멀티플랫폼을 지원하는 고성능의 대용량 스토리지 어레이로써, 이기종 시스템 환경에 고속도의 성능과 지속적인 데이터 가용서 및 단계적 확장 능력과 산업표준의 소프트웨어에 대한 호환성과 함께 24x7 데이터 센터의 무중지 운영을 제공합니다. USP는 HiStar(Hierarchical Star Network)의 3세대 상품으로써, 기존 1세대인 Lightning 9900 시리즈 및 2세대인 Black Lightning 9900V 시리즈의 성공을 이어가며, 더욱 더 빨라진 전단 및 후단 디렉터의 마이크로프러세서의 성능뿐만 아니라 스토리지 중심의 가상화 솔루션을 제공/실현한 최초의 제품입니다. USP는 여러 호스트 어플리케이션 및 호스트 크러스터와 함께 운영될 수 있으며 테라바이트급의 데이터를 저장/검색하는 데이터 웨어하우징 및 데이터마이닝 어플리케이션 뿐만 아니라 매우 큰대용량의 데이터베이스를 처리하도록 설계되었습니다. USP는 FICON®, ESCON®, fibre-채널, NAS 및 iSCSI 호스트 접속을 제공하는 다양한 연결 방법을 제공함으로써 거의 모든 플랫폼의 운영 구성이 가능합니다. USP는 기존 HiStar 2세대인 9900V 시리즈의 2배 이상이 되는 확장성을 포함하여 사용자에게 진보된 신 기능들 뿐만 아니라 다양한 혜택 및 장점을 제공합니다.
5
1.2 장점 즉각적인 데이터 억세스 – SPOF(single point of failure) 없는 100-퍼센트 데이터 가용성 – 완벽한 잉여구성, 핫-스왑 부품 및 비중지상태에서의 마이크로코드 업데이트 – 그로벌한 동적 핫-스페어링 – 배터리 백업이 제공되는 이중화된 Write 캐시 – “call-home” 유지보수 시스템을 위한 Hi-Track® – RAID-1, RAID-5 및 RAID-6 의 다양한 어레이 그룹 구성 빠른 성능과 대용량 – 다중 point-to-point 방식의 데이터 및 제어 경로 – 최대 초당 68GB의 내부 데이터 서브시스템 대역폭 – 사용자 데이터가 사용할 수 있는 최대 256GB의 데이터용 캐시 및 분리된 최대 16GB의 제어(공유) 메모리 – 빠르고 지능적인 캐시 알고리즘 – 최대 물리적 용량 기준 332TB 이상으로의 비중지상태 확장 – 최대 64대의 분리된 호스트에 대한 동시 전송 – 최대 1152개의 고전송율(10K 또는 15K rpm)을 제공하는 fibre-채널의 이중 액티브 디스크 드라이브
6
1.2 장점 광범위한 연결성 및 자원 공유 – UNIX®, Windows®, Linux® 및 메인프레임(z/OS®, S/390®) 호스트의 동시 운영 – FICON, ESCON(Extended Serial Adapter®), fibre-채널, NAS 및 iSCSI 서버 연결 – Fibre-channel switched, arbitrated loop 및 point-to-point 구성 끊임없는 데이터 가용성 USP는 모든 사용자 데이터에 대한 끊임없는 억세스와 무중지 운영을 위해 설계되었습니다. 무중지 고객 운영을 성취하도록 하기 위해 USP는 온라인하에서의 하드웨어, 소프크웨어 및 기능의 업그레이드를 제공하고 있으며 이를 위해 주 부품들은 이중화 또는 잉여부품이 추가되어 구성되어 있습니다.
7
1.3 멀티플랫폼 연결 FICON FICON 채널 인터페이스를 사용하는 경우 USP는 최대 64개의 CU(Control Unit) 이미지와16,384개의 논리 디바이스(LDEV)을 제공합니다. 각각의 물리적인 FICON 채널 인터페이스(포트) 1개는 초당 200 MB/sec(2 Gbps) 전송율과 최대 65,536개의 논리 경로(=1024 Host Path * 64 CU)를 제공하며, USP 1대로는 최대 131,072개의 논리 경로를 제공합니다. ExSA®(Extended Serial Adapter) (= ESCON) ExSA 채널 인터페이스가 사용되는 경우 USP는 최대 64개의 CU(Control Unit) 이미지와16,384개의 논리 디바이스(LDEV)을 제공합니다. 각각의 물리적인 ExSA 채널 인터페이스(포트) 1개는 초당 17 MB/sec 전송율과 최대 512개의 논리 경로(=32 Host Path * 16 CU)를 제공하며, USP 1대로는 최대 32,768개의 논리 경로를 제공합니다. Fibre-채널 Fibre-채널 인터페이스가 사용되는 경우 USP는 UNIX-베이스 및 PC-서버 플랫폼의연결을위하여 최대 192개의 포트를 제공합니다. 호스트 플랫폼의 유형에 따라 각 포트(최대 포트당 1,024)당 접속할 수 있는 논리적 단위(LU = Logical Unit)의 수가 결정이 되며 Fibre-채널은 400 MB/sec (4 Gbps)의 전송율을 제공합니다. USP는 Hub 및 스위치를 사용한 HA(High-Availability) Fibre-채널 구성 뿐만 아니라 FC-AL(fibre-channel arbitrated loop) 및 fabric fibre-채널 토폴로지를 지합니다.
8
1.3 멀티플랫폼 연결 NAS USP는 최대 16개의 NAS 채널 인터페이스를 지원합니다.
NAS 채널 인터페이스 보드는 최대 100 MB/sec의 데이터 전송율을 제공하며, shortwave (multimode) NAS 채널 어댑터를 통하여 NAS-접속 호스트로부터 최대 500 미터에 위치할 수 있습니다. iSCSI USP는 최대 100 MB/sec의 데이터 전송율을 제공하는 48개의 iSCSI 인터페이스를 지원하며, shortwave (multimode) iSCSI 채널 어댑터를 통하여 iSCSI-접속 호스트로부터 최대 500 미터에 위치할 수 있습니다.
9
1.4 Open-시스템 호환성 USP는 다양한 호스트 OS (Operating System)의 동시 다중 접속을 지원하며 대부분의 fibre-채널 HBA(Host Bus Adapter)와 호환되는데, 각 포트에 연결되는 논리 단위 (LU)의 수는 접속되는 호스트 플랫폼의 종류에 따라 결정됩니다. USP는 현재 다음의 플랫폼을 지원하며, 플랫폼-OS-HBA 지원에 대한 최근의 정보에 대해서는 HDS에 문의하시기 바랍니다. Sun™ Solaris™ IBM AIX® AIX ODM 업데이트는 USP와 함께 제공되는 PDL (Product Documentation Library) CD에 포함되어 있습니다. HP-UX® HP® Tru64 UNIX HP OpenVMS® SGI® IRIX® Microsoft® Windows 2000 Microsoft Windows 2003 Novell® NetWare® Red Hat Linux SuSE Linux VMware™
10
1.4 Open-시스템 호환성 USP는 향상된 동적 캐시 관리 기능을 제공합니다.
Command Tag Queuing을 지원하고 있어,호스트가 운영의 순차화 없이 fibre-채널 어댑터에 다중의 디스크 명령어를 보낼 수 있도록 합니다. USP는 논리적 볼륨 관리 소프트웨어, I/O 경로 failover 및 어플리케이션/호스트 failover를 제공하는 산업 표준의 미들웨어들과 함께 운영할 수 있습니다. Open-시스템 호스트에서 원격 서브시스템 관리를 위한 산업 표준의 SNMP (Simple Network Management Protocol)을 지원합니다
11
1.5 프로그램 제품 1.5.1 데이터 복제 및 이전 - Hitachi TrueCopy, Hitachi TrueCopy for z/OS Open-서버 및 메인프레임 환경에서 다른 장소에 있는 USP (및 9900V/9900) 시스템간의 원격 복제 운영을 제공하며, 동기식 및 비동기식 방식을 지원한다.. - Hitachi ShadowImage, Hitachi ShadowImage for z/OS 어플리케이션 테스트나 오프라인 백업과 같은 목적을 위한 볼륨의 내부 복제를 지원한다. TrueCopy와 연동하여 주센터 및 백업셑어에 여러 개의 복제본을 유지할 수 있다. - Hitachi FlashCopy Mirroring 메인프레임에서의 IBM FlashCopy 소프트웨어와 호환되는 제품으로써 데이터에 대한 서버 기반의 데이터 복제 기능을 제공한다. - Hitachi Universal Replicator, Hitachi Universal Replicator for z/OS 재해 복구를 위한 RAID 스토리지 기반의 하드웨어 솔루션으로 복제 운영의 중지 확률을 줄일 수 있도록 지원한다.
12
1.5 프로그램 제품 1.5.1 데이터 복제 및 이전 - Hitachi Command Control Interface
호스트에서 명령어를 이슈하여 USP에서의 데이터 복제 및 보호 운영을 수행할 수 있도록 하며, 운영의 편리성과 호스트 failover 제품과의 연동을 쉽게할 수 있도록 스크립팅을 지원한다. - Copy-on-Write Snapshot 가상의 세컨더리 볼륨을 사용함으로써 ShadowImage 보다 처리시간 단축 및 디스크 용량의 절감을 제공하므로 적은 비용과 짧은 시간에 데이터의 복제가 필요한 경우 유용하다. 주) : ShadowImag가 더 높은 데이터 보전성을 제공 - Hitachi Serverless Backup Enabler SAN 환경에서 호스트 서버에서 USP로 보내는 SCSI Extended Copy (e-copy) 명령어를 지원함으로써, USP와 백업 디바이스간의 서버-프리 백업 솔루션을 제공한다 - Hitachi Cross-System Copy HDS의 타 스토리지 제품 (9900V, 9900, 9500V 등)과 USP간의 데이터 복제를 가능한도록 한다.
13
1.5 프로그램 제품 1.5.1 데이터 복제 및 이전 - Hitachi Compatible Replication for IBM XRC 메인프레임에서의 IBM XRC (Extended Remote Copy)와 호환되는 제품으로써 서버 기반의 비동기 원격 복제를 지원공한다. - Data Migration 메인프레임 환경에서 타 벤더사 및 HDS의 구 디스크로부터 데이터이전을 제공하는데, 마이그레이션 운영 동안 이전되는 데이터는 호스트에서 Read/Write 모두 가능하다.
14
1.5 프로그램 제품 1.5.2 데이터 공유 및 백업/재저장 - Hitachi Cross-OS File Exchange
네크워크 연결이나 테이프 없이 fiber-채널이나 ESCON/FICON 등을 통하여 이기종간 서버/호스트간의 데이터 전송을 가능하게 한다.. - Hitachi Multiplatform Backup USP에 저장된 Open-시스템 데이터를 메인프레임 기반의 볼륨-레벨 백업 및 재저장 운영이 가능하도록 한다.
15
1.5 프로그램 제품 1.5.3 자원 관리 - Hitachi Universal Volume Manager
스토리지 서브시스템의 가상화를 실현시켜주는 기능으로써, 사용자는 다른 디스크 서브시스템을 USP에 연결하여 USP의 가상 디바이스를 통해 외장 데이터를 억세스할 수 있으며, 외장 데이터에 대한 TrueCopy 및 ShadowImage등의 기능을 적용할 수 있다. - Hitachi Virtual Partition Manager 스토리지 논리 분할 및 캐시 논리 분할을 제공한다. 스토리지 논리 분할은 다양한 사용자간의 스토리지 사용초과 대립을 줄이기 위하여 가용한 스토리지를 사용자별로 분리하여 줄 수 있으며, 캐시 논리 분할은 I/O 경합을 줄이기 위하여 캐시를 다중의 가상 캐시로 분할하여 준다. - Hitachi LUN Manager 사용자가 운영 환경에 맞도록 fibre-채널이나 논리 단위 (LU)를 설정할 수 있도록 한다. - Hitachi LUN Expansion Open-시스템 사용자가 여러 개의 LU를 단일 LU로 묶을 수 있도록 함으로써 보다 적은 LU를 통한 데이터 사용이 가능하도록 한다.
16
1.5 프로그램 제품 1.5.3 자원 관리 - Hitachi Virtual LVI/LUN
LUSE와 반대로 단일 LU를 여러 개의 작은 LU로 나눌 수 있도록 함으로써 데이터 억세스 성능을 향상 시킬 수 있다. - Hitachi Cache Residency Manager 많이 사용되는 데이터를 캐시 메모리에 상주시킬 수 있도록 하여 해당 데이터의 억세스 성능을 최고 속도로 올려준다. - Hitachi Cache Manager 메인프레임 환경에서 Cache Residency Manager 운영을 해줄 수 있도록 한다. - Hitachi Compatible PAV 메인프레임 환경에서 USP내의 단일 LDEV에 여러 I/O 요청을 병렬로 이슈할 수 있도록 하는데, Compatible PAV 는 IBM WLM(Workload Manager)과 호환되며 정적/동적 방식 모두를 지원한다.
17
1.5 프로그램 제품 1.5.4 데이터 보호 - Hitachi LUN Security, Hitachi Volume Security USP에 있는 데이터에 대하여 호스트의 억세스를 제한한다. Open-시스템 사용자는 호스트의 WWN (World Wide Name)에 기초하여 LU의 호스트 억세스를 제한할 수 있으며, 메인프레임 사용자는 노드명과 LPAR 번호에 기반으로 LVI에 대하여 호스트 억세스를 제한한다. - Hitachi Database Validator 스토리지 디스크에 오라클 데이터가 기록되기 전 데이터 블록에 대한 정상/훼손유무를 승낙/거절할 수 있도록 함으로써 백업, 재저장, 복구 운영중에 발생될 수 있는 위험 요소를 최소화 하고 잠재적인 비요도 줄일 수 있도록 해준다. - Volume Shredder 볼륨에 더미 데이터를 수차례 기록함으로써 사용자의 원본 데이터를 알 수 없게 처리해준다.
18
1.5 프로그램 제품 1.5.5 모니터링 및 최적화 - Hitachi Performance Monitor
서브시스템 및 볼륨 활동의 상세 모니터링을 수행한다. - Hitachi Volume Migration 성능 최적화를 위한 자동적인 볼륨 재배치를 수행한다. - Hitachi Server Priority Manager Open-시스템 사용자가 포트의 순위화를 통하여 포트별 I/O 활동의 한계치를 설정할 수 있어, 프러덕션 서버와 테스트 서버에 차별화된 성능을 제공할 수 있도록 한다.
19
1.6 소프트웨어 제품 - Hitachi Dynamic Link Manager
Path의 자동 업무 부하 분산 및 Path 장애 발생시 failover 및 복구 기능을 제공한다. - HiCommand Tuning Manager 스토리지 자원 사용량에 대한 보다 지능적 이고 선행적인 성능 및 용량 모니터링 기능을 제공한다. - HiCommand Protection Manager SQL, Exchange의 경우 ShdowImage외에 프로텍션 관리자를 적용하여 Shadow본 데이터의 정합성을 제공한다.
20
1.7 확장성 USP의 구조는 광범위한 용량과 실행 성능상의 요구 조건을 수용할 수 있도록 서브시스템을 확장할 수 있다.
저장 용량은 최소 288GB에서 최대 332TB까지 확장이 가능하며, 비휘발성 캐시는 8GB에서 256GB까지 확장할 수 있다. 모든 디스크 드라이브와 캐시 업그레이드는 데이터에 대한 사용자 액세스를 차단하지 않고 실행할 수 있다. - 전단 디렉터 (Front-end Director) 서버와 캐시 사이의 I/O 전송을 담당하며, 최대 6 CHA Pair로 192개 (= 16채널 * 12개 CHA)의 채널을 제공한다. - 후단 디렉터 (Back-end Director) 캐시와 디스크 사이의 I/O 전송을 담당하며, 최대 4 DKA Pair로 64개 (= 8개 * 8개 CHA)의 동시 전송을 제공한다.
21
1.8 안정성, 가용성, 서비스 USP는 여러 개의 부품 에러가 있더라도 정상 유지되며 저장된 사용자 데이터에 대한 완전한 액세스를 지속적으로 제공한다 주) : 사용자 데이터에 대한 액세스는 가능하지만 주요 부품에 문제가 발생하면 성능 저하가 발생할 수 있다. USP 서브시스템의 안정성, 가용성, 서비스 기능은 다음과 같다: - 완벽한 폴트-톨러런스(fault-tolerance) 기능 USP 서브시스템은 모든 주요 부품(마이크로프로세서, 컨트롤 스토리지, 컨트롤 및 데이터 버스, 전원 공급 장치, 쿨링 팬)에 대하여 완벽한 폴트-톨러런스 기능을 지원한다. 디스크 드라이브는 고급 RAID 기술과 다이내믹 스크러빙(scrubbing) 및 스페어링(sparing) 기술을 채택함으로써 에러와 장애에서 보호된다. - 분리된 전원 공급 시스템 2개의 스토리지 클러스터는 각각 별도의 전원 공급 장치에서 전원을 받는데, 각 장치는 전원 공급에 실패한 비상시의 경우 전체 시스템에 전원을 공급한다. 각 장치의 전원 공급은 전원 경계를 넘어 연결될 수 있기 때문에 각 장치는 정전이 발생한 경우도 전원을 지속적으로 공급할 수 있다.
22
1.8 안정성, 가용성, 서비스 - 배터리 백업 모드 및 Destage 모드
전원 장애 발생시 캐시에 저장된 데이터에 대해 배터리로로 48시간 동안 백업할 것인지HDD로 Destage할 것인지를 선택하여 적용할 수 있다. - 디스크 드라이브의 다이내믹 스크러빙(Scrubbing)과 스페어링 USP는 전문 진단 기술과 다이내믹 스크러빙을 사용하여 디스크 에러를 감지하고 정정한다. 다이내믹 스페어링은 필요한 경우 자동으로 실행된다. USP는 최대40개의 스페어 디스크를 구성할 수 있으며 손상된 디스크가 스페어 디스크와 전혀 다른 어레이 도메인에 있는 경우(전혀 다른 DKA 상에 연결된 경우)라도 동일한 RPM에 같거나 적은 용량의 디스크라면 스페어링이 가능하다. - 다이내믹 이중 캐시 캐시는 분리된 전원 경계에서 동일한 두 개의 세그먼트로 나누어 지는데, Write 데이터에 대하여 USP는 전원 경계의 양 세그먼트에 데이터를 항상 복제한다. 만일 Write 데이터의 내용이 손상되거나 손실된 경우 다른 복사본이 즉시 디스크에 복사되며, 이와 같은 “이중 캐시” 설계는 캐시나 전원 장애가 발생하는 경우에도 데이터 무결성을 보존하기 위한 것이다. - 원격 복제 기능 Hitachi Universal Replicator, TrueCopy와 HXRC (Hitachi Extended Remote Copy)같은 데이터 복제 기능은 USP에 저장되어 있는 메인프레임및 오픈 시스템 데이터의 원거리 복사본을 설정하여 관리할 수 있도록 해주므로, 시스템이 다운되거나 주센터에 문제가 발생하면 백업센터의 복사본 데이터가 즉시 가동되어 데이터 무결성이 보장된 상태로 서비스를 지속할 수 있다.
23
1.8 안정성, 가용성, 서비스 - Hi-Track ® Hi-Track® 유지 보수 지원 툴은 USP 서브시스템의 운영 상황을 항상 모니터링하여 하드웨어 상태와 에러 데이터를 수집하여 모뎀을 통해 HDS Support Center로 전송한다. HDS Support Center는 이 데이터를 분석하여 필요한 경우 적절한 조치를 취한다. 이와 같이 Hi-Track에서 지원하는 자동 에러/결함 감지 및 보고 기능은 사용자가 직접 관여할 필요가 없다. Hi-Track®은 실제로 시스템 다운이 발생하기 전에 대부분의 서브시스템 문제를 파악하여 해결할 수 있으며 고급 중복 기능을 사용하여 서브시스템에서 여러 개의 컴포넌트가 손상된 경우에도 지속적인 운영이 가능하도록 해준다. 주) : Hi-Track®은 USP 서브시스템에 저장된 어떠한 사용자 데이터에도 액세스하지 않는다. - 무정지 서비스와 업그레이드 모든 하드웨어 업그레이드는 일상적인 서브시스템 운영 작업에 어떠한 피해도 주지 않으면서 실행할 수 있다. 하드웨어 부품들은 일상적인 서브시스템 운영 작업을 수행하는 도중에라도 언제든지 제거, 서비스, 수리, 교체할 수 있다. 마이크로코드 업그레이드는 SVP 또는 호스트의 대체 경로 기능을 사용하여 일상적인 서브시스템 운영 도중에 진행될 수 있다.. - 에러 보고 USP 서브시스템은 SIM (service information message)으로 사용자에게 에러와 서비스 요구를 통보한다. SIM에서는 TrueCopy Pair 상태 변경과 같은 일상적인 운영 상의 변경 사항도 보고할 수 있다. SIM은 서브시스템의 SVP (service processor)에 기록되며, Hi-Track을 통해 HDS Support Center에 보고된다.
24
제2장. USP 구성
25
2.1 외형 다음은 USP의 외형으로써, 최대 5개의 프레임으로 구성될 수 있다. - DKC (Disk Controller)
DKC는 CHA (Channel Adapter), DKA (Disk Adapter), Cache, Shared Memory 및 CSW ( Cache SWithch)가 설치된 DKC BOX와 디스크 드라이브, 전원 공급장치, 배터리로 구성된 HDU BOX로 구분됩니다. - DKU (Disk Unit) 각 DKU 프레임은 최대 4개의 HDU BOX (최대 256개 HDD, 1 HDU BOX 당 최대 64개 HDD)와 이에 따른 쿨링 팬 및 전원 공급장치, 배터리로 구성된다
26
2.1 외형
27
2.2 DKC : 제어 프레임 USP 제어 프레임에는 서브시스템의 제어 및 운영 컴포넌트가 포함되어 있다.
제어 프레임은 완벽하게 중복으로 구성되어 있어서 단일 오류 요소는 존재하지 않으며, 부품은 사용자 데이터에 대한 액세스의 중단 없이 수리 및 교체가 가능하다. 제어 프레임의 주요 부품은 다음과 같다. - 스토리지 클러스터 - 비휘발성 이중 공유 메모리 - 비휘발성 이중 캐시 메모리 - 다중 데이터 및 제어 경로 - 이중화 전원 공급 장치 - 채널 어댑터 - 디스크 어댑터
28
2.2 DKC : 제어 프레임 2.2.1 스토리지 클러스터 제어 프레임은 스토리지 클러스터라 불리는 두 개의 이중화 컨트롤러로 구성되어 있다. 각 스토리지 클러스터에는 서브시스템 내부에서 프로세싱을 처리하는데 필요한 물리적 구성 요소와 논리적 구성 요소(예: 전원 공급 장치, CHA, CHIP, ACP, 캐시 등)가 포함되어 있다. 각 스토리지 클러스터는 대체 경로 기법을 사용하여 각 호스트에 연결되므로, 한 개의 클러스터 스토리지가 손상되어도 다른 스토리지 클러스터가 전체 서브시스템의 처리를 계속하게 된다. 각 스토리지 클러스터에는 캐시와 공유 메모리가 있으며, 이 메모리들은 Write 데이터에 대하여 중복된 사본을 갖는다. 이와 같은 유형의 스토리지 클러스터링이 지원하는 고급 수준의 중복 기능 이외에도 각 스토리지 클러스터 내부의 개별 컴포넌트에는 중복형 회로, 경로, 프로세서 등이 포함되어 여러 개의 컴포넌트가 실패한 경우에도 스토리지 클러스터에서 운영을 계속할 수 있다. 각 스토리지 클러스터는 자체적인 전원 공급 장치에서 전원을 받게 되며 전원 공급 장치가 다운된 경우에도 서브시스템 전체에 전원을 공급할 수 있다.
29
2.2 DKC : 제어 프레임 2.2.2 비휘발성 이중 공유 메모리
비휘발성 이중 공유 메모리에는 캐시 디렉토리와 서브시스템의 구성 정보가 포함되어 있는데, 최대 크기는 16GB이다. 요구되는 공유 메모리 저장 크기는 전체 캐시 크기와 LDEV (Logical Device)의 수 및 적용솔루션 (TrueCopy, ShadowImage등)의 운영 여부에 따라 결정되며, 배터리 백업에 의해 보호된다.
30
2.2 DKC : 제어 프레임 2.2.3 비휘발성 이중 캐시 USP 서브시스템은 최대 256GB의 캐시까지 구성할 수 있으며, 비휘발성으로써 48 시간 배터리 백업에 의해 보호된다. 캐시는 별도의 카드에서 동일한 두 개 영역으로 분리된다(이를 캐시 A와 캐시 B라 한다). 캐시 A는 클러스터 1에 있고 캐시 B는 클러스터 2에 있다. USP는 캐시에 읽기 및 쓰기 데이터를 모두 저장하는데, 쓰기 데이터는 캐시 A와 캐시 B에 한 번의 CHIP 쓰기 작업을 통해 기록되기 때문에 논리 및 전원 경계에 걸쳐 데이터가 복제된다. 쓰기 데이터의 한 복사본이 손상되거나 손실되면 다른 복사본이 즉시 디스크에 기록되므로, 이와 같은 “이중 캐시” 설계는 메모리나 전원 부분에 문제가 발생할 경우 데이터 무결성을 보존하기 위한 것이다.
31
2.2 DKC : 제어 프레임 2.2.4 다중 데이터 및 제어 경로 USP 디스크 서브시스템은 Hi-Star (Hierarchical Star Net) 3세대의 최신 기술을 채택함으로써 다수의 point-to-point 데이터 및 명령 경로를 지원하여 중복 기능을 제공하고 성능을 향상시켰다. 각 데이터와 명령 경로는 독립적으로 작용한다. 캐시와 채널 또는 디스크 어댑터 사이의 개별 경로는 고속 캐시 스위치 (CSW)에 의해 관리되므로, 버스 아키텍처에서 발생할 수 있는 성능저하나 유발의 경합 공용버스를 사용하지 않는다.
32
2.2 DKC : 제어 프레임 2.2.5 이중화 전원 공급 장치 각 스토리지 클러스터는 자체의 이중화 전원 공급 장치에서 전원을 공급 받고 각 전원 공급 장치는 필요한 경우 서브시스템 전체에 전원을 공급한다. 이와 같은 중복 기능 덕분에 USP는 전원 공급기에 문제가 발생한 경우에도 지속적인 운영이 가능하다. USP는 이와 같은 기능을 최대한 활용하기 위해 이중 전원 소스나 다른 전원 패널로의 연결을 강력히 권장하는데 이는 전원 소스 중 하나에서 전원 공급이 실패한 경우에도 대체 소스의 전원을 사용하여 운영을 계속할 수 있도록 하기 위해서다.
33
2.2 DKC : 제어 프레임 2.2.6 채널 어댑터 CHA(Channel Adapter)에는 프론트 엔드 마이크로프로세서가 포함되어 있어 호스트의 채널명령을 처리하고 캐시에 대한 호스트 액세스를 관리한다. CHA는 Pair로 사용되며 구성에 따라 CHA Pair는 8개 또는 16개 마이크로프로세서를 제공하며 CHA와 캐시 사이에서 데이터를 전송할 수 있다. 각 CHA Pair는 8개에서 16개의 데이터를 캐시에서 동시 전송/수신할 수 있으며 호스트에서는 16개 또는 32개의 물리적인 연결이 가능한데, 각 CHA Pair는 동일한 유형의 PCB (ExSA 또는 fiber-채널 등)로 구성되어야 한다.
34
2.2 DKC : 제어 프레임 2.2.7 디스크 어댑터 DKA (Disk Adapter)는 디스크 드라이브와 캐시 사이의 데이터 전송을 제어하는 기능을 담당하며, 이중화와 성능 개선을 위해 Pair로 설치된다. USP는 최대4개의 DKA Pair (16개 마이크로프로세서)로 구성할 수 있는데 하나의 DKA Pair에서 제어되는 모든 기능, 경로, 디스크 드라이브 등을 “어레이 도메인”이라고 하며, 디스크 드라이브는 광케이블을 통해 FC-AL을 사용하여 ACP Pair에 이중으로 연결된다.
35
2.3 DKU : 어레이 프레임 어레이 프레임에는 물리적인 디스크 드라이브와 디스크 어레이 그룹 및 다이내믹 그로벌 스페어 디스크 드라이브 및 이중 AC 전원 플러그가 있어 두 개의 다른 전원 소스 또는 전원 패널에 연결할 수 있다. USP는 73GB, 146GB, 300GB의 HDD를 지원하며, 최대 4개의 어레이 프레임을 추가하여 최대 332TB의 저장 용량을 지원할 수 있다. 각 디스크 드라이브는 시스템 운영에 아무런 지장을 주지 않고 교체할 수 있으며, 진단 기술과 백그라운드 다이내믹 스크러빙(scrubbing)을 활용하여 디스크의 에러를 감지하여 정정하고, 다이내믹 스페어링(sparing)은 필요한 경우 자동 실행된다. 스페어 디스크 드라이브는 최소 1개에서 최대 40개의 스페어 디스크 드라이브로 구성할 수 있는데, 어레이 그룹에서 장애 디스크와 스페어 디스크가 다른 어레이 도메인에 있거나 다른 DKA Pair에 연결된 경우에도 서브시스템 내부에서는 동일 RPM과 동일 또는 하위 용량의 모든 디스크 드라이브를 대체할 수 있다. Hi-Track® 모니터링 및 보고 툴은 장애 디스크 드라이브를 검색하여 HDS Support Center에 자동으로 통보하기 때문에 서비스 담당 직원이 파견되어 디스크 드라이브를 교체할 수 있다. 주) : 스페어 디스크 드라이브는 장애 드라이브의 교체시에만 사용할 수 있으며 서브시스템의 사용자 용량에는 포함되지 않는다.
36
2.3 DKU : 어레이 프레임 2.3.1 디스크 어레이 그룹 디스크 어레이 그룹은 USP의 기본 저장 용량 단위으로써, 각 어레이 그룹은 16개의 광채널 경로를 통해 DKA Pair의 2개 DKAP에 모두 연결되어 있으므로 어레이 그룹의 모든 디스크 드라이브는 DKA Pair에서 동시에 액세스할 수 있고, 어레이 그룹의 모든 디스크 드라이브는 동일한 논리적 용량 및 RPM을 가져야 한다. 각 어레이 프레임에는 두 개의 상자형 디스크 저장고가 포함되어 있으며 각 저장고에는 128개의 물리적인 디스크 드라이브를 장착할 수 있다. USP는 2D+2D와 4D+4D의 RAID-1, 3D+1P와 7D+1P의 RAID-5 및 6D+2P의 RAID-6 어레이 그룹을 모두 지원한다.
37
2.3 DKU : 어레이 프레임 2.3.2 RAID 유형, HDD 유형, 에뮬레이션의 혼합 구성 - RAID 레벨의 혼합
RAID 기술은 디스크 드라이브에 장애 대처 기능을 지원하는데, USP는 RAID-1, RAID-5, RAID-6 또는 RAID 레벨의 혼합 환경을 지원한다. - 하드 드라이브 유형 혼합 다른 유형의 하드 드라이브 어레이 그룹이 서브시스템 내부에 공존할 수 있다. 그러나 1개 어레이 그룹의 모든 하드 드라이브는 동일한 유형이어야 한다 - 디바이스 에뮬레이션 혼합 동일한 DKA Pair에서 다른 LU 에뮬레이션들(예: 3390-x, 3380-x, 오픈 시스템 LU)을 혼합할 수 있다. 그러나 1개 어레이 그룹 내에서 LU는 동일한 에뮬레이션을 가져야 한다
38
2.4 SVP USP에는 SVP가 컨트롤러 프레임에 통합되어 있고 승인 받은 HDS 직원만 사용할 수 있다.
SVP에서는 HDS 담당 직원이 서브시스템을 구성, 관리, 업그레이드 할 수 있도록 해주며, USP의 모든 주요 부품의 실행 데이터를 수집하여 HDS 담당 직원이 진단 테스트와 분석 작업을 수행할 수 있도록 해준다. 주) : SVP에서는 USP 서브시스템에 저장된 어떠한 사용자 데이터도 액세스하지 않는다.
39
2.5 스토리지 네비게이터 스토리지 네비게이터는 JVM (Java Virtual Machine)을 지원하는 어느 장비에서도 실행될 수 있는 JAVA 애플랫 프로그램을 제공한다. 스토리지 네비게이터 (일명 원격 콘솔)은 TCP/IP LAN을 통하여 USP에 연결되며, 원격 콘솔이 원하는 SVP에 억세스/로그-인 하게 되면 SVP에서 원격 콘솔로 스토리지 네비게이터 애플릿이 다운로드 되어 운용되어 진다.
40
제3장. 기능 및 운영
41
3.1 USP의 새로운 특징과 기능 USP 서브시스템은 전 세대인 9900V 서브시스템과 차별화할 수 있는 다음과 같은 새로운 특징과 기능을 제공한다. 최대 32 PByte의 외장 스토리지 용량 (9900V 기능 없음) 최대 332TB의 내장 스토리지 용량 (9900V 147TB) 최대 64개의 CU (Control Unit) 이미지 (9900V 32CU) 최대 16,384개의 디바이스 (9900V 8,192) 최대 1,152개의 HDD (9900V 1,024) 포트당 최대 1,024개의 LUN (9900V 512) 9900V 대비 4배 이상의 내부 대역폭
42
3.2 I/O 운영 I/O 는 캐시 활용을 기준으로 읽기 히트(Read Hit), 읽기 미스(Read Miss), 고속 쓰기(Fast Write)로 분류된다. - 읽기 히트. Read I/O에서 요청된 데이터가 이미 캐시에 있는 경우를 읽기 히트라 한다. CHIP 디렉토리를 검색하고 데이터가 캐시에 있는 경우 채널 전송율로 데이터를 호스트에 즉시 전송한다. - 읽기 미스. Read I/O에서 요청된 데이터가 캐시에 있지 않는 경우를 읽기 미스라고 한다. CHIP는 캐시 디렉토리를 검색하고, 해당되는 데이터가 캐시에 없다고 판단하면, 호스트와의 연결을 끊고 캐시내에 공간을 만든 다음, 캐시 디렉토리의 정보를 변경하고 해당되는 데이터를 해당 DKA Pair에 요청한다. DKA Pair는 Read I/O의 유형에 따라 적절한 양의 데이터를 캐시에 저장한다. - 고속 쓰기. Write 데이터가 디스크에 저장되기 전에 캐시에 기록되기 때문에 USP 서브시스템의 모든 쓰기 I/O는 고속 쓰기이다. 데이터는 다이내믹 이중 캐시의 분리된 전원 경계에 있는 캐시 두 곳에 저장된다. Write I/O가 캐시에 기록되면 USP는 호스트에 I/O 가 완료되었다고 통보하고 나중의 적절한 시점에 데이터를 디스크에 기록(Destage)한다.
43
3.3 캐시 관리 3.3.1 캐시 제어 알고리즘 USP 서브시스템은 모든 Read 및 Write 데이터를 캐시에 저장하며, 캐시 메모리의 100%를 읽기 작업에 사용할 수도 있다. 캐시의 고속 쓰기 데이터 양은 캐시 제어 알고리즘에 의해 다이나믹하게 관리되어 Read 및 Write I/O 특성에 따라 최적화된 Read 및 Write 용량을 제공한다. - HDS Intelligent Learning 알고리즘 HDS Intelligent Learning Algorithm은 무작위 및 연속 데이터 액세스 패턴을 선별하여 디스크에서 캐시로 읽어올 데이터의 양을 결정한다. 읽어올 데이터의 양은 데이터 액세스 패턴에 따라 레코드, 부분 트랙, 전체 트랙, 다중 트랙 등이 된다. - LRU (Least-Recently-Used) 알고리즘 Read Hit 또는 Write I/O 가 비순차 운영에서 발생하면 LRU 알고리즘은 캐시 세그먼트를 가장 최근에 사용한 것으로 표시하고 LRU 목록의 제일 위에 올려 놓는다. 순차 Write I/O시 그 데이터가 우선도에 의해 Destage 되면 캐시 세크먼트는 가장 적게 참조된 것으로 표시되며 이 데이터는 정상적으로는 곧 억세스 되지 않을 것 이므로 재배치를 위해 곧 비워진다. - Sequential prefetch 알고리즘 Intelligent Learning 알고리즘에 의해 순차 액세스 명령이나 액세스 패턴에 사용e되는데,현재의 액세스에 앞서 하나의 완전한 RAID 스트라이프(24 트랙)를 캐시에 저장하도록 함으로써 이후 처리가 호스트 채널 전송 속도로 캐시에서 순차 데이터 처리가 이루어지도록 한다.
44
3.3 캐시 관리 3.3.2 Write Pending Rate (= Write Cache %)
캐시에 저장된 고속 쓰기 데이터의 양은 I/O 특성을 기준으로 USP가 자체적으로 최적화된 읽기 및 쓰기 캐시의 양을 캐시 제어 알고리즘에서 관리 제공하게 된다. 주) : Write Pending 한계에 도달하면 USP는 적절한 양의 데이터를 캐시에서 디스크로 Destage 하여 충분히 빈 캐시 슬롯을 확보할 때까지 DASD 고속 쓰기를 지연시키거나 I/O 처리 요청에 대한 재시도 명령을 호스트에 전달한다.
45
3.4 CU (Control Unit) 이미지, LVI와 LU
USP 서브시스템은 메인프레임에서 , E, 2105, 2105-F20과 같은 CU 이미지를 지원하는데, 서브시스템당 최대 255개 CU 이미지, CU 이미지(SSID)당 최대 256개 디바이스를 지원한다., SSID당 최대 256개 디바이스를 한다. - LVI (Logical Volume Image) USP는 메인프레임 LVI 형태로 , R, , 3390-L, 3390-M 을 지원하며, 9900은 다음과 같은 S/390® LVI 유형을 지원한다. - LU (Logical Unit) USP는 48.1 MB 에서 GB 의 OPEN-V LU 를 지원한다.
46
제4장. 유지 보수
47
4.1 운영자 제어 판넬
48
4.1 운영자 제어 판넬
49
4.2 EPO EPO 스위치는 DKC의 후면에 위치해 있으며, 이 스위치는 응급 상황시에만 사용을 한다. 작동시키면 전원은 급격 차단되며 이에 따른 전원 충격으로부터 서브시스템을 보호하기 위해 블록킹된 캐시, 내부 스위치, 프로세서, 디스크 등을 블록으로부터 해제하기 위하여 HDS 본사의 도움을 필수적으로 받아야 하므로 복구에 많은 시간이 소요된다. HDS 본사의 지시 절차 및 해당 서브시스템의 EPO 락-해제 암호를 받지 않으면, 한번 작동된 스위치는 원 상태로 절대 돌아가지 않으므로, 서브시스템의 다운이 EPO 스위치 작동에 의한 것임을 알 수 있도록 되어 있다.
50
4.3`Power Off OP Panel 4.3.1 USP Power Off - 48시간 이전에 분전반 전원이 들어오는 경우
1. Server 또는 CPU가 정상적으로 Down 되었는지 확인한다. 2. USP Disk의 앞면 OP Panel에 있는 Power Enable Switch를 위로 Hold 시킨 상태에서 Power ON/OFF Switch를 아래(Off)로 내린다. (이 두개의 Switch는 Setting 후 다시 제자리로 돌아온다). FRONT VIEW USP 앞면 OP Panel EPO スイッチ SUB - SYSTEM READY ALARM MESSAGE RESTART DI SABLE EN ABLE PROCESSING REMOTE MAINTENANCE BS ON PS OFF ENABLE POWER EMERGENCY LOCAL DISABLE AUTO P S CHK RST LED TEST Operator anel 3. 약 10분 정도 경과 경과하면 USP Disk가 정상적으로 Shutdown되어 OP Panel에 있는 Ready LED 및 PS-ON LED가 OFF 된다. (주의 : Ready LED에 녹색 불이 들어와 있으면 Disk가 현재 살아있는 상태이므로 반드시 Ready LED가 불이 꺼지는 것을 확인.)
51
4.3`Power Off 4. DISK 컨트롤러,R1,R2,L1,L2, Frame 의 정면 하단에 2개씩 있는 AC Box의 Main Circuit Breaker를 OFF 한다(내린다). DKU-L2 DKU-L1 DKC DKU-R1 DKU-R2 AC Box Front View 5. 분전반에서 USP용 Breaker Switch를 OFF 시킨다.
52
4.3`Power Off 4.3.2 USP Power Off - 48시간 이전에 분전반 전원이 들어오지 않는 경우 1. Server 또는 CPU가 정상적으로 Down 되었는지 확인한다. 2. USP Disk의 앞면 OP Panel에 있는 Power Enable Switch를 위로 Hold 시킨 상태에서 Power ON/OFF Switch를 아래(Off)로 내린다. (이 두개의 Switch는 Setting 후 다시 제자리로 돌아온다). FRONT VIEW USP 앞면 OP Panel EPO スイッチ SUB - SYSTEM READY ALARM MESSAGE RESTART DI SABLE EN ABLE PROCESSING REMOTE MAINTENANCE BS ON PS OFF ENABLE POWER EMERGENCY LOCAL DISABLE AUTO P S CHK RST LED TEST Operator anel 3. 약 10분 정도 경과하면 USP Disk가 정상적으로 Shutdown되어 OP Panel에 있는 Ready LED 및 PS-ON LED가 OFF 된다. (주의 : Ready LED에 녹색 불이 들어와 있으면 Disk가 현재 살아있는 상태이므로 반드시 반드시 Ready LED가 불이 꺼지는 것을 확인.)
53
4.3`Power Off 4. DISK 컨트롤러,R1,R2,L1,L2, Frame 의 정면 하단에 2개씩 있는 AC Box의 Main Circuit Breaker를 OFF 한다(내린다). DKU-L2 DKU-L1 DKC DKU-R1 DKU-R2 AC Box Front View 5. USP Disk에는 Cache 내 Data를 보호하기 위한 Battery가 있는데 Disk에 전원이 들어오지 않으면 자동으로 이 Battery가 방전을 하여 Cache 내의 Data를 보호합니다. 이 Battery의 용량은 48시간이며 비상 시(순간정전, 정전) 사용하기 위한 것이므로 전산실 공사나 휴가 등 기타 사정으로 인해 불가피하게 전산실 전원이 48시간 이상 Off 되는 경우에는 이 Battery가 더 이상 방전을 하지 않도록 다음의 조치를 취해야 한다. *만약 Truecopy or Shadowimage를 사용시에 Battery를 Off하면 메모리내의 데이터가 사라지어, Initial Copy를 다시 해야 하므로 엔지니어와 상담 후 위의 5번을 실행한다.
54
4.3`Power Off 6. USP는 아래 그림과 같이 구성되어 있는데 여기에서 Switch를 Disable 위치로 내리면 된다. CL2 CL1 HDD LG B A T E R Y -25 -24 -23 -22 -21 C O X - 2 1 -15 -14 -13 -12 -11 D K P S 14 13 12 11 H 3 5 PS14 PS13 PS12 PS11 DKCMN-1 SSVP CL1/CL2 DKC front view A C B O X - XX0 XX1 BA TTERY – UXX0 TTERY – UXX1 TTERY – UXX2 TTERY – UXX3 TTERY – UXX4 TTERY – UXX5 TTERY – UXX6 TTERY – UXX7 DKUPS 1 2 3 DKU front view 7. 분전반에서 USP 用 Breaker Switch를 OFF 시킨다.
55
4.4`Power On 4.4.1 USP Power On - 48시간 이전에 분전반 전원이 들어오는 경우
1. 분전반에서 USP 用 Breaker Switch를 ON 시킨다. 2. R1,R2,L1,L2, DISK 컨트롤러 Frame 의 순서대로 정면 하단에 2개씩 있는 AC Box의 Main Circuit Breaker를 ON 한다(올린다). DKU-L2 DKU-L1 DKC DKU-R1 DKU-R2 AC Box Front View 3. OP Panel에 있는 BS-ON LED의 노란색 불이 들어 왔는지 확인한다.
56
4.4`Power On OP Panel USP 앞면
4. USP Disk의 앞면 OP Panel에 있는 Power Enable Switch를 위로 Hold 시킨 상태에서 Power ON/OFF Switch를 위(ON)로 올린다 (이 두개의 Switch는 Setting후 다시 제자리로 돌아온다). FRONT VIEW USP 앞면 OP Panel EPO スイッチ SUB - SYSTEM READY ALARM MESSAGE RESTART DI SABLE EN ABLE PROCESSING REMOTE MAINTENANCE BS ON PS OFF ENABLE POWER EMERGENCY LOCAL DISABLE AUTO P S CHK RST LED TEST Operator anel 5. 약 10분 정도 경과하여 USP Disk가 정상적으로 ON되면 OP Panel에 있는 Ready LED가 ON(녹색) 된다(주의 : 20분 정도가 지나도 Ready LED에 녹색불이 들어 오지 않거나, ALARM 및 MESSAGE에 LED가 점등되면 정상적으로 살아난 상태가 아니므로 Engineer Call 하세요). 6. OP Panel에 있는 Ready LED가 ON(녹색) 된 것을 확인하고 Server 또는 CPU를 기동한다.
57
4.4`Power On 4.4.2 USP Power On - 48시간 이전에 분전반 전원이 들어오지 않는 경우
1. 분전반에서 USP 用 Breaker Switch를 ON 시킨다. 2. R1,R2,L1,L2, DISK 컨트롤러 Frame 의 순서대로 정면 하단에 2개씩 있는 AC Box의 Main Circuit Breaker를 ON 한다(올린다). DKU-L2 DKU-L1 DKC DKU-R1 DKU-R2 AC Box Front View 3. OP Panel에 있는 BS-ON LED의 노란색 불이 들어 왔는지 확인한다.
58
4.4`Power On 4. 경우에 따라 Disk의 전원을 내린 후 Disk 내부의 Battery Switch를 Disable한 경우이므로 다시 Enable로 하기 위해서는 아래의 Battery Switch를 Enable 한다. CL2 CL1 HDD LG B A T E R Y -25 -24 -23 -22 -21 C O X - 2 1 -15 -14 -13 -12 -11 D K P S 14 13 12 11 H 3 5 PS14 PS13 PS12 PS11 DKCMN-1 SSVP CL1/CL2 DKC front view A C B O X - XX0 XX1 BA TTERY – UXX0 TTERY – UXX1 TTERY – UXX2 TTERY – UXX3 TTERY – UXX4 TTERY – UXX5 TTERY – UXX6 TTERY – UXX7 DKUPS 1 2 3 DKU front view 5. 약 10분 정도 경과하여 USP Disk가 정상적으로 ON되면 OP Panel에 있는 Ready LED가 ON(녹색) 된다(주의 : 20분 정도가 지나도 Ready LED에 녹색불이 들어 오지 않거나, ALARM 및 MESSAGE에 LED가 점등되면 정상적으로 살아난 상태가 아니므로 Engineer Call 하세요). 6. OP Panel에 있는 Ready LED가 ON(녹색) 된 것을 확인하고 Server 또는 CPU를 기동한다.
59
4.4`Power On OP Panel USP 앞면
5. USP Disk의 앞면 OP Panel에 있는 Power Enable Switch를 위로 Hold 시킨 상태에서 Power ON/OFF Switch를 위(ON)로 올린다 (이 두개의 Switch는 Setting후 다시 제자리로 돌아온다). FRONT VIEW USP 앞면 OP Panel EPO スイッチ SUB - SYSTEM READY ALARM MESSAGE RESTART DI SABLE EN ABLE PROCESSING REMOTE MAINTENANCE BS ON PS OFF ENABLE POWER EMERGENCY LOCAL DISABLE AUTO P S CHK RST LED TEST Operator anel 6. 약 10분 정도 경과하여 USP Disk가 정상적으로 ON되면 OP Panel에 있는 Ready LED가 ON(녹색) 된다(주의 : 20분 정도가 지나도 Ready LED에 녹색불이 들어 오지 않거나, ALARM 및 MESSAGE에 LED가 점등되면 정상적으로 살아난 상태가 아니므로 Engineer Call 하세요). 7. OP Panel에 있는 Ready LED가 ON(녹색) 된 것을 확인하고 Server 또는 CPU를 기동한다.
60
제5장. 문제 해결
61
5.1 운영자 제어 판넬
62
5.2 SIM (Service Information Message)
USP는 SIM (Service Information Message)을 생성하여 TrueCopy Pair 상태 변화와 같은 일반적인 운영 작업과 서비스 조건 및 에러 또는 실패 등을 확인한다. SIM은 CHA 및 DKA 마이크로프로세서와 서브시스템의 SVP에서 생성되는데, 모든 SIM은 SVP에 저장되고 USP Web Console에 R-SIM (Remote SIM)으로 기록된다. SIM이 생성되면 USP는 사용자에게 경고하기 위하여 제어 판널의 황색 LED를 On 시키며, Hi-Track® 원격 유지 보수 툴은 모든 SIM을 HDS Support Center에 보고한다. SIM은 엄격함을 기준으로 서비스, 보통, 심각, 매우 심각 등으로 분류하는데, 서비스와 보통 수준의 SIM 에서는 즉각적인 주의를 기울일 필요가 없고 일상적인 유지 보수 작업 도중에 확인할 수 있으나, 심각과 매우 심각한 수준의 SIM 은 8시간마다 호스트에 보고된다.
63
5.3 장애 내용 확인 Hitachi Storage USP 관리자 PC Public LAN
ID, Password 를 입력하여 에 접속한다.
64
1. View Mode를 클릭하여 Modify Mode로
5.3 장애 내용 확인 1. View Mode를 클릭하여 Modify Mode로 변경한다 2.Information 을 클릭한다
65
5. Initial이라고 나오는 로그를 선택하고
5.3 장애 내용 확인 3. Log를 클릭한다. 4. List를 클릭한다 5. Initial이라고 나오는 로그를 선택하고 Contents를 클릭한다
66
5.3 장애 내용 확인 * 장애 로그 내용 확인 (예) – Contents 확인
67
6. Initial이라고 나오는 로그를 선택하고
5.4 장애 내용 확인 후 완료 처리 6. Initial이라고 나오는 로그를 선택하고 Complete를 클릭한다
68
5.5 HDLM software 장애 내용 확인 1. telnet 을 이용하여 ntsoltp1,ntsoltp2
서버에 접속한다. 2. #dlnkmgr view –path –c 명령어로 각 volume의 path가 “online”임을 확인한다. 3. Path 중 “offline”인 path가 있다면 Hitachi 엔지니어에게 연락하여 필요한 조치를 취한다. 각 volume의 path가 “online”임을 확인
Similar presentations