7장 비디오
7.1 비디오의 개요 영상과 화상의 차이는 화상은 정지된 이미지화면을 의미하나, 영상이란 이러한 이미지 화상들의 연속적인 집합체이다. 대부분의 영상처리 기술은 화상처리에서 사용하는 기술을 기반으로 발전 .머리말 화면에 비디오 자료를 보여주기 위해 텔레비젼의 경우는 명도(Luminance)와 색상(Chrominance)를 사용하는데 반하여, 컴퓨터에서는 비디오 신호를 처리하기 위해 RGB의 세 가지색을 사용하여 표현한다. 비디오를 구성하고 있는 이미지 하나하나를 프레임(Frame)이라고 한다. 2
통상 컴퓨터나 TV 비디오는 초당 30프레임을, 영화의 경우에는 초당 24프레임을 필요로 한다. 비디오는 화면의 크기와 초당 프레임 수로 구분하는데, 전체화면을 차지하는 비디오를 완전화면(Full screen) 비디오라 하며, 초당 30프레임을 지원하는 비디오를 완전모션(Full motion) 비디오라 구분 한다. 비디오의 크기는 이미지 프레임의 크기와 초당 프레임수를 곱한 값으로 표현한다. 통상 컴퓨터나 TV 비디오는 초당 30프레임을, 영화의 경우에는 초당 24프레임을 필요로 한다. 3
7.1.1 아날로그 비디오와 디지털 비디오 텔레비젼의 등장으로 아날로그 형태의 비디오 처리 기술이 급속히 발전 하였으며, 디지탈 비디오의 등장으로 컴퓨터 멀티미디어 분야에서 비디오의 활용이 더욱 활성화 되고 있다. 현재 컴퓨터에서 가장 보편적으로 사용되고 있는 비디오 파일의 형태는 아래와 같이 AVI, MOV, MPEG 파일형태와 새로이 등장한 Real Video 파일 형태인 RM(RA)이 있다. 4
아날로그 비디오 는 공중파나 cable등으로 입력된 신호를 받아 TV에 출력할 수 있도록 RGB모드로 복원을 통해 보여진다 5
디지털 비디오는 비디오 편집기를 통하여 생성된 자료나 비디오 카메라, VCR, TV, LDP 등에서 제공되는 영상자료를 비디오 보드를 통하여 모니터에 적합한 형태로 변환하여 사용자에게 출력되는 것으로, 잡음이 적고 자료의 편집 및 수정이 용이하나 자료의 규모가 방대하여 많은 양의 데이터를 저장하는데 어려움이 있다. 6
7.1.2 비디오와 애니메이션의 차이 7
7.1.3 TV의 기본 개념 주사방식에는 크게 순차주사 (Noninterlace)방식과 격행주사 (Interlace)방식(짝수, 홀수 라인을 교대로 제공)이 있다. 주사방식을 사용하므로 화면에 깜박거리는 Flicker 현상이 있다. 격행주사방식에서 1장의 화상을 몇장의 거친 화상으로 나누어서 주사하는데 한 화면분의 주사선 전체를 포함하는 화상의 신호를 프레임 , 거친 화상의 신호를 필드라 한다. 텔레비전은 RGB 신호를 영상의 명암을 나타내는 하나의 명도신호(Luminance) (Y)와 RGB의 3원색에서 명도를 제외한 나머지를 표현하는 두개의 색상신호(Chrominance) (I,Q 또는 U, V)로 변환하여 전송한다. 8
텔레비전 신호의 송수신 9
흑백 텔레비전 수상기는 명도신호를 이용하여 흑백영상을 만들고, 칼라 텔레비전은 명도신호와 색상신호를 혼합하여 칼라 영상을 생성한다. YUV의 명도신호 및 색상신호로 영상을 표시하면 RGB보다 메모리를 효율적으로 사용할 수 있고, 빠른 속도로 자료를 처리할 수 있다. 이는 사람의 시각이 명도신호에는 민감하나 색상신호에는 덜 민감하다는 특징을 이용하여 명도신호와 색상신호를 나타내는 비트의 수를 조절하여 얻을 수 있다. 10
아래는 영상의 크기 640 * 512 화소의 자료를 RGB와 YUV형태로 저장시 메모리 소모 공간의 비교 자료이다. 아래는 영상의 크기 640 * 512 화소의 자료를 RGB와 YUV형태로 저장시 메모리 소모 공간의 비교 자료이다. VOD (Video On Demand) 현재의 방송국에서 사용자에게 전발되는 일방적인 방식에서 벗어나 비디오 source 에 저장된 프로그램을 사용자가 직접 선택하여 원하는 프로그램을 언제든지 볼 수 있는 서비스를 말한다. 기본적인 시스템 구성은 비디오 서버장치가 설치된 VSS(Video Source System), 가입자 단말장비인 Set-Top Box, 그리고 네트웍 장비등으로 이루어진다. 11
7.1.4 TV의 방송 방식 (1) TV의 표준형식 현재 국제적으로 통용되는 3대 TV 표준 형식은 NTSC, PAL, 그리고SECAM으로 지역 또는 나라에 따라 각각의 표준을 지정하여 사용하고 있다. 12
NTSC (National Television Standards Committee) 최초 흑백 텔레비젼의 송신 규격을 위해 창설된후, 1953년 칼라 텔레비젼 시스템을 위한 규격으로 확장된 국제 TV방송을 위한 Protocol로 미국에서 채택됨 525 주사선(Lines per Frame), 59.94 Fields per Second, 3.57945 Mhz Subcarrier(부반송파) 사용 RGB 를 명도신호(Y)와 2개의 색상신호(I, Q)로 분리하여 전송. Y = 0.299 R + 0.587 G + 0.114 B I = 0.596R - 0.275G – 0.321B Q = 0.212R - 0.523G + 0.311B R = Y + 0.956 I + 0.621 Q G = Y-0.272 I – 0.649 Q B = Y-1.105 I +1.702 Q 13
PAL (Phase Alternate Line) 1967년 색상 변환시 오류(Hue Errors)를 최소화 하려는 취지에서 등장 PAL-B와 PAL-M 두 방식이 가장 많이 사용 SECAM 보다 Sound면에서 우월한 것으로 판단 14
(2) Digital TV 방식에 따라 표준방식(SDTV)과 고화질방식(HDTV)으로 구분. 표준방식은 방송형태만을 기존의 아날로그 방송을 디지털로 변환하는 형태. 컴퓨터를 통하여 TV 프로그램을 볼수 있고 바로 저장도 가능. 15
(3) 고화질 TV(HDTV: High-Definition TV) 우리나라의 경우 2000년 시험방송, 2001~2002(광역시), 2004(도청소재지), 2005(시, 군지역)을 목표로 2010년까지 확대. (3) 고화질 TV(HDTV: High-Definition TV) 1980년대 말에서 1990년대 초에 일반인에게 알려짐 화면의 크기가 커짐에 따라 주사선의 수가 현행보다 두배정도 증가 하였다. 화면의 종횡비(가로와 세로의 비율)가 현행 컬러 TV의 3:4에서 9:16으로 변환 되었는데 이는 사람 눈의 시야각을 고려한 비율이다. 화상은 35mm 영화를 목표로 출발 하였다. Sound는 Compact Disk 수준의 음향을 제공하며, Analog 대신 Digital Signal Transmission 사용한다. MPEG-2 file format과 Compression 표준 사용한다. 16
7.2 비디오 처리 장치 17
7.2.1 비디오 보드 비디오 보드란 PC에 입력되는 비디오 영상 정보를 가공 처리하여 모니터 화면에 표현해 주는 장치를 말한다. 기능에 따라 프레임 그래버 보드, 영상 중첩 보드, 그리고 영상 압축/복원 카드로 구분된다. 프레임 그래버(Frame Grabber) 보드: 비디오 카메라나 VCR과 같은 장치로 부터 입력되는 영상 신호를 획득, 컴퓨터에서 조작이 가능한 형태로 변환. 즉, 아날로그 신호를 디지털 신호로 변환시키는 역활을 수행한다. 영상 중첩(Video Overlay) 보드 : 컴퓨터 내부의 정보와 외부에서 유입되는 영상정보를 합성하여 모니터에 표현. 컴퓨터에서 제공되는 문자, 그래픽 정보와 외부의 영상 정보를 동시에 제공하는 기능을 제공한다. 영상 압축(Compression)/복원(Decompression) 보드 : 영상 정보를 압축하여 기억 장치에 저장, 필요시 복원하여 제공하는 장치를 말한다. 18
7.2.2 비디오 저장장치 CD-ROM에 디지털 정보를 기록할 수 있는 CD-ROM 레코더와 CD-ROM의 내용을 읽어들이는 CD-ROM 드라이브, 그리고 DVD-ROM에 저장된 디지털 정보를 읽을 수 있는 DVD(Digital Video/Versatile Disk) 드라이브가 있다. VOD(Video on Demand) 서비스 업체 등 대용량의 멀티미디어 정보를 보유한 곳에서 주로 사용하는 저장장치로 많은 양의 비디오 자료를 담을 수 있는 디스크 어레이(Disk Array) 장치가 있다. CD-ROM은 저장용량의 한계로 인하여 고품질의 영상정보를 원하는 사용자들의 욕구를 만족시키지 못한다. CD-ROM이 가지고 있는 저장공간의 제한성을 해결하여 디지털 영상의 고품질화 및 고기능화를 위하여 개발된 것이 DVD-ROM 이다 19
20
7.3 디지털 영상 처리 7.3.1 영상의 전환과 특수효과 디지털 영상처리를 위해 각종 영상효과 장치가 이용되고 있다. 이러한 장치를 이용하여 스튜디오로부터 중계현장으로 장면을 전환하기도 하고 특수효과를 줄 수도 있다. 과거에는 방송국과 같은 큰 기관에서만 이러한 고가의 장치를 보유할 수 있었으나, 오늘날은 디지털 기술의 발전에 힘입어 이러한 장치가 소형화되고 가격도 많이 하락하였다. 21
(1) 영상의 전환 가장 기본적인 영상효과는 두개의 영상간의 화면전환 기능이다. Fade기능은 영상 A로부터 영상 B로 서서히 전환하는 과정으로 간단한 승산기와 가산기를 이용하여 이 과정을 수행하기 위해서는 연산의 대상이 되는 영상 A와 영상 B의 데이터가 정확하게 동기화 되어야 한다. 22
(2) 특수 효과 영상 장치가 디지털화 하면서 과거 아날로그 장치로는 불가능하였던 영상효과가 이제는 실현될 수 있게 되었다. 카메라로 촬영한 영상을 구의 표면에 붙이거나 책의 페이지를 넘기는 것과 같이 영상이 바뀌는 등 다양한 영상효과가 이용되고 있다. 이러한 영상효과를 실현하는 장치를 영상 특수효과 장치라고 하며, 영상의 확대/축소, 위치의 이동과 변형 등 기하적인 처리를 요하기 때문에 기하적 변형장치라 부르기도 한다. 23
7.3.2 디지털 영상합성 두개 이상의 영상을 합성하여 현실에는 존재하지 않는 장면(Scene)을 만드는 기술은 TV가 출현하기 이전부터 사용되어 왔다. 요즘은 컴퓨터를 이용한 디지털 기술을 활용하여 영상의 확대와 축소, 변형과 합성 등 그 기법이 보다 광범위하게 발전하였다. 24
(1) 필름의 합성 25
(2) 크로마키 합성 TV가 흑백에서 컬러로 바뀌면서 영상중의 색 차이를 검출하여 마스크에 해당하는 키 화상(Key Image)을 생성하고, 합성하는 장치가 폭넓게 사용되게 되었는데, 이것을 크로마키합성이라고 하며 영상을 합성하는 장치의 대명사로 인식될 정도로 폭넓게 사용되고 있다. 크로마키 합성은 마스크 화상의 생성과 합성이 실시간으로 처리되고, 영상을 촬영한 장소에서 즉시 합성할 수 있는 유일한 수단이 된다. 영상으로서 필요한 전경과 불필요한 배경을 색으로 식별할 수 있도록 크로마키와 청색으로 착색한 일정한 배경세트가 필요하다. 또한, 조명에도 고도의 기술이 요구된다. 26
7.4 비디오의 압축/복원 영상신호는 각 데이터간의 연관성이 매우 큰 특성을 가지고 있어 변화가 적은 비슷한 값의 나열로 이루어져 있다. 영상이란 비슷한 밝기와 색상을 가진 점(화소 또는 픽셀)들이 부분적으로 모여 이루어진 집합체이다. 이것을 데이터의 중복성(Redundancy)이라고 하는데, 이 중복성을 제거함으로써 전체 데이터의 량을 상당히 줄이고도 충분한 정보를 전달할 수 있다. 이렇게 영상 데이터의 중복성을 제거하는 일을 영상압축(Compression) 또는 부호화(Encoding)라고 한다. 27
7.4.1 비디오의 압축과정 비디오 압축의 필요성은 비디오 파일 용량의 최소화 요구, 인터넷의 발달에 따른 비디오 자료의 활용 시 네트웍 데이터 전송속도, 그리고 기타 주변기기(CPU, 그래픽, 시스템 버스, ...)의 부하 감소의 필요에서 이다. 비디오의 압축방법은 데이터의 완전한 복원 가능 여부에 따라 무손실압축(Lossless Compression) 기법과 손실압축(Lossy Compression) 기법으로 구분되며, 소프트웨어에 의한 압축(Indeo, Cinepak,...)과 하드웨어에 의한 압축(JPEG, MPEG, P*64,...)으로 구분할 수 있다. 28
무손실압축 기법은 원래 영상으로의 완전한 복구가 가능하도록 압축시 미세한 데이터를 중요시하는 기법으로, X-ray, 단층촬영(CT) 등의 의료용 영상과 같은 응용분야에서 활용되며, 따라서 압축율은 비교적 낮은 2:1 ~ 3:1 정도이다. 비디오를 압축할 때 고려사항으로 초당 필요 frame 수, 압축율에 따른 화질의 변화, 압축 및 복원 속도, 부가적인 HW / SW 소요 여부, 통신체널의 전송 속도의 한계 등을 고려해야 한다. 29
(1) 전처리(Preprocessing) 압축을 하기위한 준비작업을 수행하는 과정으로 컬러 스페이스(Color Space) 변환, 필터링(Filtering), 컬러 서브 샘플링(Color Subsampling) 등이 행해진다. 컬러 스페이스 변환은 R,G,B의 세 가지 성분으로 이루어진 컬러영상의 명도(Luminance)를 위한 Y 성분과 색상(Chrominance)을 위한 I 와 Q 성분으로 변환하는 과정으로, 이는 압축율을 높이기 위한 필수 과정이다. 즉 컬러 스페이스 변환은 RGB 영상 데이터를 YIQ 영상데이터로 변환하는 과정이다. 필터링은 잡음을 제거하여 압축율을 높이기 위한 과정이다. 컬러 서브샘플링은 사람들의 눈으로 미세한 색의 변화를 감지할 수 없다는 점을 이용하여, 덜 민감한 색 성분을 가지고 있는 I와 Q성분에서 한 화소씩(데이터 양을 1/2로 줄임) 또는 세 화소씩(데이터 양을 1/4로 줄임) 뛰어넘어 하나의 화소만을 취하여 본래의 영상 데이터의 크기를 1/2 또는 1/4로 줄이는 과정이다. 30
(2) 변형(Transformation) 이 과정은 영상이 가지고 있는 정보의 중복성을 찾아내는 과정으로 영상신호 자체에서 처리하는 파형(Waveform)방식과 새로운 영역에서 처리하는 변환(Transform)방식이 있다. 파형방식은 인접한 화소의 영상 값의 차이만을 표시하는 가장 대표적인 방식으로는 DPCM(Differential Pulse Code Modulation)이 있다. DPCM으로 처리된 데이터의 복원은 앞 화소값에 그 차이 값을 더하여 구한다. 보다 높은 압축효과를 얻기 위하여 이를 변형한 ADPCM(Adaptive Differential Pulse Code Modulation) 변환법도 사용되고 있다. 변환방식은 영상데이터의 중복성을 제거하기 위해 여러 종류의 수학적인 변환방법을 통해 영상을 공간영역(Spatial Domain)으로부터 다른 영역으로 변환하여 분석함으로써 압축하는 방법으로 DCT(Discrete Cosine Transform) 방법이 널리 사용되고 있다. 31
(4) 가변길이 부호화(Variable Length Coding) (3) 양자화(Quantization) 이 과정은 앞의 DPCM이나 DCT과정을 통하여 얻은 영상값을 어떤 상수값으로 나누어 유효자리의 비트수를 줄이는 과정이다. 이과정을 걸치면 데이터가 변이되어 원래 데이터를 상실하는 데이터의 손실이 발생한다. 모든 손실 압축 기법은 이 과정을 거친다 (4) 가변길이 부호화(Variable Length Coding) 이 과정은 데이터의 출현 빈도에 따라 자주 등장하는 데이터의 표현은 적은 비트수로 표현하고, 반대로 자주 등장하지 않는 데이터는 상대적으로 큰 비트수로 표현하여 전체적인 파일의 크기를 줄이는 방법이다. 32
이렇게 빈도수에 따른 처리방법으로 허프만(Huffman) 부호화 방법등이 사용된다. 컴퓨터에서는 영문자 A부터 Z까지의 모든 문자의 코드를 8비트로 표현하고 있다. 따라서 문자열의 크기는 전체 문자수에 의해 정해진다. 그러나 만일 영문자 26개 중 에서 출현빈도가 높은 A, E에는 2~3 비트의 코드를 할당하고, 상대적으로 출현빈도가 낮은 Q, Z에는 10~16비트의 코드를 할당하되, 서로 구분이 되도록 문자코드를 부여한다면 결과적으로 전체 파일의 크기를 줄일 수 있다. 이렇게 빈도수에 따른 처리방법으로 허프만(Huffman) 부호화 방법등이 사용된다. 33
7.4.2 비디오 압축기술 가장 대표적인 압축방법에는 픽셀당 컬러 비트 수(Color Bit Depth)의 축소, 프레임 크기(Number of Pixels)의 축소, 그리고 프레임 수(fps)의 축소에 의한 방법이 있다. 비디오의 부호화는 프레임 간의 정보를 이용하여 시각적 영향이 적은 부분의 정보량을 줄이는 방법을 사용한다. 이러한 방법에는 전프레임의 동일 위치의 화소 값을 이용하여 차이값만을 기록하는 프레임간 예측 부호화, 전˙후 프레임에서 물체의 움직임을 검출하여 그 움직임 성분만큼 앞 프레임에서 예측에 이용하여 화소의 위치를 보정 하는 움직임 보상 프레임간 예측 부호화법 등이 있다. 34
(1) JPEG(Joint Photographic Experts Group) Gray scale 및 Color 영상을 포함한 모든 정지영상 압축전송기술의 국제표준 규정안 이다. 알고리즘으로 8 * 8 DCT를 사용하는 손실 압축과 예측 코딩을 사용하는 무손실 알고리즘 두가지 알고리즘을 사용한다. JPEG의 주요 처리 절차는 아래와 같다 1. RGB 컬러모델을 YIQ 컬러모델로 변환 2. YIQ 메크로 블럭화 3. 매크로 블럭을 8 * 8 블럭화 4. DCT (Discrete Cosine Transform) 변환 5. 양자화 (Quantization) 6. 지그 - 재그 스캐닝 (Zigzag Scaing) 7. DPCM (Differential Pulse Code Modulation) 또는 RLE (Run Length Encode) 8. 엔트로피 코딩 (Entropy Coding) 35
20:1 정도의 압축율에서 화질에 거의 영향을 주지 않는다고 평가되고 있다. MPEG과는 달리 Data의 저장을 Frame간 독립적으로 실행, 압축율은 MPEG의 1/4 정도이나 Frame간의 편집이 자유롭다 C-Cube사의 CL-550B chip은 초당 30 Frame의 영상을 실시간 압축한다 36
(2) MPEG(Moving Picture Experts Group) 비디오 전화용과 디지털 저장매체로 사용하기 위한 두가지 압축방식으로 구분 된다. Movie와 CD수준의 sound와 동기화에 대한 표준안으로 구성되어 있다. ISO / IEC JTC1/SC29/WG11로 공식화 되었다.(1996. 6) MPEG 단체에서 제안하고 있는 동영상 압축기법은 크게 나누어 시간적 중복 및 공간적 중복을 제거하는 기법에 기반하고 있다. MPEG 압축 기법은 이동보상 압축 기법을 이용하여 시간적 중복(Temporal Redundancy)을 제거하고, 정지화상의 DCT 압축기술을 결합하여 공간적 중복(Spatial Redundancy)을 제거하는 방법이다. 37
MPEG의 압축기술은 아래 그림과 같이 화면을 I(Intra coded) Picture, P(Predictive coded) Picture, B(Bidirectional predictive coded) Picture로 구분하여 부호화 한다. I Picture는 예측부호화를 행하지 않고 독립적으로 부호화한다. P Picture는 직전의 I 또는 B로부터 추정한 예측신호와의 차를 부호화한다. B Picture는 화면의 전/후에 위치한 I 또는 P로부터 추정한 예측신호와의 차를 부호화한다. 38
MPEG-1은 VHS 수준의 영상을 CD-ROM에 저장할 목적(데이터 전송속도 1.5Mbps 이하)으로 제정되었다. 주로 가정용 TV 수준의 비디오와 CD 수준의 스테레오 음향을 CD-ROM에 저장하고 재생하기 위해 만들어졌으며, 1993년 국제표준으로 채택되었다. MPEG-2 MPEG-2는 디지털 TV와 DVD 수준의 영상을 목적(데이터 전송속도 15Mbps이상)으로 제정되었으며, 순차주사(Noninterlace)방식과 격행주사(Interlace)방식 모두를 지원한다. 광범위한 신호 형식에 대응하기 위해 프로파일(Profile)과 레벨(Level)에 따라 복수개의 사양이 정해져 있다. 프로파일은 부호화의 방식과 기능에 의한 분류로 5종류가 있으며, 레벨은 부호화 대상인 영상신호 형식으로 표준 TV로부터 HDTV까지 4종류가 있다. 39
MPEG-3은 HDTV를 목표로 출발하였으나, MPEG-2의 적용 범위가 확장되면서 MPEG-2로 통합되었다. MPEG-4 MPEG-4는 1994년 낮은 전송률로 동영상을 보내는 것을 목표로 출발한 영상압축 표준으로, 64Kbps나 192Kbps의 저속 전송으로 동영상 전송 40
멀티미디어 통신 서비스를 지원하기 위한 것으로 인터넷 유선망 뿐만 아니라 무선망에서 화상회의 시스템과 같은 대화형 멀티미디어, 특히 비디오 전화와 같은 이동통신 시스템에서의 오디오와 비디오의 압축을 위해 제안된 표준 MPEG-4 부호화에서는 기존 영상데이터의 화소값에 대한 압축방식에서 벗어나 영상에 담긴 객체(Object)들을 객체 기반 부호화(Object-based Coding)시키는 방법에 대한 연구가 포함되어 있다. MPEG-7 멀티미디어 데이터 내용을 표현하는 방법에 관한 표준 정보검색을 위한 내용 표현을 목표로 함 멀티미디어 정보를 빠르고 효율적으로 검색하기 위한 내용기반 정보검색에 대한 표준화 멀티미디어 자료의 이용, 여행정보서비스, 기사 검색, 사이버박물관,지리정보시스템, 원격탐지,사이버쇼핑,부동산,VOD등 이용 41
MPEG-21 전자상거래를 통한 멀티미디어컨텐츠를 교환, 전송, 결재, 재산권보호를 위한 요소기술들의 연관관계를 명확히 하고 통합할 수 있는 표준 다양한 네트워크 및 장치에 있는 멀티미디어 컨텐츠 자원을 효율적으로 이용하는 것을 목표 전자상거래 환경에서 멀티미디어 컨텐츠를 무선 근거리 통신망, 광대역통신망, 위성/케이블 방송 등 다양한 네트워크와 개인용 휴대단말기, PC, 디지털 TV, DVD, IMT-2000등의 다양한 단말기를 이용하여 사용자가 상호호환 방식으로 쉽고, 편리하게 생성, 배급, 이용할 수 있는 방법을 정의, 구현할 수 있는 국제 표준 H.261 (P*64) 1988~1990년 CCITT(International Telegraph and Telephone Consultative Committee)에서 정한 원격 화상회의를 위한 표준안 42
ISDN 전화선을 이용한 국제 Video-Conferencing, Video-Telephone을 용도로 한 통신계열에 있어서 동화상의 압축 및 부호화 방식의 국제표준안이다. 부호화 알고리즘은 MPEG방식과 기본적으로 같으며 I 및 P picture의 부호화 형식을 이용하여 64Kbps ~ 1,920Kbps로 압축하며, H. 261은 높은 압축율(100:1∼200:1)로 실시간 압축을 지원한다. H.261은 시간적 중복성을 제거하기 위해 프레임간의 예측기법을 사용하고, 공간적 중복성을 제거하기 위해 DCT 변환기법을 사용하며, 동작보상 기법도 옵션으로 추가할 수 있다. 43
7.4.3 코덱(Codec) 다양한 압축 방법을 지원하기 위한 소프트웨어 모듈로 압축(Compression, Encoding)과 복원(Decompression, Decoding)을 동시에 지원한다. JPEG, MPEG, H.261 등이 하드웨어에 의한 비디오 데이터의 압축이라면, 코덱은 소프트웨어에 의한 비디오 데이터의 압축이라고 할 수 있다. Divx 코덱은 MPEG-4 비디오 압축방식을 기본으로 변형한 것으로 매우 높은 화질을 유지하면서 파일을 압축함 44
7.5 비디오 스트리밍(Video Streaming) 7.5.1 스트리밍 소프트웨어 다운로드 작업과 비디오 재생 작업을 동시에 진행 Web상에서 비디오 및 오디오 파일을 처리할때의 효율을 높이기 위한 방법으로 제한된 대역폭을 가지는 네트워크의 문제를 해결 파일의 규모가 커서 메모리에 한꺼번에 저장이 어려울때, Web상에서 다운받아 실행하기에는 너무 많은 시간이 소요될때, 파일 전체가 다운로드 될 때까지 기다리지 않고 일정량의 데이터를 수신하면 바로 실행하며, 나머지 데이터들은 실행하면서 계속적으로 다운로드 받는다. 대표적인 소프트웨어에는 RealOne Player, Windows Media Player, VDOLive 등이 있다 스트림을 실시간으로 전송하고 재생하여 인터넷 방송이 가능 45
7.5.2 스트리밍을 위한 웹 표준 SMIL(Synchronized Multimedia Integration Language) SMIL은 멀티미디어 프리젠테이션 표준으로 멀티미디어 데이터의 효과적인 동기적 표현 및 교환을 위한 마크업(Markup) 언어 각 미디어 요소를 다른 미디어들로부터 분리하거나 각 미디어 요소들과 상호작용을 수행 SMIL을 이용하면 비디오, 이미지, 사운드 등과 같은 개별적인 미디어 객체들을 시공간적으로 동기화된 하나의 멀티미디어 프리젠테이션으로 통합할 수 있다. 각 미디어 객체의 재생시간과 스크린 상의 위치를 기술할 수 있고 SMIL 작성자는 텍스트 편집기를 이용하여 쉽게 만들수 있음 46
7.6 비디오 편집 소프트웨어 7.6.1 Windows Movie Maker 쉽게 비디오를 제작하고 편집할 수 있는 도구 이미지 파일과 오디오 파일을 이용하여 슬라이드 형태의 동영상을 만들수 있음 IEEE 1394 포트를 사용하여 컴퓨터와 디지털 카메라를 연결하고 컴퓨터상에서 디지털 카메라를 직접 제어도 가능 썸 네일(Thumb Nail) 이미지로 저장된 사진을 통해 원하는 이미지를 쉽게 찾아볼 수 있으며, 간단한 슬라이드 쇼 연출도 가능 47
7.6.2 Premiere Premiere는 PC용 비디오 편집 소프트웨어 중 가장 많은 사람들이 이용하는 프로그램으로 현재 Premiere 버전 6.0이 나와 있다. QuicTime의 Mov 파일, Windows의 AVI 파일 및 VODLive 코덱을 지원한다. Premiere의 특징은 비디오 클립을 연속적인 필름 형식으로 보여주는 기능과 화면전환 효과를 직접 보여 주며 프레임마다 적용할 수 있는 다양한 필터들을 제공한다. Premiere가 지원하는 기능은 매우 많으나 대표적인 기능으로는 필터링, 화면전환, 수퍼임포즈, 타이틀 및 모션 기능을 들 수 있다. 48
필터링(Filtering): 편집할 때 비디오 클립에 적절한 효과를 주어 비디오 작업결과를 더욱 돋보이게 하기 위한 작업, 70여 가지의 필터링 효과를 제공. 화면전환(Transition): 서로 다른 A, B의 두 동영상을 연결 재생할 때 연결부분에 여러 가지 효과를 주어 화면이 자연스럽게 바뀌도록 하는 것으로 장면전환 효과라고도 한다. A 영상이 흐려지며 B 영상이 나타나게 하는 Additive Dissolve 트랜지션을 포함하여 75개의 트랜지션 기법을 제공. 수퍼임포즈(Superimpose): A, B, T 트랙을 제외한 나머지 트랙(합성채널)을 이용하여 여러가지 효과(Fade In / Fade Out 효과나, 하나의 영상 위에 또 다른 영상을 움직이게 하거나 모션(Motion) 설정)부여, 다양한 형태로 영상이 출력되도록 할 수 있는데 이러한 효과를 수퍼임포즈 트랙(S)을 이용하여 지정. 49
7.6.3 비디오의 파일 포맷 Video 파일의 Format 형태는 파일을 생성할때 사용되는 Software에 따라 아래에 기술한 다양한 파일의 형태로 결과가 나타난다. 그러나 이러한 파일의 Format 형태는 상호 변환 프로그램(Converter)를 사용하여 다양한 또 다른 형태의 파일로 변환할 수 있다. 50
7.5.1 비디오 파일의 종류 AVI (Audio Video Interleaved) 비디오 파일 저장 방식 CD 타이틀에서 사용되고 있다. AVI는 Microsoft사가 개발한 파일 형식으로, 오디오와 비디오 데이터가 내부적으로 번갈아 기록되기 때문에 ‘Interleaved’라고 이름 지어졌다. MOV QuickTime에서 사용하는 파일 Format Window 및 Mac에서 모두 사용 가능 51
ASF(Active Stream Format) RA/RV(Real Audio/Real Video) MPEG MPEG 파일 포맷은 비디오 신호의 압축과 재생을 위한 알고리즘 개발에 주목적을 두고 활동하는 MPEG표준화 그룹에서 제안한 파일 형식. AVI, MOV와 달리 다양한 압축형태의 파일 지원 MPEG-1,2의 경우는 100Mhz이상의 CPU가 필요하며 플랫폼에 무관하게 지원. ASF(Active Stream Format) Microsoft사에서 제안한 스트림 Foramt RA/RV(Real Audio/Real Video) Video 스트림 방식에서 사용되던 Format으로 최초에는 Audio를 목표로 출발, 현재 Video 처리 기능 추가 52