본 발명은 낮은 비트레이트의 영상신호 처리 방법에 관한 것으로, 특히 윤곽선 정보을 이용하여 보다 효율적으로 영상신호를 부호화 할 수 있는 영상신호 부호화 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a low bit rate video signal processing method, and more particularly, to a video signal encoding method capable of encoding a video signal more efficiently using contour information.
잘 알려진 바와 같이, 영상전화, 고선명 텔레비젼 또는 영상회의 시스템과 같은 디지탈로 방송되는 시스템에 있어서, 비디오 프레임 신호의 각 라인이 화소라 지칭되는 일련의 디지탈 데이타를 포함하기 때문에 각 비디오 프레임을 규정하는데는 상당량의 디지탈 데이타가 필요하다. 그러나, 통상의 전송 채널의 유효 주파수 대역폭은 제한되기 때문에, 특히 영상전화 및 영상회의 시스템과 같은 저전송 영상신호 부호화 시스템에서, 상당량의 디지탈 데이타를 전송하기 위해서는 여러가지 데이타 압축 기술을 이용하여 데이타량을 압축 또는 줄이는 것이 필요하다.As is well known, in digital broadcast systems such as video telephony, high definition television, or video conferencing systems, each video frame is defined by the fact that each line of the video frame signal contains a series of digital data called pixels. A significant amount of digital data is needed. However, since the effective frequency bandwidth of a typical transmission channel is limited, especially in low transmission video signal coding systems such as video telephony and video conferencing systems, in order to transfer a large amount of digital data, various data compression techniques may be used. It is necessary to compress or reduce.
한편, 저전송 영상신호 부호화 시스템에서 영상신호 부호화하는 방법 중의 하나는 물체별 분석-합성 부호화 방법(Michael Hotter, Object-Oriented Analysis-Synthesis Coding Based Moving Two-Dimensional Objects, Signal Processing: Image Communication, 2, 409-428(1990) 을 참조)이다.On the other hand, one of the methods of encoding video signals in a low-transmission video signal coding system is Michael Hotter, Object-Oriented Analysis-Synthesis Coding Based Moving Two-Dimensional Objects, Signal Processing: Image Communication, 2, 409-428 (1990).
이러한 물체별 분석-합성 부호화 방법에 따르면, 움직임 물체들을 갖는 입력 영상신호는 물체에 따라 분할되며, 각 물체의 움직임, 윤곽 및 화소 데이타를 규정하는 3가지 파라미터는 그 특성상 각기 상이한 부호화 경로를 통해 처리된다.According to the object-specific analysis-synthesis coding method, an input video signal having moving objects is divided according to objects, and three parameters defining motion, contour, and pixel data of each object are processed through different coding paths due to their characteristics. do.
한편, 물체내의 영상 데이타 또는 화소들을 처리하는데 있어서, 물체별 분석 -합성 부호화 기법에서는 영상 데이타에 포함된 공간적 리던던시만을 제거하는 변환 부호화 기법이 주로 이용된다. 영상 데이타 압축을 위해 가장 흔히 사용되는 변환 부호화 기법들 중 하나는 블럭 단위 이산코사인변환(DCT: Discrete Cosine Transform) 부호화로서, 이 부호화 기법은 한 블럭의 디지탈 영상 데이타, 예를들어, 8 ×8개의 화소 블럭을 한 세트의 변환계수 데이타로 변환한다. 이 방법은, 예를들어, Chen and Pratt, Scene Adaptive Coder, IEEE Transaction on Communication, COM-32, No. 3, pp. 225-232(March 1984)에 개시되어 있다. DCT 만큼 자주 이용되지는 않지만 DST(Discrete Sine Transform), 하트리(Hartley) 변환 또는 다른 변환도 블럭 변환 부호화와 관련하여 사용될 수 있다. 이때, 블럭 단위 DCT 부호화 방법에 있어서, 블럭내의 배경 또는 물체 이외의 영역은 0, 블럭내 물체부분 화소의 평균값 또는 미러 영상(mirror image)으로 채워진 다음에 변환된다. 이때, 배경영역은 0 으로 채워지거나 물체영역의 화소값들의 평균값으로 채워질 수 있다.Meanwhile, in processing image data or pixels in an object, a transform encoding technique for removing only spatial redundancy included in the image data is mainly used in the object-specific analysis-synthesis encoding technique. One of the most commonly used transform coding techniques for image data compression is Discrete Cosine Transform (DCT) coding, which is a block of digital image data, e.g. The pixel block is converted into a set of transform coefficient data. This method is described, for example, in Chen and Pratt, Scene Adaptive Coder, IEEE Transaction on Communication, COM-32, No. 3, pp. 225-232 (March 1984). Although not as frequently used as DCT, Discrete Sine Transform (DST), Hartley transform, or other transforms may also be used in connection with block transform encoding. At this time, in the block-by-block DCT encoding method, a region other than the background or the object in the block is filled with 0, the average value of the pixel of the object part in the block, or a mirror image, and then converted. In this case, the background region may be filled with zero or filled with an average value of pixel values of the object region.
비록 이러한 방법은 통상의 코딩 방법(예를들어, Joint Photographic Experts Group: JPEG, Moving Pictures Experts Group: MPEG, H26l등)에 사용되는 2차원 DCT 블럭을 이용할 수 있지만, 영상의 물체 외부 영역에 필요없는 데이타가 포함되어 데이타 압축 효율이 저하된다.Although this method can utilize a two-dimensional DCT block used in conventional coding methods (e.g. Joint Photographic Experts Group: JPEG, Moving Pictures Experts Group: MPEG, H26l, etc.) Data is included, which reduces data compression efficiency.
본 발명의 주 목적은 물체의 윤곽선 정보(SHAPE INFORMATI0N)를 이용하여 비트 발생율을 감소시킬 수 있는 개선된 영상신호 부호화 방법을 제공 하는데 있다.An object of the present invention is to provide an improved video signal encoding method that can reduce the bit rate by using SHAPE INFORMATI0N of an object.
본 발명의 또 다른 목적은 두가지 부호화된 영상신호를 제공하여 수신단에서 적응적으로 최적의 부호화된 영상신호를 적응적으로 선택할 수 있도록 유도하는 개선된 영상신호 부호화 방법을 제공하는 데 있다.It is still another object of the present invention to provide an improved video signal encoding method for providing two encoded video signals to adaptively select an optimal encoded video signal at a receiving end.
상술한 바와 같은 목적을 달성하기 위해 본 발명에 따르면, 물체를 포함하는 영상신호 부호화 방법으로서, 상이 영상신호는 N*N 화소로 이루어진 동일 크기의 다수개로 블럭으로 분할되어 있으며, 상기 화소는 객체 화소와 배경 화소로 구분되고, 상기 N은 양의 정수이며, 상기 객체 화소는 객체상에 존재하는 것이며, 상기 배경 화소는 객체 바깥에 존재하는, 영상신호 부호화 방법은: 객체 경계의 위치를 나타내는 윤곽선 신호를 부호화하여, 윤곽선 정보 및 제1부호화된 영상신호를 제공하는 제1단계; 제1단계에서 제공된 제1부호화된 영상신호를 복호화하여, 재구성된 윤곽선 데이타 블럭을 제공하는 제2단계; 2단계에서 제공되는 재구성된 윤곽선 데이타 블럭 이용하여 상기 영상신호의 각 블럭을 마스킹하되, 객체 화소의 루미넌스 값은 그대로 유지하고 배경화소의 루미넌스 값은 모두 0값으로 마스킹하여, 마스킹된 루미넌스 데이타 블럭을 제공하는 제3단계; 마스킹된 루미넌스 데이타 블럭내 소형 블럭을 형성하되, 상기 각 소형 블럭은 각 마스킹된 루미넌스 블럭내 객체 화소 모두를 포함하는 제4단계; 소형 블럭내 배경 화소들의 0값을 확장값으로 전환함으로서 M*N 패딩 블럭, 즉 제1패딩 블럭을 제공하되, 확장값은 상기 각 소형 블럭내 객체 화소의 루미넌스 값을 사용하여 얻어지는 제5단계; 상기 제1패딩블럭을 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동시켜, 재구성된 루미넌스 블럭을 제공하는 제6단계; 상기 제6단계에서 재구성된 제1패딩 블럭에 대해 M*N 부호화 단계를 수행하여 텍스처 정보로서 제공하는 제7단계; 상기 제5단계에서 얻어진 제1패딩 블럭의 외부 화소의 0 값을 확장값으로 전환하여 8*8 DCT 블럭, 즉 제2패딩 블럭을 제공하는 제8단계; 상기 제2패딩 블럭에 대해 부호화 단계를 수행하여 텍스처 정보로서 제공하는 제9단계; 및 상기 윤곽선 정보, 상기 제1텍스처 정보 및 상기 제2텍스처 정보를 포맷팅하여 포맷화된 영상신호로서 제공하는 제10단계를 포함한다.According to the present invention for achieving the above object, a video signal encoding method including an object, different video signal is divided into a plurality of blocks of the same size consisting of N * N pixels, the pixel is an object pixel And N is a positive integer, wherein the object pixel is present on an object, and the background pixel is outside the object. The image signal encoding method includes: a contour signal indicating a position of an object boundary. A first step of encoding and providing contour information and a first encoded video signal; A second step of decoding the first coded video signal provided in the first step and providing a reconstructed contour data block; Mask each block of the image signal using the reconstructed contour data block provided in step 2, but maintain the luminance value of the object pixel and mask the luminance value of the background pixel to all zero values, thereby masking the masked luminance data block. Providing a third step; Forming a small block in the masked luminance data block, each small block including all of the object pixels in each masked luminance block; Providing a M * N padding block, that is, a first padding block by converting the zero value of the background pixels in the small block into an extension value, wherein the extension value is obtained by using the luminance value of the object pixel in each of the small blocks; Moving the first padding block to the front end of the corresponding masked luminance block to provide a reconstructed luminance block; A seventh step of performing M * N encoding on the first padding block reconstructed in the sixth step and providing the same as texture information; An eighth step of providing an 8 * 8 DCT block, that is, a second padding block by converting the zero value of the external pixel of the first padding block obtained in the fifth step into an extension value; A ninth step of performing an encoding step on the second padding block and providing it as texture information; And a tenth step of formatting the contour information, the first texture information and the second texture information and providing the contour information as a formatted video signal.
제1도는 본 발명에 따른 물체의 윤곽선 정보를 이용한 영상신호 부호화 장치의 바람직한 실시예를 도식적으로 설명하기 위한 블럭도.1 is a block diagram schematically illustrating a preferred embodiment of a video signal encoding apparatus using contour information of an object according to the present invention.
제2도는 본 발명의 바람직한 실시예에 따라 M*N 블럭 패딩을 수행하는 일예를 도시한 도면.2 is a diagram illustrating an example of performing M * N block padding according to a preferred embodiment of the present invention.
제3도는 M*N 블럭의 외부 화소 패딩을 수행하는 본 발명에 따른 바람직한 실시예를 도시한 도면.3 shows a preferred embodiment according to the present invention for performing external pixel padding of M * N blocks.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
100 : 윤곽선 처리부 500 : 텍스처 처리부100: contour processing unit 500: texture processing unit
101 : 윤곽선 부호화부 103 : 윤곽선 복호화부101: contour encoder 103: contour decoder
501 : 마스킹 부 503 : 제1패딩부501: Masking part 503: First padding part
506 : 제1DCT부 507, 517 : 양자화부506: 1st CT unit 507, 517: quantization unit
508, 518 : 엔트로피 부호화부 515 : 제2패딩부508 and 518: entropy encoding unit 515: second padding unit
516 : 제2DCT부 600 : 포맷팅부516: 2DCT unit 600: formatting unit
이하, 첨부된 도면을 참조로 하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
제1도는 본 발명에 따른 물체의 윤곽선 정보(SHAPE INFORMATION)를 이용한 영상신호 처리장치의 바람직한 실시예를 도식적으로 설명하기 위한 일예도로서, 윤곽선 처리부(100) 및 텍스처(TEXTURE) 처리부(500)로 구성된다. 여기서, 윤곽선 처리부(100)은 윤곽선 부호화부(101) 및 윤곽선 복호화부(103)를 가지며, 텍스처 처리부(500)는 마스킹(masking)부(501), 제1패딩부(503), 제1DCT부(506), 양자화부(507, 517), 엔트로피 부호화부(508, 518), 제2패딩부 및 제2DCT부(516)를 갖는다.FIG. 1 is an exemplary diagram for explaining a preferred embodiment of an image signal processing apparatus using SHAPE INFORMATION of an object according to the present invention. The contour processing unit 100 and the texture processing unit 500 are shown in FIG. It is composed. Here, the contour processing unit 100 includes the contour encoding unit 101 and the contour decoding unit 103, and the texture processing unit 500 includes a masking unit 501, a first padding unit 503, and a first DCT unit. 506, quantization units 507 and 517, entropy encoding units 508 and 518, a second padding unit and a second DCT unit 516.
비디오 신호의 한 프레임에 포함된 물체의 윤곽선 데이타는 윤곽선 처리부(100)로, 그리고 물체 내부 화소들의 루미넌스(LUMINANCE) 데이타는 텍스처 처리부(500)로 입력된다. 이때, 윤곽선 데이타 및 루미넌스 데이타는 블럭단위로 제공되는데, 본 발명에서는 편의상 4 ×4데이타 블럭으로 한다.The contour data of the object included in one frame of the video signal is input to the contour processor 100, and the luminance data of the pixels inside the object is input to the texture processor 500. At this time, the contour data and the luminance data are provided in units of blocks. In the present invention, for the sake of convenience, 4 × 4 data blocks are provided.
윤곽선 부호화부(100)는 기설정 된 부호화 과정을 통해 입력된 윤곽선 데이타를 부호화하고, 그 결과로 부호화된 윤곽선 정보를 출력한다. 이 윤곽선 정보는 윤곽선 복호화부(103) 및 포맷팅부(600)로 제공된다.The contour encoder 100 encodes contour data input through a predetermined encoding process, and outputs encoded contour information as a result. This outline information is provided to the outline decoding unit 103 and the formatting unit 600.
윤곽선 복호화부(103)는 윤곽선 부호화부(101)에서 수행되었던 윤곽선 부호화의 역과정 즉, 복호화를 수행하여 얻어진 재구성된 윤곽선 정보를 텍스처 처리부(500)로 제공한다. 따라서, 텍스처 처리부(500)로 제공되는 윤곽선 정보는 윤곽선 처리부(101)에서 부호화된 후, 다시 복호화된 후의 재구성된 윤곽선 정보를 이용하게 되는 것이다. 이것은 복호화단(도시안됨)에서도 동일한 정보를 이용하여 윤곽선 성분을 알 수 있기 때문이다.The contour decoder 103 provides the texture processor 500 with the inverse process of the contour encoding performed by the contour encoder 101, that is, the reconstructed contour information obtained by decoding. Therefore, the contour information provided to the texture processor 500 uses the reconstructed contour information after being encoded by the contour processor 101 and then decoded again. This is because even the decoding stage (not shown) can know the contour component using the same information.
텍스처 처리부(500)는 입력된 디지탈 영상신호를 블럭 단위로 부호화한다.The texture processor 500 encodes the input digital image signal in units of blocks.
먼저, 마스킹부(501)는 윤곽선 복호화부(103)로 부터 제공되는 재구성된 윤곽선 정보에 응답하여, 입력된 디지탈 영상신호를 블럭 단위로 마스킹 한다. 루미넌스 데이타 입력에 대응하여 윤곽선 부호화부로부터의 디지탈 데이타로부터의 마스킹된 루미넌스 데이타 블럭은 제1차 패딩부로 제공된다.First, the masking unit 501 masks the input digital image signal in units of blocks in response to the reconstructed contour information provided from the contour decoding unit 103. The masked luminance data block from the digital data from the contour encoder in response to the luminance data input is provided to the primary padding portion.
제1패딩부(503)는 먼저,(a) 윤곽선 복호화부(103)로부터 제공되는 재구성된 윤곽선 데이타 블럭을 수직 및 수평으로 스캐닝하여,(b) 블럭 내의 모든 객체 영역 데이타를 포함하는 가장 작은 직사각형의 가로, 세로의 크기를 나타내는 M,N(양의 정수)값을 검출한다. 제2a도에 도시된 윤곽선 데이타 블럭에서는 재구성된 윤곽선 데이타의 수평길이 M은 4이며, 수직길이 N 은 3 이다. 이어서, 1차 패딩부(503)는(c)마스킹부(501)로부터 제공되는 마스킹된 루미넌스 데이타 블럭에 대해 M*N 블럭을 만들기 위한 패딩을 수행한다. 패딩 과정은 종래의 알려진 패딩 방법을 이용하여 구현하면 되지만, 수행한 후의 고주파 성분이 최소화 되도록 패딩하면 효율적이다. 이를 위하여 패딩시의 가로 및 세로의 거리비를 이용하여 제1차 패딩을 수행하는데 이러한 패딩 방법은 제2도에 상세히 도시된다. 패딩이 수행된 제1패딩 블럭은 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동되어 재구성된 루미넌스 블럭을 제공한다. 제1DCT부는 제1패딩부(503)에서 제공되는 블럭에 대해 수평 및 수직의 1차원 DCT로 각각 수행될 수 있는 2차원 DCT(M*N DCT)를 수행한다. 양자화부(507)는(a)제1DCT 계수에 대해 양자화를 수행하고,(b)엔트로퍼 부호화부(507)는 양자화부로 부터 제공되는 일련의 양자화된 변환계수를, 예를들어 줄길이 부호화 및 가변길이 부호화들을 사용하여 부호화하고,(C)그 결과로 얻어진 부호화된 영상신호를 제1텍스처 정보로서 포맷팅부(600)로 제공한다.The first padding unit 503 first (a) scans the reconstructed contour data block provided from the contour decoding unit 103 vertically and horizontally, and (b) the smallest rectangle containing all the object area data in the block. The M and N (positive integer) values representing the horizontal and vertical dimensions of the M are detected. In the contour data block shown in FIG. 2A, the horizontal length M of the reconstructed contour data is four and the vertical length N is three. Subsequently, the primary padding unit 503 (c) performs padding for making an M * N block on the masked luminance data block provided from the masking unit 501. The padding process may be implemented by using a conventionally known padding method, but padding may be efficiently performed to minimize high frequency components after performing the padding process. To this end, the first padding is performed using the ratio of the width and the length of the padding. This padding method is shown in detail in FIG. 2. The padded first padding block is moved to the front of the corresponding masked luminance block to provide a reconstructed luminance block. The first DCT unit performs a two-dimensional DCT (M * N DCT), which may be performed as horizontal and vertical one-dimensional DCTs, respectively, for the blocks provided by the first padding unit 503. The quantization unit 507 performs (a) quantization on the first DCT coefficients, and (b) the entropy encoder 507 encodes a series of quantized transform coefficients provided from the quantization unit. The variable length codings are encoded using the variable length codings, and (C) the resulting encoded video signal is provided to the formatting unit 600 as first texture information.
한편, 제1패딩부에서 패딩이 이루어진 M*N 블럭은 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동되기전에 제2패딩부로 제공된다. 제2패딩 블럭에서는 M*N 블럭의 외부 화소의 패딩을 위해 LEI(Linear Extended Interporation)가 사용된다. 이러한 LEI 패딩 방법은 다른 방안에 비해 비교적 간단하며 효과적인 블럭 패딩을 수행하는 장점을 가지며, 제3도에 상세히 도시된다.Meanwhile, the M * N block padded in the first padding unit is provided to the second padding unit before being moved to the front end of the corresponding masked luminance block. In the second padding block, LEI (Linear Extended Interporation) is used for padding external pixels of the M * N block. This LEI padding method has the advantage of performing relatively simple and effective block padding over other schemes and is shown in detail in FIG.
외부 화소에 대한 패딩이 이루어진 N*N 블럭, 즉 8*8 블럭은 제2DCT부에서 2차원 DCT(8*8 DCT)가 수행되며, 제1패딩 블럭과 유사한 양자화 및 엔트로피 부호화가 각각 양자화부, 엔트로피 부호화부(517, 518)에서 수행되어 그 결과로서 얻어진 영상신호를 제2텍스처 정보로서 포맷팅부(600)로 제공된다.In the N * N block, that is, the 8 * 8 block in which the external pixel is padded, a 2D DCT (8 * 8 DCT) is performed in the 2DCT unit, and the quantization and entropy coding similar to the first padding block are respectively performed in the quantization unit, The image signal performed by the entropy encoders 517 and 518 and obtained as a result is provided to the formatting unit 600 as second texture information.
포맷팅부(600)는 윤곽선 처리부(100)의 윤곽선 부호화부(101)로 부터 제공되는 윤곽선 정보와 텍스처 처리부(500)의 엔트로피 부호화부들(508, 518)로 부터 제공되는 제1텍스처 정보 및 제2텍스처 정보를 함께 포맷팅하고, 이로 부터 얻어진 포맷화된 디지탈 영상신호를 전송기(도시안됨)로 제공한다.The formatting unit 600 includes contour information provided from the contour encoding unit 101 of the contour processing unit 100 and first texture information and second information provided from the entropy encoding units 508 and 518 of the texture processing unit 500. The texture information is formatted together and the formatted digital video signal obtained therefrom is provided to the transmitter (not shown).
제2도는 본 발명의 바람직한 실시예에 따라 M*N 블럭 패딩, 즉 제1블럭 패딩을 수행하는 일예를 도시한 도면이다. (a)는 객체의 윤곽선 화소 및 이 화소들을 둘러싸는 최소 사각형의 가로 및 세로 길이(여기서는 4*3)를 나타낸 블럭이며,(b) 는 패딩이 이루어진 4*3 블럭을 도시한다. 또한,(c)는 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동된 전술한 4*3 블럭에 대해 4*3 DCT 및 지그 재그 스캐닝을 수행하는 것을 도시한 것이다.2 is a diagram illustrating an example of performing M * N block padding, that is, first block padding, according to a preferred embodiment of the present invention. (a) is a block showing the outline pixels of the object and the horizontal and vertical lengths (here 4 * 3) of the smallest rectangle surrounding the pixels, and (b) shows 4 * 3 blocks with padding. Also, (c) illustrates performing 4 * 3 DCT and zigzag scanning on the above-described 4 * 3 block moved to the front of the corresponding masked luminance block.
여기서, 이러한 패딩 과정은 단계적으로 살펴보면,Here, the padding process step by step,
제1단계로, 패딩 지점으로부터 촤측 및 우측으로 스캔하여 객체의 좌/우측의 가장 근접한 화소를 검출하고, 패딩 지점과 가장 가까운 화소사이의 거리를 측정한다.In a first step, scanning from the padding point to the left and right sides is performed to detect the closest pixels on the left / right side of the object and to measure the distance between the padding point and the closest pixel.
제2단계로, 패딩 지점으로부터 상/하 방향으로 스캔하여, 가장 근접한 객체 화소가 존재한다면, 이 화소를 검출하고 제1도에서와 같이 거리를 측정한다.In a second step, scanning in the up / down direction from the padding point, if there is the nearest object pixel, the pixel is detected and the distance is measured as in FIG.
제3단계로, 단계1,2에서 발견된 거리와 역관계를 갖는 패딩 지점을 계산된 화소값으로 채운다.In a third step, padding points having an inverse relationship with the distance found in steps 1 and 2 are filled with the calculated pixel values.
제4 단계로, M*N 블럭내에 패딩되지 않은 임의의 지점이 존재한다면, 단계1,2 및 3을 반복한다.In a fourth step, if there are any unpadded points in the M * N block, steps 1, 2 and 3 are repeated.
전술한 과정을 거쳐 각 화소는 다음과 같은 값을 갖는다.Through the above process, each pixel has the following values.
A=(a*1+c*1)/2 B=(d*1+a*3)/3A = (a * 1 + c * 1) / 2 B = (d * 1 + a * 3) / 3
C=(a*2+e*3)/5 D=(d*1+e*1)/2C = (a * 2 + e * 3) / 5 D = (d * 1 + e * 1) / 2
E=(d*1+e*1)/2 F=(c*2+e*1)/3E = (d * 1 + e * 1) / 2 F = (c * 2 + e * 1) / 3
G=(b*3+e*1)/4G = (b * 3 + e * 1) / 4
제3도는 M*N 블럭의 외부 화소 패딩을 수행하는 본 발명에 따른 바람직한 실시예를 도시한 도면으로, 지점 3에서 지점 8 까지의 실예가 도시된다. 3 개의 입력 X1, X2 및 X3는 8 개의 지점 YO 내지 Y7로 확장된다. 확장된 데이타의 시점 및 종점은 입력 데이타의 시점 및 종점과 동일하다. 따라서, X1 내지 X3는 YO 내지 Y7로 확장(또는 매핑)된다. YO 내지 Y7 사이의 보간은 M*N 패딩에 도시한 것과 유사한 방법으로 수행된다. Y1 패딩에 대한 실예로서, LND(Left Nearest Distance : 좌측 최단 거리) 및 RND(Right Nearest Distance : 우측 최단 거리)가 우선 계산된다.3 shows a preferred embodiment according to the invention for performing external pixel padding of M * N blocks, an example of which is from point 3 to point 8. Three inputs X1, X2 and X3 extend to eight points YO to Y7. The start and end points of the expanded data are the same as the start and end points of the input data. Thus, X1 to X3 are extended (or mapped) to YO to Y7. Interpolation between YO and Y7 is performed in a similar manner to that shown in M * N padding. As an example for Y1 padding, LND (Left Nearest Distance) and RND (Right Nearest Distance) are calculated first.
제3e도에서, LND 및 RND 는 각기 1 및 2.5 이며, LND 는 Y1에서 X1 까지의 거리이고, RND 는 Y1 에서 X3 까지의 거리이다. 개시점 X1 및 종점 X3 의 확장으로 인해, X2 는 3.5 상에 존재하며, 따라서 Y1 은(X1*2.5+X3*1)/3.5로 계산된다. 다른 모든 지점도 동일한 방법으로 패딩된다. 이러한 선형 확장 보간은 매트릭스 유형으로도 표현될 수 있다. XN이 N 행 1열 벡터로서 [X0, X1,‥‥‥,XN-1]T이고, Y 는 패딩된 8 행 1 열 벡터이고, LEI 매트릭스인 8행 N 열 벡터가 EIN8이라고 하면, LEI 패딩된 Y는(EIN8*XN)/SfN으로 표현될 수 있으며, 여기서 SfN은 스케일 계수이다. 이러한 EIN8확장 보간 매트릭스 및 역 매트릭스(IEI)는 테이블 1 에 주어진다. 테이블 1 에서 N=2 내지 7 에 대해 스케일 계수(SfN)는 7 이며, 이는 EIN8매트릭스에서의 1 행 N 열의 열 벡터에 대한 합이다. 부호화기에서의 확장 데이타 Y 의 역 매핑은 역 매트릭스에 의해 X=(EIN8*Y)/SfN로서 구현될 수 있으며, 여기서 SfN은 표준화 계수(역 EI 매트릭스에서의 한 행 벡터의 합)이다. N=3인 경우, 3 개의 입력 XO, X1 및 X2 는 YO 내지 Y7 로 변환되며, 이후 역 변환 데이타 X'0, X'1 및 X'2 는 테이블 1 에 도시된 역 El 매트릭스를 이용하여 X'1=(-1*Y2+3*Y3+3*Y4-1*Y5)/(-1+3*3-1), X'0=YO 및 X'2=Y7 로서 계산된다.In FIG. 3e, LND and RND are 1 and 2.5, respectively, LND is the distance from Y1 to X1, and RND is the distance from Y1 to X3. Due to the expansion of the starting point X1 and the end point X3, X2 is on 3.5, so Y1 is calculated as (X1 * 2.5 + X3 * 1) /3.5. All other points are padded in the same way. Such linear extended interpolation may also be expressed as a matrix type. Suppose XN is an N row one column vector [X0, X1, ....., XN-1 ]T , Y is a padded eight row one column vector, and the eight row N column vector of the LEI matrix is EIN8 . , LEI padded Y may be expressed as (EIN8 * XN ) / SfN , where SfN is a scale factor. This EIN8 extended interpolation matrix and inverse matrix (IEI) are given in Table 1. In Table 1, the scale factor SfN is 7 for N = 2 to 7, which is the sum for the column vector of one row N columns in the EIN8 matrix. The inverse mapping of extension data Y in the encoder can be implemented by the inverse matrix as X = (EIN8 * Y) / SfN , where SfN is the normalization coefficient (sum of one row vector in inverse EI matrix). . When N = 3, the three inputs XO, X1 and X2 are converted into YO to Y7, and then the inverse transform data X'0, X'1 and X'2 are converted to X using the inverse El matrix shown in Table 1. It is calculated as' 1 = (-1 * Y2 + 3 * Y3 + 3 * Y4-1 * Y5) / (-1 + 3 * 3-1), X'0 = YO and X'2 = Y7.
상술한 바와 같이, 본 발명의 윤곽선 정보를 이용한 영상신호 처리 방법에 따르면, 윤곽선 정보에 따라서 패딩 길이를 적응적으로 제어하여 제1패딩 즉, M*N 블럭 패딩을 수행할 뿐만 아니라, 이러한 제1패딩의 M*N 블럭의 값에 기초하여 제2패딩, 즉 LEI 패딩을 동시에 수행하여 텍스처 정보로서 함께 전송하므로써 수신단에서 상기 두 패딩 기법을 적응적으로 수용하여 상황에 맞게 적응적으로 이용할 수 있는 잇점이 있을 뿐 아니라 DCT 등의 변환 부호화를 수행한 결과의 데이타가 상호 유사성이 많도록 구성할 수 있고, 따라서 압축 효과를 극대화하고 양자화, 엔트로피 부호화 등의 효율을 높일 수 있다는 커다란 잇점이 있다.As described above, according to the image signal processing method using the contour information of the present invention, not only the first padding, that is, M * N block padding is performed by adaptively controlling the padding length according to the contour information, but also the first Based on the value of M * N block of padding, the second padding, that is, LEI padding, is performed simultaneously and transmitted together as texture information, so that the receiver can adaptively adopt the two padding techniques and adapt it to the situation. In addition to this, the data of the result of performing transform coding such as DCT can be configured to have a lot of mutual similarities, and thus, there is a great advantage of maximizing the compression effect and increasing the efficiency of quantization and entropy coding.
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| KR1019960030595AKR100209420B1 (en) | 1996-07-26 | 1996-07-26 | Method for coding image signals using padding technique and contour information | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| KR1019960030595AKR100209420B1 (en) | 1996-07-26 | 1996-07-26 | Method for coding image signals using padding technique and contour information | 
| Publication Number | Publication Date | 
|---|---|
| KR980013421A KR980013421A (en) | 1998-04-30 | 
| KR100209420B1true KR100209420B1 (en) | 1999-07-15 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| KR1019960030595AExpired - Fee RelatedKR100209420B1 (en) | 1996-07-26 | 1996-07-26 | Method for coding image signals using padding technique and contour information | 
| Country | Link | 
|---|---|
| KR (1) | KR100209420B1 (en) | 
| Publication number | Publication date | 
|---|---|
| KR980013421A (en) | 1998-04-30 | 
| Publication | Publication Date | Title | 
|---|---|---|
| KR100530681B1 (en) | How to send and receive coded video images | |
| JP4357506B2 (en) | Chrominance shape information generator | |
| US5748789A (en) | Transparent block skipping in object-based video coding systems | |
| US5701368A (en) | Apparatus for encoding an image signal having a still object | |
| US20020129253A1 (en) | Watermarking a compressed information signal | |
| Wei | An introduction to image compression | |
| US5432555A (en) | Image signal encoding apparatus using adaptive 1D/2D DCT compression technique | |
| US5881175A (en) | Method and apparatus for encoding an image signal by using the contour signal thereof | |
| US5706366A (en) | Apparatus for encoding an image signal having a still object using an image warping technique | |
| US6133955A (en) | Method for encoding a binary shape signal | |
| US5845012A (en) | Apparatus for encoding an image signal having a still object | |
| JPH07143488A (en) | Image data decoding method and apparatus | |
| JPH08317410A (en) | Video signal encoding method and apparatus thereof | |
| KR100209420B1 (en) | Method for coding image signals using padding technique and contour information | |
| US20050063462A1 (en) | Visual scan method using scan table and discrete cosine transform device employing the same method | |
| KR100209411B1 (en) | Method for processing image signals using contour information | |
| KR100209801B1 (en) | Method and apparatus for encoding video signal using contour information | |
| KR100186980B1 (en) | Information hierarchical encoding method for an object of image data | |
| KR20020055864A (en) | The encoding and decoding method for a colored freeze frame | |
| KR100203713B1 (en) | Method and apparatus for processing an image signal including an object using a tension-interpolation technique | |
| KR100209415B1 (en) | Method for processing video signals using padding technique and contour information | |
| EP0923250A1 (en) | Method and apparatus for adaptively encoding a binary shape signal | |
| KR100195715B1 (en) | Variable length decoder | |
| KR0170935B1 (en) | Fractal Image Coding Method and Apparatus in Wavelet Transform Domain | |
| JP3425026B2 (en) | Image encoding method and image encoding circuit | 
| Date | Code | Title | Description | 
|---|---|---|---|
| PA0109 | Patent application | St.27 status event code:A-0-1-A10-A12-nap-PA0109 | |
| R17-X000 | Change to representative recorded | St.27 status event code:A-3-3-R10-R17-oth-X000 | |
| A201 | Request for examination | ||
| P11-X000 | Amendment of application requested | St.27 status event code:A-2-2-P10-P11-nap-X000 | |
| P13-X000 | Application amended | St.27 status event code:A-2-2-P10-P13-nap-X000 | |
| PA0201 | Request for examination | St.27 status event code:A-1-2-D10-D11-exm-PA0201 | |
| PG1501 | Laying open of application | St.27 status event code:A-1-1-Q10-Q12-nap-PG1501 | |
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration | St.27 status event code:A-1-2-D10-D22-exm-PE0701 | |
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment | St.27 status event code:A-2-4-F10-F11-exm-PR0701 | |
| PR1002 | Payment of registration fee | St.27 status event code:A-2-2-U10-U11-oth-PR1002 Fee payment year number:1 | |
| PG1601 | Publication of registration | St.27 status event code:A-4-4-Q10-Q13-nap-PG1601 | |
| R18-X000 | Changes to party contact information recorded | St.27 status event code:A-5-5-R10-R18-oth-X000 | |
| R18-X000 | Changes to party contact information recorded | St.27 status event code:A-5-5-R10-R18-oth-X000 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:4 | |
| PN2301 | Change of applicant | St.27 status event code:A-5-5-R10-R11-asn-PN2301 | |
| PN2301 | Change of applicant | St.27 status event code:A-5-5-R10-R11-asn-PN2301 | |
| PN2301 | Change of applicant | St.27 status event code:A-5-5-R10-R14-asn-PN2301 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:5 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:6 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:7 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:8 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:9 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:10 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:11 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:12 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:13 | |
| FPAY | Annual fee payment | Payment date:20120413 Year of fee payment:14 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:14 | |
| FPAY | Annual fee payment | Payment date:20130401 Year of fee payment:15 | |
| PR1001 | Payment of annual fee | St.27 status event code:A-4-4-U10-U11-oth-PR1001 Fee payment year number:15 | |
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee | St.27 status event code:A-4-4-U10-U13-oth-PC1903 Not in force date:20140422 Payment event data comment text:Termination Category : DEFAULT_OF_REGISTRATION_FEE | |
| PC1903 | Unpaid annual fee | St.27 status event code:N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text:Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date:20140422 | |
| P22-X000 | Classification modified | St.27 status event code:A-4-4-P10-P22-nap-X000 |