Movatterモバイル変換


[0]ホーム

URL:


KR100209420B1 - Method for coding image signals using padding technique and contour information - Google Patents

Method for coding image signals using padding technique and contour information
Download PDF

Info

Publication number
KR100209420B1
KR100209420B1KR1019960030595AKR19960030595AKR100209420B1KR 100209420 B1KR100209420 B1KR 100209420B1KR 1019960030595 AKR1019960030595 AKR 1019960030595AKR 19960030595 AKR19960030595 AKR 19960030595AKR 100209420 B1KR100209420 B1KR 100209420B1
Authority
KR
South Korea
Prior art keywords
block
padding
encoding
pixel
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1019960030595A
Other languages
Korean (ko)
Other versions
KR980013421A (en
Inventor
김종일
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사filedCritical전주범
Priority to KR1019960030595ApriorityCriticalpatent/KR100209420B1/en
Publication of KR980013421ApublicationCriticalpatent/KR980013421A/en
Application grantedgrantedCritical
Publication of KR100209420B1publicationCriticalpatent/KR100209420B1/en
Anticipated expirationlegal-statusCritical
Expired - Fee Relatedlegal-statusCriticalCurrent

Links

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명은 물체를 포함하는 영상신호 부호화 방법으로서, 부호화기는 입력되는 윤곽선 신호를 부호화하여, 윤곽선 정보 및 부호화된 영상신호를 복호화기로 제공한다. 복호화기는 이 영상신호를 복호화하여, 재구성된 윤곽선 데이타 블럭을 제공하며, 마스킹 부는 상기 영상신호의 각 블럭을 마스킹하여, 마스킹된 루미넌스 데이타 블럭을 제공한다. 제1패딩부는 마스킹된 루미넌스 데이타 블럭 내 소형 블럭을 형성하고, 제1패딩 블럭을 제공하며, 재구성된 루미넌스 블럭을 제공한다. 재구성된 제1패딩 블럭은 부호화가 수행되어 이 신호가 제1텍스처 정보로서 포맷팅부에 제공된다. 한편, 제2패딩부는 제2패딩 블럭을 제공하고, 제2패딩 블럭은 부호화가 수행되어 제2텍스처 정보로서 제공된다. 윤곽선 정보, 제1텍스처 정보 및 제2텍스처 정보는 포맷팅부에서 포맷화되어 영상신호로서 수신단에 제공된다.The present invention is a video signal encoding method comprising an object, the encoder encodes the input contour signal, and provides the contour information and the encoded video signal to the decoder. The decoder decodes the video signal to provide a reconstructed contour data block, and the masking unit masks each block of the video signal to provide a masked luminance data block. The first padding portion forms a small block in the masked luminance data block, provides a first padding block, and provides a reconstructed luminance block. The reconstructed first padding block is encoded so that this signal is provided to the formatting unit as first texture information. Meanwhile, the second padding unit provides a second padding block, and the second padding block is encoded and provided as second texture information. The contour information, the first texture information and the second texture information are formatted by the formatting unit and provided to the receiver as a video signal.

Description

Translated fromKorean
패딩 기법 및 윤곽선 정보를 이용한 영상신호 부호화 방법Image signal coding method using padding technique and contour information

본 발명은 낮은 비트레이트의 영상신호 처리 방법에 관한 것으로, 특히 윤곽선 정보을 이용하여 보다 효율적으로 영상신호를 부호화 할 수 있는 영상신호 부호화 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a low bit rate video signal processing method, and more particularly, to a video signal encoding method capable of encoding a video signal more efficiently using contour information.

잘 알려진 바와 같이, 영상전화, 고선명 텔레비젼 또는 영상회의 시스템과 같은 디지탈로 방송되는 시스템에 있어서, 비디오 프레임 신호의 각 라인이 화소라 지칭되는 일련의 디지탈 데이타를 포함하기 때문에 각 비디오 프레임을 규정하는데는 상당량의 디지탈 데이타가 필요하다. 그러나, 통상의 전송 채널의 유효 주파수 대역폭은 제한되기 때문에, 특히 영상전화 및 영상회의 시스템과 같은 저전송 영상신호 부호화 시스템에서, 상당량의 디지탈 데이타를 전송하기 위해서는 여러가지 데이타 압축 기술을 이용하여 데이타량을 압축 또는 줄이는 것이 필요하다.As is well known, in digital broadcast systems such as video telephony, high definition television, or video conferencing systems, each video frame is defined by the fact that each line of the video frame signal contains a series of digital data called pixels. A significant amount of digital data is needed. However, since the effective frequency bandwidth of a typical transmission channel is limited, especially in low transmission video signal coding systems such as video telephony and video conferencing systems, in order to transfer a large amount of digital data, various data compression techniques may be used. It is necessary to compress or reduce.

한편, 저전송 영상신호 부호화 시스템에서 영상신호 부호화하는 방법 중의 하나는 물체별 분석-합성 부호화 방법(Michael Hotter, Object-Oriented Analysis-Synthesis Coding Based Moving Two-Dimensional Objects, Signal Processing: Image Communication, 2, 409-428(1990) 을 참조)이다.On the other hand, one of the methods of encoding video signals in a low-transmission video signal coding system is Michael Hotter, Object-Oriented Analysis-Synthesis Coding Based Moving Two-Dimensional Objects, Signal Processing: Image Communication, 2, 409-428 (1990).

이러한 물체별 분석-합성 부호화 방법에 따르면, 움직임 물체들을 갖는 입력 영상신호는 물체에 따라 분할되며, 각 물체의 움직임, 윤곽 및 화소 데이타를 규정하는 3가지 파라미터는 그 특성상 각기 상이한 부호화 경로를 통해 처리된다.According to the object-specific analysis-synthesis coding method, an input video signal having moving objects is divided according to objects, and three parameters defining motion, contour, and pixel data of each object are processed through different coding paths due to their characteristics. do.

한편, 물체내의 영상 데이타 또는 화소들을 처리하는데 있어서, 물체별 분석 -합성 부호화 기법에서는 영상 데이타에 포함된 공간적 리던던시만을 제거하는 변환 부호화 기법이 주로 이용된다. 영상 데이타 압축을 위해 가장 흔히 사용되는 변환 부호화 기법들 중 하나는 블럭 단위 이산코사인변환(DCT: Discrete Cosine Transform) 부호화로서, 이 부호화 기법은 한 블럭의 디지탈 영상 데이타, 예를들어, 8 ×8개의 화소 블럭을 한 세트의 변환계수 데이타로 변환한다. 이 방법은, 예를들어, Chen and Pratt, Scene Adaptive Coder, IEEE Transaction on Communication, COM-32, No. 3, pp. 225-232(March 1984)에 개시되어 있다. DCT 만큼 자주 이용되지는 않지만 DST(Discrete Sine Transform), 하트리(Hartley) 변환 또는 다른 변환도 블럭 변환 부호화와 관련하여 사용될 수 있다. 이때, 블럭 단위 DCT 부호화 방법에 있어서, 블럭내의 배경 또는 물체 이외의 영역은 0, 블럭내 물체부분 화소의 평균값 또는 미러 영상(mirror image)으로 채워진 다음에 변환된다. 이때, 배경영역은 0 으로 채워지거나 물체영역의 화소값들의 평균값으로 채워질 수 있다.Meanwhile, in processing image data or pixels in an object, a transform encoding technique for removing only spatial redundancy included in the image data is mainly used in the object-specific analysis-synthesis encoding technique. One of the most commonly used transform coding techniques for image data compression is Discrete Cosine Transform (DCT) coding, which is a block of digital image data, e.g. The pixel block is converted into a set of transform coefficient data. This method is described, for example, in Chen and Pratt, Scene Adaptive Coder, IEEE Transaction on Communication, COM-32, No. 3, pp. 225-232 (March 1984). Although not as frequently used as DCT, Discrete Sine Transform (DST), Hartley transform, or other transforms may also be used in connection with block transform encoding. At this time, in the block-by-block DCT encoding method, a region other than the background or the object in the block is filled with 0, the average value of the pixel of the object part in the block, or a mirror image, and then converted. In this case, the background region may be filled with zero or filled with an average value of pixel values of the object region.

비록 이러한 방법은 통상의 코딩 방법(예를들어, Joint Photographic Experts Group: JPEG, Moving Pictures Experts Group: MPEG, H26l등)에 사용되는 2차원 DCT 블럭을 이용할 수 있지만, 영상의 물체 외부 영역에 필요없는 데이타가 포함되어 데이타 압축 효율이 저하된다.Although this method can utilize a two-dimensional DCT block used in conventional coding methods (e.g. Joint Photographic Experts Group: JPEG, Moving Pictures Experts Group: MPEG, H26l, etc.) Data is included, which reduces data compression efficiency.

본 발명의 주 목적은 물체의 윤곽선 정보(SHAPE INFORMATI0N)를 이용하여 비트 발생율을 감소시킬 수 있는 개선된 영상신호 부호화 방법을 제공 하는데 있다.An object of the present invention is to provide an improved video signal encoding method that can reduce the bit rate by using SHAPE INFORMATI0N of an object.

본 발명의 또 다른 목적은 두가지 부호화된 영상신호를 제공하여 수신단에서 적응적으로 최적의 부호화된 영상신호를 적응적으로 선택할 수 있도록 유도하는 개선된 영상신호 부호화 방법을 제공하는 데 있다.It is still another object of the present invention to provide an improved video signal encoding method for providing two encoded video signals to adaptively select an optimal encoded video signal at a receiving end.

상술한 바와 같은 목적을 달성하기 위해 본 발명에 따르면, 물체를 포함하는 영상신호 부호화 방법으로서, 상이 영상신호는 N*N 화소로 이루어진 동일 크기의 다수개로 블럭으로 분할되어 있으며, 상기 화소는 객체 화소와 배경 화소로 구분되고, 상기 N은 양의 정수이며, 상기 객체 화소는 객체상에 존재하는 것이며, 상기 배경 화소는 객체 바깥에 존재하는, 영상신호 부호화 방법은: 객체 경계의 위치를 나타내는 윤곽선 신호를 부호화하여, 윤곽선 정보 및 제1부호화된 영상신호를 제공하는 제1단계; 제1단계에서 제공된 제1부호화된 영상신호를 복호화하여, 재구성된 윤곽선 데이타 블럭을 제공하는 제2단계; 2단계에서 제공되는 재구성된 윤곽선 데이타 블럭 이용하여 상기 영상신호의 각 블럭을 마스킹하되, 객체 화소의 루미넌스 값은 그대로 유지하고 배경화소의 루미넌스 값은 모두 0값으로 마스킹하여, 마스킹된 루미넌스 데이타 블럭을 제공하는 제3단계; 마스킹된 루미넌스 데이타 블럭내 소형 블럭을 형성하되, 상기 각 소형 블럭은 각 마스킹된 루미넌스 블럭내 객체 화소 모두를 포함하는 제4단계; 소형 블럭내 배경 화소들의 0값을 확장값으로 전환함으로서 M*N 패딩 블럭, 즉 제1패딩 블럭을 제공하되, 확장값은 상기 각 소형 블럭내 객체 화소의 루미넌스 값을 사용하여 얻어지는 제5단계; 상기 제1패딩블럭을 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동시켜, 재구성된 루미넌스 블럭을 제공하는 제6단계; 상기 제6단계에서 재구성된 제1패딩 블럭에 대해 M*N 부호화 단계를 수행하여 텍스처 정보로서 제공하는 제7단계; 상기 제5단계에서 얻어진 제1패딩 블럭의 외부 화소의 0 값을 확장값으로 전환하여 8*8 DCT 블럭, 즉 제2패딩 블럭을 제공하는 제8단계; 상기 제2패딩 블럭에 대해 부호화 단계를 수행하여 텍스처 정보로서 제공하는 제9단계; 및 상기 윤곽선 정보, 상기 제1텍스처 정보 및 상기 제2텍스처 정보를 포맷팅하여 포맷화된 영상신호로서 제공하는 제10단계를 포함한다.According to the present invention for achieving the above object, a video signal encoding method including an object, different video signal is divided into a plurality of blocks of the same size consisting of N * N pixels, the pixel is an object pixel And N is a positive integer, wherein the object pixel is present on an object, and the background pixel is outside the object. The image signal encoding method includes: a contour signal indicating a position of an object boundary. A first step of encoding and providing contour information and a first encoded video signal; A second step of decoding the first coded video signal provided in the first step and providing a reconstructed contour data block; Mask each block of the image signal using the reconstructed contour data block provided in step 2, but maintain the luminance value of the object pixel and mask the luminance value of the background pixel to all zero values, thereby masking the masked luminance data block. Providing a third step; Forming a small block in the masked luminance data block, each small block including all of the object pixels in each masked luminance block; Providing a M * N padding block, that is, a first padding block by converting the zero value of the background pixels in the small block into an extension value, wherein the extension value is obtained by using the luminance value of the object pixel in each of the small blocks; Moving the first padding block to the front end of the corresponding masked luminance block to provide a reconstructed luminance block; A seventh step of performing M * N encoding on the first padding block reconstructed in the sixth step and providing the same as texture information; An eighth step of providing an 8 * 8 DCT block, that is, a second padding block by converting the zero value of the external pixel of the first padding block obtained in the fifth step into an extension value; A ninth step of performing an encoding step on the second padding block and providing it as texture information; And a tenth step of formatting the contour information, the first texture information and the second texture information and providing the contour information as a formatted video signal.

제1도는 본 발명에 따른 물체의 윤곽선 정보를 이용한 영상신호 부호화 장치의 바람직한 실시예를 도식적으로 설명하기 위한 블럭도.1 is a block diagram schematically illustrating a preferred embodiment of a video signal encoding apparatus using contour information of an object according to the present invention.

제2도는 본 발명의 바람직한 실시예에 따라 M*N 블럭 패딩을 수행하는 일예를 도시한 도면.2 is a diagram illustrating an example of performing M * N block padding according to a preferred embodiment of the present invention.

제3도는 M*N 블럭의 외부 화소 패딩을 수행하는 본 발명에 따른 바람직한 실시예를 도시한 도면.3 shows a preferred embodiment according to the present invention for performing external pixel padding of M * N blocks.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

100 : 윤곽선 처리부 500 : 텍스처 처리부100: contour processing unit 500: texture processing unit

101 : 윤곽선 부호화부 103 : 윤곽선 복호화부101: contour encoder 103: contour decoder

501 : 마스킹 부 503 : 제1패딩부501: Masking part 503: First padding part

506 : 제1DCT부 507, 517 : 양자화부506: 1st CT unit 507, 517: quantization unit

508, 518 : 엔트로피 부호화부 515 : 제2패딩부508 and 518: entropy encoding unit 515: second padding unit

516 : 제2DCT부 600 : 포맷팅부516: 2DCT unit 600: formatting unit

이하, 첨부된 도면을 참조로 하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

제1도는 본 발명에 따른 물체의 윤곽선 정보(SHAPE INFORMATION)를 이용한 영상신호 처리장치의 바람직한 실시예를 도식적으로 설명하기 위한 일예도로서, 윤곽선 처리부(100) 및 텍스처(TEXTURE) 처리부(500)로 구성된다. 여기서, 윤곽선 처리부(100)은 윤곽선 부호화부(101) 및 윤곽선 복호화부(103)를 가지며, 텍스처 처리부(500)는 마스킹(masking)부(501), 제1패딩부(503), 제1DCT부(506), 양자화부(507, 517), 엔트로피 부호화부(508, 518), 제2패딩부 및 제2DCT부(516)를 갖는다.FIG. 1 is an exemplary diagram for explaining a preferred embodiment of an image signal processing apparatus using SHAPE INFORMATION of an object according to the present invention. The contour processing unit 100 and the texture processing unit 500 are shown in FIG. It is composed. Here, the contour processing unit 100 includes the contour encoding unit 101 and the contour decoding unit 103, and the texture processing unit 500 includes a masking unit 501, a first padding unit 503, and a first DCT unit. 506, quantization units 507 and 517, entropy encoding units 508 and 518, a second padding unit and a second DCT unit 516.

비디오 신호의 한 프레임에 포함된 물체의 윤곽선 데이타는 윤곽선 처리부(100)로, 그리고 물체 내부 화소들의 루미넌스(LUMINANCE) 데이타는 텍스처 처리부(500)로 입력된다. 이때, 윤곽선 데이타 및 루미넌스 데이타는 블럭단위로 제공되는데, 본 발명에서는 편의상 4 ×4데이타 블럭으로 한다.The contour data of the object included in one frame of the video signal is input to the contour processor 100, and the luminance data of the pixels inside the object is input to the texture processor 500. At this time, the contour data and the luminance data are provided in units of blocks. In the present invention, for the sake of convenience, 4 × 4 data blocks are provided.

윤곽선 부호화부(100)는 기설정 된 부호화 과정을 통해 입력된 윤곽선 데이타를 부호화하고, 그 결과로 부호화된 윤곽선 정보를 출력한다. 이 윤곽선 정보는 윤곽선 복호화부(103) 및 포맷팅부(600)로 제공된다.The contour encoder 100 encodes contour data input through a predetermined encoding process, and outputs encoded contour information as a result. This outline information is provided to the outline decoding unit 103 and the formatting unit 600.

윤곽선 복호화부(103)는 윤곽선 부호화부(101)에서 수행되었던 윤곽선 부호화의 역과정 즉, 복호화를 수행하여 얻어진 재구성된 윤곽선 정보를 텍스처 처리부(500)로 제공한다. 따라서, 텍스처 처리부(500)로 제공되는 윤곽선 정보는 윤곽선 처리부(101)에서 부호화된 후, 다시 복호화된 후의 재구성된 윤곽선 정보를 이용하게 되는 것이다. 이것은 복호화단(도시안됨)에서도 동일한 정보를 이용하여 윤곽선 성분을 알 수 있기 때문이다.The contour decoder 103 provides the texture processor 500 with the inverse process of the contour encoding performed by the contour encoder 101, that is, the reconstructed contour information obtained by decoding. Therefore, the contour information provided to the texture processor 500 uses the reconstructed contour information after being encoded by the contour processor 101 and then decoded again. This is because even the decoding stage (not shown) can know the contour component using the same information.

텍스처 처리부(500)는 입력된 디지탈 영상신호를 블럭 단위로 부호화한다.The texture processor 500 encodes the input digital image signal in units of blocks.

먼저, 마스킹부(501)는 윤곽선 복호화부(103)로 부터 제공되는 재구성된 윤곽선 정보에 응답하여, 입력된 디지탈 영상신호를 블럭 단위로 마스킹 한다. 루미넌스 데이타 입력에 대응하여 윤곽선 부호화부로부터의 디지탈 데이타로부터의 마스킹된 루미넌스 데이타 블럭은 제1차 패딩부로 제공된다.First, the masking unit 501 masks the input digital image signal in units of blocks in response to the reconstructed contour information provided from the contour decoding unit 103. The masked luminance data block from the digital data from the contour encoder in response to the luminance data input is provided to the primary padding portion.

제1패딩부(503)는 먼저,(a) 윤곽선 복호화부(103)로부터 제공되는 재구성된 윤곽선 데이타 블럭을 수직 및 수평으로 스캐닝하여,(b) 블럭 내의 모든 객체 영역 데이타를 포함하는 가장 작은 직사각형의 가로, 세로의 크기를 나타내는 M,N(양의 정수)값을 검출한다. 제2a도에 도시된 윤곽선 데이타 블럭에서는 재구성된 윤곽선 데이타의 수평길이 M은 4이며, 수직길이 N 은 3 이다. 이어서, 1차 패딩부(503)는(c)마스킹부(501)로부터 제공되는 마스킹된 루미넌스 데이타 블럭에 대해 M*N 블럭을 만들기 위한 패딩을 수행한다. 패딩 과정은 종래의 알려진 패딩 방법을 이용하여 구현하면 되지만, 수행한 후의 고주파 성분이 최소화 되도록 패딩하면 효율적이다. 이를 위하여 패딩시의 가로 및 세로의 거리비를 이용하여 제1차 패딩을 수행하는데 이러한 패딩 방법은 제2도에 상세히 도시된다. 패딩이 수행된 제1패딩 블럭은 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동되어 재구성된 루미넌스 블럭을 제공한다. 제1DCT부는 제1패딩부(503)에서 제공되는 블럭에 대해 수평 및 수직의 1차원 DCT로 각각 수행될 수 있는 2차원 DCT(M*N DCT)를 수행한다. 양자화부(507)는(a)제1DCT 계수에 대해 양자화를 수행하고,(b)엔트로퍼 부호화부(507)는 양자화부로 부터 제공되는 일련의 양자화된 변환계수를, 예를들어 줄길이 부호화 및 가변길이 부호화들을 사용하여 부호화하고,(C)그 결과로 얻어진 부호화된 영상신호를 제1텍스처 정보로서 포맷팅부(600)로 제공한다.The first padding unit 503 first (a) scans the reconstructed contour data block provided from the contour decoding unit 103 vertically and horizontally, and (b) the smallest rectangle containing all the object area data in the block. The M and N (positive integer) values representing the horizontal and vertical dimensions of the M are detected. In the contour data block shown in FIG. 2A, the horizontal length M of the reconstructed contour data is four and the vertical length N is three. Subsequently, the primary padding unit 503 (c) performs padding for making an M * N block on the masked luminance data block provided from the masking unit 501. The padding process may be implemented by using a conventionally known padding method, but padding may be efficiently performed to minimize high frequency components after performing the padding process. To this end, the first padding is performed using the ratio of the width and the length of the padding. This padding method is shown in detail in FIG. 2. The padded first padding block is moved to the front of the corresponding masked luminance block to provide a reconstructed luminance block. The first DCT unit performs a two-dimensional DCT (M * N DCT), which may be performed as horizontal and vertical one-dimensional DCTs, respectively, for the blocks provided by the first padding unit 503. The quantization unit 507 performs (a) quantization on the first DCT coefficients, and (b) the entropy encoder 507 encodes a series of quantized transform coefficients provided from the quantization unit. The variable length codings are encoded using the variable length codings, and (C) the resulting encoded video signal is provided to the formatting unit 600 as first texture information.

한편, 제1패딩부에서 패딩이 이루어진 M*N 블럭은 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동되기전에 제2패딩부로 제공된다. 제2패딩 블럭에서는 M*N 블럭의 외부 화소의 패딩을 위해 LEI(Linear Extended Interporation)가 사용된다. 이러한 LEI 패딩 방법은 다른 방안에 비해 비교적 간단하며 효과적인 블럭 패딩을 수행하는 장점을 가지며, 제3도에 상세히 도시된다.Meanwhile, the M * N block padded in the first padding unit is provided to the second padding unit before being moved to the front end of the corresponding masked luminance block. In the second padding block, LEI (Linear Extended Interporation) is used for padding external pixels of the M * N block. This LEI padding method has the advantage of performing relatively simple and effective block padding over other schemes and is shown in detail in FIG.

외부 화소에 대한 패딩이 이루어진 N*N 블럭, 즉 8*8 블럭은 제2DCT부에서 2차원 DCT(8*8 DCT)가 수행되며, 제1패딩 블럭과 유사한 양자화 및 엔트로피 부호화가 각각 양자화부, 엔트로피 부호화부(517, 518)에서 수행되어 그 결과로서 얻어진 영상신호를 제2텍스처 정보로서 포맷팅부(600)로 제공된다.In the N * N block, that is, the 8 * 8 block in which the external pixel is padded, a 2D DCT (8 * 8 DCT) is performed in the 2DCT unit, and the quantization and entropy coding similar to the first padding block are respectively performed in the quantization unit, The image signal performed by the entropy encoders 517 and 518 and obtained as a result is provided to the formatting unit 600 as second texture information.

포맷팅부(600)는 윤곽선 처리부(100)의 윤곽선 부호화부(101)로 부터 제공되는 윤곽선 정보와 텍스처 처리부(500)의 엔트로피 부호화부들(508, 518)로 부터 제공되는 제1텍스처 정보 및 제2텍스처 정보를 함께 포맷팅하고, 이로 부터 얻어진 포맷화된 디지탈 영상신호를 전송기(도시안됨)로 제공한다.The formatting unit 600 includes contour information provided from the contour encoding unit 101 of the contour processing unit 100 and first texture information and second information provided from the entropy encoding units 508 and 518 of the texture processing unit 500. The texture information is formatted together and the formatted digital video signal obtained therefrom is provided to the transmitter (not shown).

제2도는 본 발명의 바람직한 실시예에 따라 M*N 블럭 패딩, 즉 제1블럭 패딩을 수행하는 일예를 도시한 도면이다. (a)는 객체의 윤곽선 화소 및 이 화소들을 둘러싸는 최소 사각형의 가로 및 세로 길이(여기서는 4*3)를 나타낸 블럭이며,(b) 는 패딩이 이루어진 4*3 블럭을 도시한다. 또한,(c)는 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동된 전술한 4*3 블럭에 대해 4*3 DCT 및 지그 재그 스캐닝을 수행하는 것을 도시한 것이다.2 is a diagram illustrating an example of performing M * N block padding, that is, first block padding, according to a preferred embodiment of the present invention. (a) is a block showing the outline pixels of the object and the horizontal and vertical lengths (here 4 * 3) of the smallest rectangle surrounding the pixels, and (b) shows 4 * 3 blocks with padding. Also, (c) illustrates performing 4 * 3 DCT and zigzag scanning on the above-described 4 * 3 block moved to the front of the corresponding masked luminance block.

여기서, 이러한 패딩 과정은 단계적으로 살펴보면,Here, the padding process step by step,

제1단계로, 패딩 지점으로부터 촤측 및 우측으로 스캔하여 객체의 좌/우측의 가장 근접한 화소를 검출하고, 패딩 지점과 가장 가까운 화소사이의 거리를 측정한다.In a first step, scanning from the padding point to the left and right sides is performed to detect the closest pixels on the left / right side of the object and to measure the distance between the padding point and the closest pixel.

제2단계로, 패딩 지점으로부터 상/하 방향으로 스캔하여, 가장 근접한 객체 화소가 존재한다면, 이 화소를 검출하고 제1도에서와 같이 거리를 측정한다.In a second step, scanning in the up / down direction from the padding point, if there is the nearest object pixel, the pixel is detected and the distance is measured as in FIG.

제3단계로, 단계1,2에서 발견된 거리와 역관계를 갖는 패딩 지점을 계산된 화소값으로 채운다.In a third step, padding points having an inverse relationship with the distance found in steps 1 and 2 are filled with the calculated pixel values.

제4 단계로, M*N 블럭내에 패딩되지 않은 임의의 지점이 존재한다면, 단계1,2 및 3을 반복한다.In a fourth step, if there are any unpadded points in the M * N block, steps 1, 2 and 3 are repeated.

전술한 과정을 거쳐 각 화소는 다음과 같은 값을 갖는다.Through the above process, each pixel has the following values.

A=(a*1+c*1)/2 B=(d*1+a*3)/3A = (a * 1 + c * 1) / 2 B = (d * 1 + a * 3) / 3

C=(a*2+e*3)/5 D=(d*1+e*1)/2C = (a * 2 + e * 3) / 5 D = (d * 1 + e * 1) / 2

E=(d*1+e*1)/2 F=(c*2+e*1)/3E = (d * 1 + e * 1) / 2 F = (c * 2 + e * 1) / 3

G=(b*3+e*1)/4G = (b * 3 + e * 1) / 4

제3도는 M*N 블럭의 외부 화소 패딩을 수행하는 본 발명에 따른 바람직한 실시예를 도시한 도면으로, 지점 3에서 지점 8 까지의 실예가 도시된다. 3 개의 입력 X1, X2 및 X3는 8 개의 지점 YO 내지 Y7로 확장된다. 확장된 데이타의 시점 및 종점은 입력 데이타의 시점 및 종점과 동일하다. 따라서, X1 내지 X3는 YO 내지 Y7로 확장(또는 매핑)된다. YO 내지 Y7 사이의 보간은 M*N 패딩에 도시한 것과 유사한 방법으로 수행된다. Y1 패딩에 대한 실예로서, LND(Left Nearest Distance : 좌측 최단 거리) 및 RND(Right Nearest Distance : 우측 최단 거리)가 우선 계산된다.3 shows a preferred embodiment according to the invention for performing external pixel padding of M * N blocks, an example of which is from point 3 to point 8. Three inputs X1, X2 and X3 extend to eight points YO to Y7. The start and end points of the expanded data are the same as the start and end points of the input data. Thus, X1 to X3 are extended (or mapped) to YO to Y7. Interpolation between YO and Y7 is performed in a similar manner to that shown in M * N padding. As an example for Y1 padding, LND (Left Nearest Distance) and RND (Right Nearest Distance) are calculated first.

제3e도에서, LND 및 RND 는 각기 1 및 2.5 이며, LND 는 Y1에서 X1 까지의 거리이고, RND 는 Y1 에서 X3 까지의 거리이다. 개시점 X1 및 종점 X3 의 확장으로 인해, X2 는 3.5 상에 존재하며, 따라서 Y1 은(X1*2.5+X3*1)/3.5로 계산된다. 다른 모든 지점도 동일한 방법으로 패딩된다. 이러한 선형 확장 보간은 매트릭스 유형으로도 표현될 수 있다. XN이 N 행 1열 벡터로서 [X0, X1,‥‥‥,XN-1]T이고, Y 는 패딩된 8 행 1 열 벡터이고, LEI 매트릭스인 8행 N 열 벡터가 EIN8이라고 하면, LEI 패딩된 Y는(EIN8*XN)/SfN으로 표현될 수 있으며, 여기서 SfN은 스케일 계수이다. 이러한 EIN8확장 보간 매트릭스 및 역 매트릭스(IEI)는 테이블 1 에 주어진다. 테이블 1 에서 N=2 내지 7 에 대해 스케일 계수(SfN)는 7 이며, 이는 EIN8매트릭스에서의 1 행 N 열의 열 벡터에 대한 합이다. 부호화기에서의 확장 데이타 Y 의 역 매핑은 역 매트릭스에 의해 X=(EIN8*Y)/SfN로서 구현될 수 있으며, 여기서 SfN은 표준화 계수(역 EI 매트릭스에서의 한 행 벡터의 합)이다. N=3인 경우, 3 개의 입력 XO, X1 및 X2 는 YO 내지 Y7 로 변환되며, 이후 역 변환 데이타 X'0, X'1 및 X'2 는 테이블 1 에 도시된 역 El 매트릭스를 이용하여 X'1=(-1*Y2+3*Y3+3*Y4-1*Y5)/(-1+3*3-1), X'0=YO 및 X'2=Y7 로서 계산된다.In FIG. 3e, LND and RND are 1 and 2.5, respectively, LND is the distance from Y1 to X1, and RND is the distance from Y1 to X3. Due to the expansion of the starting point X1 and the end point X3, X2 is on 3.5, so Y1 is calculated as (X1 * 2.5 + X3 * 1) /3.5. All other points are padded in the same way. Such linear extended interpolation may also be expressed as a matrix type. Suppose XN is an N row one column vector [X0, X1, ....., XN-1 ]T , Y is a padded eight row one column vector, and the eight row N column vector of the LEI matrix is EIN8 . , LEI padded Y may be expressed as (EIN8 * XN ) / SfN , where SfN is a scale factor. This EIN8 extended interpolation matrix and inverse matrix (IEI) are given in Table 1. In Table 1, the scale factor SfN is 7 for N = 2 to 7, which is the sum for the column vector of one row N columns in the EIN8 matrix. The inverse mapping of extension data Y in the encoder can be implemented by the inverse matrix as X = (EIN8 * Y) / SfN , where SfN is the normalization coefficient (sum of one row vector in inverse EI matrix). . When N = 3, the three inputs XO, X1 and X2 are converted into YO to Y7, and then the inverse transform data X'0, X'1 and X'2 are converted to X using the inverse El matrix shown in Table 1. It is calculated as' 1 = (-1 * Y2 + 3 * Y3 + 3 * Y4-1 * Y5) / (-1 + 3 * 3-1), X'0 = YO and X'2 = Y7.

상술한 바와 같이, 본 발명의 윤곽선 정보를 이용한 영상신호 처리 방법에 따르면, 윤곽선 정보에 따라서 패딩 길이를 적응적으로 제어하여 제1패딩 즉, M*N 블럭 패딩을 수행할 뿐만 아니라, 이러한 제1패딩의 M*N 블럭의 값에 기초하여 제2패딩, 즉 LEI 패딩을 동시에 수행하여 텍스처 정보로서 함께 전송하므로써 수신단에서 상기 두 패딩 기법을 적응적으로 수용하여 상황에 맞게 적응적으로 이용할 수 있는 잇점이 있을 뿐 아니라 DCT 등의 변환 부호화를 수행한 결과의 데이타가 상호 유사성이 많도록 구성할 수 있고, 따라서 압축 효과를 극대화하고 양자화, 엔트로피 부호화 등의 효율을 높일 수 있다는 커다란 잇점이 있다.As described above, according to the image signal processing method using the contour information of the present invention, not only the first padding, that is, M * N block padding is performed by adaptively controlling the padding length according to the contour information, but also the first Based on the value of M * N block of padding, the second padding, that is, LEI padding, is performed simultaneously and transmitted together as texture information, so that the receiver can adaptively adopt the two padding techniques and adapt it to the situation. In addition to this, the data of the result of performing transform coding such as DCT can be configured to have a lot of mutual similarities, and thus, there is a great advantage of maximizing the compression effect and increasing the efficiency of quantization and entropy coding.

Claims (11)

Translated fromKorean
물체를 포함하는 영상신호 부호화 방법으로서, 상기 영상신호는 N*N 화소로 이루어진 동일 크기의 다수개의 블럭으로 분할되어 있으며, 상기 화소는 객체 화소와 배경 화소로 구분되고, 상기 N은 양의 정수이며, 상기 객체 화소는 객체상에 존재하는 것이며, 상기 배경 화소는 객체 바깥에 존재하는, 영상신호 부호화 방법에 있어서, 윤곽선 신호를 부호화하여 부호화된 영상신호를 제공하는 윤곽선 부호화 단계; 상기 부호화된 신호를 복호화하여 재구성된 윤곽선 데이타 블럭을 제공하는 윤곽선 복호화 단계; 상기 복호화된 신호를 마스킹하는 마스킹 단계; 제1패딩 블럭을 형성하는 제1패딩 단계; 상기 제1패딩 블럭에 대해 제1부호화를 수행하여 제1텍스처 정보로서 제공하는 제1부호화 단계; 상기 제1패딩 블럭의 외부 화소값을 확장값으로 전환하여 N*N DCT(Discrete Cosine Transform) 블럭, 즉 제2패딩 블럭을 제공하는 제2패딩 단계; 상기 제2패딩 블럭에 대해 제2부호화를 수행하여 제2텍스처 정보로서 제공하는 제2부호화 단계; 상기 윤곽선 정보, 상기 제1텍스처 정보 및 상기 제2텍스처 정보를 포맷팅하여 포맷화된 영상신호로서 제공하는 포맷팅 단계를 포함하는 영상신호 부호화 방법.An image signal encoding method including an object, wherein the image signal is divided into a plurality of blocks having the same size consisting of N * N pixels, wherein the pixel is divided into an object pixel and a background pixel, and N is a positive integer. The object pixel is present on an object, and the background pixel is outside the object, comprising: an outline encoding step of encoding an outline signal to provide an encoded image signal; Contour decoding step of decoding the encoded signal to provide a reconstructed contour data block; Masking the decoded signal; A first padding step of forming a first padding block; A first encoding step of performing first encoding on the first padding block and providing the first texture information as first texture information; A second padding step of converting an external pixel value of the first padding block into an extension value to provide an N * N DCT block, that is, a second padding block; A second encoding step of performing second encoding on the second padding block and providing the second texture information as second texture information; And formatting the contour information, the first texture information and the second texture information and providing the formatted information as a formatted video signal.제1항에 있어서, 상기 윤곽선 신호는, 객체 경계의 위치를 나타내는 영상신호 부호화 방법.The video signal encoding method of claim 1, wherein the contour signal indicates a position of an object boundary.제1항에 있어서, 상기 마스킹 단계는: 객체 화소의 루미넌스 값은 그대로 유지하고 배경 화소의 루미넌스 값은 모두 0 으로 마스킹 하여, 마스킹된 루미넌스 데이타 블럭을 제공하는 단계; 및 상기 마스킹된 루미넌스 데이타 블럭내에 소형 블럭을 형성하되, 상기 각 소형 블럭은 각 마스킹된 루미넌스 블럭내의 객체 화소를 모두 포함하는 단계를 더 포함하는 영상신호 부호화 방법.The masking method of claim 1, wherein the masking comprises: masking the luminance value of the object pixel and masking all the luminance value of the background pixel as 0 to provide a masked luminance data block; And forming a small block in the masked luminance data block, wherein each small block includes all of the object pixels in each masked luminance block.제1항에 있어서, 제1패딩 단계는: 소형 블럭 내의 배경 화소들의 0 값을 확장값으로 전환하여 M*N 패딩 블럭, 즉 제1패딩 블럭을 제공하되, 여기서 M, N 은 양의 정수이며, 상기 확장값은 상기 각 소형 블럭내의 객체 화소의 루미넌스 값을 사용하여 얻어지는 단계; 및 상기 제1패칭 블럭을 대응하는 마스킹된 루미넌스 블럭의 앞단으로 이동시켜 재구성된 루미넌스 블럭을 제공하는 단계를 더 포함하는 영상신호 부호화 방법.The method of claim 1, wherein the first padding step comprises: converting the zero value of the background pixels in the small block to an extended value to provide an M * N padding block, i.e. a first padding block, where M and N are positive integers; The extension value is obtained using the luminance value of the object pixel in each small block; And moving the first patching block to a front end of a corresponding masked luminance block to provide a reconstructed luminance block.제4항에 있어서, 상기 제1패딩 블럭에 대해 M*N 선형 패딩을 수행하는 단계는: 패딩 지점으로부터 촤측 및 우측으로 스캔하여 객체의 좌/우측의 가장 근접한 화소를 검출하고, 패딩 지점과 가장 가까운 화소사이의 거리를 측정하는 제1단계; 패딩 지점으로부터 상/하 방향으로 스캔하여, 가장 근접한 색체 화소가 존재한다면, 이 화소를 검출하고 거리를 측정하는 제2단계; 단계1,2에서 발견된 거리와 역관계를 갖는 패딩 지점을 계산된 화소값으로 채우는 제3단계; 및 M*N 블럭내의 모든 지점이 패팅될 때까지 상기 제1 내지 3단계를 반복하는 제4단계로 이루어진 것을 특징으로 하는 영상신호 부호화 방법.The method of claim 4, wherein performing M * N linear padding on the first padding block comprises: scanning left and right from the padding point to detect the closest pixels on the left and right sides of the object, and A first step of measuring a distance between adjacent pixels; Scanning in the up / down direction from the padding point, if there is a closest color pixel, detecting the pixel and measuring the distance; Filling a padding point having an inverse relationship with the distance found in steps 1 and 2 with the calculated pixel value; And a fourth step of repeating the first to third steps until all points in the M * N block are patterned.제1항에 있어서, 상기 제1부호화를 수행하는 단계는: M*N 2 차원 DCT를 수행하는 단계; 양자화를 수행하는 단계; 및 엔트로피 부호화를 수행하는 단계로 이루어진 영상신호 부호화 방법.The method of claim 1, wherein performing the first encoding comprises: performing an M * N two-dimensional DCT; Performing quantization; And entropy encoding.제6항에 있어서, 상기 M*N 2차원 DCT 대신 DST, 하트리 변환 흑은 또 다른 방법을 사용할 수 있는 것을 특징으로 하는 영상신호 부호화 방법.7. The video signal encoding method of claim 6, wherein another method of DST and Hartley transform black may be used instead of the M * N two-dimensional DCT.제1항에 있어서, 상기 제2부호화를 수행하는 단계는: M*N 2 차원 DCT를 수행하는 단계; 양자화를 수행하는 단계; 엔트로피 부호화를 수행하는 단계로 이루어진 영상신호 부호화 방법.The method of claim 1, wherein performing the second encoding comprises: performing an M * N two-dimensional DCT; Performing quantization; An image signal encoding method comprising the steps of performing entropy encoding.제1항에 있어서, M*N 내부 블럭에 대한 1차 패딩이 이루어진 후 수행되는 2차 패딩은, M*N 블럭의 외부 화소의 패딩을 위해 이루어지는 영상신호 부호화 방법.The video signal encoding method of claim 1, wherein the second padding performed after the first padding of the M * N inner block is performed for padding the external pixels of the M * N block.제9항에 있어서, 상기 2차 패딩은, 선형 보간 기법(Linear Extended Interporation)으로 수행되는 영상신호 부호화 방법.The image signal encoding method of claim 9, wherein the second padding is performed by linear extended interporation.제10항에 있어서, 상기 2차 패딩은, DCT 및 IDCT 혹은 또 다른 방법을 이용하여 수행될 수 있는 것을 특징으로 하는 영상신호 부호화 방법.The method of claim 10, wherein the secondary padding may be performed using DCT, IDCT, or another method.
KR1019960030595A1996-07-261996-07-26Method for coding image signals using padding technique and contour informationExpired - Fee RelatedKR100209420B1 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1019960030595AKR100209420B1 (en)1996-07-261996-07-26Method for coding image signals using padding technique and contour information

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1019960030595AKR100209420B1 (en)1996-07-261996-07-26Method for coding image signals using padding technique and contour information

Publications (2)

Publication NumberPublication Date
KR980013421A KR980013421A (en)1998-04-30
KR100209420B1true KR100209420B1 (en)1999-07-15

Family

ID=19467648

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1019960030595AExpired - Fee RelatedKR100209420B1 (en)1996-07-261996-07-26Method for coding image signals using padding technique and contour information

Country Status (1)

CountryLink
KR (1)KR100209420B1 (en)

Also Published As

Publication numberPublication date
KR980013421A (en)1998-04-30

Similar Documents

PublicationPublication DateTitle
KR100530681B1 (en) How to send and receive coded video images
JP4357506B2 (en) Chrominance shape information generator
US5748789A (en)Transparent block skipping in object-based video coding systems
US5701368A (en)Apparatus for encoding an image signal having a still object
US20020129253A1 (en)Watermarking a compressed information signal
WeiAn introduction to image compression
US5432555A (en)Image signal encoding apparatus using adaptive 1D/2D DCT compression technique
US5881175A (en)Method and apparatus for encoding an image signal by using the contour signal thereof
US5706366A (en)Apparatus for encoding an image signal having a still object using an image warping technique
US6133955A (en)Method for encoding a binary shape signal
US5845012A (en)Apparatus for encoding an image signal having a still object
JPH07143488A (en) Image data decoding method and apparatus
JPH08317410A (en) Video signal encoding method and apparatus thereof
KR100209420B1 (en)Method for coding image signals using padding technique and contour information
US20050063462A1 (en)Visual scan method using scan table and discrete cosine transform device employing the same method
KR100209411B1 (en)Method for processing image signals using contour information
KR100209801B1 (en) Method and apparatus for encoding video signal using contour information
KR100186980B1 (en)Information hierarchical encoding method for an object of image data
KR20020055864A (en)The encoding and decoding method for a colored freeze frame
KR100203713B1 (en) Method and apparatus for processing an image signal including an object using a tension-interpolation technique
KR100209415B1 (en)Method for processing video signals using padding technique and contour information
EP0923250A1 (en)Method and apparatus for adaptively encoding a binary shape signal
KR100195715B1 (en) Variable length decoder
KR0170935B1 (en) Fractal Image Coding Method and Apparatus in Wavelet Transform Domain
JP3425026B2 (en) Image encoding method and image encoding circuit

Legal Events

DateCodeTitleDescription
PA0109Patent application

St.27 status event code:A-0-1-A10-A12-nap-PA0109

R17-X000Change to representative recorded

St.27 status event code:A-3-3-R10-R17-oth-X000

A201Request for examination
P11-X000Amendment of application requested

St.27 status event code:A-2-2-P10-P11-nap-X000

P13-X000Application amended

St.27 status event code:A-2-2-P10-P13-nap-X000

PA0201Request for examination

St.27 status event code:A-1-2-D10-D11-exm-PA0201

PG1501Laying open of application

St.27 status event code:A-1-1-Q10-Q12-nap-PG1501

E701Decision to grant or registration of patent right
PE0701Decision of registration

St.27 status event code:A-1-2-D10-D22-exm-PE0701

GRNTWritten decision to grant
PR0701Registration of establishment

St.27 status event code:A-2-4-F10-F11-exm-PR0701

PR1002Payment of registration fee

St.27 status event code:A-2-2-U10-U11-oth-PR1002

Fee payment year number:1

PG1601Publication of registration

St.27 status event code:A-4-4-Q10-Q13-nap-PG1601

R18-X000Changes to party contact information recorded

St.27 status event code:A-5-5-R10-R18-oth-X000

R18-X000Changes to party contact information recorded

St.27 status event code:A-5-5-R10-R18-oth-X000

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:4

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R11-asn-PN2301

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R11-asn-PN2301

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R14-asn-PN2301

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:5

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:6

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:7

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:8

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:9

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:10

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:11

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:12

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:13

FPAYAnnual fee payment

Payment date:20120413

Year of fee payment:14

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:14

FPAYAnnual fee payment

Payment date:20130401

Year of fee payment:15

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:15

LAPSLapse due to unpaid annual fee
PC1903Unpaid annual fee

St.27 status event code:A-4-4-U10-U13-oth-PC1903

Not in force date:20140422

Payment event data comment text:Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903Unpaid annual fee

St.27 status event code:N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text:Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date:20140422

P22-X000Classification modified

St.27 status event code:A-4-4-P10-P22-nap-X000


[8]ページ先頭

©2009-2025 Movatter.jp