Movatterモバイル変換


[0]ホーム

URL:


KR100375708B1 - 3D Stereosc opic Multiview Video System and Manufacturing Method - Google Patents

3D Stereosc opic Multiview Video System and Manufacturing Method
Download PDF

Info

Publication number
KR100375708B1
KR100375708B1KR10-2000-0063753AKR20000063753AKR100375708B1KR 100375708 B1KR100375708 B1KR 100375708B1KR 20000063753 AKR20000063753 AKR 20000063753AKR 100375708 B1KR100375708 B1KR 100375708B1
Authority
KR
South Korea
Prior art keywords
video
image
stream
packet
header
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
KR10-2000-0063753A
Other languages
Korean (ko)
Other versions
KR20020032954A (en
Inventor
김제우
정혁구
최병호
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원filedCritical전자부품연구원
Priority to KR10-2000-0063753ApriorityCriticalpatent/KR100375708B1/en
Publication of KR20020032954ApublicationCriticalpatent/KR20020032954A/en
Application grantedgrantedCritical
Publication of KR100375708B1publicationCriticalpatent/KR100375708B1/en
Anticipated expirationlegal-statusCritical
Expired - Lifetimelegal-statusCriticalCurrent

Links

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명은 다시점 비디오 시스템에 관한 것이다. 본 발명의 시스템은 카메라의 특성차이로 인한 파라메타 등의 보정을 하는 전처리수단(30)과, 각 카메라에서 출력되는 영상들간의 시간적, 공간적 리던던시(redundancy)를 제거하는 비디오 압축수단(31)과, 각각의 독립된 영상스트림을 하나의 다중화된 스트림으로 생성하는 시스템 다중화 수단(32)과, 상기 시스템 다중화 수단에서 전송된 다중화된 스트림을 각각의 독립된 영상스트림으로 복원하는 시스템 역다중화 수단(33)과, 상기 영상압축수단에서 압축된 각각의 영상을 복원하는 비디오 압축해제수단(34)과, 복원된 다시점 영상간의 중간영상을 생성하는 비디오 중간영상 합성수단(35)과, 전기 단계에서 형성된 2차원영상을 3차원 표시장치에 출력하는 3차원 디스플레이 콘트롤수단(36)을 포함하여 구성된다. 상기 구성에 의하면 원영상보다 더 많은 영상을 디스플레이장치에서 출력하는 것이 가능하고 다양한 각도와 다양한 거리에서 3차원 입체영상을 시청하는 것이 가능해진다.The present invention relates to a multiview video system. The system of the present invention comprises a preprocessing means 30 for correcting parameters due to camera characteristic differences, video compression means 31 for removing temporal and spatial redundancy between images output from each camera, System multiplexing means (32) for generating each independent video stream into one multiplexed stream, system demultiplexing means (33) for reconstructing the multiplexed stream transmitted from said system multiplexing means into each independent video stream, A video decompression means 34 for reconstructing each image compressed by the image compression means, a video intermediate image synthesizing means 35 for generating an intermediate image between the restored multi-view images, and a two-dimensional image formed in the previous step. It comprises a three-dimensional display control means 36 for outputting the three-dimensional display device. According to the above configuration, it is possible to output more images on the display device than the original image, and to view the 3D stereoscopic image at various angles and at various distances.

Description

Translated fromKorean
3차원 입체영상을 위한 다시점 비디오 시스템 및 영상제조방법{3D Stereosc opic Multiview Video System and Manufacturing Method}Multiview Video System and Manufacturing Method for 3D Stereoscopic Image

본 발명은 다시점 비디오 시스템에 관한 것으로 보다 상세하게는 여러 개의 영상입력장치로부터 입력된 원영상을 전처리, 압축, 다중화, 역다중화, 복원, 합성의 과정을 통해 원영상보다 더 많은 영상을 디스플레이장치에서 출력하는 것이 가능하고 다양한 각도와 다양한 거리에서 3차원 입체영상을 시청하도록 하는 다시점 비디오 시스템 및 방법에 관한 것이다.The present invention relates to a multi-view video system, and more particularly, to display more images than the original image through a process of preprocessing, compressing, multiplexing, demultiplexing, reconstructing, and synthesizing the original image input from a plurality of image input apparatuses. The present invention relates to a multi-view video system and a method for outputting a 3D stereoscopic image at various angles and distances.

도 1은 다시점으로 3차원 영상을 구현하는 일련의 방법을 제시하고 있다. 즉, 3차원 영상을 구현하는 방법의 하나로 각각이 2차원적인 영상 데이터를 획득하는 여러 개의 카메라(1)로부터 2차원 영상데이타를 획득하고, 이를 적절히 가공하여 자체내의 복원 및 원격지로의 전송을 통한 원격 장치에서의 복원을 통하여 3차원 디스플레이장치(2), 즉 렌티큘라 방식의 장치를 통하여 3차원 영상을 구현한다. 기존의 다시점 비디오 시스템은 MPEG-2 표준안에 포함되어 있는 다시점 프로파일을 만족하는 입체비디오 시스템으로 도 2에 도시한 바와 같다. 시스템 구성은 MPEG-2 MP@ML의 베이스층으로 구성된 좌안용 동작보상 DCT 인코더 블럭(3)과 우안용 동작보상 DCT 인코더 블럭(4), 부동 추정기(Disparity Estimator, DE)(5), 부동 보상기(Disparity Compensator, DC)(6) 등으로 구성된 동작 및 부동 보상 DCT 인코더 블럭(100)과 시스템 멀티플렉서(7)를 포함하는 입체 인코더 모듈과 마찬가지로 MPEG-2 MP@ML의 베이스 층으로 구성된 좌안용 동작보상 DCT 디코더 블럭(8)과 우안용 동작보상 DCT 디코더 블럭(9), 부동 보상기(10) 등으로 구성된 동작 및 부동 보상 DCT 디코더 블럭(200)과 시스템 디멀티플렉서(11)를 포함한 입체 디코더 모듈로 구성되어진다.1 shows a series of methods for implementing a 3D image from a multiview. In other words, as a method of implementing a 3D image, the 2D image data is obtained from a plurality of cameras 1, each of which acquires 2D image data. The 3D image is realized through the 3D display apparatus 2, that is, a lenticular method, by restoring the remote apparatus. The existing multiview video system is a stereoscopic video system that satisfies the multiview profile included in the MPEG-2 standard, as shown in FIG. 2. The system configuration consists of a MPEG-2 MP @ ML base layer left eye motion compensation DCT encoder block (3), a right eye motion compensation DCT encoder block (4), a disparity estimator (DE) (5), and a floating compensator. Operation consisting of (Disparity Compensator, DC) (6) and the like for a left eye composed of a base layer of MPEG-2 MP @ ML as well as a stereo encoder module comprising a floating compensation DCT encoder block 100 and a system multiplexer 7 It consists of an operation consisting of a compensation DCT decoder block 8, a motion compensation DCT decoder block 9 for the right eye, a floating compensator 10 and the like, and a stereoscopic decoder module including a floating compensation DCT decoder block 200 and a system demultiplexer 11. It is done.

상기 시스템의 동작을 설명하면 다음과 같다. 시스템의 동작은 좌측영상을 기본 영상으로 선정하고, 좌안용 동작보상 DCT 인코더 블럭(3)에서 MPEG-2 표준알고리즘으로 부호화한 후 시스템 멀티플렉서(7)로 부호화된 스트림을 전송한다. 한편 상기 블럭에서는 다음 영상 및 우측영상의 부호화를 위해 복원영상을 생성하여 DE(5) 및 DC블럭(6)으로 전달한다. 우측 원영상은 우안용 동작보상 DCT 인코더블럭 (4)과 DE블럭(5)으로 전달되는데 DE블럭(5)에서는 좌측 영상의 복원영상과 우측영상의 원영상을 비교 평가하여 부동벡타(Disparity vector, DV)를 구하고 이를 우안동작보상 DCT 인코더블럭(4)과 DC블럭(6)으로 전달한다. DC블럭(6)으로 전달된 DV는 좌측복원영상을 참조하여 다음우측영상에 대한 보상영상을 생성하고 우안동작보상 DCT인코더블럭(4)으로 전달된 DV는 MPEG-2 표준의 MV와 동일하게 부호화된다. 그리고 우안동작보상 DCT 인코더블럭(4)에서는 DC블럭(6)에서 생성된 보상영상과 우측 원영상과의 차영상에 대한 DCT(디스크리트 코사인 트랜스폼, 이하 DCT)를 이용한 MPEG-2부호화 알고리즘을 통해 부호화된다. 우측영상에 대한 부호화 스트림은 좌측영상과 동일하게 시스템 멀티플렉서(7)로 개별적으로 전달된다. 상기 시스템 멀티플렉서(7)는 MPEG-2 시스템의 규격을 따른다. 시스템 멀티플렉서(7)에서 다중화된 스트림은 시스템 디멀티플렉서(11)로 전달되고 역다중화되어 다시 두 개의 영상부호화 스트림을 복원하여 각각의 스트림을 좌안동작보상 DCT디코더블럭(8)과 우안동작보상 DCT디코더블럭(9)으로 전달된다. 좌측영상의 부호화스트림을 획득한 좌안동작보상 DCT디코더블럭(8)은 MPEG-2 표준을 만족하는 알고리즘으로 영상을 복원하고, 복원된 영상을 출력 및 DC블럭(10)으로 전달한다. 또 우측영상에 대한 부호화 스트림을 전달받은 우안동작보상 DCT디코더블럭(9)은 스트림을 복호하여 DV와 DC블럭(10)에서 생성되는 좌측영상을 참조로 한 보상영상과 원영상과의 차영상을 획득한다. 획득된 DV는 DC블럭으로 전달되어 이전에 복원된 좌측영상을 참조하여 보상영상을 생성하고, DC블럭에서 생성된 보상영상은 다시 우안동작보상 DCT디코더블럭(9)으로 전달되어 복원된 차영상과 합성되어 우측영상을 복원한다.The operation of the system is as follows. In operation of the system, the left image is selected as the base image, the left eye motion compensation DCT encoder block 3 is encoded by the MPEG-2 standard algorithm, and the encoded stream is transmitted to the system multiplexer 7. On the other hand, the block generates a reconstructed image for encoding the next image and the right image, and transmits the reconstructed image to the DE (5) and the DC block (6). The right original image is transmitted to the motion compensation DCT encoder block (4) and the DE block (5) for the right eye. In the DE block (5), the reconstruction image of the left image and the original image of the right image are compared and evaluated for disparity vector, DV) is obtained and transferred to the right eye compensation DCT encoder block 4 and the DC block 6. The DV delivered to the DC block 6 generates a compensation image for the next right image with reference to the left restored image, and the DV delivered to the right eye compensation DCT encoder block 4 is encoded in the same manner as the MV of the MPEG-2 standard. do. In addition, the right eye motion compensation DCT encoder block 4 uses an MPEG-2 encoding algorithm using a DCT (discrete cosine transform, hereinafter DCT) for the difference between the compensation image generated from the DC block 6 and the right original image. Is encoded. The encoded stream for the right picture is separately transmitted to the system multiplexer 7 in the same manner as the left picture. The system multiplexer 7 follows the standard of the MPEG-2 system. The multiplexed streams from the system multiplexer 7 are passed to the system demultiplexer 11 and demultiplexed to restore two video encoding streams, respectively. Is passed to (9). The left eye motion compensated DCT decoder block 8 that obtains the encoded stream of the left image reconstructs the image by an algorithm satisfying the MPEG-2 standard, and transmits the reconstructed image to the output and the DC block 10. In addition, the right-eye motion compensation DCT decoder block 9 that receives the encoded stream for the right picture decodes the stream and performs a difference picture between the compensation picture and the original picture with reference to the left picture generated by the DV and DC block 10. Acquire. The acquired DV is transferred to the DC block to generate a compensation image by referring to the left image previously restored, and the compensated image generated from the DC block is transferred to the right eye motion compensation DCT decoder block 9 and the reconstructed difference image. It is synthesized to restore the right image.

시스템의 동작을 애플리케이션의 관점에서 보면 사람의 좌, 우 눈과 비슷한 간격의 거리를 두고 수평적으로 평행한 두 개의 카메라로부터 영상을 획득하고, 두 개의 영상이 각각의 부호화기를 통하여 부호화된 후 다중화기를 통해 원격지에 복호기로 전달한다. 복호기의 역다중화기를 통과한 후 복호화된 각각의 영상 부호화스트림은 복호기를 통해 영상으로 복원된다. 복원된 각각의 영상은 3차원 디스플레이장치를 통해 사용자에게 출력되는데 이 시스템은 단지 하나의 시점에서만 그리고 제한거리내에서만 3차원영상을 구현할 수 있다.From the application's point of view, the operation of the system is obtained from two horizontally parallel cameras at a distance similar to the left and right eyes of a person. It is delivered to the decoder through a remote. After decoding the demultiplexer of the decoder, each decoded image coded stream is reconstructed into an image through the decoder. Each reconstructed image is output to the user through a three-dimensional display device. The system can implement a three-dimensional image only at one viewpoint and within a limited distance.

상기와 같이 기존의 방식은 양안시스템으로 3차원영상을 사용자 입장에서 볼 때 하나의 지점에서만 3차원영상으로 구축된다. 즉 디스플레이 장치에서 전면의 약 1∼2m지점에 시청자가 있을 경우에만 영상이 3차원으로 보인다. 그러므로 상기 기존의 기술은 시청각의 시계가 극히 한정되어 있어 한 사람 또는 극히 적은 숫자의 사람만이 3차원영상을 볼 수 있다. 결국 기존방식으로는 3차원 정보 단말기 및 3DTV등과 같은 다수의 사용자를 대상으로 하는 응용분야에는 적용이 불가능한 단점이 있다.As described above, the conventional method is a binocular system that constructs a 3D image only at one point when the 3D image is viewed from the user's point of view. That is, the image is shown in three dimensions only when there is a viewer at about 1 to 2 m in front of the display device. Therefore, the existing technology has an extremely limited visual and visual field of vision so that only one person or a very small number of people can see the 3D image. As a result, there is a disadvantage in that the existing method is not applicable to application areas targeting a large number of users such as 3D information terminals and 3DTV.

상기와 같이 기존의 기술이 지니는 문제점에 대한 방안으로 본 발명자는 렌티큘라 방식의 3차원 디스플레이에 동시에 여러 각도에서 물체 및 장면을 볼 수 있는 3차원 다시점 비디오 시스템을 제시하고자 한다. 이를 위해 본 발명에서는 많은 양의 데이터를 현재 시점에서 가능한 채널환경에 적용할 수 있도록 압축하고 또한 획득된 시점보다 더 많은 시점의 영상을 생성하는 것이 가능하도록 함으로써 다양한 시점과 거리에서 3차원영상을 구현할 수 있도록 하는 데에 본 발명의 목적이 있다.As a solution to the problems of the existing technology as described above, the present inventors propose a three-dimensional multi-view video system that can view objects and scenes from multiple angles simultaneously on a lenticular three-dimensional display. To this end, in the present invention, a large amount of data can be compressed to be applied to a channel environment that is possible at the present point of view, and it is possible to generate an image of more viewpoints than the acquired point of view, thereby realizing three-dimensional images at various viewpoints and distances. It is an object of the present invention to be able to.

도 1은 3차원 다시점 비디오 시스템의 개략적인 설명도.1 is a schematic explanatory diagram of a three-dimensional multiview video system.

도 2는 기존의 입체비디오 시스템의 블럭구성도.2 is a block diagram of a conventional stereoscopic video system.

도 3은 본 발명의 3차원 다시점 비디오 시스템의 블럭구성도.3 is a block diagram of a three-dimensional multiview video system of the present invention;

도 4는 본 발명의 구체적 실시예(전처리수단, 압축수단)Figure 4 is a specific embodiment of the present invention (pretreatment means, compression means)

도 5는 본 발명의 구체적 실시예(멀티플렉서)5 is a specific embodiment of the present invention (multiplexer)

도 6은 본 발명의 구체적 실시예(디멀티플렉서)6 is a specific embodiment of the present invention (demultiplexer)

도 7은 본 발명의 구체적 실시예(압축해제수단 및 중간영상생성수단)Figure 7 is a specific embodiment of the present invention (compression release means and intermediate image generating means)

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

1: 카메라 2: 3차원 디스플레이장치1: camera 2: 3D display device

3: 좌안용 동작보상 DCT 인코더 블럭3: left eye motion compensation DCT encoder block

4: 우안용 동작보상 DCT 인코더 블럭4: motion compensation DCT encoder block for right eye

5: 부동 추정기 6,10: 부동 보상기5: floating estimator 6,10: floating compensator

7: 시스템 멀티플렉서 8: 좌안용 동작보상 DCT 디코더 블럭7: System multiplexer 8: Left-eye compensation DCT decoder block

9: 우안용 동작보상 DCT 디코더 블럭9: Right Eye Compensation DCT Decoder Block

11: 시스템 디멀티플렉서 21:불균형 감소필터11: System Demultiplexer 21: Unbalance Reduction Filter

22: 노이즈감소필터 23,26,29: DCT 기반 인코더22: Noise reduction filter 23, 26, 29: DCT based encoder

24,27: 부동추정기 25,28,62: 부동보상기24, 27: floating estimator 25, 28, 62: floating compensator

30: 전처리수단 31: 압축수단30: pretreatment means 31: compression means

32: 다중화수단 33: 역다중화수단32: multiplexing means 33: demultiplexing means

34: 압축해제수단 35: 중간영상합성수단34: decompression means 35: intermediate image synthesis means

36: 디스플레이 콘트롤 수단36: display control means

41: 스트림헤더분석기 42,44: 비디오 버퍼41: Stream header analyzer 42,44: Video buffer

43: 비디오 패킷화기 45: 시스템헤더제조기43: Video Packetizer 45: System Header Maker

46: 시스템스트림 패킷화기 51:패킷동기부46: system stream packetizer 51: packet synchronization

52: 에러검출기 53: 패킷 버퍼52: error detector 53: packet buffer

54: 시스템헤더처리기 55: 패킷 식별자 처리기54: system header handler 55: packet identifier handler

56: 시스템 클럭 추출기 57: 시스템 클록 복원기56: system clock extractor 57: system clock extractor

58: 프로그램 정보 디코더 59: 비디오 패킷헤더처리기58: program information decoder 59: video packet header processor

60: 트랜스포트버퍼 61: DCT 기반 디코더60: transport buffer 61: DCT-based decoder

본 발명은 다시점 비디오 시스템에 관한 것으로 본 발명의 시스템(300)은 카메라의 특성차이로 인한 파라메타 등의 보정을 하는 전처리수단(30)과, 각 카메라에서 출력되는 영상들간의 시간적, 공간적 리던던시(redundancy)를 제거하는 비디오 압축수단(31)과, 각각의 독립된 영상스트림을 하나의 다중화된 스트림으로 생성하는 시스템 다중화 수단(32)과, 상기 시스템 다중화 수단에서 전송된 다중화된 스트림을 각각의 독립된 영상스트림으로 복원하는 시스템 역다중화 수단(33)과, 상기 영상압축수단에서 압축된 각각의 영상을 복원하는 비디오 압축해제수단(34)과, 복원된 다시점 영상간의 중간영상을 생성하는 비디오 중간영상 합성수단(35)과, 전기 단계에서 형성된 2차원영상을 3차원 표시장치에 출력하는 3차원 디스플레이 콘트롤수단(36)을 포함한다.The present invention relates to a multi-view video system. The system 300 includes a preprocessing means 30 for correcting a parameter due to a difference in characteristics of a camera, and a temporal and spatial redundancy between images output from each camera. video compression means (31) for removing redundancy, system multiplexing means (32) for generating each independent video stream into one multiplexed stream, and multiplexed streams transmitted from the system multiplexing means for each independent video Video demultiplexing means (33) for reconstructing the stream into a stream, video decompressing means (34) for reconstructing each image compressed by the image compression means, and video intermediate image synthesis for generating an intermediate image between the restored multi-view images. Means 35 and three-dimensional display control means 36 for outputting the two-dimensional image formed in the electrical step to the three-dimensional display device.

도 4를 참조하면 획득된 다시점영상(도면에는 M시점으로 도시)은 각 카메라간의 특성차이로 인한 오류 등의 보정을 위해 하나의 참조카메라를 기준으로 하여 영상의 휘도 및 색도의 보정 등을 상기 전처리수단(30)에서 담당하게 된다. 바람직하기로는 상기 전처리수단은 불균형 감소필터(21)과 노이즈 감소필터(22)를 포함하며 상기 불균형 감소필터는 LSE(least square error)와 Affine Transform 계수를 이용하는 블럭기반 균형알고리즘을 이용하여 평균값과 분산을 맞추는 방식으로 휘도 및 색도 등을 보정한다. 또한 상기 불균형 감소필터(21)를 통과한 영상신호는 다시 각각의 가오시안 노이즈를 제거하기 위한 노이즈 감소필터(22)를 거쳐 비디오 압축수단(31)에 전달된다.Referring to FIG. 4, the acquired multi-view image (shown at M point of view) is used to recall the luminance and chromaticity of the image based on one reference camera to correct an error due to a characteristic difference between the cameras. The preprocessing means 30 will be in charge. Preferably, the preprocessing means includes an imbalance reduction filter 21 and a noise reduction filter 22, and the imbalance reduction filter uses a block-based balance algorithm using a least square error (LSE) and an Affine Transform coefficient to distribute the average value and the variance. Correct brightness and chromaticity by adjusting the In addition, the image signal passing through the unbalance reduction filter 21 is transmitted to the video compression means 31 through the noise reduction filter 22 for removing each gaussian noise.

상기 비디오 압축수단(31)은 전처리수단(30)을 통해 보정된 다시점 영상들에 대해 각 카메라에 대한 인접한 영상간의 시간적, 공간적 리던던시 및 각 카메라에서 출력되는 영상들간의 시간적, 공간적 리던던시를 제거하는 영상압축과정을 수행한다. 이를 위해 바람직하기로는 상기 비디오 압축수단(31)은 부동추정기(Overlapp ed Block Disparity Estimation)/부동보상기(Overlapped Block Disparity Compens ation) 및 기존의 MPEG-2알고리즘을 포함한다.The video compression means 31 removes the temporal and spatial redundancy between adjacent images for each camera and the temporal and spatial redundancy between images output from each camera with respect to the multi-view images corrected by the preprocessing means 30. Perform image compression process. To this end, the video compression means 31 preferably comprises an Overlapped Block Disparity Estimation / Overlapped Block Disparity Compensation and a conventional MPEG-2 algorithm.

도 4에 도시한 본 발명의 바람직한 실시예로서의 비디오 압축수단(31)은 동작추정기(Overlapped Block Motion Estimation)/동작보상기(Overlapped Block Motion Compensation)(도면에는 미도시)을 포함하는 DCT 기반 인코더(23)와, 부동추정기(24)와, 부동보상기(25)를 포함한다. 상기 비디오 압축수단(31)은 각각의 카메라에서 연속적으로 입력되는 영상프레임들에 대하여 동시간에서 가장 인접한 카메라 영상간의 동질성에 따른 시간적, 공간적 리던던시를 상기 부동추정기(24)와, 부동보상기(25)에서 부호화하고, 나머지 DCT계수들에 대해서는 MPEG-2표준을 만족하는 부호화를 통해 압축한다. 또한 각 카메라에서 입력되는 연속적인 프레임간의 동질성에 따른 시간적, 공간적인 리던던시는 동작추정기/동작보상기를 이용해 부호화하고, 나머지 DCT계수들에 대해서는 MPEG-2표준을 만족하는 부호화를 통해 압축한다.The video compression means 31 as a preferred embodiment of the present invention shown in FIG. 4 includes a DCT-based encoder 23 including an overlapped block motion estimation / overlapped block motion compensation (not shown). And a floating estimator 24 and a floating compensator 25. The video compression unit 31 provides the temporal and spatial redundancy according to the homogeneity between the closest camera images at the same time with respect to the image frames continuously input from each camera, by the floating estimator 24 and the floating compensator 25. Are encoded by using the encoding that satisfies the MPEG-2 standard. In addition, temporal and spatial redundancy according to homogeneity between consecutive frames input from each camera is encoded using a motion estimator / motion compensator, and the remaining DCT coefficients are compressed through encoding that satisfies the MPEG-2 standard.

상기 도면에 도시된 실시예에 따른 예시로서 카메라 2(이하 Ca_2로 약칭함)에 의한 보정된 영상은 동작추정기/동작보상기를 포함하는 DCT 기반 인코더(26)에서 독립적으로 부호화하여 Ca_2 인코디드 스트림으로 출력하고, 복원된 영상은 부동추정기(24, 27)/부동보상기(25, 28)블럭에 참조영상으로 제공된다. Ca_1 보정영상과 Ca_2보정영상에 대해 살펴보면 상기 영상은 부동추정기(24)와 DCT 기반 인코더(23)로 전달되어 부동추정기(24)에서는 Ca_2 보정영상에 대한 복원영상을 참조하여 부동벡터(Disparity Vector, 또는 DV)를 획득하고, 부동보상기(25) 및 DCT 기반 인코더(23)로 상기 DV를 전달한다. 부동보상기(25)에서는 Ca_2 보정영상에 대한 복원영상을 참조하고 DV를 이용하여 보상영상을 생성하여 동 영상정보를 DCT 기반 인코더(23)로 전달한다. 이 과정은 Ca_2와 Ca_3보정영상 사이에도 동일하게 적용되며 최종적으로 DCT 기반 인코더(23, 29)는 부동추정기로부터 전달된 DV와 원영상(Ca_1 또는 Ca_3보정영상)과 부동보상기에서 보상된 영상과의 차영상을 부호화하여 각각Ca_1 인코디드 스트림, Ca_3 인코디드 스트림으로 출력한다.As an example according to the embodiment shown in the figure, the corrected image of the camera 2 (hereinafter, abbreviated as Ca_2) is independently encoded by the DCT based encoder 26 including a motion estimator / motion compensator to encode the Ca_2 encoded stream. The reconstructed image is provided as a reference image to the floating estimator 24 and 27 / floating compensators 25 and 28. Referring to the Ca_1 correction image and the Ca_2 correction image, the image is transferred to the floating estimator 24 and the DCT-based encoder 23, and the floating estimator 24 refers to the reconstructed image of the Ca_2 correction image, and displays a disparity vector, Or DV) and deliver the DV to the floating compensator 25 and the DCT based encoder 23. The floating compensator 25 refers to the reconstructed image of the Ca_2 corrected image, generates a compensation image using DV, and transfers the image information to the DCT-based encoder 23. This process is applied equally between Ca_2 and Ca_3 correction images. Finally, DCT-based encoders 23 and 29 compare the DV transmitted from the floating estimator with the original image (Ca_1 or Ca_3 correction image) and the image compensated in the floating compensator. The difference image is encoded and output as a Ca_1 encoded stream and a Ca_3 encoded stream, respectively.

시스템 다중화수단(32)은 비디오 압축수단(31)에서 압축한 독립된 영상스트림을 하나의 다중화된 스트림으로 만드는 수단으로 각각의 독립된 영상스트림에 대해 식별자, 시간정보, 프로그램정보 등을 추가한다. 상기 다중화수단의 구체적인 실시예로서의 상세구성은 도 5에 나타낸 바와 같다. 상기 도면에 제시된 다중화 수단은 바람직하기로는 스트림헤더 분석기(41), 비디오 버퍼(42,44), 비디오 패킷화기(43), 시스템 헤더제조기(45), 시스템스트림 패킷화기(46)를 포함하여 구성된다.The system multiplexing means 32 is a means for making an independent video stream compressed by the video compression means 31 into one multiplexed stream, and adds an identifier, time information, program information, etc. to each independent video stream. The detailed configuration as a specific embodiment of the multiplexing means is as shown in FIG. The multiplexing means presented in this figure preferably comprises a stream header analyzer 41, video buffers 42 and 44, a video packetizer 43, a system header maker 45 and a system stream packetizer 46. do.

상기 독립된 영상스트림은 스트림헤더 분석기(41)에서 AU단위로 분리되어 순차적으로 비디오 버퍼(42)로 전달된다. 다음으로 비디오 패킷화기(43)에서 각 AU에 대한 시간정보 및 스트림 정보 등을 헤더에 추가하여 패킷화한 후 비디오 버퍼(44)로 전달하고 상기 비디오 버퍼(44)는 버퍼 콘트롤러(47)의 제어를 받아 라운드로빈 방식으로 시스템 헤더제조기(45)로 전달되어 각 영상스트림에 대한 식별자 및 기타 정보를 포함하는 시스템 헤더를 생성하고 시스템스트림 패킷화기(46)에서 PES 패킷(PES_1, PES_2 등)을 다시 하나의 DSS패킷으로 생성하고 이를 시퀀스화하여 출력한다. 이때 생성된 다중화된 영상스트림은 멀티미디어 저장매체로 저장하거나 또는 통신장비를 이용하여 목적지로 전달될 수 있다.The independent video stream is separated into AU units in the stream header analyzer 41 and sequentially delivered to the video buffer 42. Next, the video packetizer 43 adds the time information and the stream information of each AU to the header, packetizes it, and delivers the packet to the video buffer 44. The video buffer 44 controls the buffer controller 47. The system header manufacturer 45 generates a system header including an identifier and other information for each video stream in a round robin manner, and regenerates PES packets (PES_1, PES_2, etc.) in the system stream packetizer 46. Create one DSS packet and output it by sequencing it. In this case, the generated multiplexed video stream may be stored in a multimedia storage medium or delivered to a destination using a communication device.

상기 다중화된 영상스트림은 시스템 역다중화 수단(33)에 의한 역다중화과정을 거쳐 다시 각각의 독립된 영상스트림으로 복원된다. 이러한 과정은 본 발명의 구체적인 실시예로서 도 6에 의해 구체화될 수 있다. 상기 시스템 역다중화 수단(3 3)은 바람직하기로는 패킷동기부(51), 에러검출기(52), 패킷 버퍼(53), 시스템헤더처리기(54), 패킷식별자 처리기(55), 시스템 클럭 추출기(56), 시스템 클록 복원기 (57), 프로그램 정보 디코더(58), 비디오 패킷헤더처리기(59), 트랜스포트버퍼(60)를 포함하여 구성되어진다.The multiplexed video streams are reconstructed into respective independent video streams through demultiplexing by the system demultiplexing means 33. This process may be embodied by FIG. 6 as a specific embodiment of the present invention. The system demultiplexing means 33 is preferably a packet synchronizer 51, an error detector 52, a packet buffer 53, a system header processor 54, a packet identifier processor 55, a system clock extractor ( 56, the system clock recoverer 57, the program information decoder 58, the video packet header processor 59, and the transport buffer 60 are configured.

이들의 작용관계를 살펴보면 먼저 시스템 다중화수단(32)에 의해 패킷으로 구성된 다중화된 영상스트림에서 패킷동기부(51)에 의해 각 패킷의 동기화 바이트를 검색하고 동기화된 패킷을 에러 검출기(52)로 전송한다. 상기 에러검출기(52)는 에러체크(바람직하기로는 CRC체크를 포함)를 수행하고 시스템 클럭 추출기(56)와 패킷 버퍼(53)로 패킷을 전달한다. 시스템 클럭 추출기(56)에서는 프로그램 정보 디코더(58)에서 PCR_PID를 받아서 해당하는 DSS패킷헤더에서 PCR정보를 추출하고 시스템 클록 복원기(57)를 이용해 정확한 시스템 클록을 복원한다. 패킷 버퍼(53)에 존재하던 DSS패킷은 시스템헤더처리기(54)에서 DSS패킷헤더를 처리하고, 유료부하의 종류에 따라 비디오 패킷헤더처리기(59), 프로그램 정보 디코더(58)로 유료부하를 전달한다. 비디오 패킷헤더처리기(59)에서는 전달된 PES패킷들의 헤더를 분석하고 나머지 유료부하를 적절한 트랜스포트 버퍼(60)내로 전달한다. 그리고 프로그램 정보 디코더(58)에서는 현재 전송되고 있는 DSS스트림내에 포함되어 있는 비디오 정보 등을 추출하여 패킷 식별자 처리기(55)에게 그 정보를 바탕으로 DSS패킷을 선별적으로 받아들이도록 한다. 트랜스포트 버퍼(60)내에서는 각 영상스트림에 대한 메모리가 독립적으로 존재하여 각각의 영상스트림(Ca_1, Ca_2 인코디드 스트림 등)을 출력한다.Looking at the working relationship thereof, first, the packet synchronization unit 51 retrieves the synchronization byte of each packet from the multiplexed video stream composed of packets by the system multiplexing unit 32, and transmits the synchronized packet to the error detector 52. do. The error detector 52 performs an error check (preferably including a CRC check) and forwards the packet to the system clock extractor 56 and the packet buffer 53. The system clock extractor 56 receives the PCR_PID from the program information decoder 58, extracts PCR information from the corresponding DSS packet header, and restores the correct system clock using the system clock recoverer 57. The DSS packet existing in the packet buffer 53 processes the DSS packet header in the system header processor 54, and transfers the payload to the video packet header processor 59 and the program information decoder 58 according to the payload type. do. The video packet header processor 59 analyzes the headers of the delivered PES packets and transfers the remaining payload into the appropriate transport buffer 60. The program information decoder 58 extracts video information and the like included in the currently transmitted DSS stream and causes the packet identifier processor 55 to selectively accept the DSS packet based on the information. In the transport buffer 60, a memory for each video stream exists independently to output each video stream (Ca_1, Ca_2 encoded stream, etc.).

상기 압축된 각각의 영상스트림은 비디오 압축해제수단(34)을 통해 복원된다. 상기 비디오 압축해제수단은 바람직하기로는 DCT 기반 디코더(61)과 부동보상기(62)를 포함한다. 도 7은 본 발명의 비디오 압축해제수단(34)의 구체적인 상세구성예를 보여주고 있다. 상기 압축된 영상스트림은 동작보상기를 포함하는 DCT 기반 디코더(61)로 입력되고 상기 DCT 기반 디코더(61)는 DV와 차영상을 복원하여 DV를 부동보상기(62)로 전달하여 보상영상을 만든 후 보상영상을 차영상과 합하여 영상을 복원한다.Each compressed video stream is reconstructed via video decompression means 34. The video decompression means preferably comprises a DCT based decoder 61 and a floating compensator 62. Fig. 7 shows a detailed configuration example of the video decompression means 34 of the present invention. The compressed video stream is input to a DCT-based decoder 61 including an operation compensator, and the DCT-based decoder 61 restores the DV and the difference image to deliver the DV to the floating compensator 62 to create a compensation image. The image is reconstructed by combining the compensation image with the difference image.

비디오 중간영상 합성수단(35)은 상기 비디오 압축해제수단(34)에 의해 복원된 다시점 영상간의 중간영상을 생성하는 과정을 수행한다. 이에 의하면 획득된 M시점 영상 사이에 새로운 영상(N-M개)을 하나씩 생성하여 N시점의 영상(M??N)을 획득하는 것이 가능하다. 예를 들면 비디오 압축해제수단(34)에서 복원된 영상이 9시점으로 구성된다면 각각 기반이 되는 영상(도 7상의 Ov2, Ov4, Ov5, Ov6, Ov8)으로부터 적용영상(Ov1, Ov3, Ov4, Ov6, Ov7, Ov9)에 대한 적응점 추출을 적응점추출기(63)에서 수행하고, 그후 폐색영역제조기(64)에서 적응점 추출데이터를 기반으로 폐색영역을 추출 및 생성한다. 다음으로 적응점에 해당하는 데이터와 보간된 폐색영역을 합성하여 새로운 중간영상을 생성하여 17시점을 획득할 수 있게 된다.The video intermediate image synthesizing means 35 performs a process of generating an intermediate image between the multi-view images reconstructed by the video decompression means 34. According to this, it is possible to obtain N-times images M ?? N by generating new images (N-M) one by one between the obtained M-view images. For example, if the image reconstructed by the video decompression means 34 is composed of nine viewpoints, the applied image (Ov1, Ov3, Ov4, Ov6) from the base images (Ov2, Ov4, Ov5, Ov6, Ov8 in Fig. 7), respectively. , Ov7, Ov9) is performed by the adaptation point extractor 63, and then the occlusion area manufacturer 64 extracts and generates the occlusion area based on the adaptive point extraction data. Next, 17 points can be obtained by synthesizing the data corresponding to the adaptive point and the interpolated occlusion area to generate a new intermediate image.

상기 비디오 중간영상 합성수단(35)은 영상편집기 또는 영상 검색기 등에서 존재하지 않는 영상을 생성하거나 또는 잃어버린 영상을 복원하기 위해 독립적으로 사용될 수도 있다.The video intermediate image synthesizing unit 35 may be used independently to generate an image which does not exist in an image editor or an image searcher or to restore a lost image.

전기 단계를 거쳐 형성된 2차원영상은 3차원 디스플레이 콘트롤수단(36)에 의해 3차원 표시장치에 출력한다.The two-dimensional image formed through the electrical steps is output by the three-dimensional display control means 36 to the three-dimensional display device.

또한 상기 제시한 본 발명의 시스템은 각 구성수단 중에서 어느 하나의 수단을 특정수단으로 대체함으로써 2차원의 비디오 부호기인 HDTV 방송장비, 세톱박스 등 타 멀티미디어 관련분야에 적용하는 것도 가능하다. 예를 들면 다시점 비디오 압축수단(31)은 일반적인 2차원 비디오 인코더로, 다시점 비디오 압축해제수단(34)은 2차원 비디오 디코더로 대체하고, 비디오 중간영상 합성수단(35)을 제거하면 된다. 따라서 당업자라면 본 발명의 구성에 의해 구성수단의 일부를 치환, 삭제 및 변경하는 것이 가능함을 알 수 있고, 이들 변형수단을 구비한 균등물의 발명은 본 발명의 권리 범위를 벗어나는 것이 아님은 자명하다.In addition, the system of the present invention as described above can be applied to other multimedia related fields such as HDTV broadcasting equipment, set-top box, which is a two-dimensional video encoder by replacing any one means of each component. For example, the multi-view video compression means 31 may be replaced with a general two-dimensional video encoder, the multi-view video decompression means 34 may be replaced with a two-dimensional video decoder, and the video intermediate image synthesizing means 35 may be removed. Therefore, it will be apparent to those skilled in the art that a part of the constituent means can be replaced, deleted, and changed by the configuration of the present invention, and that the invention of equivalents having these modification means is not outside the scope of the present invention.

본 발명에 의하면 극히 한정된 인원만이 3차원 영상을 볼수 있었던 기존기술과는 달리 카메라로부터 얻을 수 있는 시점보다 많은 시점을 확보할 수 있으므로 많은 인원이 동시에 여러 각도 또는 여러 시점에서 시청할 수 있는 장점이 있다. 또한 본 발명을 구성하는 각 수단들은 3차원 다시점 비디오 시스템외에도 각각이 독립적으로 디지털 방송, 의료분야, 게임/오락분야 등의 제품에 적용이 가능하다.According to the present invention, unlike the existing technology in which only a very limited number of people can view 3D images, more points of view can be obtained than those obtained from a camera, and thus, many people can simultaneously watch from various angles or points of view. . In addition to the three-dimensional multi-view video system, each means constituting the present invention can be independently applied to products such as digital broadcasting, medical field, game / entertainment field.

Claims (9)

Translated fromKorean
3차원 입체영상 구현을 위한 다시점을 이용한 비디오시스템 장치에 있어서,In the video system apparatus using a multi-view for realizing three-dimensional stereoscopic image,카메라의 특성차이로 인한 파라메타 등의 보정을 하는 전처리수단과,Pre-processing means for correcting parameters due to camera characteristic differences,각 카메라에서 출력되는 영상들간의 시간적, 공간적 리던던시를 제거하는 비디오 압축수단과,Video compression means for removing temporal and spatial redundancy between images output from each camera;각각의 독립된 영상스트림을 하나의 다중화된 스트림으로 생성하는 시스템 다중화수단과,System multiplexing means for generating each independent video stream into one multiplexed stream;상기 시스템 다중화 수단에서 전송된 다중화된 스트림을 각각의 독립된 영상스트림으로 복원하는 시스템 역다중화수단과,System demultiplexing means for reconstructing the multiplexed stream transmitted from the system multiplexing means into respective independent video streams;상기 영상압축수단에서 압축된 각각의 영상을 복원하는 비디오 압축해제수단과,Video decompression means for reconstructing each image compressed by the image compression means;복원된 다시점 영상간의 중간영상을 생성하는 비디오 중간영상 합성수단과,Video intermediate image synthesizing means for generating an intermediate image between the restored multi-view images;전기 단계에서 형성된 2차원영상을 3차원 표시장치에 출력하는 3차원 디스플레이 콘트롤수단을 포함함을 특징으로 하는 다시점 비디오시스템 장치.And a three-dimensional display control means for outputting the two-dimensional image formed in the previous step to the three-dimensional display device.제 1항에 있어서, 상기 전처리수단은 카메라 파라미터의 불균형을 시정하기 위한 불균형 감소필터와 노이즈 제거를 위한 노이즈 감소필터를 포함함을 특징으로 하는 다시점 비디오시스템 장치.The apparatus of claim 1, wherein the preprocessing means comprises an imbalance reduction filter for correcting an imbalance of camera parameters and a noise reduction filter for removing noise.제 1항에 있어서, 상기 비디오 압축수단은 각 카메라에서 입력되는 연속적인 프레임간의 시간적, 공간적 리던던시를 부호화하기 위한 동작추정기/동작보상기를 포함하는 DCT 기반 인코더와, 동시간에서 인접한 카메라 영상간의 시간적, 공간적 리던던시를 부호화하기 위한 부동추정기/부동보상기를 포함하여 구성됨을 특징으로 하는 다시점 비디오시스템 장치.The apparatus of claim 1, wherein the video compression means comprises: a DCT-based encoder including an motion estimator / motion compensator for encoding temporal and spatial redundancy between successive frames input from each camera; And a floating estimator / floating compensator for encoding spatial redundancy.제 1항에 있어서, 상기 다중화 수단은 스트림헤더 분석기, 비디오 버퍼, 비디오 패킷화기, 시스템 헤더제조기, 시스템스트림 패킷화기를 포함하여 구성되며, 생성된 독립된 영상스트림은 상기 스트림헤더 분석기에서 AU단위로 분리되어 순차적으로 비디오 버퍼로 전달되고, 비디오 패킷화기에서 각 AU에 대한 시간정보 및 스트림 정보를 헤더에 추가하여 패킷화한 후 비디오 버퍼로 전달하고, 전기 비디오 버퍼는 버퍼 콘트롤러의 제어를 받아 라운드로빈 방식으로 시스템 헤더제조기로 전달되어 각 영상스트림에 대한 식별자 및 기타 정보를 포함하는 시스템 헤더를 생성하고 시스템스트림 패킷화기에서 PES 패킷을 다시 하나의 DSS패킷으로 생성하여 이를 시퀀스화하여 출력함을 특징으로 하는 다시점 비디오시스템 장치.The apparatus of claim 1, wherein the multiplexing means comprises a stream header analyzer, a video buffer, a video packetizer, a system header maker, and a system stream packetizer. The generated independent video stream is separated in units of AU in the stream header analyzer. The video packetizer adds the time information and the stream information of each AU to the header, packetizes it, and delivers it to the video buffer. The electric video buffer is controlled by the buffer controller. It is delivered to the system header manufacturer to generate a system header including the identifier and other information for each video stream, and the system stream packetizer generates a PES packet as a DSS packet again and sequenced and outputs it. Multi-view video system device.제 1항에 있어서, 상기 시스템 역다중화 수단은 패킷동기부, 에러검출기, 패킷 버퍼, 시스템헤더처리기, 패킷식별자 처리기, 시스템 클럭 추출기, 시스템 클록복원기, 프로그램 정보 디코더, 비디오 헤더처리기, 트랜스포트버퍼를 포함하여 구성되며,The system of claim 1, wherein the system demultiplexing means comprises: a packet synchronizer, an error detector, a packet buffer, a system header processor, a packet identifier processor, a system clock extractor, a system clock restorer, a program information decoder, a video header processor, and a transport buffer. It is configured to include,시스템 다중화수단에 의해 패킷으로 구성된 다중화된 영상스트림에서 패킷동기부(51)에 의해 각 패킷의 동기화 바이트를 검색하고 동기화된 패킷을 에러 검출기로 전송하며, 상기 에러검출기는 에러체크를 수행하고 시스템 클럭 추출기와 패킷 버퍼로 패킷을 전달하고, 시스템 클럭 추출기에서는 프로그램정보 디코더에서 PCR_PID를 받아서 해당하는 DSS패킷헤더에서 PCR정보를 추출하고 시스템 클록 복원기를 이용해 정확한 시스템 클록을 복원하고, 패킷 버퍼에 존재하던 DSS패킷은 시스템헤더처리기에서 DSS패킷헤더를 처리하고, 유료부하의 종류에 따라 비디오 헤더처리기, 프로그램정보 디코더로 유료부하를 전달하고, 비디오 헤더처리기에서는 전달된 PES패킷들의 헤더를 분석하고 나머지 유료부하를 적절한 트랜스포트 버퍼내로 전달하고, 프로그램정보 디코더에서는 현재 전송되고 있는 DSS스트림내에 포함되어 있는 비디오 정보 등을 추출하여 패킷식별자처리기에게 그 정보를 바탕으로 DSS패킷을 선별적으로 받아들이도록 하며, 트랜스포트 버퍼내에서는 각 영상스트림에 대한 메모리가 독립적으로 존재하여 각각의 영상스트림을 출력하도록 함을 특징으로 하는 다시점 비디오시스템 장치.In the multiplexed video stream composed of packets by the system multiplexing means, the packet synchronizer 51 retrieves the synchronization bytes of each packet and transmits the synchronized packets to the error detector, which performs an error check and performs a system clock. The system clock extractor receives the PCR_PID from the program information decoder, extracts the PCR information from the corresponding DSS packet header, restores the correct system clock using the system clock restorer, and stores the DSS in the packet buffer. The packet processes the DSS packet header in the system header processor, delivers the payload to the video header processor and the program information decoder according to the payload type, and the video header processor analyzes the headers of the delivered PES packets and receives the remaining payload. Pass into the appropriate transport buffer, and The beam decoder extracts the video information included in the currently transmitted DSS stream and allows the packet identifier processor to selectively accept the DSS packet based on the information. In the transport buffer, the memory for each video stream is stored. A multi-view video system device, characterized in that it is present independently to output each video stream.제 1항에 있어서, 상기 비디오 압축해제수단은 동작보상기를 포함하는 DCT 기반 디코더와 OBDC블럭을 포함하며, 압축된 영상스트림은 상기 DCT 기반 디코더로 입력되고, 상기 DCT 기반 디코더는 부동벡터와 차 영상을 복원하여 부동벡터를 부동보상기로 전달하여 보상영상을 만든 후 보상영상을 차영상과 합하여 영상을 복원함을 특징으로 하는 다시점 비디오시스템 장치.The apparatus of claim 1, wherein the video decompression means comprises a DCT-based decoder and an OBDC block including an operation compensator, the compressed video stream is input to the DCT-based decoder, and the DCT-based decoder is a floating vector and a difference image. The multi-view video system device of claim 1, wherein the reconstructed image is transferred to a floating compensator to generate a compensation image, and then the compensation image is combined with the difference image to restore the image.제 1항에 있어서, 상기 비디오 중간영상 합성수단은 적응점 추출과 폐색영역검색에 의해 카메라에 의해 획득된 M시점의 영상에 대해 N-M개의 중간영상을 생성하여 N시점의 영상을 합성함을 특징으로 하는 다시점 비디오시스템 장치.The method of claim 1, wherein the video intermediate image synthesizing means generates NM intermediate images from the M viewpoint images acquired by the camera by adaptive point extraction and occlusion region synthesis, and synthesizes the N viewpoint images. Multi-view video system device.청구항 1기재의 다시점 비디오 시스템의 구성수단 중 압축수단은 일반적인 2차원 비디오 인코더로, 다시점 비디오 압축해제수단(34)은 2차원 비디오 디코더로 대체함과 함께 비디오 중간영상 합성수단을 제거하여 형성된 멀티미디어 기기.Compression means of the constituent means of the multi-view video system of claim 1 is formed by replacing the video intermediate image synthesis means with the multi-view video decompressing means 34 is replaced with a two-dimensional video decoder Multimedia device.3차원 입체영상 구현을 위한 다시점 영상을 생성하는 방법에 있어서,In the method for generating a multi-view image for realizing a three-dimensional stereoscopic image,카메라의 특성차이로 인한 파라메타 등의 보정과 노이즈를 제거하는 전처리단계와,A preprocessing step to remove noise and correction of parameters due to camera characteristic differences,각 카메라에서 출력되는 영상들간의 시간적, 공간적 리던던시를 제거하는 영상압축단계와,An image compression step of removing temporal and spatial redundancy between images output from each camera;각각의 독립된 영상스트림을 하나의 다중화된 스트림으로 생성하는 다중화단계와,A multiplexing step of generating each independent video stream into one multiplexed stream,상기 시스템 다중화 단계에서 생성된 다중화된 영상스트림을 각각의 독립된 영상스트림으로 복원하는 역다중화단계와,A demultiplexing step of restoring the multiplexed video stream generated in the system multiplexing step to each independent video stream;상기 영상압축단계에서 압축된 각각의 영상을 복원하는 영상 압축해제단계와,An image decompression step of reconstructing each image compressed in the image compression step;적응점 추출과 폐색영역검색에 의해 카메라에 의해 획득된 M시점의 영상에 대해 N-M개의 중간영상을 생성하여 N시점의 영상을 합성하는 중간영상생성단계와,An intermediate image generation step of synthesizing the N-time images by generating N-M intermediate images for the M-time images obtained by the camera by adaptive point extraction and occlusion area searching;전기 단계에서 형성된 2차원영상을 3차원 표시장치에 출력하는 단계를 포함함을 특징으로 하는 다시점 영상을 제조하는 방법.And outputting the two-dimensional image formed in the previous step to the three-dimensional display device.
KR10-2000-0063753A2000-10-282000-10-283D Stereosc opic Multiview Video System and Manufacturing MethodExpired - LifetimeKR100375708B1 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR10-2000-0063753AKR100375708B1 (en)2000-10-282000-10-283D Stereosc opic Multiview Video System and Manufacturing Method

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR10-2000-0063753AKR100375708B1 (en)2000-10-282000-10-283D Stereosc opic Multiview Video System and Manufacturing Method

Publications (2)

Publication NumberPublication Date
KR20020032954A KR20020032954A (en)2002-05-04
KR100375708B1true KR100375708B1 (en)2003-03-15

Family

ID=19695958

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR10-2000-0063753AExpired - LifetimeKR100375708B1 (en)2000-10-282000-10-283D Stereosc opic Multiview Video System and Manufacturing Method

Country Status (1)

CountryLink
KR (1)KR100375708B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR100769461B1 (en)2005-12-142007-10-23이길재 Stereo vision system
KR100927234B1 (en)*2007-07-302009-11-16광운대학교 산학협력단Method, apparatus for creating depth information and computer readable record-medium on which program for executing method thereof
KR100953646B1 (en)2006-01-122010-04-21엘지전자 주식회사 Method and apparatus for processing multiview video
USRE44680E1 (en)2006-01-122013-12-31Lg Electronics Inc.Processing multiview video
US9571835B2 (en)2006-07-122017-02-14Lg Electronics Inc.Method and apparatus for processing a signal

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR100424401B1 (en)*2001-11-022004-03-24전자부품연구원3D Stereoscopic Multiview video system include Searching function
KR100475060B1 (en)2002-08-072005-03-10한국전자통신연구원The multiplexing method and its device according to user's request for multi-view 3D video
KR100987775B1 (en)2004-01-202010-10-13삼성전자주식회사3 Dimensional coding method of video
KR100703713B1 (en)*2004-10-052007-04-05한국전자통신연구원 3D mobile device capable of 3D image acquisition and display
US8204133B2 (en)2004-10-122012-06-19Electronics And Telecommunications Research InstituteMethod and apparatus for encoding and decoding multi-view video using image stitching
KR100775871B1 (en)*2004-10-122007-11-13한국전자통신연구원Method and apparatus for encoding and decoding multi-view video images using image stitching
KR100590025B1 (en)*2004-12-302006-06-14전자부품연구원 Intermediate image synthesis method and apparatus for multiview forward camera array based display
KR101199498B1 (en)2005-03-312012-11-09삼성전자주식회사Apparatus for encoding or generation of multi-view video by using a camera parameter, and a method thereof, and a recording medium having a program to implement thereof
KR100636785B1 (en)*2005-05-312006-10-20삼성전자주식회사 Multi-view stereoscopic imaging system and compression and decompression method applied to it
KR100720722B1 (en)*2005-06-212007-05-22삼성전자주식회사 Intermediate image generation method and stereoscopic display device to which the method is applied
KR100737808B1 (en)*2005-10-072007-07-10전자부품연구원 Multi-view Image Compression Method of 2D Structure
KR100730406B1 (en)*2005-11-162007-06-19광운대학교 산학협력단 Stereoscopic image display device using intermediate element image
KR100706940B1 (en)*2006-02-272007-04-12삼성전기주식회사 Aligner of multi-view camera
KR100949981B1 (en)2006-03-302010-03-29엘지전자 주식회사A method and apparatus for decoding/encoding a video signal
WO2007148906A1 (en)2006-06-192007-12-27Lg Electronics, Inc.Method and apparatus for processing a vedeo signal
US8532178B2 (en)2006-08-252013-09-10Lg Electronics Inc.Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
KR100763441B1 (en)*2006-09-302007-10-04광주과학기술원 Synchronized multiview stereoscopic image transmission method and system
DE102006055641B4 (en)*2006-11-222013-01-31Visumotion Gmbh Arrangement and method for recording and reproducing images of a scene and / or an object
KR100920227B1 (en)*2007-06-292009-10-05포항공과대학교 산학협력단 High speed systolic array device based on belief propagation and method
KR101295848B1 (en)2008-12-172013-08-12삼성전자주식회사Apparatus for focusing the sound of array speaker system and method thereof
WO2013081576A1 (en)*2011-11-282013-06-06Hewlett-Packard Development Company, L.P.Capturing a perspective-flexible, viewpoint-synthesizing panoramic 3d image with a multi-view 3d camera
KR20170115751A (en)*2016-04-082017-10-18한국전자통신연구원Apparatus for multiplexing multi-view image and method using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH09289655A (en)*1996-04-221997-11-04Fujitsu Ltd Stereoscopic image display method, multi-view image input method, multi-view image processing method, stereo image display device, multi-view image input device, and multi-view image processing device
JPH1079029A (en)*1996-09-021998-03-24Canon Inc Stereoscopic information detection method and apparatus
KR19980023727A (en)*1996-09-301998-07-06배순훈 Virtual Reality System for Displaying Panoramic Images
JPH11103473A (en)*1997-09-261999-04-13Toshiba Corp 3D image display device
JP2000209615A (en)*1999-01-112000-07-28Sanyo Electric Co LtdStereoscopic video image display device without eyeglass

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH09289655A (en)*1996-04-221997-11-04Fujitsu Ltd Stereoscopic image display method, multi-view image input method, multi-view image processing method, stereo image display device, multi-view image input device, and multi-view image processing device
JPH1079029A (en)*1996-09-021998-03-24Canon Inc Stereoscopic information detection method and apparatus
KR19980023727A (en)*1996-09-301998-07-06배순훈 Virtual Reality System for Displaying Panoramic Images
JPH11103473A (en)*1997-09-261999-04-13Toshiba Corp 3D image display device
JP2000209615A (en)*1999-01-112000-07-28Sanyo Electric Co LtdStereoscopic video image display device without eyeglass

Cited By (13)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR100769461B1 (en)2005-12-142007-10-23이길재 Stereo vision system
US7856148B2 (en)2006-01-122010-12-21Lg Electronics Inc.Processing multiview video
KR100953646B1 (en)2006-01-122010-04-21엘지전자 주식회사 Method and apparatus for processing multiview video
US7817865B2 (en)2006-01-122010-10-19Lg Electronics Inc.Processing multiview video
US7817866B2 (en)2006-01-122010-10-19Lg Electronics Inc.Processing multiview video
US7831102B2 (en)2006-01-122010-11-09Lg Electronics Inc.Processing multiview video
US7970221B2 (en)2006-01-122011-06-28Lg Electronics Inc.Processing multiview video
US8115804B2 (en)2006-01-122012-02-14Lg Electronics Inc.Processing multiview video
US8154585B2 (en)2006-01-122012-04-10Lg Electronics Inc.Processing multiview video
US8553073B2 (en)2006-01-122013-10-08Lg Electronics Inc.Processing multiview video
USRE44680E1 (en)2006-01-122013-12-31Lg Electronics Inc.Processing multiview video
US9571835B2 (en)2006-07-122017-02-14Lg Electronics Inc.Method and apparatus for processing a signal
KR100927234B1 (en)*2007-07-302009-11-16광운대학교 산학협력단Method, apparatus for creating depth information and computer readable record-medium on which program for executing method thereof

Also Published As

Publication numberPublication date
KR20020032954A (en)2002-05-04

Similar Documents

PublicationPublication DateTitle
KR100375708B1 (en)3D Stereosc opic Multiview Video System and Manufacturing Method
US5612735A (en)Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
US5619256A (en)Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
KR100424401B1 (en)3D Stereoscopic Multiview video system include Searching function
EP0838959B1 (en)Synchronization of a stereoscopic video sequence
US6111596A (en)Gain and offset correction for efficient stereoscopic coding and improved display
Puri et al.Basics of stereoscopic video, new compression results with MPEG-2 and a proposal for MPEG-4
US6055012A (en)Digital multi-view video compression with complexity and compatibility constraints
KR100523052B1 (en)Object base transmission-receive system and method, and object-based multiview video encoding apparatus and method for supporting the multi-display mode
CA2252324C (en)View offset estimation for stereoscopic video coding
JP4952657B2 (en) Pseudo stereoscopic image generation apparatus, image encoding apparatus, image encoding method, image transmission method, image decoding apparatus, and image decoding method
US20090190662A1 (en)Method and apparatus for encoding and decoding multiview video
EP2538675A1 (en)Apparatus for universal coding for multi-view video
EP2334092A1 (en)Methods and apparatuses for encoding, decoding, and displaying a stereoscopic 3D image
JPH10257527A (en)Optimum disparity estimation for stereo video encoding
Lim et al.A multiview sequence CODEC with view scalability
Puri et al.Stereoscopic video compression using temporal scalability
JP2009004940A (en)Multi-viewpoint image encoding method, multi-viewpoint image encoding device, and multi-viewpoint image encoding program
JP2009004939A (en)Multi-viewpoint image decoding method, multi-viewpoint image decoding device, and multi-viewpoint image decoding program
JP2000308089A (en) Stereoscopic image encoding device and decoding device
KR100566100B1 (en) Adaptive Multiplexer / Demultiplexer and Method for 3D Multiview Multimedia Processing
JP2001069530A (en) High-efficiency stereoscopic video coding system
JP2009004942A (en)Multi-viewpoint image transmitting method, multi-viewpoint image transmitting device, and multi-viewpoint image transmitting program
KR101233161B1 (en)Method for transmission and reception of 3-dimensional moving picture in DMB mobile terminal
WO2000027132A1 (en)Encoding/decoding of video signal

Legal Events

DateCodeTitleDescription
A201Request for examination
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20001028

PA0201Request for examination
PG1501Laying open of application
E701Decision to grant or registration of patent right
PE0701Decision of registration

Patent event code:PE07011S01D

Comment text:Decision to Grant Registration

Patent event date:20021129

GRNTWritten decision to grant
PR0701Registration of establishment

Comment text:Registration of Establishment

Patent event date:20030227

Patent event code:PR07011E01D

PR1002Payment of registration fee

Payment date:20030228

End annual number:3

Start annual number:1

PG1601Publication of registration
PR1001Payment of annual fee

Payment date:20051226

Start annual number:4

End annual number:4

PR1001Payment of annual fee

Payment date:20061228

Start annual number:5

End annual number:5

PR1001Payment of annual fee

Payment date:20080102

Start annual number:6

End annual number:6

PR1001Payment of annual fee

Payment date:20080716

Start annual number:7

End annual number:7

PR1001Payment of annual fee

Payment date:20091224

Start annual number:8

End annual number:8

PR1001Payment of annual fee

Payment date:20110124

Start annual number:9

End annual number:9

PR1001Payment of annual fee

Payment date:20120116

Start annual number:10

End annual number:10

FPAYAnnual fee payment

Payment date:20130111

Year of fee payment:11

PR1001Payment of annual fee

Payment date:20130111

Start annual number:11

End annual number:11

FPAYAnnual fee payment

Payment date:20131231

Year of fee payment:12

PR1001Payment of annual fee

Payment date:20131231

Start annual number:12

End annual number:12

FPAYAnnual fee payment

Payment date:20150109

Year of fee payment:13

PR1001Payment of annual fee

Payment date:20150109

Start annual number:13

End annual number:13

FPAYAnnual fee payment

Payment date:20151224

Year of fee payment:14

PR1001Payment of annual fee

Payment date:20151224

Start annual number:14

End annual number:14

FPAYAnnual fee payment

Payment date:20161229

Year of fee payment:15

PR1001Payment of annual fee

Payment date:20161229

Start annual number:15

End annual number:15

FPAYAnnual fee payment

Payment date:20171207

Year of fee payment:16

PR1001Payment of annual fee

Payment date:20171207

Start annual number:16

End annual number:16

FPAYAnnual fee payment

Payment date:20190211

Year of fee payment:17

PR1001Payment of annual fee

Payment date:20190211

Start annual number:17

End annual number:17

FPAYAnnual fee payment

Payment date:20200115

Year of fee payment:18

PR1001Payment of annual fee

Payment date:20200115

Start annual number:18

End annual number:18

PC1801Expiration of term

Termination date:20210428

Termination category:Expiration of duration


[8]ページ先頭

©2009-2025 Movatter.jp