Movatterモバイル変換


[0]ホーム

URL:


JP7228980B2 - Predictive image correction device, image coding device, image decoding device, and program - Google Patents

Predictive image correction device, image coding device, image decoding device, and program
Download PDF

Info

Publication number
JP7228980B2
JP7228980B2JP2018178118AJP2018178118AJP7228980B2JP 7228980 B2JP7228980 B2JP 7228980B2JP 2018178118 AJP2018178118 AJP 2018178118AJP 2018178118 AJP2018178118 AJP 2018178118AJP 7228980 B2JP7228980 B2JP 7228980B2
Authority
JP
Japan
Prior art keywords
unit
image
prediction
decoded
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018178118A
Other languages
Japanese (ja)
Other versions
JP2020053725A (en
Inventor
俊輔 岩村
敦郎 市ヶ谷
慎平 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting CorpfiledCriticalJapan Broadcasting Corp
Priority to JP2018178118ApriorityCriticalpatent/JP7228980B2/en
Publication of JP2020053725ApublicationCriticalpatent/JP2020053725A/en
Application grantedgrantedCritical
Publication of JP7228980B2publicationCriticalpatent/JP7228980B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Description

Translated fromJapanese

本発明は、予測画像補正装置、画像符号化装置、画像復号装置、及びプログラムに関する。 The present invention relates to a predictive image correction device, an image coding device, an image decoding device, and a program.

非特許文献1に記載のHEVCに代表される従来の映像符号化方式では、画像符号化装置は、原画像をブロックに分割し、ブロックごとにインター予測とイントラ予測とを切り替えながら予測を行い、予測により得られた予測画像の誤差を表す予測残差に対し直交変換、量子化、エントロピー符号化を施すことにより、ストリーム出力するように構成されている。 In a conventional video coding method represented by HEVC described in Non-PatentDocument 1, an image coding device divides an original image into blocks, performs prediction while switching between inter prediction and intra prediction for each block, It is configured to output a stream by performing orthogonal transformation, quantization, and entropy coding on a prediction residual representing an error of a predicted image obtained by prediction.

かかる映像符号化方式におけるインター予測では、符号化対象のブロック(Coding Unit : CU)に適用する動きベクトルが、当該符号化対象CUに隣接する隣接CUに適用する動きベクトルと異なる場合には、符号化対象CUの予測画像及び隣接CUの予測画像は特徴が大きく異なる。 In inter prediction in such a video coding method, when a motion vector applied to a block to be coded (coding unit: CU) is different from a motion vector applied to an adjacent CU adjacent to the CU to be coded, the code The predicted image of the CU to be converted and the predicted image of the adjacent CU have significantly different features.

図1に示す従来の映像符号化方式の例では、オブジェクト#1は左上に動いており、オブジェクト#2は右上に動いているものとする。オブジェクト#1のみが含まれる符号化対象CUの左側に位置する隣接CU#1に対するインター予測では、オブジェクト#1の動きと同様の動きベクトル(MV#3)が適用される可能性が高い。符号化対象CUは、オブジェクト#1及びオブジェクト#2の両方を含むオブジェクト境界に位置するが、多くの領域をオブジェクト#1が占めることから、左側に隣接する隣接CU#1の動きベクトル(MV#2)と同様の動きベクトル(MV#1)が符号化対象CUに適用される可能性が高い。 In the example of the conventional video coding scheme shown in FIG. 1, it is assumed thatobject #1 is moving to the upper left andobject #2 is moving to the upper right. In inter prediction for neighboringCU#1 located on the left side of the current CU that includes onlyobject #1, there is a high possibility that a motion vector (MV#3) similar to the motion ofobject #1 is applied. The CU to be encoded is located at the object boundary including bothobject #1 andobject #2, but sinceobject #1 occupies a large area, the motion vector (MV# The motion vector (MV#1) similar to 2) is likely to be applied to the encoding target CU.

隣り合うCU同士の動きベクトルが同様である場合には、CUの境界領域の動きの連続性は高く、予測精度は高くなる可能性が高い。一方、図1の符号化対象CUの上側に隣接するCU#2はオブジェクト#2を多く含むことから、オブジェクト#2の動きと同様の動きベクトル(MV#3)が適用される可能性が高い。すなわち、符号化対象CUに適用する動きベクトル(MV#1)とCU#1に適用する動きベクトル(MV#3)は大きく異なる可能性が高い。このような隣り合うCU同士の動きベクトルが大きく異なる場合には、これらのCUのどちらか少なくとも一方にオブジェクト境界が含まれる可能性が高い。 When the motion vectors of adjacent CUs are similar, there is a high possibility that the continuity of motion in the boundary region of the CUs is high and the prediction accuracy is high. On the other hand, sinceCU#2 adjacent to the upper side of the encoding target CU in FIG. 1 includesmany objects #2, there is a high possibility that a motion vector (MV#3) similar to the motion ofobject #2 is applied. . That is, there is a high possibility that the motion vector (MV#1) applied to the encoding target CU and the motion vector (MV#3) applied toCU#1 are significantly different. If the motion vectors of such adjacent CUs are significantly different, there is a high possibility that at least one of these CUs contains an object boundary.

Recommendation ITU-T H.265,(12/2016), “High efficiency video coding”, International Telecommunication UnionRecommendation ITU-T H. 265, (12/2016), "High efficiency video coding", International Telecommunications Union

オブジェクト境界における動きベクトルの不連続性は予測精度の低下を招き、符号化効率が低下してしまう問題がある。HEVCでは、この問題を解決するため、ループフィルタにおいて、符号化対象CUに適用した動きベクトルと隣接ブロックに適用した動きベクトルとの差が予め規定した値より大きいか否かに応じて、ブロック歪を除去するデブロッキングフィルタを適用するか否かを制御する手法が導入されている。 Discontinuity of motion vectors at object boundaries leads to a decrease in prediction accuracy, and there is a problem that coding efficiency decreases. In HEVC, in order to solve this problem, in the loop filter, depending on whether the difference between the motion vector applied to the encoding target CU and the motion vector applied to the adjacent block is greater than a predetermined value, block distortion A technique is introduced to control whether or not to apply a deblocking filter that removes the .

しかしながら、予測(インター予測)においては、上記の動きベクトルの不連続性にかかわらず同一の処理が適用されているため、直交変換係数の伝送に必要な情報量がオブジェクト境界付近のブロックで増大し、符号化効率が低下してしまう問題がある。 However, in prediction (inter-prediction), the same processing is applied regardless of the motion vector discontinuity described above, so the amount of information required to transmit orthogonal transform coefficients increases in blocks near object boundaries. , there is a problem that the coding efficiency is lowered.

そこで、本発明は、インター予測を行う場合において符号化効率を向上させることが可能な予測画像補正装置、画像符号化装置、画像復号装置、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a predictive image correction device, an image coding device, an image decoding device, and a program capable of improving coding efficiency when inter prediction is performed.

第1の特徴に係る予測画像補正装置は、画像を構成するブロックごとにインター予測をして得られた予測画像を補正する予測画像補正装置であって、前記インター予測が行われた対象ブロックに適用された動きベクトルと、前記対象ブロックに隣接する復号済みの1又は複数の隣接ブロックに適用された動きベクトルとの比較により、前記1又は複数の隣接ブロックについて前記対象ブロックとの動きの連続性を評価する連続性評価部と、前記連続性評価部により評価された前記連続性が予め定めた値よりも低い隣接ブロックが存在する場合に、前記連続性が予め定めた値よりも低い隣接ブロックの復号画像のうち前記対象ブロックとの境界領域の復号画像を用いて、前記対象ブロックの予測画像のうち前記連続性が予め定めた値よりも低い隣接ブロックとの境界領域の予測画像を補正する補正部とを備えることを要旨とする。 A predicted image correction device according to a first feature is a predicted image correction device that corrects a predicted image obtained by performing inter prediction for each block that constitutes an image, and Continuity of motion with the target block for the one or more neighboring blocks by comparing the applied motion vectors with the motion vectors applied to the decoded one or more neighboring blocks adjacent to the target block. and if there is an adjacent block whose continuity is lower than a predetermined value evaluated by the continuity evaluation unit, the adjacent block whose continuity is lower than the predetermined value Using the decoded image of the boundary area with the target block among the decoded images of the target block, correct the predicted image of the boundary area with the adjacent block whose continuity is lower than a predetermined value among the predicted images of the target block. and a correction unit.

第2の特徴に係る画像符号化装置は、インター予測を行うインター予測部と、第1の特徴に係る予測画像補正装置とを備えることを要旨とする。 An image coding apparatus according to the second feature is summarized to include an inter prediction unit that performs inter prediction, and a predicted image correction apparatus according to the first feature.

第3の特徴に係る画像復号装置は、インター予測を行うインター予測部と、第1の特徴に係る予測画像補正装置とを備えることを要旨とする。 An image decoding device according to the third feature is summarized to include an inter prediction unit that performs inter prediction, and a predicted image correction device according to the first feature.

第4の特徴に係るプログラムは、コンピュータを第1の特徴に係る予測画像補正装置として機能させることを要旨とする。 A program according to a fourth feature is gist to cause a computer to function as the predictive image correction device according to the first feature.

本発明によれば、インター予測を行う場合において符号化効率を向上させることが可能な予測画像補正装置、画像符号化装置、画像復号装置、及びプログラムを提供できる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a predictive image correction device, an image coding device, an image decoding device, and a program capable of improving coding efficiency when inter prediction is performed.

背景技術を説明するための図である。It is a figure for demonstrating a background art.実施形態に係る画像符号化装置の構成を示す図である。1 is a diagram showing the configuration of an image encoding device according to an embodiment; FIG.実施形態に係る画像符号化装置における予測画像補正部の構成を示す図である。It is a figure which shows the structure of the prediction image correction|amendment part in the image coding apparatus which concerns on embodiment.実施形態に係る予測画像補正部の動作を説明するための図である。It is a figure for demonstrating operation|movement of the prediction image correction|amendment part which concerns on embodiment.実施形態に係る予測画像補正部における連続性評価部の動作を説明するための図である。It is a figure for demonstrating operation|movement of the continuity evaluation part in the prediction image correction|amendment part which concerns on embodiment.実施形態に係る予測画像補正部における補正部の動作を説明するための図である。It is a figure for demonstrating operation|movement of the correction|amendment part in the prediction image correction|amendment part which concerns on embodiment.実施形態に係る予測画像補正部における補正部の動作の具体例を説明するための図である。FIG. 7 is a diagram for explaining a specific example of the operation of the correction unit in the prediction image correction unit according to the embodiment;実施形態に係る画像符号化装置における予測画像補正部の動作を示す図である。It is a figure which shows operation|movement of the prediction image correction|amendment part in the image coding apparatus which concerns on embodiment.実施形態に係る画像復号装置の構成を示す図である。It is a figure which shows the structure of the image decoding apparatus which concerns on embodiment.実施形態に係る画像復号装置の予測画像補正部の構成を示す図である。It is a figure which shows the structure of the prediction image correction|amendment part of the image decoding apparatus which concerns on embodiment.変更例に係る動作を説明するための図である。It is a figure for demonstrating the operation|movement which concerns on the example of a change.変更例に係る予測画像補正部の構成を示す図である。It is a figure which shows the structure of the prediction image correction|amendment part which concerns on the example of a change.変更例に係る予測画像補正部における残差エネルギー算出部の動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of a residual energy calculator in the predicted image corrector according to the modification;変更例に係る予測画像補正部における補正部の動作を説明するための図である。It is a figure for demonstrating the operation|movement of the correction|amendment part in the prediction image correction|amendment part which concerns on the example of a change.その他の実施形態に係る動作を説明するための図である。It is a figure for demonstrating the operation|movement which concerns on other embodiment.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An image encoding device and an image decoding device according to embodiments will be described with reference to the drawings. An image encoding device and an image decoding device according to an embodiment encode and decode a moving image represented by MPEG, respectively. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

<画像符号化装置>
まず、本実施形態に係る画像符号化装置について説明する。図2は、本実施形態に係る画像符号化装置1の構成を示す図である。
<Image encoding device>
First, the image coding apparatus according to this embodiment will be described. FIG. 2 is a diagram showing the configuration of theimage encoding device 1 according to this embodiment.

図2に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ部160と、予測部170とを備える。 As shown in FIG. 2, theimage coding apparatus 1 includes ablock division unit 100, asubtraction unit 110, a transform/quantization unit 120, anentropy coding unit 130, an inverse quantization/inverse transform unit 140, It includes a synthesizing unit 150 , amemory unit 160 and a predicting unit 170 .

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数のブロックに分割し、分割により得たブロックを減算部110に出力する。ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。ブロックの形状は正方形に限らず、長方形であってもよい。ブロックは、画像符号化装置1が符号化を行う単位及び画像復号装置が復号を行う単位である。以下において、かかるブロックをCU(Coding Unit)と称する。 Theblock division unit 100 divides an input image in units of frames (or pictures) constituting a moving image into a plurality of blocks, and outputs the blocks obtained by the division to thesubtraction unit 110 . The block size is, for example, 32×32 pixels, 16×16 pixels, 8×8 pixels, or 4×4 pixels. The shape of the block is not limited to square, and may be rectangular. A block is a unit for encoding by theimage encoding device 1 and a unit for decoding by the image decoding device. Such a block is hereinafter referred to as a CU (Coding Unit).

減算部110は、ブロック分割部100から入力された符号化対象CUと、符号化対象CUを予測部170が予測して得た予測画像との差分(誤差)を表す予測残差を算出する。具体的には、減算部110は、CUの各画素値から予測画像の各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 Thesubtraction unit 110 calculates a prediction residual representing the difference (error) between the CU to be coded input from theblock dividing unit 100 and the prediction image obtained by predicting the CU to be coded by the prediction unit 170 . Specifically, thesubtraction unit 110 calculates a prediction residual by subtracting each pixel value of the predicted image from each pixel value of the CU, and outputs the calculated prediction residual to the transformation/quantization unit 120 .

変換・量子化部120は、CU単位で直交変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを備える。 The transform/quantization unit 120 performs orthogonal transform processing and quantization processing on a per CU basis. The transform/quantization unit 120 includes atransform unit 121 and aquantization unit 122 .

変換部121は、減算部110から入力された予測残差に対して直交変換処理を行って直交変換係数を算出し、算出した直交変換係数を量子化部122に出力する。直交変換とは、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)や離散サイン変換(DST:Discrete Sine Transform)、カルーネンレーブ変換(KLT: Karhunen Loeve Transform)等をいう。Transformation section 121 performs orthogonal transformation processing on the prediction residual input fromsubtraction section 110 to calculate orthogonal transformation coefficients, and outputs the computed orthogonal transformation coefficients toquantization section 122 . Orthogonal transformation refers to, for example, discrete cosine transform (DCT), discrete sine transform (DST), Karhunen Loeve transform (KLT), and the like.

量子化部122は、変換部121から入力された直交変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した直交変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、CU内の各直交変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各直交変換係数を量子化する際の量子化値を要素として有する行列である。Quantization section 122 quantizes the orthogonal transform coefficients input fromtransform section 121 using a quantization parameter (Qp) and a quantization matrix, and the quantized orthogonal transform coefficients are subjected toentropy coding section 130 and inverse quantization/ Output to theinverse transformation unit 140 . Note that the quantization parameter (Qp) is a parameter commonly applied to each orthogonal transform coefficient in the CU, and is a parameter that determines the coarseness of quantization. A quantization matrix is a matrix having, as elements, quantization values for quantizing each orthogonal transform coefficient.

エントロピー符号化部130は、量子化部122から入力された直交変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを画像符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、予測部170から予測に関する制御情報が入力され、入力された制御情報のエントロピー符号化も行う。 Theentropy coding unit 130 performs entropy coding on the orthogonal transform coefficients input from thequantization unit 122, performs data compression to generate a coded stream (bit stream), and performs image coding on the coded stream. Output to the outside of thedevice 1 . Huffman code, CABAC (Context-based Adaptive Binary Arithmetic Coding), or the like can be used for entropy coding. Theentropy coding unit 130 also receives control information about prediction from the prediction unit 170 and performs entropy coding on the input control information.

逆量子化・逆変換部140は、CU単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを備える。 The inverse quantization/inverse transform unit 140 performs inverse quantization processing and inverse orthogonal transform processing on a per CU basis. The inverse quantization/inverse transform unit 140 includes aninverse quantization unit 141 and aninverse transform unit 142 .

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122から入力された直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより直交変換係数を復元し、復元した直交変換係数を逆変換部142に出力する。 Theinverse quantization unit 141 performs inverse quantization processing corresponding to the quantization processing performed by thequantization unit 122 . Specifically, theinverse quantization unit 141 restores the orthogonal transform coefficients by inversely quantizing the orthogonal transform coefficients input from the quantizingunit 122 using the quantization parameter (Qp) and the quantization matrix. , and outputs the restored orthogonal transform coefficients to theinverse transform unit 142 .

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散コサイン変換を行う。逆変換部142は、逆量子化部141から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 Theinverse transform unit 142 performs inverse orthogonal transform processing corresponding to the orthogonal transform processing performed by thetransform unit 121 . For example, when thetransform unit 121 performs discrete cosine transform, theinverse transform unit 142 performs inverse discrete cosine transform. Theinverse transform unit 142 performs inverse orthogonal transform processing on the orthogonal transform coefficients input from theinverse quantization unit 141 to restore the prediction residuals, and the restored prediction residuals, which are the restored prediction residuals, are synthesized by the synthesis unit 150. output to

合成部150は、逆変換部142から入力された復元予測残差を、予測部170から入力された予測画像と画素単位で合成する。合成部150は、復元予測残差の各画素値と予測画像の各画素値を加算して符号化対象CUを再構成(復号)し、復号したCU単位の復号画像をメモリ部160に出力する。かかる復号画像は、再構成画像と称されることがある。 The synthesizing unit 150 synthesizes the restored prediction residual input from theinverse transform unit 142 with the predicted image input from the predicting unit 170 on a pixel-by-pixel basis. The synthesizing unit 150 adds each pixel value of the restored prediction residual and each pixel value of the predicted image to reconstruct (decode) the CU to be coded, and outputs the decoded CU-based decoded image to thememory unit 160 . . Such decoded images are sometimes referred to as reconstructed images.

メモリ部160は、合成部150から入力された復号画像を記憶する。メモリ部160は、復号画像をフレーム単位で記憶する。メモリ部160は、記憶している復号画像を予測部170に出力する。さらに、メモリ部160は、インター予測部172において算出された動きベクトルをCUごとに記憶する。なお、メモリ部160は、複数のメモリにより構成されてもよい。また、合成部150とメモリ部160との間にループフィルタが設けられてもよい。 Thememory section 160 stores the decoded image input from the synthesizing section 150 . Thememory unit 160 stores decoded images in units of frames. Thememory unit 160 outputs the stored decoded image to the prediction unit 170 . Furthermore, thememory unit 160 stores the motion vector calculated by theinter prediction unit 172 for each CU. Note that thememory unit 160 may be composed of a plurality of memories. Also, a loop filter may be provided between the synthesizing unit 150 and thememory unit 160 .

予測部170は、CU単位で予測を行う。予測部170は、イントラ予測部171と、インター予測部172と、予測画像補正部173と、切替部174とを備える。予測画像補正部173は、予測画像補正装置に相当する。 The prediction unit 170 makes a prediction in CU units. The prediction unit 170 includes anintra prediction unit 171 , aninter prediction unit 172 , a predictionimage correction unit 173 and aswitching unit 174 . The predictedimage correction unit 173 corresponds to a predicted image correction device.

イントラ予測部171は、メモリ部160に記憶された復号画像のうち、符号化対象CUの周辺にある復号画素値を参照してイントラ予測画像を生成し、生成したイントラ予測画像を切替部174に出力する。また、イントラ予測部171は、複数のイントラ予測モードの中から、対象CUに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いてイントラ予測を行う。イントラ予測部171は、選択したイントラ予測モードに関する制御情報をエントロピー符号化部130に出力する。 Theintra prediction unit 171 generates an intra prediction image by referring to the decoded pixel values around the encoding target CU among the decoded images stored in thememory unit 160, and sends the generated intra prediction image to theswitching unit 174. Output. In addition, theintra prediction unit 171 selects an optimal intra prediction mode to be applied to the target CU from among multiple intra prediction modes, and performs intra prediction using the selected intra prediction mode. Theintra prediction unit 171 outputs control information regarding the selected intra prediction mode to theentropy coding unit 130 .

インター予測部172は、メモリ部160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルを算出し、符号化対象CUを予測してインター予測画像を生成し、生成したインター予測画像を当該動きベクトルと共に予測画像補正部173に出力する。また、インター予測部172は、CUごとに算出した動きベクトルをメモリ部160に出力し、当該動きベクトルをメモリ部160に記憶させる。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する制御情報(動きベクトル等)をエントロピー符号化部130に出力する。 Theinter prediction unit 172 uses the decoded image stored in thememory unit 160 as a reference image, calculates a motion vector by a method such as block matching, predicts the encoding target CU, and generates an inter prediction image. The resulting inter predicted image is output to the predictedimage correction unit 173 together with the motion vector. Also, theinter prediction unit 172 outputs the motion vector calculated for each CU to thememory unit 160 and causes thememory unit 160 to store the motion vector. Theinter prediction unit 172 selects an optimum inter prediction method from among inter prediction using a plurality of reference images (typically bi-prediction) and inter prediction using one reference image (unidirectional prediction), Perform inter prediction using the selected inter prediction method. Theinter prediction unit 172 outputs control information (motion vectors, etc.) related to inter prediction to theentropy coding unit 130 .

予測画像補正部173は、インター予測部172から入力されたインター予測画像を補正し、補正後のインター予測画像を切替部174に出力する。具体的には、予測画像補正部173は、符号化対象CUに適用された動きベクトルをインター予測部172から取得し、符号化対象CUに隣接する復号済みのブロック群の動きベクトル及び復号済みのブロック群の符号化対象CUとの境界領域の復号画像をメモリ部160から取得し、取得した情報に基づいて符号化対象CUのインター予測画像を補正する。予測画像補正部173の詳細については後述する。 The predictedimage correction unit 173 corrects the inter predicted image input from theinter prediction unit 172 and outputs the corrected inter predicted image to theswitching unit 174 . Specifically, the predictedimage correction unit 173 acquires the motion vector applied to the encoding target CU from theinter prediction unit 172, and the motion vector of the decoded block group adjacent to the encoding target CU and the decoded A decoded image of the boundary region between the block group and the CU to be coded is acquired from thememory unit 160, and the inter prediction image of the CU to be coded is corrected based on the acquired information. Details of the predictedimage correction unit 173 will be described later.

切替部174は、イントラ予測部171から入力されるイントラ予測画像と予測画像補正部173から入力されるインター予測画像とを切り替えて、いずれかの予測画像を減算部110及び合成部150に出力する。 Theswitching unit 174 switches between the intra prediction image input from theintra prediction unit 171 and the inter prediction image input from the predictionimage correction unit 173, and outputs one of the prediction images to thesubtraction unit 110 and the synthesis unit 150. .

次に、予測画像補正部173について説明する。図3は、画像符号化装置1の予測画像補正部173の構成を示す図である。 Next, the predictedimage correction unit 173 will be described. FIG. 3 is a diagram showing the configuration of the predictedimage correction unit 173 of theimage encoding device 1. As shown in FIG.

図3に示すように、予測画像補正部173は、連続性評価部173aと、補正部173bとを備える。 As shown in FIG. 3, the predictedimage correction unit 173 includes acontinuity evaluation unit 173a and acorrection unit 173b.

連続性評価部173aは、符号化対象CUに隣接する復号済みの1又は複数の隣接CUに適用された動きベクトルをメモリ部160から取得する。例えば、図4に示すように、符号化対象CUに隣接する復号済みのCU#1乃至CU#7が復号済みCU群に含まれる場合、連続性評価部173aは、CU#1乃至CU#7のそれぞれについてインター予測に適用された動きベクトルを取得する。 Thecontinuity evaluation unit 173a acquires from thememory unit 160 motion vectors applied to one or more decoded adjacent CUs adjacent to the current CU. For example, as shown in FIG. 4, when decodedCU#1 toCU#7 adjacent to the encoding target CU are included in the decoded CU group, thecontinuity evaluation unit 173a evaluatesCU#1 toCU#7. Get the motion vector applied to inter prediction for each of .

なお、図4において、連続性評価部173aは、符号化対象CUの上側及び左側に隣接する復号済みCUの動きベクトルを取得しているが、右側や下側のCUが復号済みである場合には、右側や下側のCUに適用した動きベクトルをさらに取得してもよい。 In FIG. 4, thecontinuity evaluation unit 173a obtains the motion vectors of the decoded CUs adjacent to the upper and left sides of the CU to be coded. may also obtain motion vectors applied to the right and bottom CUs.

そして、連続性評価部173aは、符号化対象CUに適用された動きベクトルと、隣接する復号済みCU群に適用された動きベクトルとの比較により、隣接する復号済みCU群について符号化対象CUとの動きの連続性を評価し、評価結果を補正部173bに出力する。 Then, thecontinuity evaluation unit 173a compares the motion vector applied to the encoding target CU with the motion vector applied to the adjacent decoded CU group, and compares the adjacent decoded CU group with the encoding target CU. , and outputs the evaluation result to thecorrection unit 173b.

具体的には、連続性評価部173aは、符号化対象CUに適用されるベクトルと復号済みCUの動きベクトルとのL1ノルムが予め規定した閾値未満である場合には連続性が高いと評価する。一方、当該L1ノルムが閾値以上である場合には連続性が低いと評価する。但し、連続性の指標値としてはL1ノルムに限定されるものではなく、他の指標値を用いてもよい。 Specifically, thecontinuity evaluation unit 173a evaluates that the continuity is high when the L1 norm between the vector applied to the encoding target CU and the motion vector of the decoded CU is less than a predetermined threshold. . On the other hand, when the L1 norm is equal to or greater than the threshold, the continuity is evaluated as low. However, the continuity index value is not limited to the L1 norm, and other index values may be used.

例えば、図5に示すように、連続性評価部173aは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のそれぞれの動きベクトルについて、符号化対象CUの動きベクトルとの差(距離)を表すL1ノルムを算出し、CU#1乃至CU#7のそれぞれについて算出したL1ノルムを閾値と比較する。 For example, as shown in FIG. 5, thecontinuity evaluation unit 173a determines the difference between the motion vectors of the decodedCU#1 toCU#7 adjacent to the CU to be coded and the motion vector of the CU to be coded. An L1 norm representing (distance) is calculated, and the L1 norm calculated for each ofCU#1 toCU#7 is compared with a threshold.

図5に示す例において、CU#1に対応するL1ノルム、CU#2に対応するL1ノルム、CU#3に対応するL1ノルム、CU#4に対応するL1ノルム、及びCU#5に対応するL1ノルムは、閾値以上であるため、これらの隣接CUは符号化対象CUとの連続性が低いということになる。一方、CU#6に対応するL1ノルム及びCU#7に対応するL1ノルムは、閾値未満であるため、これらの隣接CUは符号化対象CUとの連続性が高いということになる。なお、CU#1乃至CU#7のいずれも連続性が高いと評価された場合、補正部173bによる符号化対象CUのインター予測画像の補正を省略してもよい。 In the example shown in FIG. 5, the L1 norm corresponding toCU#1, the L1 norm corresponding toCU#2, the L1 norm corresponding toCU#3, the L1 norm corresponding toCU#4, and the L1 norm corresponding toCU#5 Since the L1 norm is equal to or greater than the threshold, these adjacent CUs have low continuity with the encoding target CU. On the other hand, since the L1 norm corresponding to CU#6 and the L1 norm corresponding toCU#7 are less than the threshold, these adjacent CUs have high continuity with the encoding target CU. Note that if all ofCU#1 toCU#7 are evaluated to have high continuity, correction of the inter-predicted image of the encoding target CU by the correctingunit 173b may be omitted.

本実施形態において、動きベクトルは、X軸及びY軸方向のベクトル値のほか、参照する復号済みフレームを示すフラグ(例えば、HEVCにおけるinter_pred_idc,ref_idx)を含むものとする。連続性評価部173aは、隣接ブロックとの動きベクトルの連続性の評価にあたっては、符号化対象CUを含むフレーム(現フレーム)と符号化対象CUの参照先の復号済みフレームとの時間的な距離(POC距離)と、現フレームと隣接する復号済みCUの参照先の復号済みフレームとのPOC距離とに応じて、当該隣接する復号済みCUに適用した動きベクトルのベクトル値をスケーリングしたのちに連続性を評価してもよい。 In this embodiment, the motion vector includes vector values in the X-axis and Y-axis directions as well as flags indicating the decoded frame to be referenced (for example, inter_pred_idc and ref_idx in HEVC). When evaluating continuity of motion vectors with adjacent blocks, thecontinuity evaluation unit 173a calculates the temporal distance between the frame (current frame) including the CU to be coded and the decoded frame to which the CU to be coded is referenced. (POC distance) and the POC distance between the current frame and the reference destination decoded frame of the adjacent decoded CU, scale the vector value of the motion vector applied to the adjacent decoded CU, and can be evaluated for gender.

補正部173bは、符号化対象CUのインター予測画像を補正するために、符号化対象CUに隣接する復号済みCU群の復号画像のうち、少なくとも符号化対象CUとの境界領域の復号画像をメモリ部160から取得する。 In order to correct the inter prediction image of the CU to be coded, thecorrection unit 173b stores at least the decoded image of the boundary region with the CU to be coded among the decoded images of the group of decoded CUs adjacent to the CU to be coded. obtained from theunit 160 .

例えば、図4に示すように、補正部173bは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のそれぞれの復号画像のうち、符号化対象CUとの境界領域の復号画像をメモリ部160から取得する。 For example, as shown in FIG. 4, thecorrection unit 173b selects the decoded image of the boundary region with the encoding target CU among the decoded images of the decodedCU#1 toCU#7 adjacent to the encoding target CU. is acquired from thememory unit 160 .

なお、符号化対象CUとの境界領域とは、符号化対象CUに隣接する復号済み画素を含む領域をいうが、符号化対象CUからN画素(N>1)までの復号済み画素からなる領域を境界領域としてもよい。 Note that the boundary area with the CU to be coded refers to an area including decoded pixels adjacent to the CU to be coded, and an area composed of decoded pixels from the CU to be coded to N pixels (N>1). may be used as the border region.

また、図4に示す例において、補正部173bは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のすべてについて境界領域の復号画像を取得せずに、CU#1乃至CU#7のうち連続性評価部173aにより連続性が低いと評価されたCU#1乃至CU#5(図5参照)のみについて境界領域の復号画像を取得してもよい。 Further, in the example illustrated in FIG. 4 , thecorrection unit 173b does not acquire the decoded images of the boundary regions for all of the decodedCU#1 toCU#7 adjacent to the encoding target CU. A decoded image of the boundary region may be acquired only forCU#1 to CU#5 (see FIG. 5) ofCU#7 that are evaluated to have low continuity by thecontinuity evaluation unit 173a.

そして、補正部173bは、連続性評価部173aにより連続性が低いと評価された隣接CU(所定隣接ブロック)が存在する場合に、当該隣接CUの復号画像のうち少なくとも符号化対象CUとの境界領域の復号画像を用いて、符号化対象CUのインター予測画像のうち少なくとも当該隣接CUとの境界領域の予測画像を補正する。 Then, when there is an adjacent CU (predetermined adjacent block) evaluated as having low continuity by thecontinuity evaluation unit 173a, thecorrection unit 173b determines at least the boundary between the decoded image of the adjacent CU and the encoding target CU. Using the decoded image of the area, at least the predicted image of the boundary area with the adjacent CU among the inter-predicted images of the current CU is corrected.

具体的には、補正部173bは、連続性評価部173aにおいて連続性が低いと評価された隣接CUと符号化対象CUとのブロック境界について、符号化対象CUの予測画像を当該隣接CUの復号画像の値を用いて補正する。例えば、図6に示すように、補正部173bは、連続性評価部173aにおいて連続性が低いと評価された隣接CU#1乃至CU#5と符号化対象CUとのブロック境界について、符号化対象CUのインター予測画像を当該隣接CU#1乃至CU#5の復号画像の値を用いて補正する。 Specifically, thecorrection unit 173b converts the prediction image of the encoding target CU to the block boundary between the encoding target CU and the adjacent CU evaluated as having low continuity by thecontinuity evaluating unit 173a. Correct using image values. For example, as illustrated in FIG. 6, thecorrection unit 173b determines the block boundary between the CU to be encoded and theadjacent CU#1 toCU#5 evaluated as having low continuity by thecontinuity evaluation unit 173a. The inter-predicted image of the CU is corrected using the values of the decoded images of the neighboringCU#1 toCU#5.

ここで、補正部173bによる補正の方法の具体例について説明する。符号化対象CU(幅M、高さN)に適用する動きベクトルを用いて生成したインター予測画像をpred[i,j](i=0…M-1,j=0…N-1)とし、隣接する復号済みCUの復号画像をrec[i,j](i=-1,j=-1…N及びi=-1…M,j=-1)とするとき、補正部173bは、図7に示す式により補正後のインター予測画像pred’[i,j]を算出する。 Here, a specific example of the correction method by thecorrection unit 173b will be described. Let pred[i, j] (i=0...M-1, j=0...N-1) be an inter-predicted image generated using a motion vector applied to the encoding target CU (width M, height N). , the decoded image of the adjacent decoded CU is rec [i, j] (i = -1, j = -1 ... N and i = -1 ... M, j = -1), thecorrection unit 173b The corrected inter-predicted image pred'[i,j] is calculated by the formula shown in FIG.

図7(a)は符号化対象CUのインター予測画像の左側のブロック境界領域を補正する例を示し、図7(b)は符号化対象CUのインター予測画像の上側のブロック境界領域を補正する例を示し、図7(c)は符号化対象CUのインター予測画像の左上の角のブロック境界領域を補正する例を示している。インター予測画像において、ブロック境界から2画素までをブロック境界領域として補正しているが、ブロック境界からM画素(M≧3)までをブロック境界領域として補正してもよい。 FIG. 7A shows an example of correcting the left block boundary region of the inter-predicted image of the CU to be coded, and FIG. 7B shows an example of correcting the upper block boundary region of the inter-predicted image of the CU to be coded. An example is shown, and FIG. 7C shows an example of correcting the block boundary area at the upper left corner of the inter-predicted image of the encoding target CU. In the inter-predicted image, up to two pixels from the block boundary are corrected as the block boundary area, but up to M pixels (M≧3) from the block boundary may be corrected as the block boundary area.

このようにして符号化対象CUのインター予測画像を補正すると、補正部173bは、補正後のインター予測画像を、切替部174を介して減算部110及び合成部150に出力する。 After correcting the inter-predicted image of the encoding target CU in this way, the correctingunit 173b outputs the corrected inter-predicted image to thesubtracting unit 110 and the synthesizing unit 150 via theswitching unit 174 .

次に、予測画像補正部173の動作について説明する。図8は、画像符号化装置1の予測画像補正部173の動作を示す図である。 Next, the operation of the predictedimage correction unit 173 will be described. FIG. 8 is a diagram showing the operation of the predictedimage correction unit 173 of theimage encoding device 1. As shown in FIG.

図8に示すように、ステップS101において、連続性評価部173aは、インター予測が行われた符号化対象CUに適用された動きベクトルと、復号済みの隣接ブロックに適用された動きベクトルとの比較により、隣接ブロックについて符号化対象CUとの動きの連続性を評価する。 As shown in FIG. 8, in step S101, thecontinuity evaluation unit 173a compares the motion vector applied to the encoding target CU for which inter prediction was performed and the motion vector applied to the decoded adjacent block. evaluates the motion continuity with the encoding target CU for adjacent blocks.

連続性評価部173aにより評価された連続性が所定値よりも低い所定隣接ブロックが存在する場合(ステップS102:YES)、ステップS103において、補正部173bは、所定隣接ブロックの復号画像のうち少なくとも符号化対象CUとの境界領域の復号画像を用いて、符号化対象CUの予測画像のうち少なくとも所定隣接ブロックとの境界領域の予測画像を補正する。 If there is a predetermined adjacent block whose continuity is lower than the predetermined value evaluated by thecontinuity evaluation unit 173a (step S102: YES), in step S103, thecorrection unit 173b determines at least the code of the decoded image of the predetermined adjacent block. Using the decoded image of the boundary area with the CU to be coded, at least the predicted image of the boundary area with a predetermined adjacent block among the predicted images of the CU to be coded is corrected.

このように、予測画像補正部173によれば、動きベクトルの不連続性を考慮して予測画像を補正することにより、オブジェクト境界付近のブロックについて直交変換係数の伝送に必要な情報量を低減できるため、インター予測を行う場合における符号化効率を向上させることができる。 As described above, according to the predictedimage correction unit 173, by correcting the predicted image in consideration of the discontinuity of the motion vector, it is possible to reduce the amount of information necessary for transmitting the orthogonal transform coefficients for blocks near the object boundary. Therefore, it is possible to improve the coding efficiency when inter prediction is performed.

<画像復号装置>
次に、本実施形態に係る画像復号装置について説明する。但し、上記の画像符号化装置1と同様な動作については重複する説明を省略する。図9は、本実施形態に係る画像復号装置2の構成を示す図である。
<Image decoding device>
Next, the image decoding device according to this embodiment will be described. However, overlapping descriptions of operations similar to those of theimage encoding apparatus 1 described above will be omitted. FIG. 9 is a diagram showing the configuration of theimage decoding device 2 according to this embodiment.

図9に示すように、画像復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ部230と、予測部240とを備える。 As shown in FIG. 9 , theimage decoding device 2 includes anentropy decoding unit 200 , an inverse quantization/inverse transform unit 210 , a synthesizingunit 220 , amemory unit 230 and a prediction unit 240 .

エントロピー復号部200は、画像符号化装置1により生成された符号化ストリームを復号し、量子化された直交変換係数を逆量子化・逆変換部210に出力する。また、エントロピー復号部200は、予測(イントラ予測及びインター予測)に関する制御情報を取得し、取得した制御情報を予測部240に出力する。 Theentropy decoding unit 200 decodes the encoded stream generated by theimage encoding device 1 and outputs the quantized orthogonal transform coefficients to the inverse quantization/inverse transform unit 210 . Theentropy decoding unit 200 also acquires control information related to prediction (intra prediction and inter prediction) and outputs the acquired control information to the prediction unit 240 .

逆量子化・逆変換部210は、CU単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを備える。 The inverse quantization/inverse transform unit 210 performs inverse quantization processing and inverse orthogonal transform processing on a per CU basis. The inverse quantization/inverse transform unit 210 includes aninverse quantization unit 211 and aninverse transform unit 212 .

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200から入力された量子化直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象CUの直交変換係数を復元し、復元した直交変換係数を逆変換部212に出力する。 Theinverse quantization unit 211 performs inverse quantization processing corresponding to the quantization processing performed by thequantization unit 122 of theimage encoding device 1 . Theinverse quantization unit 211 inversely quantizes the quantized orthogonal transform coefficients input from theentropy decoding unit 200 using the quantization parameter (Qp) and the quantization matrix, thereby obtaining the orthogonal transform coefficients of the decoding target CU. It restores and outputs the restored orthogonal transform coefficients to theinverse transform unit 212 .

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆直交変換処理を行う。逆変換部212は、逆量子化部211から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 Theinverse transform unit 212 performs inverse orthogonal transform processing corresponding to the orthogonal transform processing performed by thetransform unit 121 of theimage encoding device 1 . Theinverse transform unit 212 performs inverse orthogonal transform processing on the orthogonal transform coefficients input from theinverse quantization unit 211 to restore the prediction residual, and combines the restored prediction residual (restored prediction residual) with thesynthesis unit 220. output to

合成部220は、逆変換部212から入力された予測残差と、予測部240から入力された予測画像とを画素単位で合成することにより、元のCUを再構成(復号)し、CU単位の復号画像をメモリ部230に出力する。 The synthesizingunit 220 reconstructs (decodes) the original CU by synthesizing the prediction residual input from theinverse transform unit 212 and the predicted image input from the prediction unit 240 on a pixel-by-pixel basis. is output to thememory unit 230 .

メモリ部230は、合成部220から入力された復号画像を記憶する。メモリ部230は、復号画像をフレーム単位で記憶する。さらに、メモリ部230は、インター予測部242において算出された動きベクトルをCUごとに記憶する。メモリ部230は、フレーム単位の復号画像を画像復号装置2の外部に出力する。なお、メモリ部230は、複数のメモリにより構成されてもよい。合成部220とメモリ部230との間にループフィルタが設けられてもよい。 Thememory section 230 stores the decoded image input from the synthesizingsection 220 . Thememory unit 230 stores the decoded image on a frame-by-frame basis. Furthermore, thememory unit 230 stores the motion vector calculated by theinter prediction unit 242 for each CU. Thememory unit 230 outputs the decoded image in units of frames to the outside of theimage decoding device 2 . Note that thememory unit 230 may be composed of a plurality of memories. A loop filter may be provided between the synthesizingsection 220 and thememory section 230 .

予測部240は、CU単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、予測画像補正部243と、切替部244とを備える。予測画像補正部243は、予測画像補正装置に相当する。 The prediction unit 240 makes predictions in CU units. The prediction unit 240 includes anintra prediction unit 241 , aninter prediction unit 242 , a predictionimage correction unit 243 and aswitching unit 244 . The predictedimage correction unit 243 corresponds to a predicted image correction device.

イントラ予測部241は、メモリ部230に記憶された復号画像を参照し、エントロピー復号部200から入力された制御情報に従って、復号対象CUをイントラ予測により予測することによりイントラ予測画像を生成し、生成したイントラ予測画像を切替部244に出力する。 Theintra prediction unit 241 refers to the decoded image stored in thememory unit 230, and generates an intra prediction image by predicting the decoding target CU by intra prediction according to the control information input from theentropy decoding unit 200. The resulting intra prediction image is output to theswitching unit 244 .

インター予測部242は、メモリ部230に記憶された復号画像を参照画像として用いて、復号対象CUをインター予測により予測する。インター予測部242は、エントロピー復号部200から入力された制御情報に従ってインター予測を行うことによりインター予測画像を生成し、生成したインター予測画像を予測画像補正部243に出力する。 Theinter prediction unit 242 uses the decoded image stored in thememory unit 230 as a reference image to predict the decoding target CU by inter prediction. Theinter prediction unit 242 generates an inter prediction image by performing inter prediction according to the control information input from theentropy decoding unit 200 and outputs the generated inter prediction image to the predictionimage correction unit 243 .

予測画像補正部243は、インター予測部242から入力されたインター予測画像を補正し、補正後のインター予測画像を切替部244に出力する。具体的には、予測画像補正部243は、復号対象CUに適用された動きベクトルをインター予測部242から取得し、復号対象CUに隣接する復号済みのブロック群の動きベクトル及び復号済みのブロック群の復号対象CUとの境界領域の復号画像をメモリ部230から取得し、取得した情報に基づいて復号対象CUのインター予測画像を補正する。予測画像補正部243の詳細については後述する。 The predictedimage correction unit 243 corrects the inter predicted image input from theinter prediction unit 242 and outputs the corrected inter predicted image to theswitching unit 244 . Specifically, the predictedimage correction unit 243 acquires the motion vector applied to the decoding target CU from theinter prediction unit 242, and obtains the motion vector of the decoded block group adjacent to the decoding target CU and the decoded block group. is obtained from thememory unit 230, and the inter prediction image of the decoding target CU is corrected based on the obtained information. Details of the predictedimage correction unit 243 will be described later.

切替部244は、イントラ予測部241から入力されるイントラ予測画像と予測画像補正部243から入力されるインター予測画像とを切り替えて、いずれかの予測画像を合成部220に出力する。 Theswitching unit 244 switches between the intra prediction image input from theintra prediction unit 241 and the inter prediction image input from the predictionimage correction unit 243 and outputs one of the prediction images to thesynthesis unit 220 .

次に、予測画像補正部243について説明する。図10は、画像復号装置2の予測画像補正部243の構成を示す図である。 Next, the predictedimage correction unit 243 will be described. FIG. 10 is a diagram showing the configuration of the predictedimage correction unit 243 of theimage decoding device 2. As shown in FIG.

図10に示すように、予測画像補正部243は、連続性評価部243aと、補正部243bとを備える。連続性評価部243a及び補正部243bの動作は、画像符号化装置1の連続性評価部173a及び補正部173bの動作と同様であるため、以下では連続性評価部243a及び補正部243bの動作について簡単に説明する。 As shown in FIG. 10, the predictedimage correction unit 243 includes acontinuity evaluation unit 243a and acorrection unit 243b. Since the operations of thecontinuity evaluation unit 243a and thecorrection unit 243b are the same as those of thecontinuity evaluation unit 173a and thecorrection unit 173b of theimage encoding device 1, the operations of thecontinuity evaluation unit 243a and thecorrection unit 243b will be described below. Briefly explain.

連続性評価部243aは、復号対象CUに隣接する復号済みの1又は複数の隣接CUに適用された動きベクトルをメモリ部230から取得する。 Thecontinuity evaluation unit 243a acquires from thememory unit 230 motion vectors applied to one or more decoded adjacent CUs adjacent to the decoding target CU.

そして、連続性評価部243aは、復号対象CUに適用された動きベクトルと、隣接する復号済みCU群に適用された動きベクトルとの比較により、隣接する復号済みCU群について復号対象CUとの動きの連続性を評価し、評価結果を補正部243bに出力する。 Then, thecontinuity evaluation unit 243a compares the motion vector applied to the decoding target CU and the motion vector applied to the adjacent decoded CU group to determine the motion vector for the adjacent decoded CU group and the decoding target CU. , and outputs the evaluation result to thecorrection unit 243b.

補正部243bは、復号対象CUのインター予測画像を補正するために、復号対象CUに隣接する復号済みCU群の復号画像のうち、少なくとも復号対象CUとの境界領域の復号画像をメモリ部230から取得する。 In order to correct the inter-prediction image of the decoding target CU, thecorrection unit 243b extracts from thememory unit 230 at least the decoded image of the boundary region with the decoding target CU among the decoded images of the decoded CU group adjacent to the decoding target CU. get.

そして、補正部243bは、連続性評価部243aにより連続性が低いと評価された隣接CU(所定隣接ブロック)が存在する場合に、当該隣接CUの復号画像のうち少なくとも復号対象CUとの境界領域の復号画像を用いて、復号対象CUのインター予測画像のうち少なくとも当該隣接CUとの境界領域の予測画像を補正する。具体的には、補正部243bは、連続性評価部243aにおいて連続性が低いと評価された隣接CUと復号対象CUとのブロック境界について、復号対象CUの予測画像を当該隣接CUの復号画像の値を用いて補正する。 Then, when there is an adjacent CU (predetermined adjacent block) evaluated as having low continuity by thecontinuity evaluation unit 243a, thecorrection unit 243b determines at least the boundary region between the decoded image of the adjacent CU and the decoding target CU. is used to correct at least the predicted image of the boundary region with the adjacent CU among the inter predicted images of the decoding target CU. Specifically, thecorrection unit 243b converts the predicted image of the decoding target CU to the decoded image of the adjacent CU for the block boundary between the adjacent CU and the decoding target CU, which is evaluated as having low continuity by thecontinuity evaluation unit 243a. Correct using the value.

このようにして復号対象CUのインター予測画像を補正すると、補正部243bは、補正後のインター予測画像を、切替部244を介して合成部220に出力する。 After correcting the inter-predicted image of the CU to be decoded in this way, the correctingunit 243b outputs the inter-predicted image after correction to thesynthesizing unit 220 via theswitching unit 244 .

なお、画像復号装置2の予測画像補正部243の動作フローについては図8と同様であるが、図8に示した動作フローにおいて「符号化対象CU」を「復号対象CU」と読み替える。 The operation flow of the predictionimage correction unit 243 of theimage decoding device 2 is the same as that of FIG. 8, but in the operation flow shown in FIG. 8, the "encoding target CU" is read as the "decoding target CU".

このように、予測画像補正部243によれば、動きベクトルの不連続性を考慮して予測画像を補正することにより、インター予測を行う場合における符号化効率を向上させることができる。 As described above, the predictedimage correction unit 243 corrects the predicted image in consideration of the discontinuity of the motion vector, thereby improving the coding efficiency when inter prediction is performed.

<変更例>
上記の実施形態において、復号済みの隣接ブロックとの連続性の評価において、符号化対象CU(又は復号対象CU)に適用した動きベクトルと復号済みの隣接CUに適用した動きベクトルとの比較により連続性が高いか否かを評価し、連続性が低いことに応じてインター予測画像を補正していた。
<Change example>
In the above embodiment, in evaluating the continuity with the decoded adjacent block, the motion vector applied to the encoding target CU (or the decoding target CU) is compared with the motion vector applied to the decoded adjacent CU. The inter-prediction image is corrected according to whether the continuity is high or not, and the continuity is low.

しかしながら、かかる方法において、補正が適切に機能しない場合がある。例えば、図11に示すように、符号化対象CUと符号化対象CUの上側の隣接CU#2とは動きベクトルが互いに異なるため、符号化対象CUにおける上側のブロック境界領域に対して補正が行われることになる。 However, in such methods, the correction may not work properly. For example, as shown in FIG. 11, since the motion vectors of the CU to be encoded and theadjacent CU #2 above the CU to be encoded differ from each other, correction is performed on the upper block boundary region of the CU to be encoded. will be taken.

しかしながら、オブジェクト#1及び#2のオブジェクト境界は隣接CU#2における下側のブロック境界領域に含まれている。このような場合、符号化対象CUのインター予測画像に補正を施すと、インター予測画像の劣化を引き起こす可能性がある。 However, the object boundaries ofobjects #1 and #2 are included in the lower block boundary area in neighboringCU #2. In such a case, if the inter-predicted image of the encoding target CU is corrected, the inter-predicted image may deteriorate.

そこで、本変更例では、上記の実施形態と同様な動きベクトルの比較に加えて、復号済みの隣接ブロックにおける予測残差(残差信号)のエネルギーに応じて補正の有無を決定する。 Therefore, in this modified example, in addition to comparison of motion vectors as in the above embodiment, whether or not to perform correction is determined according to the energy of the prediction residual (residual signal) in the decoded adjacent block.

図11に示す例において、オブジェクト#1及び#2のオブジェクト境界は隣接CU#2における下側のブロック境界領域に含まれているため、当該下側のブロック境界領域における予測残差のエネルギーは大きくなる可能性が高い。かかる場合、符号化対象CUのインター予測画像に対して補正を行わないようにする。一方、下側のブロック境界領域における予測残差のエネルギーが小さい場合には、符号化対象CUのインター予測画像に対して補正を行うようにする。 In the example shown in FIG. 11, since the object boundaries ofobjects #1 and #2 are included in the lower block boundary region ofadjacent CU #2, the energy of the prediction residual in the lower block boundary region is large. likely to become In such a case, the inter-predicted image of the encoding target CU is not corrected. On the other hand, when the prediction residual energy in the lower block boundary region is small, the inter prediction image of the encoding target CU is corrected.

本変更例に係る画像符号化装置1について説明する。本変更例において、画像符号化装置1のメモリ部160は、符号化対象CUに隣接する復号済みCUの予測残差を記憶する。各ブロック処理において得られた予測残差をメモリ部160に記憶させることで、その後のブロックの処理の際に、メモリ部160に記憶された予測残差を利用できる。 Theimage encoding device 1 according to this modified example will be described. In this modification, thememory unit 160 of theimage encoding device 1 stores prediction residuals of decoded CUs adjacent to the encoding target CU. By storing the prediction residuals obtained in the processing of each block in thememory unit 160, the prediction residuals stored in thememory unit 160 can be used when processing subsequent blocks.

メモリ部160は、減算部110が出力する予測残差を記憶してもよいし、逆変換部142が出力する予測残差を記憶してもよい。予測画像補正部173は、メモリ部160に記憶された隣接ブロックの予測残差のうち、符号化対象CUとの境界領域の予測残差を取得する。 Thememory unit 160 may store the prediction residual output by thesubtraction unit 110 or may store the prediction residual output by theinverse transform unit 142 . The predictedimage correction unit 173 acquires the prediction residual of the boundary region with the encoding target CU from among the prediction residuals of the adjacent blocks stored in thememory unit 160 .

図12は、本変更例に係る予測画像補正部173の構成を示す図である。図12に示すように、本変更例に係る予測画像補正部173は、上記の実施形態と同様な連続性評価部173a及び補正部173bに加えて、残差エネルギー算出部173cを備える。 FIG. 12 is a diagram showing the configuration of the predictedimage correction unit 173 according to this modification. As shown in FIG. 12, the predictedimage correction unit 173 according to this modification includes a residualenergy calculation unit 173c in addition to thecontinuity evaluation unit 173a and thecorrection unit 173b similar to those of the above embodiment.

残差エネルギー算出部173cは、符号化対象CUに隣接する復号済み隣接ブロックのブロック境界付近の予測残差をメモリ部160から取得し、取得した復号済み隣接ブロックのブロック境界付近の予測残差のエネルギーを算出し、エネルギーの算出値(隣接残差エネルギー)を補正部173bに出力する。 The residualenergy calculation unit 173c acquires from thememory unit 160 the prediction residual near the block boundary of the decoded adjacent block adjacent to the current CU, and calculates the prediction residual near the block boundary of the decoded adjacent block. Energy is calculated, and the calculated value of energy (adjacent residual energy) is output to thecorrection unit 173b.

例えば、図13に示すように、残差エネルギー算出部173cは、符号化対象CUに隣接する復号済み隣接ブロックCU#1乃至CU#7のそれぞれのブロック境界付近の予測残差のエネルギーを算出する。エネルギーを算出する領域は符号化対象CUのブロック境界から法線方向に予め規定したライン数分とすることとする。但し、ライン数はブロックサイズに応じて可変であってもよい。 For example, as shown in FIG. 13, theresidual energy calculator 173c calculates the energy of the prediction residual near the block boundary of each of the decoded adjacentblocks CU#1 toCU#7 adjacent to the current CU. . The area for which the energy is calculated is a predetermined number of lines in the normal direction from the block boundary of the CU to be coded. However, the number of lines may be variable according to the block size.

また、符号化対象CUの角では、水平垂直方向に規定ライン数分の領域を残差エネルギー算出の領域とする。例えば、左上の角については、符号化対象CUの左上座標を(0,0)とした場合に、(-N,-N)から(-1,-1)までの領域を残差エネルギー算出の領域とする(Nはあらかじめ規定したライン数)。 At the corners of the CU to be coded, an area for a prescribed number of lines in the horizontal and vertical directions is used as an area for residual energy calculation. For example, for the upper left corner, if the upper left coordinates of the CU to be encoded are (0, 0), the area from (-N, -N) to (-1, -1) is used for residual energy calculation. area (N is the number of lines defined in advance).

具体的には、残差エネルギー算出部173cは、算出領域内の予測残差の絶対値の平均を残差エネルギーとすることができる。但し、予測残差のエネルギーを領域ごとに算出する指標であれば、二乗和の平均など他の指標であってもかまわない。 Specifically, theresidual energy calculator 173c can use the average of the absolute values of the prediction residuals in the calculation region as the residual energy. However, other indices such as the average of square sums may be used as long as they are indices for calculating the energy of prediction residuals for each region.

なお、残差エネルギー算出部173cは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のすべてについて境界領域の予測残差のエネルギーを算出せずに、CU#1乃至CU#7のうち連続性評価部173aにより連続性が低いと評価されたCU#1乃至CU#5(図5参照)のみについて境界領域の予測残差のエネルギーを算出してもよい。 Note that the residualenergy calculation unit 173c does not calculate the energy of prediction residuals in the boundary region for all of the decodedCU#1 toCU#7 adjacent to the current CU, and instead calculatesCU#1 to CU#. 7, the prediction residual energy of the boundary region may be calculated only forCU#1 to CU#5 (see FIG. 5) evaluated as having low continuity by thecontinuity evaluation unit 173a.

補正部173bは、連続性評価部173aにより連続性が低いと評価された隣接ブロックのうち、残差エネルギー算出部173cにより算出されたエネルギーが予め規定した閾値よりも小さい隣接ブロックの境界領域の復号画像を用いて、符号化対象CUのインター予測画像を補正する。 Thecorrection unit 173b decodes the boundary region of the adjacent block whose energy calculated by the residualenergy calculation unit 173c is smaller than a predetermined threshold, among the adjacent blocks evaluated as having low continuity by thecontinuity evaluation unit 173a. The image is used to correct the inter-predicted image of the CU to be coded.

例えば、図14に示すように、符号化対象CUに隣接するCU#1乃至CU#7のうち連続性評価部173aによりCU#1乃至CU#5の連続性が低いと評価され、且つ、残差エネルギー算出部173cにより算出されたエネルギーが閾値よりも小さいCUがCU#1乃至CU#3であるとする。すなわち、CU#4乃至CU#7について残差エネルギー算出部173cにより算出されたエネルギーは閾値よりも大きい。 For example, as illustrated in FIG. 14, thecontinuity evaluation unit 173a evaluates that the continuity ofCU#1 toCU#5 amongCU#1 toCU#7 adjacent to the encoding target CU is low, and It is assumed thatCU#1 toCU#3 are CUs whose energy calculated by the differenceenergy calculation unit 173c is smaller than the threshold. That is, the energy calculated by the residualenergy calculation unit 173c forCU#4 toCU#7 is greater than the threshold.

かかる場合、補正部173bは、CU#1乃至CU#3のブロック境界領域の復号画像を用いて、符号化対象CUのインター予測画像のブロック境界領域を補正する。一方、補正部173bは、CU#4乃至CU#7のブロック境界領域の復号画像を符号化対象CUのインター予測画像の補正に用いない。 In such a case, thecorrection unit 173b corrects the block boundary region of the inter-predicted image of the encoding target CU using the decoded images of the block boundary regions ofCU#1 toCU#3. On the other hand, the correctingunit 173b does not use the decoded images of the block boundary regions ofCU#4 toCU#7 for correcting the inter-predicted image of the encoding target CU.

なお、本変更例においては画像符号化装置1を例に挙げて説明したが、本変更例に係る動作を画像復号装置2にも適用可能である。 Although theimage encoding device 1 has been described as an example in this modified example, the operation according to this modified example can also be applied to theimage decoding device 2 .

<その他の実施形態>
上記の実施形態及び変更例において、符号化対象CU(又は復号対象CU)が複数の小領域に分割される場合について特に考慮していなかった。しかしながら、符号化対象CU(又は復号対象CU)が複数の小領域に分割される場合にも本発明を適用可能である。
<Other embodiments>
In the above embodiments and modifications, no particular consideration was given to the case where the CU to be coded (or the CU to be decoded) is divided into a plurality of small regions. However, the present invention can also be applied when a CU to be coded (or a CU to be decoded) is divided into a plurality of small regions.

例えば、図15に示すように、符号化対象CUの内部を小領域に分割し、小領域ごとに異なる動きベクトルを適用できる場合、連続性評価部173aは、隣接する復号済みCUに最も近い位置の小領域に適用した動きベクトルと当該隣接する復号済みCUに適用した動きベクトルとの動きの連続性を評価する。 For example, as shown in FIG. 15, when the interior of the encoding target CU is divided into small regions and different motion vectors can be applied to each small region, thecontinuity evaluation unit 173a determines the position closest to the adjacent decoded CU. and motion vectors applied to the neighboring decoded CUs.

画像符号化装置1が行う各処理をコンピュータに実行させるプログラム及び画像復号装置2が行う各処理をコンピュータに実行させるプログラムにより提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 It may be provided by a program that causes a computer to execute each process performed by theimage encoding device 1 and a program that causes a computer to execute each process performed by theimage decoding device 2 . Also, the program may be recorded on a computer-readable medium. A computer readable medium allows the installation of the program on the computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as CD-ROM or DVD-ROM.

また、画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体集積回路(チップセット、SoC)として構成してもよい。同様に、画像復号装置2が行う各処理を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)として構成してもよい。 Alternatively, theimage encoding device 1 may be configured as a semiconductor integrated circuit (chipset, SoC) by integrating a circuit that executes each process performed by theimage encoding device 1 . Similarly, theimage decoding device 2 may be configured as a semiconductor integrated circuit (chipset, SoC) by integrating a circuit that executes each process performed by theimage decoding device 2 .

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments have been described in detail with reference to the drawings, the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the invention.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ部
170 :予測部
171 :イントラ予測部
172 :インター予測部
173 :予測画像補正部
173a :連続性評価部
173b :補正部
173c :残差エネルギー算出部
174 :切替部
200 :エントロピー復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ部
240 :予測部
241 :イントラ予測部
242 :インター予測部
243 :予測画像補正部
243a :連続性評価部
243b :補正部
244 :切替部
1: image coding device 2: image decoding device 100: block division unit 110: subtraction unit 120: transformation/quantization unit 121: transformation unit 122: quantization unit 130: entropy coding unit 140: inverse quantization/inverse transformation Unit 141 : Inverse quantization unit 142 : Inverse transform unit 150 : Synthesis unit 160 : Memory unit 170 : Prediction unit 171 : Intra prediction unit 172 : Inter prediction unit 173 : Predictionimage correction unit 173a :Continuity evaluation unit 173b :Correction unit 173c: residual energy calculation unit 174: switching unit 200: entropy decoding unit 210: inverse quantization/inverse transform unit 211: inverse quantization unit 212: inverse transform unit 220: synthesis unit 230: memory unit 240: prediction unit 241: Intra prediction unit 242: Inter prediction unit 243: Predictedimage correction unit 243a:Continuity evaluation unit 243b: Correction unit 244: Switching unit

Claims (6)

Translated fromJapanese
画像を構成するブロックごとにインター予測をして得られた予測画像を補正する予測画像補正装置であって、
前記インター予測が行われた対象ブロックに適用された動きベクトルと、前記対象ブロックに隣接する復号済みの1又は複数の隣接ブロックに適用された動きベクトルとの比較により、前記1又は複数の隣接ブロックについて前記対象ブロックとの動きの連続性を評価する連続性評価部と、
記隣接ブロックの復号画像のうち前記対象ブロックとの境界領域の復号画像を用いて、前記対象ブロックの予測画像のうち前記隣接ブロックとの境界領域の予測画像を補正する補正部と、を備え
前記対象ブロックは、複数の小領域に分割され、
前記補正部は、前記小領域ごとに評価した前記連続性に基づいて、前記予測画像を補正することを特徴とする予測画像補正装置。
A predicted image correction device for correcting a predicted image obtained by performing inter prediction for each block constituting an image,
By comparing the motion vector applied to the inter-predicted target block and the motion vector applied to one or more decoded neighboring blocks adjacent to the target block, the one or more neighboring blocks a continuity evaluation unit that evaluates the continuity of motion with the target block for
a correction unit that corrects a predicted image ofa boundary region with the adjacent block among the predicted images of the target block using a decoded image of a boundary region withthe target block among the decoded images of the adjacent block; prepared,
The target block is divided into a plurality of small areas,
The predicted image correction device, wherein the correction unit corrects the predicted image based on the continuity evaluated for each of the small regions .
画像を構成するブロックごとにインター予測をして得られた予測画像を補正する予測画像補正装置であって、A predicted image correction device for correcting a predicted image obtained by performing inter prediction for each block constituting an image,
前記インター予測が行われた対象ブロックに適用された動きベクトルと、前記対象ブロックに隣接する復号済みの1又は複数の隣接ブロックに適用された動きベクトルとの比較により、前記1又は複数の隣接ブロックについて前記対象ブロックとの動きの連続性を評価する連続性評価部と、By comparing the motion vector applied to the inter-predicted target block and the motion vector applied to one or more decoded neighboring blocks adjacent to the target block, the one or more neighboring blocks a continuity evaluation unit that evaluates the continuity of motion with the target block for
前記隣接ブロックの復号画像のうち前記対象ブロックとの境界領域の復号画像を用いて、前記対象ブロックの予測画像のうち前記隣接ブロックとの境界領域の予測画像を補正する補正部と、を備え、a correction unit that corrects a predicted image of a boundary region with the adjacent block among the predicted images of the target block using a decoded image of a boundary region with the target block among the decoded images of the adjacent block,
前記補正部は、前記隣接ブロックの予測残差を更に用いて前記補正を行うことを特徴とする予測画像補正装置。The prediction image correction device, wherein the correction unit performs the correction by further using the prediction residual of the adjacent block.
前記連続性評価部により評価された前記連続性が予め定めた値よりも低い前記隣接ブロックが存在する場合に、前記連続性が予め定めた値よりも低い前記隣接ブロックの予測残差のうち前記対象ブロックとの境界領域の予測残差のエネルギーを算出する残差エネルギー算出部をさらに備え、
前記補正部は、前記連続性が予め定めた値よりも低い前記隣接ブロックが存在し、かつ前記残差エネルギー算出部により算出された前記エネルギーが閾値よりも小さい場合に、前記補正を行うことを特徴とする請求項2に記載の予測画像補正装置。
When there is the adjacent block whose continuity is lower than a predetermined value evaluated by the continuity evaluation unit, the prediction residual of the adjacent block whose continuity is lower than a predetermined value is further comprising a residual energy calculation unit that calculates the energy of the prediction residual of the boundary region with the target block,
The correction unit performs the correction when there is the adjacent block whose continuity is lower than a predetermined value and when the energy calculated by the residual energy calculation unit is smaller than a threshold. 3. The predictive image correction device according to claim 2.
インター予測を行うインター予測部と、請求項1乃至請求項3のいずれか1項に記載の予測画像補正装置と、を備えることを特徴とする画像符号化装置。An image coding apparatus comprising: an inter prediction unit that performs inter prediction; and the predicted image correction apparatus according toany one of claims 1 to 3 . インター予測を行うインター予測部と、請求項1乃至請求項3のいずれか1項に記載の予測画像補正装置と、を備えることを特徴とする画像復号装置。An image decoding device comprising: an inter prediction unit that performs inter prediction; and the predicted image correction device according toany one of claims 1 to 3 . コンピュータを請求項1乃至請求項3のいずれか1項に記載の予測画像補正装置として機能させることを特徴とするプログラム。A program that causes a computer to function as the predictive image correction apparatus according toany one of claims 1 to 3 .
JP2018178118A2018-09-212018-09-21 Predictive image correction device, image coding device, image decoding device, and programActiveJP7228980B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2018178118AJP7228980B2 (en)2018-09-212018-09-21 Predictive image correction device, image coding device, image decoding device, and program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2018178118AJP7228980B2 (en)2018-09-212018-09-21 Predictive image correction device, image coding device, image decoding device, and program

Publications (2)

Publication NumberPublication Date
JP2020053725A JP2020053725A (en)2020-04-02
JP7228980B2true JP7228980B2 (en)2023-02-27

Family

ID=69994275

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2018178118AActiveJP7228980B2 (en)2018-09-212018-09-21 Predictive image correction device, image coding device, image decoding device, and program

Country Status (1)

CountryLink
JP (1)JP7228980B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP7449690B2 (en)*2018-12-282024-03-14日本放送協会 Inter prediction device, image encoding device, image decoding device, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2007503775A (en)2003-08-262007-02-22トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2011030175A (en)2009-07-012011-02-10Sony CorpImage processing unit and method
JP2011066569A (en)2009-09-162011-03-31Nippon Telegr & Teleph Corp <Ntt>Method, device and program for generating prediction signal
JP2014131162A (en)2012-12-282014-07-10Nippon Telegr & Teleph Corp <Ntt>Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, program therefor, and program recorded recording medium
WO2018123800A1 (en)2016-12-272018-07-05パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカEncoding device, decoding device, encoding method, and decoding method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2007503775A (en)2003-08-262007-02-22トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2011030175A (en)2009-07-012011-02-10Sony CorpImage processing unit and method
JP2011066569A (en)2009-09-162011-03-31Nippon Telegr & Teleph Corp <Ntt>Method, device and program for generating prediction signal
JP2014131162A (en)2012-12-282014-07-10Nippon Telegr & Teleph Corp <Ntt>Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, program therefor, and program recorded recording medium
WO2018123800A1 (en)2016-12-272018-07-05パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカEncoding device, decoding device, encoding method, and decoding method

Also Published As

Publication numberPublication date
JP2020053725A (en)2020-04-02

Similar Documents

PublicationPublication DateTitle
KR100813963B1 (en) Lossless encoding and decoding method for video
KR20190033624A (en) Inter prediction method and apparatus in video coding system
US20210014489A1 (en)Intra prediction device, image encoding device, image decoding device and program
US11785242B2 (en)Video processing methods and apparatuses of determining motion vectors for storage in video coding systems
JP7749052B2 (en) Prediction device, encoding device, decoding device, and program
JP2023168518A (en)Prediction block generation device, image encoder, image decoder, and program
JP2025142371A (en) Image decoding device and image decoding method
JP7100194B2 (en) Image coding device, image decoding device, and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
JP6528635B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding
US11812015B2 (en)Image encoding device, image decoding device and program
JP7474772B2 (en) Encoding device, decoding device, and program
JP7332385B2 (en) Intra prediction device, image coding device, image decoding device, and program
JP7659103B2 (en) Inter prediction device, image encoding device, image decoding device, and program
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7531683B2 (en) Encoding device, decoding device, and program
WO2023217235A1 (en)Prediction refinement with convolution model
JP2022145499A (en) Encoding device and method

Legal Events

DateCodeTitleDescription
RD02Notification of acceptance of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7422

Effective date:20200529

RD05Notification of revocation of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7425

Effective date:20200612

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20210820

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20220721

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20220726

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20220926

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20230117

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20230214

R150Certificate of patent or registration of utility model

Ref document number:7228980

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150


[8]ページ先頭

©2009-2025 Movatter.jp