(EN) Provided is a highly effective coding method for a multiview video having mismatches between cameras in terms of local brilliance and color. A viewpoint synthesized image corresponding to a coding target frame in a multiview video is synthesized from a previously coded reference viewpoint frame which has been photographed from a reference viewpoint which is different from a coding target viewpoint, and at the same time that the coding target frame from the coding target viewpoint was photographed. With respect to each processing unit area having a predetermined size, a reference area on the previously coded reference frame from the coding target viewpoint and corresponding to the viewpoint synthesized image is searched. A correction parameter for correcting the mismatches between cameras is estimated from the viewpoint synthesized image corresponding to the processing unit area, and the reference frame corresponding to the reference area. The estimated correction parameter is used to correct the viewpoint synthesized image corresponding to the processing unit area. The video from the coding target viewpoint is subjected to prediction coding using the corrected viewpoint synthesized image.
(FR) L'invention concerne un procédé de codage efficace pour une vidéo multivue comportant des mésappariements entre les caméras en termes de brillance et de couleurs locales. Une image synthétisée de point de vue correspondant à une trame cible de codage dans une vidéo multivue est synthétisée à partir d'une trame de point de vue de référence préalablement codée qui a été photographiée à partir d'un point de vue de référence qui est différent d'un point de vue cible de codage, et en même temps que la trame cible de codage à partir du point de vue cible de codage a été photographiée. Par rapport à chaque aire d'unité de traitement présentant une taille déterminée, une aire de référence de la trame de référence codée au préalable à partir du point de vue cible de codage et correspondant à l'image synthétisée de point de vue est recherchée. Un paramètre de correction servant à corriger les mésappariements entre caméras est estimé à partir de l'image synthétisée de point de vue correspondant à l'aire d'unité de traitement, et la trame de référence correspondant à l'aire de référence. Le paramètre de correction estimé est utilisé pour corriger l'image synthétisée de point de vue correspondant à l'aire d'unité de traitement. La vidéo à partir du point de vue cible de codage est soumise à un codage de prédiction utilisant l'image synthétisée de point de vue corrigée.
(JA) カメラ間での局所的な輝度や、色のミスマッチを伴うような多視点映像においても、高能率な符号化手法を実現する。多視点映像の符号化対象視点における符号化対象フレームと同時刻に撮影された、符号化対象視点とは異なる参照視点における既に符号化済みの参照視点フレームから、符号化対象フレームに対応する視点合成画像が合成される。予め定められた大きさの処理単位領域毎に、視点合成画像に対応する、符号化対象視点における既に符号化済みの参照フレーム上の参照領域が探索される。処理単位領域に対する視点合成画像と参照領域に対する参照フレームとから、カメラ間ミスマッチを補正する補正パラメータが推定される。推定された補正パラメータを用いて、処理単位領域に対する視点合成画像が補正される。補正された視点合成画像を用いて、符号化対象視点の映像が予測符号化される。