










아래의 설명은 사용자의 얼굴을 식별하는 얼굴 인식 기술에 관한 것이다.The description below relates to a face recognition technology that identifies a user's face.
생체 인식 기술 중 하나인 얼굴 인식 기술은, 지문 인식, 홍채 인식 등 사용자의 특별한 동작이나 행위를 요구하는 인식 기술과 다르게, 대상자를 비접촉식으로 확인할 수 있는 장점 때문에 편리하고 경쟁력 있는 생체 인식 기술로 평가 받고 있다. 최근에는, 편리함과 효율성 때문에 얼굴 인식 기술이 보안 시스템, 모바일 인증, 멀티미디어 데이터 검색 등의 다양한 응용 분야에 활발하게 적용되고 있다.Face recognition technology, one of the biometric technologies, is evaluated as a convenient and competitive biometric recognition technology because of the advantage of being able to identify the subject in a non-contact manner, unlike recognition technologies that require special actions or actions of the user, such as fingerprint recognition and iris recognition. have. Recently, because of convenience and efficiency, face recognition technology has been actively applied to various application fields such as security systems, mobile authentication, and multimedia data search.
일 실시예에 따른 얼굴 인식 방법은, 2D 입력 영상으로부터 얼굴의 특징점을 검출하는 단계; 상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계; 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함할 수 있다.A face recognition method according to an embodiment includes: detecting feature points of a face from a 2D input image; adjusting a pre-stored 3D face model based on the detected feature points; generating a 2D projection image from the adjusted 3D face model; and comparing the 2D input image with the 2D projection image to perform face recognition.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D face model may include adjusting a pose and an expression of the 3D face model by mapping the detected feature points to the 3D face model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은, 3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델일 수 있다.In the face recognition method according to an embodiment, the 3D face model may include a 3D shape model and a 3D texture model, and the 3D shape model and the 3D texture model have a fixed shape of the 3D model, and pose And it may be a model in which the expression can be changed.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D face model may include: adjusting the 3D shape model based on feature points detected from the 2D input image; and adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 형태 모델을 조정하는 단계는, 상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D shape model may include adjusting a pose parameter and an expression parameter of the 3D shape model based on the detected feature points.
일 실시예에 따른 얼굴 인식 방법에서, 상기 2D 투영 영상을 생성하는 단계는, 상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, generating the 2D projection image may include generating a 2D projection image from the adjusted 3D texture model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 미리 저장된 3D 얼굴 모델은, 복수의 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 생성될 수 있고, 상기 2D 얼굴 영상들은, 사용자의 얼굴을 복수의 시점들에서 촬영한 영상들일 수 있다.In the face recognition method according to an embodiment, the pre-stored 3D face model may be generated based on feature points detected from a plurality of 2D face images, and the 2D face images include a user's face from a plurality of viewpoints. They may be videos taken in the fields.
일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴 인식을 수행하는 단계는, 상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및 상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the performing of the face recognition may include: determining a degree of similarity between the 2D input image and the 2D projection image; and outputting a face recognition result based on whether the degree of similarity satisfies a predetermined condition.
일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴의 특징점을 검출하는 단계는, 상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및 상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the detecting of the feature point of the face may include: extracting a face region from the 2D input image; and detecting a feature point included in at least one of eyebrows, eyes, nose, mouth, chin, ears, and an outline of a face from the face region.
일 실시예에 따른 3D 얼굴 모델 생성 방법은, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계; 상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함할 수 있다.A method of generating a 3D face model according to an embodiment includes: acquiring 2D face images of a user photographed at a plurality of viewpoints; detecting feature points of a face from the 2D face images; generating a deformable 3D shape model and a 3D texture model based on the detected feature points; and registering the 3D shape model and the 3D texture model as the user's 3D face model, and storing the 3D face model.
일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계를 포함할 수 있다.In the method of generating a 3D face model according to an embodiment, the generating of the 3D shape model and the 3D texture model includes: the 3D texture based on the 3D shape model and texture information extracted from at least one of the 2D face images. It may include generating a model.
일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하는 단계; 및 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계를 포함할 수 있다.In the method for generating a 3D face model according to an embodiment, the generating of the 3D shape model and the 3D texture model may include: determining a parameter for mapping the detected feature points and feature points of the 3D standard model; and generating the 3D shape model by applying the determined parameter to the 3D standard model.
다른 실시예에 따른 3D 얼굴 모델 생성 방법은, 사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계; 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계; 상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계를 포함할 수 있다.According to another embodiment, a method for generating a 3D face model includes: acquiring 2D face images obtained by photographing a user's face and direction data of the 2D face images; determining correspondence point information between the 2D face images; generating 3D data about the user's face based on direction data of the 2D face images and information on correspondence points between the 2D face images; and transforming a 3D standard model into a 3D face model for the user by using the 3D data.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는, 모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.In the method for generating a 3D face model according to another embodiment, the obtaining of direction data of the 2D face images may include obtaining direction data of the 2D face images by using motion data sensed through a motion sensor.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 사용자의 얼굴에 관한 3D 데이터는, 상기 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다.In the method of generating a 3D face model according to another embodiment, the 3D data on the user's face may be a set of 3D points constituting the shape of the user's face.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는, 상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.In the method for generating a 3D face model according to another embodiment, the transforming the 3D standard model into a 3D face model for the user may include matching the 3D standard model with 3D data about the user's face to match the 3D standard model to the 3D data about the user's face. may be transformed into a 3D face model for the user.
일 실시예에 따른 얼굴 인식 장치는, 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부; 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부를 포함할 수 있다.A face recognition apparatus according to an embodiment includes: an image acquisition unit configured to acquire a 2D input image including a user's face region; a 3D face model processing unit that adjusts a pose of a pre-stored 3D face model according to a pose of a user's face displayed in the 2D input image, and generates a 2D projection image from the 3D face model; and a face recognition unit configured to perform face recognition by comparing the 2D input image with the 2D projected image.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및 상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부를 포함할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processor may include: a face region detector configured to detect a face region from the 2D input image; and a feature point detector configured to detect a feature point of a face from the face region.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit may adjust the pose of the 3D face model by matching the detected feature points with the feature points of the 3D face model stored in advance.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit adjusts a pose of a 3D shape model according to a face pose of a user displayed in the 2D input image, and based on parameter information of the adjusted 3D shape model You can adjust the 3D texture model.
일 실시예에 따른 얼굴 인식 장치는, 상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부를 더 포함할 수 있다.The face recognition apparatus according to an embodiment may further include a display configured to display at least one of the 2D input image, the 2D projected image, and the face recognition result.
일 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.An apparatus for generating a 3D face model according to an embodiment includes: an image acquisition unit configured to acquire 2D face images of a user photographed at a plurality of viewpoints; a feature point detector for detecting feature points of a face from the 2D face images; a 3D face model generator that generates a deformable 3D shape model and a 3D texture model based on the detected feature points; and a 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the user's 3D face model.
일 실시예에 따른 3D 얼굴 모델 생성 장치에서, 상기 3D 얼굴 모델 생성부는, 상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부를 포함할 수 있다.In an apparatus for generating a 3D face model according to an embodiment, the 3D face model generator may include: a 3D shape model generator configured to generate a 3D shape model of the user's face based on the detected facial feature points; and a 3D texture model generator configured to generate a 3D texture model based on texture information extracted from at least one of the 2D face images and the 3D shape model.
다른 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부; 상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부; 상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.According to another embodiment, an apparatus for generating a 3D face model includes an image acquisition unit configured to acquire 2D face images of a user photographed at a plurality of viewpoints; a motion sensing unit to obtain direction data of the 2D face images; 3D data about the user's face is generated based on correspondence point information between the 2D face images and direction data of the 2D face images, and a 3D standard model is transformed into a 3D face model for the user using the 3D data 3D face model generation unit; and a 3D face model registration unit for registering and storing a 3D face model for the user.
도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다.
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.1 is a diagram for explaining an overall operation of a face recognition system according to an exemplary embodiment.
 2 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to an exemplary embodiment.
 3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an exemplary embodiment.
 4 is a diagram for describing a process of detecting a feature point from a plurality of 2D face images according to an exemplary embodiment.
 5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an exemplary embodiment.
 6 is a diagram for explaining a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment.
 7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image with a 2D projection image, according to an exemplary embodiment.
 8 is a flowchart illustrating an operation of a method for generating a 3D face model according to an exemplary embodiment.
 9 is a flowchart illustrating an operation of a face recognition method according to an exemplary embodiment.
 10 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to another exemplary embodiment.
 11 is a flowchart illustrating an operation of a method for generating a 3D face model according to another exemplary embodiment.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The specific structural and functional descriptions below are only exemplified for the purpose of describing the embodiments, and the scope of the embodiments should not be construed as being limited to the content described in the text. Various modifications and variations are possible from these descriptions by those skilled in the art. In addition, the same reference numerals shown in each drawing indicate the same members, and well-known functions and structures will be omitted.
도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다.  얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상에서 사용자의 얼굴을 인식할 수 있다.  얼굴 인식 시스템(100)은 2D 입력 영상을 분석하여 2D 입력 영상에 나타난 사용자의 얼굴을 추출하고, 식별할 수 있다.  얼굴 인식 시스템(100)은 감시/보안 시스템, 모바일 인증, 또는 멀티미디어 데이터 검색 등의 다양한 어플리케이션 영역에서 활용될 수 있다.1 is a diagram for explaining an overall operation of a face recognition system according to an exemplary embodiment. The
얼굴 인식 시스템(100)은 사용자에 대한 3D(dimensional) 얼굴 모델을 등록하고, 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 수행할 수 있다.  3D 얼굴 모델은 변형이 가능한(deformable) 3D 모델로서 2D 입력 영상에 나타난 사용자의 얼굴 포즈 또는 얼굴 표정에 따라 변형될 수 있다.  예를 들어, 2D 입력 영상에 나타난 얼굴 포즈가 왼쪽 측면을 바라보고 있는 포즈인 경우, 얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델을 왼쪽 측면을 바라보도록 회전시킬 수 있다.  또한, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 사용자 얼굴의 표정에 따라 3D 얼굴 모델의 표정을 조정할 수 있다.  예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에서 검출된 얼굴의 특징점에 기초하여 사용자 얼굴의 표정을 분석하고, 분석된 얼굴 표정에 대응되도록 3D 얼굴 모델의 눈, 입, 코 등의 형태를 조정할 수 있다.The
얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델로부터 2D 투영 영상(projection image)을 생성하고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다.  2D 영상들을 이용함으로써 실시간으로 얼굴 인식이 수행될 수 있다.  2D 투영 영상은 3D 얼굴 모델을 평면으로 투영하여 나타낸 2D 영상이다.  예를 들어, 2D 투영 영상은 2D 입력 영상과 정합(matching)된 3D 얼굴 모델을 2D 입력 영상에서의 시점(viewpoint)과 동일한 시점에서 투영한 2D 영상으로, 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일할 수 있다.  미리 저장된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합시키고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행하는 것에 의해 얼굴 인식을 수행할 수 있다.  2D 입력 영상에 나타난 사용자의 얼굴 포즈가 정면이 아니라 하더라도 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써 포즈 변화에 따른 인식률이 개선될 수 있다.The
이하에서는, 위에 설명된 얼굴 인식 시스템(100)의 동작을 보다 자세히 설명하도록 한다.  얼굴 인식 시스템(100)에 의해 수행되는 얼굴 인식 동작은 크게, 사용자의 3D 얼굴 모델을 등록하는 과정(110) 및 등록된 3D 얼굴 모델을 이용하여 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)을 포함할 수 있다.Hereinafter, the operation of the
사용자의 3D 얼굴 모델을 등록하는 과정(110)에서, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 동일 사용자에 대한 복수의 2D 얼굴 영상들을 획득(130)할 수 있다.  복수의 2D 얼굴 영상들은 사용자의 얼굴을 다양한 시점에서 촬영한 영상들을 포함할 수 있다.  예를 들어, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴을 정면 및 측면에서 촬영한 2D 얼굴 영상들을 획득할 수 있다.  2D 얼굴 영상은 사용자의 얼굴 영역을 포함하는 영상을 나타내나, 얼굴의 전체 영역이 포함되어야 할 필요는 없다.  얼굴 인식 시스템(100)은 획득된 복수의 2D 얼굴 영상들에서 얼굴의 특징점(또는, 랜드마크(landmark))을 검출(140)할 수 있다.  예를 들어, 얼굴 인식 시스템(100)은 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다.In the
얼굴 인식 시스템(100)은 얼굴 등록을 위한 2D 얼굴 영상들에서 추출된 특징점들을 미리 결정된 3D 표준 모델에 적용하여 3D 모델 개인화를 수행(150)할 수 있다.  3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델일 수 있다.  3D 표준 모델은 3D 형태와 텍스쳐(texture)로 구성될 수 있고, 3D 형태를 표현하는 파라미터들을 포함할 수 있다.  얼굴 인식 시스템(100)은 3D 표준 모델의 특징점들과 2D 얼굴 영상들로부터 추출된 특징점들을 서로 매칭시켜 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다.  생성된 3D 얼굴 모델은 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로 등록되어 저장될 수 있다.The
다른 실시예에 따르면, 얼굴 인식 시스템(100)은 얼굴 등록을  위한 복수의 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다.  얼굴 인식 시스템(100)은 2D 얼굴 영상들과 함께 모션 센서(motion sensor)를 통해 2D 얼굴 영상들의 방향 데이터를 획득할 수 있고, 2D 얼굴 영상들의 매칭 정보 및 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.  사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다.  얼굴 인식 시스템(100)은 3D 표준 모델에 사용자의 얼굴에 관한 3D 데이터를 정합하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다.  생성된 3D 얼굴 모델은 저장되고, 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로서 등록될 수 있다.According to another embodiment, the
2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)에서, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득할 수 있다.  얼굴 인식 시스템(100)은 하나의 2D 입력 영상만으로도 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다.  얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈 또는 표정에 따라 미리 저장된 3D 얼굴 모델을 조정(160)할 수 있다.  얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈에 매칭되도록 3D 얼굴 모델의 포즈를 조정하고, 2D 입력 영상에 나타난 얼굴 표정에 매칭되도록 3D 얼굴 모델의 표정을 조정할 수 있다.In the
얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상과 정합된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다.  얼굴 인식 시스템(100)은 2D 입력 영상과 2D 투영 영상을 서로 비교하여 얼굴 인식을 수행(170)하고, 얼굴 인식 결과를 출력할 수 있다.  예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.The
얼굴 인식 시스템(100)은 도 2의 3D 얼굴 모델 생성 장치(200) 및 도 10의 3D 얼굴 모델 생성 장치(1000) 중 어느 하나와 도 3의 얼굴 인식 장치(300)를 포함할 수 있다.  사용자의 3D 얼굴 모델을 등록하는 과정(110)은, 도 2의 얼굴 모델 생성 장치(200) 또는 도 10의 얼굴 모델 생성 장치(1000)에 의해 수행될 수 있다.  2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)은 얼굴 인식 장치(300)에 의해 수행될 수 있다.The
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 구성을 도시하는 도면이다.  3D 얼굴 모델 생성 장치(200)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다.  3D 얼굴 모델 생성 장치(200)는 3D 얼굴 모델로서 3D 형태 모델 및 3D 텍스쳐 모델을 생성하고, 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 사용자에 대한 3D 얼굴 모델로 등록할 수 있다.  도 2를 참조하면, 3D 얼굴 모델 생성 장치(200)는 영상 획득부(210), 특징점 검출부(220), 3D 얼굴 모델 생성부(230) 및 3D 얼굴 모델 등록부(260)를 포함할 수 있다.2 is a diagram illustrating a configuration of an apparatus for generating a 3D face model according to an exemplary embodiment. The 3D face
영상 획득부(210)는 얼굴 등록을 위한 사용자의 2D 얼굴 영상들을 획득할 수 있다.  2D 얼굴 영상들은 다양한 얼굴 포즈로 촬영된 사용자의 얼굴 영역을 포함할 수 있다.  영상 획득부(210)는 카메라를 통해 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.  정면 영상으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있고, 측면 영상으로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다.  예를 들어, 정면 영상과 측면 영상에 나타난 사용자의 얼굴 영역 간의 비교 처리를 통해 사용자 얼굴의 입체적 형태에 관한 정보가 결정될 수 있다.  일 실시예에 따르면, 사용자는 3D 얼굴 모델을 등록하기 위해 카메라를 통해 복수의 2D 얼굴 영상을 촬영할 수 있고, 영상 획득부(210)는 카메라를 통해 촬영된 2D 얼굴 영상들을 저장할 수 있다.The
특징점 검출부(220)는 2D 얼굴 영상에서 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다.  예를 들어, 특징점 검출부(220)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다.  일 실시예에 따르면, 특징점 검출부(220)는 능동적 형태 모델(ASM, Active Shape Model), 능동적 외양 모델(AAM, Active Appearance model), 또는 SDM(Supervised Descent Method) 등을 이용하여 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다.The
3D 얼굴 모델 생성부(230)는 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 사용자의 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다.  3D 얼굴 모델로서, 사용자 얼굴에 대한 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델이 생성될 수 있다.  3D 얼굴 모델 생성부(230)는 3D 형태 모델 생성부(240) 및 3D 텍스쳐 모델 생성부(250)를 포함할 수 있다.The 3D
3D 형태 모델 생성부(240)는 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.  3D 형태 모델은 모델의 형태는 있으나 텍스쳐가 없는 3D 모델이다.  3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델을 생성할 수 있다.  3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다.  예를 들어, 3D 형태 모델 생성부(240)는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및/또는 턱 등의 특징점들과 3D 표준 모델의 특징점을 매칭시키는 것에 의해 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D
다른 시점에서 촬영된 2D 얼굴 영상을 이용하여 3D 형태 모델을 생성함으로써, 보다 정교한 형태의 3D 형태 모델이 생성될 수 있다. 사용자 얼굴을 정면에서 촬영한 정면 영상만을 이용하여 3D 형태 모델을 생성하는 경우, 3D 형태 모델에서 코의 높이, 광대의 형태 등과 같은 입체적인 형상을 결정하기가 어려울 수 있다. 그러나, 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 3D 형태 모델을 생성하는 경우에는, 코의 높이, 광대의 형태 등에 대한 정보를 추가적으로 반영할 수 있으므로 3D 형태 모델을 보다 정교하게 형성할 수 있다.By generating a 3D shape model using a 2D face image captured at a different viewpoint, a more sophisticated 3D shape model may be generated. When a 3D shape model is generated using only a frontal image of a user's face taken from the front, it may be difficult to determine a three-dimensional shape such as the height of the nose and the shape of the cheeks from the 3D shape model. However, when a 3D shape model is generated using a plurality of 2D face images taken from different viewpoints, information on the height of the nose and the shape of the cheeks can be additionally reflected, so that the 3D shape model can be formed more precisely. have.
3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다.  예를 들어, 3D 텍스쳐 모델 생성부(250)는 정면 영상에서 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다.  3D 텍스쳐 모델은 3D 모델의 형태와 텍스쳐가 모두 존재하는 모델이다.  3D 텍스쳐 모델은 정밀도(level of detail)가 3D 형태 모델보다 높으며, 3D 형태 모델의 버텍스(vertex)들을 포함할 수 있다.  3D 형태 모델 및 3D 텍스쳐 모델은 3D 모델의 형태가 고정되어 있고, 포즈 및 표정이 변화될 수 있다.  3D 형태 모델 및 3D 텍스쳐 모델은 동일한 파라미터에 의해 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D
3D 얼굴 모델 등록부(260)는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고, 저장할 수 있다.  예를 들어, 영상 획득부(210)가 획득한 2D 얼굴 영상의 사용자가 "A"라고 하면, 3D 얼굴 모델 등록부(350)는 "A"에 대해 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 "A"의 3D 얼굴 모델로 등록하고, 3D 얼굴 모델 저장부(미도시)에 "A"의 3D 형태 모델 및 3D 텍스쳐 모델을 저장할 수 있다.The 3D face
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다.  얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 위한 2D 입력 영상에 나타난 사용자에 대해 얼굴 인식을 수행할 수 있다.  얼굴 인식 장치(300)는 3D 얼굴 모델을 2D 입력 영상에 나타난 사용자의 얼굴 포즈와 동일한 포즈로 회전한 후, 2D 투영 영상을 생성할 수 있다.  얼굴 인식 장치(300)는 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다.  얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써, 사용자의 포즈 변화에 강인한 얼굴 인식 방법을 제공한다.  도 3을 참조하면, 얼굴 인식 장치(300)는 영상 획득부(310), 3D 얼굴 모델 처리부(320), 및 얼굴 인식부(350)를 포함할 수 있다.  3D 얼굴 모델 처리부(320)는 얼굴 영역 검출부(330) 및 특징점 검출부(340)를 포함할 수 있다.3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an exemplary embodiment. The
영상 획득부(310)는 사용자의 얼굴 영역이 포함된 얼굴 인식을 위한 2D 입력 영상을 획득할 수 있다.  영상 획득부(310)는 카메라 등을 통해 사용자 인식 또는 사용자 인증을 위한 2D 입력 영상을 획득할 수 있다.  얼굴 인식 장치(300)는 하나의 2D 입력 영상을 이용하여 사용자에 대해 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다.The
얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출할 수 있다.  얼굴 영역 검출부(330)는 2D 입력 영상 내 밝기 분포, 오브젝트의 움직임, 색상 분포, 또는 눈 위치 등의 정보를 이용하여 2D 입력 영상에서 얼굴 영역을 식별하고, 얼굴 영역의 위치 정보를 추출할 수 있다.  예를 들어, 얼굴 영역 검출부(330)는 관련 기술 분야에서 일반적으로 이용되는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출할 수 있다.The
특징점 검출부(340)는 2D 입력 영상 내 얼굴 영역으로부터 얼굴의 특징점을 검출할 수 있다.  예를 들어, 특징점 검출부(340)는 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다.  일 실시예에 따르면, 특징점 검출부(340)는 Active Shape Model, Active Appearance Model, 또는 Supervised Descent Method 등을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다.The
3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정할 수 있다.  3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다.  정합 결과, 3D 얼굴 모델은 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 변형될 수 있다.  3D 얼굴 모델 처리부(320)는 3D 얼굴 모델에 2D 입력 영상으로부터 검출된 특징점들을 맵핑(mapping)하여 3D 얼굴 모델의 포즈 및 표정을 조정할 수 있다.  3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있다.  3D 형태 모델은 2D 입력 영상에 나타난 얼굴 포즈와 빠른 속도로 정합되는데 이용될 수 있고, 3D 텍스쳐 모델은 고해상도의 2D 투영 영상을 생성하는데 이용될 수 있다.The 3D face
3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 포즈에 따라 3D 형태 모델의 포즈를 조정할 수 있다.  3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 특징점들과 3D 형태 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델의 포즈를 2D 입력 영상에 나타난 포즈에 정합시킬 수 있다.  3D 얼굴 모델 처리부(320)는 2D 입력 영상으로부터 검출된 특징점에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다.The 3D face
또한, 3D 얼굴 모델 처리부(320)는 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다.  3D 얼굴 모델 처리부(320)는 2D 입력 영상과 3D 형태 모델의 정합 과정에서 결정된 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용할 수 있다.  적용 결과로서, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정을 가지도록 조정될 수 있다.  3D 텍스쳐 모델을 조정한 후, 3D 얼굴 모델 처리부(320)는 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.Also, the 3D face
얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다.  얼굴 인식부(350)는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다.  얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다.The
얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하기 위해 얼굴 인식 기술 분야에서 일반적으로 이용되는 특징 값 결정 방법을 이용할 수 있다.  예를 들어, 얼굴 인식부(350)는 Gabor 필터, LBP(Local Binary Pattern), HOG(Histogram of Oriented Gradient), PCA(Principal component analysis), 또는 LDA(Linear Discriminant Analysis) 등과 같은 특징 추출용 필터를 이용하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다.  Gabor 필터는 다양한 크기와 각도를 갖는 다중 필터를 이용하여 영상으로부터 특징을 추출하는 필터이고, LBP는 영상에서 현재 픽셀과 주변 픽셀과의 차이를 특징으로 추출하는 필터이다.  일 실시예에 따르면, 얼굴 인식부(350)는 2D 입력 영상 및 2D 투영 영상에 나타난 얼굴 영역을 일정한 크기의 셀(cell)로 분할한 후, 각 셀마다 LBP에 대한 히스토그램(해당 셀에 속하는 LBP 인덱스 값들에 대한 히스토그램)을 계산할 수 있다.  얼굴 인식부(350)는 계산된 히스토그램들을 일렬로 연결한 벡터를 최종 특징 값으로 결정하고, 2D 입력 영상의 최종 특징 값과 2D 투영 영상의 최종 특징 값을 비교하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다.The
일 실시예에 따르면, 얼굴 인식 장치(300)는 디스플레이부(360)를 더 포함할 수 있다.  디스플레이부(360)는 2D 입력 영상, 2D 투영 영상 및/또는 얼굴 인식 결과를 디스플레이할 수 있다.  사용자가 디스플레이된 2D 입력 영상에 기초하여 얼굴이 제대로 촬영되지 않다고 판단한 경우, 또는 최종적으로 얼굴 인식이 실패하였다고 디스플레이된 경우, 사용자는 얼굴을 다시 촬영할 수 있고, 얼굴 인식 장치(300)는 재촬영되어 생성된 2D 입력 영상에 대해 얼굴 인식을 다시 수행할 수 있다.According to an embodiment, the
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다.  도 4를 참조하면, 영상(420)은 사용자의 얼굴을 정면에서 촬영하여 획득된 2D 얼굴 영상을 나타내고, 영상들(410, 430)은 사용자의 얼굴을 측면에서 촬영하여 획득된 2D 얼굴 영상들을 나타낸다.  정면에서 촬영된 영상(420)으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있다.  측면에서 촬영된 영상들(410, 430)로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다.  예를 들어, 영상(420)으로부터 추출된 사용자의 얼굴 형태에 기초하여 사용자 얼굴에 관한 기본 모델을 설정하고, 영상들(410, 430)로부터 추출된 사용자의 얼굴 형태에 기초하여 해당 기본 모델의 입체적 형태를 결정할 수 있다.4 is a diagram for describing a process of detecting a feature point from a plurality of 2D face images according to an exemplary embodiment. Referring to FIG. 4 , an
3D 얼굴 모델 생성 장치(200)의 특징점 검출부(220)는 영상들(410, 420, 430)과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들에서 얼굴의 특징점들을 검출할 수 있다.  얼굴의 특징점은 눈썹, 눈, 코, 입, 턱 등의 윤곽 영역에 위치하는 특징점을 나타낸다.  특징점 검출부(220)는 관련 기술 분야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등의 방식을 이용하여 영상들(410, 420, 430)에서 얼굴의 특징점을 검출할 수 있다.  ASM 모델(또는, AAM 모델, SDM 모델)의 포즈, 스케일, 또는 위치에 대한 초기화는 얼굴 검출 결과에 기초하여 수행될 수 있다.The
영상(440)은 영상(410)의 얼굴 영역(442) 내에서 특징점(444)들이 검출된 결과 영상을 나타내고, 영상 (450)은 영상(420)의 얼굴 영역(452) 내에서 특징점(454)들이 검출된 결과 영상을 나타낸다.  마찬가지로, 영상(460)은 영상(430)의 얼굴 영역(462) 내에서 특징점(464)들이 검출된 결과 영상을 나타낸다.The
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다.  도 5를 참조하면, 모델(510)은 3D 표준 모델을 나타낸다.  3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델로서, 평균 형태와 파라미터를 통해 사용자 얼굴의 신원(identity)을 나타낼 수 있는 파라메트릭 모델(parametric model)일 수 있다.5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an exemplary embodiment. Referring to FIG. 5 , a
3D 표준 모델은 다음의 수학식 1과 같이, 평균 형태와 형태 변화량으로 구성될 수 있다. 형태 변화량은 형태 파라미터와 형태 벡터의 가중합(weighted sum)이다.The 3D standard model may be composed of an average shape and a shape change amount as shown in Equation 1 below. The shape change amount is a weighted sum of the shape parameter and the shape vector.
여기서,는 3D 표준 모델의 3D 형태를 구성하는 엘리먼트들을 나타내고,는 3D 표준 모델의 평균 형태에 관한 엘리먼트들을 나타낸다.는 인덱스 계수 i에 대응하는 형태 엘리먼트들을 나타내고,는 인덱스 계수 i에 대응하는 형태 엘리먼트에 적용되는 형태 파라미터를 나타낸다.here, represents the elements constituting the 3D shape of the 3D standard model, denotes elements related to the average shape of the 3D standard model. represents the form elements corresponding to the index coefficient i, denotes a shape parameter applied to a shape element corresponding to the index coefficient i.
3D 표준 모델의 3D 형태를 구성하는 엘리먼트들는 다음의 수학식 2와 같이 3차원 점들의 좌표로 구성될 수 있다.Elements that make up the 3D shape of the 3D standard model may be composed of coordinates of three-dimensional points as shown in Equation 2 below.
여기서,는는 3차원 점(,,)의 인덱스를 나타내는 변수이고, T는 트랜스포즈(transpose)를 나타낸다.here, Is is a three-dimensional point ( , , ) is a variable indicating the index, and T indicates transpose.
3D 얼굴 모델 생성 장치(200)의 3D 형태 모델 생성부(240)는 사용자의 얼굴을 등록하기 위해, 복수의 시점들에서 촬영된 2D 얼굴 영상들에 기초하여 3D 표준 모델을 개인화할 수 있다.  3D 형태 모델 생성부(240)는 3D 표준 모델에 포함된 특징점들과 2D 얼굴 영상들에서 검출된 얼굴의 특징점들을 매칭시킬 수 있는 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.In order to register the user's face, the 3D
모델들(520, 530)은 3D 표준 모델(510)로부터 생성된 사용자 얼굴에 대한 3D 형태 모델들을 나타낸다.  모델(520)은 정면에서 바라본 3D 형태 모델을 나타내고, 모델(530)은 측면에서 바라본 3D 형태 모델을 나타낸다.  3D 형태 모델은 형태 정보는 존재하나, 텍스쳐 정보가 존재하지 않는 모델로서, 사용자 인증 과정에서 2D 입력 영상과 고속으로 정합하는데 이용될 수 있다.The
3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나의 2D 얼굴 영상에서 추출한 텍스쳐를 3D 형태 모델의 표면에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다.  3D 형태 모델의 표면에 텍스쳐를 맵핑한다는 것은, 예를 들어, 정면에서 촬영된 2D 얼굴 영상에서 추출한 텍스쳐 정보에 3D 형태 모델로부터 획득된 깊이 정보를 추가한다는 것을 나타낼 수 있다.The 3D
모델들(540, 550)는 3D 형태 모델에 기초하여 생성된 3D 텍스쳐 모델들을 나타낸다.  모델(540)은 정면에서 바라본 3D 텍스쳐 모델을 나타내고, 모델(550)은 대각 방향에서 바라본 3D 텍스쳐 모델을 나타낸다.  3D 텍스쳐 모델은 형태 정보와 텍스쳐 정보가 모두 존재하는 모델로서, 사용자 인증 과정에서 2D 투영 영상을 생성하는데 이용될 수 있다.The
3D 형태 모델 및 3D 텍스쳐 모델은 사용자의 고유 특징을 나타내는 얼굴의 형태는 고정되어 있고, 포즈 또는 표정이 변형될 수 있는 3D 모델이다. 3D 텍스쳐 모델은 3D 형태 모델보다 정밀도가 높으며, 보다 많은 버텍스를 포함하고 있다. 3D 형태 모델을 구성하는 버텍스들은 3D 텍스쳐 모델을 구성하는 버텍스들의 하위 집합(subset)으로, 동일한 파라미터에 의해 3D 형태 모델과 3D 텍스쳐 모델은 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D shape model and the 3D texture model are 3D models in which the shape of the face representing the user's unique characteristics is fixed and the pose or expression can be changed. The 3D texture model is more precise than the 3D shape model and contains more vertices. Vertices constituting the 3D shape model are a subset of vertices constituting the 3D texture model, and the 3D shape model and the 3D texture model may exhibit the same pose and expression by the same parameters.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다.  도 6을 참조하면, 영상(610)은 얼굴 인식 또는 사용자 인증을 위해 얼굴 인식 장치에 입력되는 2D 입력 영상으로서, 카메라를 통해 촬영된 얼굴 포즈 영상을 나타낸다.6 is a diagram for describing a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment. Referring to FIG. 6 , an
얼굴 인식 장치(300)의 얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 특징점 검출부(340)는 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 입, 또는 턱 등의 윤곽에 위치하는 특징점들을 검출할 수 있다.  예를 들어, 특징점 검출부(340)는 ASM, AAM, 또는 SDM 등의 방식을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다.  영상(620)는 얼굴 영역 검출부(330)에 의해 영상(610)에서 얼굴 영역(630)이 검출되고, 특징점 검출부(340)에 의해 얼굴 영역(630) 내에서 특징점(640)들이 검출된 결과 영상을 나타낸다.The
3D 얼굴 모델 처리부(320)는 미리 등록되어 저장된 3D 형태 모델을 2D 입력 영상에 정합시킬 수 있다.  3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 파라미터를 조절하여 포즈 및 표정을 조정할 수 있다.  모델(650)은 미리 등륵되어 저장된 사용자 얼굴에 대한 3D 형태 모델을 나타내고, 모델(660)은 영상(610)에서 검출된 얼굴의 특징점(640)들에 기초하여 포즈 및 표정이 조정된 3D 형태 모델을 나타낸다.  3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일하게 미리 저장된 3D 형태 모델의 포즈를 조정할 수 있다.  2D 입력 영상인 영상(610)에서, 사용자는 얼굴을 측면으로 회전한 포즈를 취하고 있고, 3D 얼굴 모델 처리부(320)에 의해 포즈가 조정된 3D 형태 모델도 영상(610)에서의 사용자 포즈와 동일하게 얼굴이 측면으로 회전한 포즈를 취하고 있다.The 3D face
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다.  얼굴 인식 장치(300)의 3D 얼굴 모델 처리부(320)는 얼굴 인식을 위한 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다.  3D 얼굴 모델 처리부(320)는 조정된 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용하여, 3D 텍스쳐 모델의 포즈 및 표정을 3D 형태 모델과 동일하게 조정할 수 있다.  그 후, 3D 얼굴 모델 처리부(320)는 3D 텍스쳐 모델을 영상 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.  얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도에 기초하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.7 is a view for explaining a process of performing face recognition by comparing a 2D input image with a 2D projection image, according to an exemplary embodiment. The 3D face
도 7을 참조하면, 영상(710)은 얼굴 인식을 위해 이용되는 2D 입력 영상을 나타낸다.  영상(720)은 얼굴 인식부(350)가 얼굴 인식을 수행하기 위해 2D 입력 영상인 영상(710)과 비교되는 기준 영상이다.  영상(720)에 포함된 영역(730)은 3D 텍스쳐 모델로부터 생성된 2D 투영 영상이 반영된 영역을 나타낸다.  예를 들어, 영역(730)은 도 6의 형태 모델(660)에 텍스쳐가 맵핑된 텍스쳐 모델이 영상 평면으로 투영된 얼굴 영역일 수 있다.  얼굴 인식부(350)는 2D 입력 영상에 나타난 사용자의 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역만을 비교하여 얼굴 인식을 수행할 수 있다.  또는, 얼굴 인식부(350)는 도 7에서와 같이 2D 입력 영상인 영상(710)과 2D 입력 영상에 2D 투영 영상이 반영된 결과 영상인 영상(720)의 전체 영역을 비교하여 얼굴 인식을 수행할 수도 있다.Referring to FIG. 7 , an
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of a method for generating a 3D face model according to an exemplary embodiment.
단계(810)에서, 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다.  2D 얼굴 영상들은 사용자의 얼굴을 등록하는데 이용될 수 있다.  2D 얼굴 영상들은, 예를 들어, 정면 영상 및 측면 영상과 같이 다양한 얼굴 포즈로 촬영된 영상들을 포함할 수 있다.In
단계(820)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다.  예를 들어, 3D 얼굴 모델 생성 장치는 관련 기술 분아야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등을 이용하여 2D 얼굴 영상들로부터 눈썹, 눈, 코, 입 등의 윤곽에 위치한 얼굴의 특징점들을 검출할 수 있다.In
단계(830)에서, 3D 얼굴 모델 생성 장치는 검출된 특징점에 기초하여 3D 형태 모델을 생성할 수 있다.  3D 얼굴 모델 생성 장치는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및 턱 등의 특징점들과 3D 표준 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델을 생성할 수 있다.  3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다.In
단계(840)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상으로부터 추출한 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다.  3D 얼굴 모델 생성 장치는 적어도 하나의 2D 얼굴 영상으로부터 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 사용자 얼굴에 대한 3D 텍스쳐 모델을 생성할 수 있다.  3D 텍스쳐 모델은 3D 텍스쳐 모델의 파라미터가 적용되어 3D 텍스쳐 모델과 동일한 포즈 및 표정을 나타낼 수 있다.In
단계(850)에서, 3D 얼굴 모델 생성 장치는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고 저장할 수 있다.  저장된 3D 형태 모델 및 3D 텍스쳐 모델은 사용자 인증 과정에서 2D 입력 영상에 나타난 사용자를 인증하기 위해 이용될 수 있다.In
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of a face recognition method according to an exemplary embodiment.
단계(910)에서, 얼굴 인식 장치는 얼굴 인식을 위한 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다.  얼굴 인식 장치는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 턱, 입 등의 윤곽에 위치한 얼굴의 특징점을 검출할 수 있다.  예를 들어, 얼굴 인식 장치는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출하고, ASM, AAM, 또는 SDM 등을 이용하여 얼굴 영역 내에서 얼굴의 특징점을 검출할 수 있다.In
단계(920)에서, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 사용자의 3D 얼굴 모델을 조정할 수 있다.  얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다.  얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 3D 얼굴 모델을 변형할 수 있다.In
3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점들에 기초하여 3D 형태 모델의 포즈를 조정하고, 포즈가 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 얼굴 인식 장치 2D 입력 영상으로부터 검출된 특징점들에 기초하여 3D형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하고, 3D 형태 모델의 조정된 파라미터들을 3D 텍스쳐 모델에 적용할 수 있다. 파라미터들의 적용 결과, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정으로 조정될 수 있다.The 3D face model may include a 3D shape model and a 3D texture model, and the face recognition apparatus adjusts the pose of the 3D shape model based on feature points detected in the 2D input image, and the parameter of the 3D shape model with the adjusted pose Based on the information, the 3D texture model can be adjusted. A pose parameter and an expression parameter of the 3D shape model may be adjusted based on feature points detected from the 2D input image of the face recognition apparatus, and the adjusted parameters of the 3D shape model may be applied to the 3D texture model. As a result of the application of the parameters, the 3D texture model may be adjusted to the same pose and expression as that of the 3D shape model.
단계(930)에서, 얼굴 인식 장치는 3D 텍스쳐 모델로부터 2D 투영 영상을 생성할 수 있다.  얼굴 인식 장치는 단계(920)에서 3D 형태 모델에 기초하여 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.  2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 얼굴 포즈와 동일할 수 있다.  예를 들어, 2D 입력 영상에서 나타난 사용자의 얼굴 포즈가 측면을 바라보는 포즈라고 하면, 단계(910) 내지 단계(930)을 통해 생성된 2D 투영 영상도 2D 입력 영상에서와 동일하게 3D 텍스쳐 모델이 측면을 바라보는 얼굴 포즈를 나타낼 수 있다.In
단계(940)에서, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다.   얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다.  얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다.  예를 들어, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.In
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.  3D 얼굴 모델 생성 장치(1000)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다.  3D 얼굴 모델 생성 장치(1000)는 다양한 방향에서 촬영된 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다.  도 10을 참조하면, 3D 얼굴 모델 생성 장치(1000)는 영상 획득부(1010), 모션 센싱부(1020), 3D 얼굴 모델 생성부(1030) 및 3D 얼굴 모델 등록부(1040)를 포함할 수 있다.10 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to another exemplary embodiment. The 3D face
영상 획득부(1010)는 얼굴 등록을 위한 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.  영상 획득부(1010)는 카메라를 통해 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다.  예를 들어, 영상 획득부(1010)는 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.The
모션 센싱부(1020)는 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.  모션 센싱부(1020)는 다양한 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 결정할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다.  예를 들어, 모션 센싱부(1020)는 가속도 센서(accelerometer), 각속도 센서(gyroscope) 및 자기 센서(magnetometer)를 포함하는 관성 측정 장치(inertial measurement unit; IMU)를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 결정할 수 있다.The
예를 들어, 사용자는 카메라를 다양한 위치로 회전하여 얼굴을 촬영할 수 있고, 촬영 결과로서 다양한 시점에서 촬영된 2D 얼굴 영상들이 획득될 수 있다.  2D 얼굴 영상들이 촬영될 때, 모션 센싱부(1020)는 관성 측정 장치로부터 출력된 센싱 정보에 기초하여 2D 얼굴 영상들을 촬영한 카메라의 속도, 방향, 롤(roll), 피치(pitch) 및/또는 요(yaw)의 변화 등과 같은 모션 데이터를 계산하고, 모션 데이터로부터 2D 얼굴 영상들이 촬영된 방향에 관한 방향 데이터를 결정할 수 있다.For example, the user may photograph a face by rotating the camera to various positions, and 2D face images photographed at various viewpoints may be obtained as a result of the photographing. When the 2D face images are captured, the
3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에 나타난 사용자에 대한 3D 얼굴 모델을 생성할 수 있다.  3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다.  예를 들어, 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다.  3D 얼굴 모델 생성부(1030) 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다.The 3D
3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.  3D 얼굴 모델 생성부(1030)는, 예를 들어, 기존의 스테레오 매칭(stereo matching) 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.  사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 내지 표면을 구성하는 3D 포인트들의 집합일 수 있다.The 3D
3D 얼굴 모델 생성부(1030)는 사용자의 얼굴에 관한 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.  3D 얼굴 모델 생성부(1030)는 변형이 가능한(deformable) 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.  3D 얼굴 모델 생성부(1030)는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.  사용자에 대한 3D 얼굴 모델은 사용자 얼굴의 형태에 관한 3D 형상 모델 및/또는 텍스쳐 정보를 포함하는 3D 텍스쳐 모델을 포함할 수 있다.The 3D
3D 얼굴 모델 등록부(1040)는 3D 얼굴 모델 생성부(1030)에 의해 생성된 사용자에 대한 3D 얼굴 모델을 등록하고 저장할 수 있다.  저장된 사용자에 대한 3D 얼굴 모델은 사용자의 얼굴을 인식하기 위해 이용되고, 얼굴 인식 과정에서 형태가 변형될 수 있다.The 3D face
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of a method for generating a 3D face model according to another exemplary embodiment.
단계(1110)에서, 3D 얼굴 모델 생성 장치는 얼굴 등록을 위한 복수의 2D 얼굴 영상들 및 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.  3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 3D 얼굴 모델 생성 장치는 정면 영상 및 측면 영상 등과 같이 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다.In
3D 얼굴 모델 생성 장치는 모션 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 가속도 센서, 각속도 센서 및 자기 센서를 포함하는 관성 측정 장치를 통해 센싱된 모션 데이터를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 획득할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다.The 3D face model generating apparatus may obtain direction data of 2D face images by using motion data sensed through a motion sensor. For example, the 3D face model generating apparatus may obtain direction data for each of the 2D face images by using motion data sensed through an inertial measurement device including an acceleration sensor, an angular velocity sensor, and a magnetic sensor. The direction data of the 2D face images may include information about a direction in which each 2D face image is captured.
단계(1120)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다.  3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 검출된 특징점들에 기초하여 2D 얼굴 영상들 사이에서 서로 대응되는 대응점을 검출할 수 있다.In
단계(1130)에서, 3D 얼굴 모델 생성 장치는 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.  예를 들어, 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 또는 얼굴 표면을 구성하는 3D 포인트들의 집합으로서, 복수의 버텍스(vertex)들로 구성될 수 있다.  3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.  3D 얼굴 모델 생성 장치는 기존의 스테레오 매칭 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.In
단계(1140)에서, 3D 얼굴 모델 생성 장치는 단계(1130)에서 생성된 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.  3D 얼굴 모델 생성 장치는 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 사용자에 대한 3D 얼굴 모델을 생성할 수 있다.  3D 얼굴 모델 생성 장치는 사용자에 대한 3D 얼굴 모델로서 3D 형상 모델 및/또는 3D 텍스쳐 모델을 생성할 수 있다.  생성된 사용자에 대한 3D 얼굴 모델은 저장 및 등록되고, 사용자의 얼굴을 인식하기 위해 이용될 수 있다.In
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| US14/796,224US20160070952A1 (en) | 2014-09-05 | 2015-07-10 | Method and apparatus for facial recognition | 
| EP19200425.7AEP3614303B1 (en) | 2014-09-05 | 2015-07-15 | Method and apparatus for facial recognition | 
| EP15176898.3AEP2993614B1 (en) | 2014-09-05 | 2015-07-15 | Method and device for facial recognition | 
| CN201510441052.7ACN106203248A (en) | 2014-09-05 | 2015-07-24 | Method and apparatus for face recognition | 
| CN202210474282.3ACN114627543A (en) | 2014-09-05 | 2015-07-24 | Method and device for face recognition | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| KR1020140118828 | 2014-09-05 | ||
| KR20140118828 | 2014-09-05 | 
| Publication Number | Publication Date | 
|---|---|
| KR20160029629A KR20160029629A (en) | 2016-03-15 | 
| KR102357340B1true KR102357340B1 (en) | 2022-02-03 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| KR1020150001850AActiveKR102357340B1 (en) | 2014-09-05 | 2015-01-07 | Method and apparatus for face recognition | 
| Country | Link | 
|---|---|
| KR (1) | KR102357340B1 (en) | 
| CN (1) | CN106203248A (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| WO2024039026A1 (en)* | 2022-08-18 | 2024-02-22 | 슈퍼랩스 주식회사 | Method, computer device, and computer program for generating multi-angle image-based 3d avatar | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| KR101998361B1 (en)* | 2016-06-01 | 2019-07-10 | 가천대학교 산학협력단 | Method of facial recognition in camera image | 
| US11010595B2 (en)* | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus | 
| CN108932459B (en)* | 2017-05-26 | 2021-12-10 | 富士通株式会社 | Face recognition model training method and device and face recognition method | 
| CN108171182B (en)* | 2017-12-29 | 2022-01-21 | Oppo广东移动通信有限公司 | Electronic device, face recognition method and related product | 
| CN108470186A (en)* | 2018-02-14 | 2018-08-31 | 天目爱视(北京)科技有限公司 | A kind of matching process and device of image characteristic point | 
| US10776609B2 (en)* | 2018-02-26 | 2020-09-15 | Samsung Electronics Co., Ltd. | Method and system for facial recognition | 
| KR102543656B1 (en)* | 2018-03-16 | 2023-06-15 | 삼성전자주식회사 | Screen controlling method and electronic device supporting the same | 
| RU2697627C1 (en)* | 2018-08-01 | 2019-08-15 | Самсунг Электроникс Ко., Лтд. | Method of correcting illumination of an object on an image in a sequence of images and a user's computing device which implements said method | 
| CN108858201A (en)* | 2018-08-15 | 2018-11-23 | 深圳市烽焌信息科技有限公司 | It is a kind of for nursing the robot and storage medium of children | 
| CN109255327A (en)* | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | Acquisition methods, face's plastic operation evaluation method and the device of face characteristic information | 
| CN111310512B (en)* | 2018-12-11 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | User identity authentication method and device | 
| EP3674974B1 (en)* | 2018-12-31 | 2024-10-09 | Samsung Electronics Co., Ltd. | Apparatus and method with user verification | 
| CN110097035A (en)* | 2019-05-15 | 2019-08-06 | 成都电科智达科技有限公司 | A kind of facial feature points detection method based on 3D human face rebuilding | 
| CN110111418B (en)* | 2019-05-15 | 2022-02-25 | 北京市商汤科技开发有限公司 | Method and device for creating face model and electronic equipment | 
| KR102145517B1 (en)* | 2019-05-31 | 2020-08-18 | 주식회사 모르페우스 | Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data | 
| CN113971715B (en)* | 2020-07-22 | 2025-08-26 | 虹软科技股份有限公司 | A system for 3D face reconstruction based on deep learning | 
| CN113743272B (en)* | 2021-08-27 | 2025-08-22 | 清华大学 | 3D fingerprint expansion method and device | 
| CN114067414A (en)* | 2021-11-26 | 2022-02-18 | 南京烽火天地通信科技有限公司 | A Dense Keypoint Detection Algorithm Based on 3D Faces | 
| KR20240030109A (en)* | 2022-08-29 | 2024-03-07 | 삼성전자주식회사 | An electronic apparatus for providing avatar based on an user's face and a method for operating the same | 
| CN116965772A (en)* | 2023-06-30 | 2023-10-31 | 广东花至美容科技有限公司 | Face space calibration method, device and wearable device, beauty care system | 
| CN117789272A (en)* | 2023-12-26 | 2024-03-29 | 中邮消费金融有限公司 | Identity verification method, device, equipment and storage medium | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2005115847A (en)* | 2003-10-10 | 2005-04-28 | Babcock Hitachi Kk | Method for collating objects reflected in two-dimensional image and specific three-dimensional image | 
| JP2010128742A (en)* | 2008-11-27 | 2010-06-10 | Casio Computer Co Ltd | Three-dimensional data creation device | 
| JP2011039869A (en)* | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | Face image processing apparatus and computer program | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| CN100412885C (en)* | 2005-05-23 | 2008-08-20 | 株式会社东芝 | Image recognition device and method thereof | 
| CN101159015B (en)* | 2007-11-08 | 2010-12-08 | 清华大学 | A Recognition Method of Two-Dimensional Face Image | 
| JP4569670B2 (en)* | 2008-06-11 | 2010-10-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program | 
| CN101499132B (en)* | 2009-03-12 | 2013-05-01 | 广东药学院 | Three-dimensional transformation search method for extracting characteristic points in human face image | 
| CN102156537B (en)* | 2010-02-11 | 2016-01-13 | 三星电子株式会社 | A kind of head pose checkout equipment and method | 
| CN102271241A (en)* | 2011-09-02 | 2011-12-07 | 北京邮电大学 | Image communication method and system based on facial expression/action recognition | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2005115847A (en)* | 2003-10-10 | 2005-04-28 | Babcock Hitachi Kk | Method for collating objects reflected in two-dimensional image and specific three-dimensional image | 
| JP2010128742A (en)* | 2008-11-27 | 2010-06-10 | Casio Computer Co Ltd | Three-dimensional data creation device | 
| JP2011039869A (en)* | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | Face image processing apparatus and computer program | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| WO2024039026A1 (en)* | 2022-08-18 | 2024-02-22 | 슈퍼랩스 주식회사 | Method, computer device, and computer program for generating multi-angle image-based 3d avatar | 
| Publication number | Publication date | 
|---|---|
| KR20160029629A (en) | 2016-03-15 | 
| CN106203248A (en) | 2016-12-07 | 
| Publication | Publication Date | Title | 
|---|---|---|
| KR102357340B1 (en) | Method and apparatus for face recognition | |
| EP3614303B1 (en) | Method and apparatus for facial recognition | |
| KR102290392B1 (en) | Method and apparatus for registering face, method and apparatus for recognizing face | |
| US11386701B2 (en) | Face recognition method and apparatus | |
| KR101997500B1 (en) | Method and apparatus for generating personalized 3d face model | |
| EP4099221B1 (en) | Face recognition method and apparatus | |
| US9881204B2 (en) | Method for determining authenticity of a three-dimensional object | |
| US11238271B2 (en) | Detecting artificial facial images using facial landmarks | |
| KR102766550B1 (en) | Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus | |
| KR102836584B1 (en) | Liveness test method and liveness test apparatus | |
| KR101647803B1 (en) | Face recognition method through 3-dimension face model projection and Face recognition system thereof | |
| CN109766785B (en) | Method and device for liveness detection of human face | |
| KR102476016B1 (en) | Apparatus and method for determining position of eyes | |
| WO2021026281A1 (en) | Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms | |
| KR20230105986A (en) | Liveness test method and liveness test apparatus | |
| Bauer et al. | 4D Photogeometric face recognition with time-of-flight sensors | |
| KR101509934B1 (en) | Device of a front head pose guidance, and method thereof | 
| Date | Code | Title | Description | 
|---|---|---|---|
| PA0109 | Patent application | Patent event code:PA01091R01D Comment text:Patent Application Patent event date:20150107 | |
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination | Patent event code:PA02012R01D Patent event date:20191230 Comment text:Request for Examination of Application Patent event code:PA02011R01I Patent event date:20150107 Comment text:Patent Application | |
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection | Comment text:Notification of reason for refusal Patent event date:20210329 Patent event code:PE09021S01D | |
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration | Patent event code:PE07011S01D Comment text:Decision to Grant Registration Patent event date:20211025 | |
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment | Comment text:Registration of Establishment Patent event date:20220125 Patent event code:PR07011E01D | |
| PR1002 | Payment of registration fee | Payment date:20220126 End annual number:3 Start annual number:1 | |
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee | Payment date:20241219 Start annual number:4 End annual number:4 |