Movatterモバイル変換


[0]ホーム

URL:


JP2024506454A - digital makeup palette - Google Patents

digital makeup palette
Download PDF

Info

Publication number
JP2024506454A
JP2024506454AJP2023540040AJP2023540040AJP2024506454AJP 2024506454 AJP2024506454 AJP 2024506454AJP 2023540040 AJP2023540040 AJP 2023540040AJP 2023540040 AJP2023540040 AJP 2023540040AJP 2024506454 AJP2024506454 AJP 2024506454A
Authority
JP
Japan
Prior art keywords
makeup
user
augmented reality
reality system
further configured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023540040A
Other languages
Japanese (ja)
Other versions
JP7721649B2 (en
Inventor
ミンディ クリスティーン トラウトマン,
フランチェスカ ディー. クルーズ,
サンドリーヌ ガドル,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/137,970external-prioritypatent/US11321882B1/en
Priority claimed from US17/138,031external-prioritypatent/US12136173B2/en
Priority claimed from FR2107904Aexternal-prioritypatent/FR3125612B1/en
Priority claimed from FR2107923Aexternal-prioritypatent/FR3125611A1/en
Application filed by LOreal SAfiledCriticalLOreal SA
Publication of JP2024506454ApublicationCriticalpatent/JP2024506454A/en
Application grantedgrantedCritical
Publication of JP7721649B2publicationCriticalpatent/JP7721649B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Classifications

Landscapes

Abstract

Translated fromJapanese
Figure 2024506454000001

メイクアップ用の拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザが選択したメイクアップ目的情報に従ってバーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。
【選択図】図1

Figure 2024506454000001

The augmented reality system for makeup is operable with a graphical user interface configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. a makeup object unit including a coupled computational circuit; a makeup palette unit operably coupled to the makeup object unit, the makeup palette unit configured to apply digital makeup according to user-selected makeup object information; a makeup palette unit comprising a computational circuit configured to generate at least one digital makeup palette for a product; and a makeup palette unit configured to generate one or more instances of virtual try-on according to user-selected makeup objective information; and a make-up purpose visualization unit, including a calculation circuit configured to.
[Selection diagram] Figure 1

Description

Translated fromJapanese
関連出願の相互参照Cross-reference of related applications

本願は、2020年12月30日に出願された米国非仮出願第17/137,970号、2020年12月30日に出願された米国非仮出願第17/138,031号、2021年7月22日に出願されたフランス出願第2,107,923号、および2021年7月22日に出願されたフランス出願第2,107,904号に対する優先権の利益を主張し、当該出願のすべての記載内容を援用する。 This application is filed in U.S. Nonprovisional Application No. 17/137,970 filed on December 30, 2020, U.S. Nonprovisional Application No. 17/138,031 filed on December 30, 2020, and claims the benefit of priority to French Application No. 2,107,923, filed on July 22, 2021, and French Application No. 2,107,904, filed on July 22, 2021; The contents of this document are incorporated herein by reference.

本開示は、デジタルメイクアップパレット、およびデジタルメイクアップパレットを用いてパーソナライズされた拡張現実(augmented reality)の体験のための方法を対象とする。 The present disclosure is directed to digital makeup palettes and methods for personalized augmented reality experiences using digital makeup palettes.

前面カメラ付きのスマートフォンは、カメラを手元に持っている人がキャプチャされる画像を見ることができる形で、その人の写真およびビデオを撮影する機能を提供する。前面カメラを利用する、アプリとも称されるさまざまなモバイルアプリケーションが開発されている。一般的なアプリは、自撮り写真(セルフィー)と称される自画像写真を撮影し、ソーシャルメディアのコンテキストに自撮り写真を挿入し、電子メールまたは携帯メールで他人と共有するために自撮り写真を転送することを可能にするアプリである。 Smartphones with front-facing cameras provide the ability to take photos and videos of a person in such a way that the person holding the camera can see the images being captured. Various mobile applications, also referred to as apps, have been developed that utilize the front-facing camera. Common apps include taking self-portrait photos called selfies, inserting selfies into social media contexts, and sharing selfies with others via email or mobile. This is an app that allows you to transfer.

一部の化粧品会社では、化粧品の選択を支援するアプリの開発を開始している。そのアプリでは、特定のタイプのメイクアップを検索したり、またはお気に入りの製品を検索したり、もしくは以前に使用した製品を購入したりするためのツールを提供できる。一部のアプリでは、特定のタイプのメイクアップを適用する方法に関するチュートリアルを提供している。一部のアプリでは、カラーパレットを表示することで、口紅またはアイシャドウの色の選択を支援している。一部のアプリでは、衣服およびアクセサリーにマッチする色、または写真からの色の検索を支援するカラーマッチング機能を提供する。 Some cosmetics companies have started developing apps to help people choose cosmetics. The app can offer tools to search for specific types of makeup, search for favorite products, or buy previously used products. Some apps offer tutorials on how to apply certain types of makeup. Some apps help you choose a lipstick or eyeshadow color by displaying a color palette. Some apps offer color matching features to help you find colors to match clothing and accessories, or from photos.

一部の化粧品会社は、製品の試着(try-on)アプリケーションを提供することで、スマートフォン、タブレット、およびノートパソコンのカメラを利用し始めている。これらのアプリケーションの一部は、Webアプリケーション、つまりアプリとして実装される。これらの試着アプリケーションは、スマートフォンのカメラで自画像写真を撮影し、Webアプリケーションに写真をアップロードし、アップロードされた画像にバーチャルメイクアップ製品を適用することで機能する。これらの試着アプリケーションは、肌を滑らかにする、胸骨を持ち上げる、目の色を調整するなど、さまざまなオプションを提供できる。これらの試着アプリケーションは、色の濃さ(intensity)を変更するだけでなく、任意のタイプおよび任意の色のメイクアップ製品を追加する機能をユーザに提供することができる。 Some cosmetics companies have begun to take advantage of smartphone, tablet, and laptop cameras by offering product try-on applications. Some of these applications are implemented as web applications, or apps. These try-on applications work by taking a self-portrait photo with a smartphone camera, uploading the photo to a web application, and applying virtual makeup products to the uploaded image. These try-on applications can offer a variety of options, including smoothing the skin, lifting the sternum, adjusting eye color, and more. These try-on applications can provide users with the ability to add makeup products of any type and color, as well as change the intensity of the color.

しかし、このように提供された試着アプリケーションは、写真編集ツールによってルック(a look)を作成する傾向がある。以前の試着アプリケーションの一部は、アップロードされた写真から始まり、メイクアップのタイプおよび色を適用するワンステップの機能を提供し、その後メイクアップされた写真を編集できるようにする。そのようなツールは、個人のメイクアップ体験をキャプチャしない。また、以前の試着アプリケーションツールは、カスタムルックを作成しない。例えば、ユーザは金曜日のデートナイトルックを望んでいるかもしれない。以前の試着アプリケーションは金曜日のデートナイトルックを提供するかもしれないが、そのルックはユーザが考えていたものではないかもしれない。提供されたツールを用いてさらに編集を実行し、ユーザが金曜日のデートナイトルックであると考えているルックを得るよう試みてもよい。ただし、そのようなアプローチは編集ツールの機能によって制限される。ユーザは、ユーザの雰囲気またはユーザが表現したい雰囲気に基づいた金曜日のデートナイトルックを希望することがあるが、これには広範な編集が必要になることがある。 However, such provided try-on applications tend to create a look through photo editing tools. Some of the previous try-on applications start with an uploaded photo, offer one-step functionality to apply makeup type and color, and then allow the makeup-ed photo to be edited. Such tools do not capture an individual's makeup experience. Also, previous try-on application tools do not create custom looks. For example, a user may want a Friday date night look. A previous try-on application may offer a Friday date night look, but that look may not be what the user had in mind. Further editing may be performed using the tools provided to attempt to obtain a look that the user believes to be a Friday date night look. However, such an approach is limited by the capabilities of the editing tool. A user may want a Friday date night look based on the user's vibe or the vibe the user wants to express, but this may require extensive editing.

これらの以前の試着Webアプリケーションまたはアプリには、十分なパーソナライゼーション(personalization)が欠けている。というのは、以前のバーチャル試着アプリケーションが特定のブランドの物理的なメイクアップ製品に限定されていたからである。ユーザは、頭の中で考えている、または試したい特定のルックを作成できないことがある。ユーザが非現実的なルックに失望せずにメイクアップを試すのを楽しむことができる、特定のユーザ向けのカスタム試着体験を提供する必要がある。 These previous try-on web applications or apps lack sufficient personalization. That's because previous virtual try-on applications were limited to physical makeup products from specific brands. Users may not be able to create a particular look that they have in mind or want to try. There is a need to provide a custom try-on experience for specific users, where users can enjoy trying on makeup without being disappointed by unrealistic looks.

さらに、ユーザは、シミ(blemishes)、傷跡、加齢シミ(age spots)、色素沈着過剰など、メイクアップで処置したい問題領域を抱えていることがありうる。ユーザは、頬骨、目、唇などの特定の顔の特徴部分を強調したいこともある。特定のユーザの特定の問題領域または最適な顔の特徴部分に対処するのに役立ちうるカスタム試着体験を提供する必要がある。 Additionally, users may have problem areas that they would like to treat with makeup, such as blemishes, scars, age spots, hyperpigmentation, and the like. A user may also wish to emphasize certain facial features such as cheekbones, eyes, lips, etc. There is a need to provide a custom try-on experience that can help address specific problem areas or optimal facial features for a particular user.

フォーミュラ(処方)の専用パーソナライゼーションマシンを流通させる代替手段は、製品の少量を供給して、消費者が製品をテストし、その後消費者の肌上で測定された傾向に応じて製品レシピを変更するために、サンプリングシステムをマシンに追加する必要がありうるので、時間がかかり、かつ費用がかかる。 An alternative to distributing dedicated personalization machines for formulas is to supply small quantities of the product so consumers can test the product and then modify the product recipe according to trends measured on the consumer's skin. In order to do so, a sampling system may need to be added to the machine, which is time consuming and expensive.

さらに、各消費者の肌の問題領域および顔の特徴部分のばらつきが大きすぎるため、eコマース用のパーソナライズされた試着サービスは、スマートフォンを有する最終消費者には拡張することができない。 Furthermore, personalized try-on services for e-commerce cannot be extended to end consumers with smartphones because the variation in skin problem areas and facial features of each consumer is too large.

前述の「背景技術」の説明は、本開示の文脈を概括的に提示することを目的としている。この「背景技術」の節に説明されている範囲で現在名前が挙げられている発明者らの研究、および出願時にそれ以外に従来技術とみなされていない可能性がある説明の態様は、明示的にも黙示的にも本発明に対する従来技術とは認められない。 The foregoing "Background" discussion is intended to generally present the context of the present disclosure. The work of currently named inventors to the extent described in this Background Section, and aspects of the description that may not otherwise be considered prior art at the time of filing, are explicitly This invention is not recognized as prior art to the present invention, neither by definition nor by implication.

メイクアップ用の拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品のための少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザが選択したメイクアップ目的情報に従ってバーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。 The augmented reality system for makeup is operable with a graphical user interface configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. a makeup object unit including a coupled computational circuit; a makeup palette unit operably coupled to the makeup object unit, the makeup palette unit configured to apply digital makeup according to user-selected makeup object information; a makeup palette unit including a computational circuit configured to generate at least one digital makeup palette for a product; generate one or more instances of virtual try-on according to user-selected makeup objective information; and a make-up purpose visualization unit including a calculation circuit configured to.

メイクアップ用の拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、デジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザの顔を分析して、顔の形状、顔のランドマーク、肌の色合い、髪の色、目の色、唇の形状、まぶたの形状、ヘアスタイルおよび明るさ、のうちの1つ以上を決定し、ユーザが選択したメイクアップ目的情報と、ユーザの顔の分析に基づいて生成された少なくとも1つのデジタルメイクアップパレットとに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。 The augmented reality system for makeup is operable with a graphical user interface configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. a makeup object unit including a coupled computational circuit; a makeup palette unit operably coupled to the makeup object unit, the makeup palette unit comprising at least one digital makeup device for a digital makeup product; a makeup palette unit comprising a computational circuit configured to generate a palette; analyze a user's face to determine facial shape, facial landmarks, skin tone, hair color, eye color, lips; the shape of the eyelids, the shape of the eyelids, the hairstyle, and the brightness, and the at least one digital makeup is generated based on user-selected makeup purpose information and an analysis of the user's face. a palette; and a makeup objective visualization unit including a computational circuit configured to automatically create one or more instances of a custom virtual try-on for the user according to the palette.

例示的な実施形態の前述の概要の説明および以下の詳細な説明は、本開示の教示の単なる例示的な態様であり、限定的ではない。 The foregoing general description and the following detailed description of example embodiments are merely illustrative aspects of the teachings of this disclosure and are not limiting.

本開示のより完全な理解およびそれに付随する利点の多くは、添付図面と関連して考慮されるとき、以下の詳細な説明を参照することによって、よりよく理解されるように、容易に得られるであろう。 A more complete understanding of the present disclosure, and many of its attendant advantages, is readily obtained by reference to the following detailed description when considered in conjunction with the accompanying drawings. Will.

本開示の例示的な態様による、システムの図である。FIG. 1 is a diagram of a system, according to example aspects of the disclosure.モバイルデバイス用のコンピュータシステムのブロック図である。FIG. 1 is a block diagram of a computer system for a mobile device.本開示の例示的な態様による、カスタムルックを作成する方法のフローチャートである。図3Aは、ユーザがユーザ自身のカスタムルックを作成する方法であり、図3Bは、カスタムルックがモバイルアプリケーションによって作成される方法である。3 is a flowchart of a method for creating a custom look, according to an example aspect of the disclosure. FIG. 3A is how a user can create their own custom look, and FIG. 3B is how a custom look can be created by a mobile application.本開示の例示的な態様による、ルックをユーザ作成とするか、またはアプリ作成とするか、のいずれかを選択するための例示的なユーザインタフェースである。3 is an example user interface for selecting whether a look is user-created or app-created, according to example aspects of the present disclosure.本開示の例示的な態様による、デジタルメイクアップパレットを取得する方法のフローチャートである。3 is a flowchart of a method of obtaining a digital makeup palette, according to example aspects of the disclosure.本開示の例示的な態様による、例示的なデジタルメイクアップパレットを示す。1 illustrates an example digital makeup palette, according to example aspects of the present disclosure.本開示の例示的な態様による、例示的なデジタルメイクアップを示す。4 illustrates an example digital makeup in accordance with example aspects of the present disclosure.本開示の例示的な態様による、顔分析ステップをより詳細に示すフローチャートである。3 is a flowchart illustrating facial analysis steps in more detail, according to example aspects of the disclosure.顔形状を分類するためのCNNのブロック図である。FIG. 2 is a block diagram of a CNN for classifying facial shapes.顔のランドマーク検出のための深層学習ニューラルネットワークの図である。FIG. 2 is a diagram of a deep learning neural network for facial landmark detection.適用するバーチャル製品を選択するための例示的なユーザインタフェースである。2 is an example user interface for selecting a virtual product to apply;ユーザがメイクアップを適用するか、メイクアップを適用する方法を推奨するかを選択するための例示的なユーザインタフェースである。2 is an example user interface for a user to select whether to apply makeup or recommend a method for applying makeup.本開示の例示的な態様による、例示的なモバイルアプリケーションである。1 is an example mobile application in accordance with example aspects of the disclosure.レコメンダシステム(recommender system)の図である。FIG. 1 is a diagram of a recommender system.図12のレコメンダシステムの例示的なルックメイクアップマトリクス(look-makeup matrix)を示す。13 illustrates an example look-makeup matrix for the recommender system of FIG. 12; FIG.所望の特徴部分およびオリジナルの特徴部分に基づいて顔画像を作成するために使用されうるブレンドプロセスを示す。3 illustrates a blending process that may be used to create a facial image based on desired features and original features.本開示の例示的な態様による、バーチャルメイクアップ(virtual makeup)を適用するステップのフローチャートである。3 is a flowchart of steps for applying virtual makeup, according to example aspects of the present disclosure.メイクアップを適用しながら領域およびスワイプを記録するステップのフローチャートである。2 is a flowchart of steps for recording areas and swipes while applying makeup.問題領域または最良の特徴部分を推定するために、ユーザのメイクアップを適用したステップを分析するステップのフローチャートである。2 is a flowchart of steps for analyzing a user's makeup application to estimate problem areas or best features;本開示の例示的な態様による、メイクアップルックを格納するための例示的なユーザインタフェースである。3 is an example user interface for storing makeup looks, in accordance with example aspects of the present disclosure.本開示の例示的な態様による、デジタルパレットのカスタムアプリケーションの方法のフローチャートである。2 is a flowchart of a method for custom application of digital palettes, according to example aspects of the disclosure.カスタムメイクアップアプリケーションのステータスを示す例示的なユーザインタフェースである。3 is an example user interface showing the status of a custom makeup application.本開示の例示的な態様による、メイクアップフィルタを選択する方法のフローチャートである。3 is a flowchart of a method of selecting a makeup filter, according to an example aspect of the disclosure.メイクアップルックを保存するための例示的なユーザインタフェースである。1 is an example user interface for saving makeup looks.強化学習アーキテクチャ(reinforcement learning architecture)のブロック図である。1 is a block diagram of a reinforcement learning architecture; FIG.本開示の例示的な態様による、機械学習モデルのフロー図である。FIG. 2 is a flow diagram of a machine learning model, according to example aspects of the disclosure.

以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈で別段の指示がない限り、同様の記号は通常、同様の構成要素を特定する。詳細な説明に記載される例示的な実施形態、図面、および特許請求の範囲は、限定することを意味するものではない。本提示の主題の趣旨または範囲から逸脱することなく、他の実施形態が利用されてもよく、他の変更が行われてもよい。 In the following detailed description, reference is made to the accompanying drawings, which form a part of this specification. In the drawings, similar symbols typically identify similar components, unless the context indicates otherwise. The illustrative embodiments described in the detailed description, drawings, and claims are not meant to be limiting. Other embodiments may be utilized and other changes may be made without departing from the spirit or scope of the presented subject matter.

本開示の態様は、拡張現実の構成におけるデジタルメイクアップパレットを対象とする。デジタルメイクアップパレットは、顔の単一パーツまたは顔全体のデジタルメイクアップ用の色の取り合わせである。拡張現実の構成では、ユーザがメイクアップを適用するときのステップをキャプチャでき、適用したメイクアップ用のカスタムメイクアップフィルタを作成できる。拡張現実の構成では、ステップを分析して、ユーザが問題領域および最良の特徴部分と考えるものを特定できる。分析の結果を用いて、カスタム推奨を改善することができる。拡張現実の構成では、機械学習モデルを用いて分析を実行できる。機械学習モデルには、問題領域および最良の特徴部分を推定する人工ニューラルネットワークが含まれることがある。 Aspects of the present disclosure are directed to digital makeup palettes in augmented reality configurations. A digital makeup palette is an assortment of colors for digital makeup of a single part of the face or the entire face. Augmented reality configurations can capture the steps a user takes when applying makeup and create custom makeup filters for the applied makeup. In augmented reality configurations, steps can be analyzed to identify problem areas and what the user considers to be the best features. The results of the analysis can be used to improve custom recommendations. In augmented reality configurations, analysis can be performed using machine learning models. Machine learning models may include artificial neural networks that estimate the problem domain and the best features.

図1は、本開示の例示的な態様による、システムの図である。実施形態には、ソフトウェアアプリケーション、またはモバイルアプリケーション(アプリ)が含まれる。この開示の目的上、以下では、用語アプリはソフトウェアアプリケーションまたはモバイルアプリケーションと同じ意味で使用され、メイクアップアプリケーションは、バーチャル的または物理的にデジタルメイクアップを適用するプロセスに関連して使用される。ソフトウェアアプリケーションは、デスクトップコンピュータまたはノートパソコン103上で実行されてもよい。モバイルアプリケーションは、タブレットコンピュータまたは他のモバイルデバイス101上で実行されてもよい。本開示の目的のために、ソフトウェアアプリケーションおよびモバイルアプリケーションは、モバイルアプリケーション111に関して説明される。それぞれの場合において、モバイルアプリケーション111は、それぞれのデバイス101、103にダウンロードされ、インストールされてもよい。実施形態によっては、デスクトップコンピュータまたはノートパソコン103は、音声入力デバイスとしてマイクロフォン103aを備えて構成されてもよい。マイクロフォン103aは、USBポートまたは音声入力ポートを介して、あるいはBluetooth無線プロトコルを介して無線でデスクトップコンピュータまたはノートパソコン103に接続するデバイスであってもよい。モバイルデバイス101は、内蔵マイクロフォンを備えた携帯電話またはスマートフォンであってもよい。実施形態によっては、ソフトウェアアプリケーションまたはモバイルアプリケーション111は、クラウドサービス105と連携して動作する通信機能を含んでもよい。クラウドサービス105は、データベース管理サービス107および機械学習サービス109を含んでもよい。データベース管理サービス107は、クラウドサービス105で提供されるデータベース管理システムの任意のタイプであってもよい。例えば、データベース管理サービス107は、構造化照会言語(SQL)を使用してアクセスされるデータベース、および一般にNo SQLと呼ばれる、キーによってアクセスされる非構造化データベースを含んでもよい。機械学習サービス109は、機械学習に必要になりうるスケールアップおよび高性能コンピューティングを可能にするために、機械学習を実行してもよい。また、ソフトウェ アアプリケーションまたはモバイルアプリケーション111は、クラウドサービス105からダウンロードしてもよい。図1は、単一のクラウドサービス105、ノートパソコン103、およびモバイルデバイス101を示しているが、多数のモバイルデバイス、ノートパソコン、ならびにデスクトップコンピュータおよびタブレットコンピュータは、1つ以上のクラウドサービスに接続されうることを理解されたい。 FIG. 1 is a diagram of a system, according to example aspects of the disclosure. Embodiments include software applications or mobile applications (apps). For purposes of this disclosure, the term app will be used interchangeably with software application or mobile application, and makeup application will be used in connection with the process of applying digital makeup virtually or physically. The software application may run on a desktop computer orlaptop 103. Mobile applications may run on a tablet computer or othermobile device 101. For purposes of this disclosure, software applications and mobile applications will be described with respect tomobile application 111. In each case,mobile application 111 may be downloaded and installed on therespective device 101, 103. In some embodiments, desktop orlaptop computer 103 may be configured with amicrophone 103a as an audio input device.Microphone 103a may be a device that connects to desktop orlaptop computer 103 via a USB port or audio input port, or wirelessly via Bluetooth wireless protocol.Mobile device 101 may be a mobile phone or smart phone with a built-in microphone. In some embodiments, software ormobile application 111 may include communication functionality that operates in conjunction withcloud service 105.Cloud service 105 may includedatabase management service 107 andmachine learning service 109.Database management service 107 may be any type of database management system provided bycloud service 105. For example,database management services 107 may include databases that are accessed using structured query language (SQL) and unstructured databases that are accessed by key, commonly referred to as No SQL.Machine learning service 109 may perform machine learning to enable scale-up and high-performance computing that may be required for machine learning. Software ormobile application 111 may also be downloaded fromcloud service 105. Although FIG. 1 depicts asingle cloud service 105,laptop 103, andmobile device 101, multiple mobile devices, laptops, and desktop and tablet computers may be connected to one or more cloud services. I want you to understand that I can do it.

ソフトウェアアプリケーションまたはモバイルアプリケーション111は、グラフィカルユーザインタフェースに動作可能に結合されたメイクアップ目的ユニットと、メイクアップ目的ユニットに結合されたメイクアップパレットユニットと、メイクアップ目的視覚化ユニットと、を含む拡張現実システムとして実装されてもよい。メイクアップ目的ユニットは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されてもよい。メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従って、デジタルメイクアップ製品のための少なくとも1つのデジタルメイクアップパレットを生成するように構成されてもよい。メイクアップ目的視覚化ユニットは、ユーザが選択したメイクアップ目的情報に従って、バーチャル試着の1つ以上のインスタンスを生成するように構成されてもよい。メイクアップ目的ユニット、メイクアップパレットユニット、およびメイクアップ目的視覚化ユニットのそれぞれは、モバイルコンピュータデバイス101、103からデスクトップコンピュータデバイスに至るコンピュータシステムの計算回路を含んでもよい。最小要件は、コンピュータデバイスが対話型ディスプレイデバイスを含むことである。 The software application ormobile application 111 includes an augmented reality application that includes a makeup objective unit operably coupled to a graphical user interface, a makeup palette unit coupled to the makeup objective unit, and a makeup objective visualization unit. It may be implemented as a system. The makeup objective unit may be configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. The makeup palette unit may be configured to generate at least one digital makeup palette for digital makeup products according to user-selected makeup objective information. The makeup purpose visualization unit may be configured to generate one or more instances of virtual try-on according to user-selected makeup purpose information. Each of the makeup object unit, makeup palette unit, and makeup object visualization unit may include computing circuitry of a computer system ranging from amobile computing device 101, 103 to a desktop computing device. The minimum requirement is that the computing device include an interactive display device.

図2は、モバイルコンピュータデバイスのブロック図である。一実装形態では、モバイルデバイス101の機能およびプロセスは、1つ以上のそれぞれの処理/計算回路226によって実装されてもよい。同じまたは同様の処理/計算回路226は、タブレットコンピュータまたはノートパソコンに含まれてもよい。デスクトップコンピュータも同様に構成されうるが、場合によっては、内蔵タッチスクリーン221、マイクロフォン241、またはカメラ231を含まないことがある。プロセッサが計算回路を含むのと同様に、処理回路はプログラムされたプロセッサを含む。処理回路は、特定用途向け集積回路(ASIC)などのデバイスおよび記載された機能を実行するように構成された従来の回路構成要素も含んでよい。注意すべきは、回路とは、回路または回路システムを指す。ここで、計算回路は、1つのコンピュータシステム内にあってもよいし、コンピュータシステムのネットワーク全体に分散されていてもよい。 FIG. 2 is a block diagram of a mobile computing device. In one implementation, the functions and processes ofmobile device 101 may be implemented by one or more respective processing/computing circuits 226. The same or similar processing/computing circuitry 226 may be included in a tablet computer or laptop. Desktop computers may be similarly configured, but in some cases may not include an integrated touch screen 221,microphone 241, orcamera 231. Just as processors include computing circuits, processing circuits include programmed processors. Processing circuitry may also include devices such as application specific integrated circuits (ASICs) and conventional circuit components configured to perform the described functions. Note that circuit refers to a circuit or circuit system. Here, the calculation circuitry may be within one computer system or may be distributed throughout a network of computer systems.

次に、図2を参照して、例示的な実施形態による処理/計算回路226のハードウェアの記載を説明する。図2では、処理/計算回路226は、本明細書で説明されるプロセスを実行するモバイル処理ユニット(MPU)200を含む。プロセスデータおよび命令は、メモリ202に格納されてもよい。これらのプロセスおよび命令は、携帯記憶媒体に格納されてもよいし、またはリモートでも格納されてもよい。処理/計算回路226は、モバイルデバイス101のネットワークサービスに固有の情報を含む交換可能な加入者識別モジュール(SIM)201を有してもよい。 Referring now to FIG. 2, a hardware description of processing/computation circuitry 226 according to an exemplary embodiment will be described. In FIG. 2, processing/computing circuitry 226 includes a mobile processing unit (MPU) 200 that performs the processes described herein. Process data and instructions may be stored inmemory 202. These processes and instructions may be stored on portable storage media or may be stored remotely. Processing/computation circuitry 226 may include a replaceable subscriber identity module (SIM) 201 that contains information specific to the network service ofmobile device 101.

さらに、その進歩は、本発明プロセスの命令が格納されるコンピュータ読み取り可能媒体の形態に限定されない。例えば、命令は、フラッシュメモリ、セキュアデジタルランダムアクセスメモリ(SDRAM)、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、プログラマブル読み取り専用メモリ (PROM)、消去可能プログラマブル読み取り専用メモリ(EPROM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、ソリッドステートハードディスク、または、例えば、サーバもしくはコンピュータなどの処理/計算回路226が通信する任意の他の情報処理デバイスに格納されてもよい。 Furthermore, the advances are not limited to the form of computer readable medium on which the instructions of the inventive process are stored. For example, instructions can be used in flash memory, secure digital random access memory (SDRAM), random access memory (RAM), read only memory (ROM), programmable read only memory (PROM), erasable programmable read only memory (EPROM), electrical It may be stored in an erasable programmable read only memory (EEPROM), a solid state hard disk, or any other information handling device with which processing/computing circuitry 226 communicates, such as, for example, a server or computer.

さらに、その進歩は、MPU200と、Android、Microsoft(登録商標)Windows(登録商標)10 Mobile、Apple iOS(登録商標)および当業者に公知の他のシステムなどのモバイルオペレーティングシステムとを組み合わせて実行されるユーティリティアプリケーション、バックグラウンドデーモン、またはオペレーティングシステムのコンポーネント、あるいはこれらの組み合わせとして提供されてもよい。 Additionally, the advancements are implemented in combination with theMPU 200 and mobile operating systems such as Android, Microsoft® Windows 10 Mobile, Apple iOS® and other systems known to those skilled in the art. It may be provided as a utility application, a background daemon, or a component of the operating system, or a combination thereof.

処理/計算回路226を実現するために、ハードウェア要素は、当業者に公知のさまざまな回路要素によって実現されうる。例えば、MPU200は、Qualcommモバイルプロセッサ、Nvidiaモバイルプロセッサ、米国インテル社のAtom(登録商標)プロセッサ、Samsungモバイルプロセッサ、またはApple A7モバイルプロセッサであってもよいか、または当業者によって認識できる他のプロセッサタイプであってもよい。あるいは、当業者であれば理解できるように、MPU200は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)上で、または個別の論理回路を使用して実装されうる。さらに、MPU200は、上述した発明的プロセスの命令を実行するために並行して協働する複数のプロセッサとして実装されてもよい。 To implement the processing/computation circuit 226, the hardware elements may be implemented by various circuit elements known to those skilled in the art. For example, theMPU 200 may be a Qualcomm mobile processor, an Nvidia mobile processor, an Intel Atom processor, a Samsung mobile processor, or an Apple A7 mobile processor, or other processor types recognized by those skilled in the art. It may be. Alternatively,MPU 200 may be implemented on a field programmable gate array (FPGA), application specific integrated circuit (ASIC), programmable logic device (PLD), or using separate logic circuits, as will be understood by those skilled in the art. Can be implemented. Additionally,MPU 200 may be implemented as multiple processors working together in parallel to execute the instructions of the inventive process described above.

図2の処理/計算回路226は、ネットワーク224とインタフェースするための、米国インテル社からの「インテルイーサネットプロ」ネットワークインタフェースカードなどのネットワークコントローラ206も含む。理解できるように、ネットワーク224は、インターネットなどの公衆ネットワーク、またはLANまたはWANネットワークなどのプライベートネットワーク、あるいはそれらの任意の組み合わせとすることができ、さらにPSTNまたはISDNサブネットワークも含むことができる。ネットワーク224は、イーサネットネットワークなどの有線でありうる。処理回路は、3G、4G、および5G無線モデム、WiFi(登録商標)、Bluetooth(登録商標)、GPS、または他の公知の無線通信形式を含む無線通信のためのさまざまなタイプの通信プロセッサを含んでもよい。 The processing/computing circuitry 226 of FIG. 2 also includes anetwork controller 206, such as an Intel Ethernet Pro network interface card from Intel Corporation, for interfacing with thenetwork 224. As can be appreciated,network 224 can be a public network, such as the Internet, or a private network, such as a LAN or WAN network, or any combination thereof, and can also include a PSTN or ISDN subnetwork.Network 224 may be wired, such as an Ethernet network. The processing circuitry includes various types of communication processors for wireless communications, including 3G, 4G, and 5G wireless modems, WiFi, Bluetooth, GPS, or other known forms of wireless communication. But that's fine.

処理/計算回路226は、MPU200によって管理されうるユニバーサルシリアルバス(USB)コントローラ225を含む。 Processing/computing circuit 226 includes a universal serial bus (USB) controller 225 that may be managed byMPU 200.

処理/計算回路226は、ディスプレイ210とインタフェースするための、米国NVIDIA社のNVIDIA(登録商標)GeForce(登録商標)GTXまたはQuadro(登録商標)グラフィックスアダプタなどのディスプレイコントローラ208をさらに含む。I/Oインタフェース212は、音量制御などのためのボタン214とインタフェースする。I/Oインタフェース212およびディスプレイ210に加えて、処理/計算回路226は、マイクロフォン241および1つ以上のカメラ231をさらに含んでもよい。マイクロフォン241は、音声をデジタル信号に処理するための関連回路240を有してもよい。同様に、カメラ231は、カメラ231の画像取り込み動作を制御するためのカメラコントローラ230を含んでもよい。例示的な態様では、カメラ231は電荷結合素子(CCD)を含んでもよい。処理/計算回路226は、音声出力信号を生成するための音声回路242を含んでもよく、また、オプションの音声出力ポートを含んでもよい。 Processing/computing circuitry 226 further includes a display controller 208, such as an NVIDIA® GeForce® GTX or Quadro® graphics adapter from NVIDIA, Inc., for interfacing with display 210. I/O interface 212 interfaces with buttons 214 for volume control and the like. In addition to I/O interface 212 and display 210, processing/computing circuitry 226 may further include amicrophone 241 and one ormore cameras 231.Microphone 241 may have associated circuitry 240 for processing audio into digital signals. Similarly,camera 231 may include a camera controller 230 for controlling image capture operations ofcamera 231. In an exemplary embodiment,camera 231 may include a charge coupled device (CCD). Processing/computation circuitry 226 may include audio circuitry 242 for generating an audio output signal and may include an optional audio output port.

パワーマネージメントおよびタッチスクリーンコントローラ220は、処理/計算回路226およびタッチ制御によって使用される電力を管理する。通信バス222は、業界標準アーキテクチャ(ISA)、拡張業界標準アーキテクチャ(EISA)、ビデオエレクトロニクス標準協会(VESA)、周辺コンポーネントインタフェース(PCI)、または同様のものであってもよく、処理/計算回路226のすべてのコンポーネントを相互接続するためのものである。ディスプレイ210、ボタン214、ならびにディスプレイコントローラ208、パワーマネージメントコントローラ220、ネットワークコントローラ206、およびI/Oインタフェース212の一般的な特徴および機能の説明については、これらの特徴は公知であり、簡潔にするために本明細書では省略する。 Power management and touch screen controller 220 manages power used by processing/computing circuitry 226 and touch controls. Thecommunication bus 222 may be Industry Standard Architecture (ISA), Extended Industry Standard Architecture (EISA), Video Electronics Standards Association (VESA), Peripheral Component Interface (PCI), or the like, and the processing/computing circuitry 226 It is for interconnecting all the components of the. A description of the general features and functions of display 210, buttons 214, and display controller 208, power management controller 220,network controller 206, and I/O interface 212, as these features are well known, is omitted for brevity. are omitted in this specification.

図3A、図3Bは、カスタムルック、ならびに顔の問題領域および最良の顔の特徴部分の特別な処理を作成する方法のフローチャートである。図3Aは、本開示の例示的な態様による、ユーザがデジタルパレットを有するバーチャルメイクアップ製品を適用することによってカスタムルックを作成する方法のフローチャートである。 3A and 3B are flowcharts of a method for creating custom looks and special treatments of facial problem areas and best facial features. FIG. 3A is a flowchart of a method for a user to create a custom look by applying virtual makeup products with a digital palette, according to an example aspect of the present disclosure.

開示された実施形態は、デジタルメイクアップパレットを含む。デジタルメイクアップパレットは、デジタルメイクアップ用のバーチャルパレットである。本開示では、用語バーチャルメイクアップおよびデジタルメイクアップは同じ意味で使用されることがある。デジタルメイクアップでは、色の取り合わせを有し、そこから選択できる。特定のデジタルメイクアップは、関連付けられたメイクアップ適用ジェスチャおよび通常適用される1つ以上の顔パーツを有してよく、デジタルメイクアップパレットには、カバレッジ、色合い、仕上がりなどの特性が含まれる。物理的なメイクアップ製品とは異なり、デジタルメイクアップは化学組成に由来する色に限定されず、より広範囲の色を含むことがある。また、デジタルメイクアップは、色温度、露出、コントラスト、彩度のさまざまなフィルタの適用、ならびにRGBおよびHCL値の制御など、ディスプレイデバイスの特性を使用して生成されるカバレッジ、色合い、仕上がりを利用する場合がある。 The disclosed embodiments include a digital makeup palette. A digital makeup palette is a virtual palette for digital makeup. In this disclosure, the terms virtual makeup and digital makeup may be used interchangeably. Digital makeup has an assortment of colors from which you can choose. A particular digital makeup may have an associated makeup application gesture and one or more facial parts to which it is typically applied, and a digital makeup palette includes characteristics such as coverage, tint, finish, etc. Unlike physical makeup products, digital makeup is not limited to colors derived from chemical composition and may include a wider range of colors. Digital makeup also takes advantage of the coverage, tint, and finish produced using the characteristics of the display device, such as applying various filters for color temperature, exposure, contrast, and saturation, as well as controlling RGB and HCL values. There are cases where

カバレッジは、通常、デジタルメイクアップに含まれる顔料の割合に基づいたデジタルメイクアップの実際のカバレッジである。カバレッジは通常、ファンデーションメイクアップに関係するが、補正メイクアップまたはプライマーを指す場合もある。ライトカバーメイクアップには、約18%未満の顔料が含まれる場合がある。ミディアムカバー製品には、約18%から23%の顔料が含まれる場合がある。フルカバーメイクアップには最大約35%の顔料が含まれる場合がある。一部のメイクアップ製品には、より多量の顔料が含まれている場合がある。実施形態によっては、デジタルメイクアップのカバレッジは、バーチャルメイクアップの単一のブラシストロークを表す不透明フィルタとして実装される。 Coverage is usually the actual coverage of digital makeup based on the percentage of pigments included in the digital makeup. Coverage usually relates to foundation makeup, but can also refer to corrective makeup or primer. Light coverage makeup may contain less than about 18% pigment. Medium coverage products may contain about 18% to 23% pigment. Full coverage makeup may contain up to about 35% pigment. Some makeup products may contain higher amounts of pigment. In some embodiments, digital makeup coverage is implemented as an opacity filter that represents a single brushstroke of virtual makeup.

デジタルメイクアップの色合いは、色白から浅黒い色(dark)まで、場合によっては非常に色白から濃い色(deep)、さらには非常に濃いものにまでおよびうる。色合いは、肌の色などの単一の色を表す場合がある。1つ以上の実施形態では、デジタルメイクアップの色合いは、表示色の範囲、例えば、RGB値に従って表示される赤色の色合いとして実装される。 Digital makeup shades can range from fair to dark, and in some cases from very fair to deep to very dark. A hue may represent a single color, such as skin tone. In one or more embodiments, digital makeup shades are implemented as shades of red that are displayed according to a display color range, e.g., RGB values.

デジタルメイクアップの仕上がりには、マット(くすんだ)、クリーム(光沢のあるまたは光沢のある)、フロスト(反射)、およびグリッター(グリッター粒子)などの一般的な仕上がりが含まれる場合がある。仕上がりは、反射される光の量によって定義される場合がある。マットは光をほとんど反射しない。クリームはパールのような光沢を保つ。フロストおよびグリッターは最も多くの光を反射する。1つ以上の実施形態では、デジタルメイクアップの仕上がりは色の輝度(明るさ)として実現される。マットは輝度値が低くてもよく、欠陥を隠す。フロストはより大きな輝度を発してもよい。 Digital makeup finishes may include common finishes such as matte (dull), cream (shiny or glossy), frost (reflective), and glitter (glitter particles). Finish may be defined by the amount of light reflected. Matte reflects very little light. The cream maintains a pearl-like shine. Frost and glitter reflect the most light. In one or more embodiments, digital makeup results are realized as color intensity (brightness). Matte can have low brightness values and hides imperfections. Frost may emit greater brightness.

デジタルメイクアップは、ぼかし、色温度、および彩度などのさまざまなフィルタを含んでもよい。欠陥のある領域にぼかしを適用して、欠陥を目立たなくしてもよい。 Digital makeup may include various filters such as blur, color temperature, and saturation. A blur may be applied to the defective area to make the defect less noticeable.

メイクアップパレットを取得する前に、S301では、ユーザは、モバイルデバイス、タブレット、ノートパソコン、またはデスクトップコンピュータ上でアプリ111を立ち上げてもよい。アプリ111は、メイクアップ目的ユニットを介して、ユーザがどのようなタイプのルックを作成したいかを質問することができる。ユーザがこの質問に答えるのを支援するために、アプリ111は、事前定義されたメイクアップルックのリストを生成してよく、ユーザは、事前定義されたメイクアップルックを選択してよい。事前定義されたメイクアップルックには、いくつか例を挙げると、シーズンルック(春、夏、秋)、イベントルック(金曜日のデートナイト、ガールズナイトアウト、特別なデート、義母との外出、休暇、パーティ、大晦日、ブライダル、プロム)、完了までの時間に基づくルック(クイックメイクアップ、平均的なメイクアップ、ゆっくりと時間をかけたメイクアップ)、ムードルック(陽気、ハッピー、私に気づいて)、スタイル(ナチュラル、イブニング、グラマー、ゴシック、オフィス)、美的ルック(VSCO、eGirl、ソフトガール)を含むことができる。 Prior to obtaining the makeup palette, at S301, a user may launch theapp 111 on a mobile device, tablet, laptop, or desktop computer. Theapp 111 can ask the user what type of look they would like to create via the makeup objectives unit. To assist the user in answering this question,app 111 may generate a list of predefined makeup looks, and the user may select a predefined makeup look. Predefined makeup looks include seasonal looks (spring, summer, fall), event looks (Friday date night, girls night out, special date, mother-in-law outing, vacation, etc.), to name a few. Party, New Year's Eve, Bridal, Prom), looks based on time to complete (quick makeup, average makeup, slow makeup), mood looks (cheerful, happy, notice me), It can include styles (natural, evening, glamor, gothic, office), aesthetic looks (VSCO, eGirl, soft girl).

さらに、アプリ111は、メイクアップ目的ユニットを介して、メイクアップを使用する経験レベルを定義するようにユーザに質問してよい。ユーザの経験レベルには、初心者/新人レベル、経験豊富なレベル、専門家レベル、およびプロフェッショナルが含まれうる。初心者/新人レベルは、メイクアップを適用した経験がほとんどない、またはまったくないユーザであってもよい。経験豊富なレベルは、以前にメイクアップを適用したことがあり、したがってある程度の経験を有するユーザであってもよい。専門家レベルは、1年以上など、一定期間メイクアップを適用しており、メイクアップを適切に適用する方法を学ぶための措置を講じているユーザであってもよい。プロフェッショナルレベルは、他のユーザにメイクアップを適用するユーザであってもよい。実施形態によっては、アプリ111は、ユーザがユーザプロファイルを作成するために使用してもよいインタフェースを提供してよく、とりわけ、ユーザの経験レベルを入力することを含むことができる。 Additionally, theapp 111 may ask the user, via a makeup objective unit, to define their experience level in using makeup. User experience levels may include novice/newbie level, experienced level, expert level, and professional. A beginner/novice level may be a user who has little or no experience applying makeup. The experienced level may be a user who has applied makeup before and therefore has some experience. An expert level may be a user who has been applying makeup for a period of time, such as one year or more, and who has taken steps to learn how to properly apply makeup. The professional level may be a user who applies makeup to other users. In some embodiments,app 111 may provide an interface that a user may use to create a user profile, which may include, among other things, inputting the user's experience level.

アプリ111は、選択されたルックおよびユーザの経験レベルを出発点として利用してよい。例えば、メイクアップを適用することが初めてのユーザは、試してみたいと思うだろうし、メイクアップを適用することに関して学びたいと思うかもしれない。以前にメイクアップを適用した経験があり、知識および創造性を広げたいと考えている経験豊富なユーザは、新しいメイクアップ製品またはメイクアップルックを試してみたいと思うかもしれない。専門家ユーザはメイクアップを適用した豊富な経験を有しているかもしれないが、自分の創造性を広げて、プロのメイクアップアーティストによって作成されるような品質のルックを取得したいと考えているであろう。その後、アプリ111は、後の段階で推奨事項を提供する際に、選択されたルックおよびユーザの経験レベルを使用してもよい。App 111 may use the selected look and the user's experience level as a starting point. For example, a user who is new to applying makeup may want to try it out and learn about applying makeup. Experienced users who have previously applied makeup and want to expand their knowledge and creativity may want to try new makeup products or makeup looks. Professional users may have extensive experience applying makeup, but want to expand their creativity and obtain quality looks like those created by professional makeup artists. Will. Theapp 111 may then use the selected look and user's experience level in providing recommendations at a later stage.

S303では、アプリ111は、アプリ111にカスタムルックを提供させるか、またはユーザが自分の顔画像にバーチャルメイクアップを適用するかの選択をユーザに提供してよい。実施形態によっては、S305では、メイクアップパレットユニットは、少なくとも1つのデジタルメイクアップパレットを生成してよい。特に、ユーザは、例えば、アプリ111ストアからデジタルメイクアップをダウンロードすることによって、またはデジタルメイクアップを提供するウェブサイトからダウンロードすることによって、特定のバーチャルメイクアップ用のデジタルメイクアップパレットを取得してよい。1つ以上の実施形態では、ユーザは、デジタルメイクアップパレットをメイクアップルックのバリエーションに合わせて変更してよい。例えば、ユーザは、VSCOガールルックなどのメイクアップルックのためにデジタルメイクアップパレットを変更して、多かれ少なかれドラマチックにしてよい。あまりドラマチックではないルックには、メイクアップルックに対して異なるデジタルメイクアップパレットを取得することを要する場合があるか、または顔パーツ、例えば、唇、まぶた、鼻に対して異なるデジタルメイクアップを取得することを要する場合がある。 At S303, theapp 111 may provide the user with a choice of having theapp 111 provide a custom look or having the user apply virtual makeup to his or her facial image. In some embodiments, at S305, the makeup palette unit may generate at least one digital makeup palette. In particular, the user may obtain a digital makeup palette for a particular virtual makeup, for example by downloading the digital makeup from anapp 111 store or by downloading from a website offering digital makeup. good. In one or more embodiments, a user may modify a digital makeup palette for variations in makeup looks. For example, a user may change the digital makeup palette for a makeup look, such as a VSCO girl look, to be more or less dramatic. A less dramatic look may require getting a different digital makeup palette for the makeup look, or getting different digital makeup for facial parts, e.g. lips, eyelids, nose. It may be necessary to do so.

図4は、メイクアップを適用する方法を選択する機能を含むアプリ111のグラフィカルユーザインタフェースの一例である。実施形態によっては、ユーザは、アプリ111にカスタムルックを実行させるか、またはユーザがデジタルメイクアップを適用するかについて決定する(S303)前に、デジタルメイクアップパレットを取得してもよい(S305)。図4に戻って参照すると、ユーザインタフェース400は、ファンデーション401a、アイシャドウ401b、およびコンシーラー401cなど、ユーザが取得した製品401を表示できる。ユーザインタフェース400は、カスタムルックを作成する(403)、または1つ以上のバーチャルメイクアップを手動で適用することによってルックを作成する(405)など、機能の選択をユーザに提供することができる(図3AのS303を参照)。 FIG. 4 is an example of a graphical user interface forapp 111 that includes the ability to select how to apply makeup. In some embodiments, the user may obtain a digital makeup palette (S305) before having theapp 111 perform a custom look or determining whether the user applies digital makeup (S303). . Referring back to FIG. 4,user interface 400 can displayproducts 401 acquired by the user, such asfoundation 401a,eyeshadow 401b, andconcealer 401c. Theuser interface 400 may provide the user with a selection of functionality, such as creating a custom look (403) or creating a look by manually applying one or more virtual makeup (405). (See S303 in FIG. 3A).

実施形態によっては、アプリ111は、事前定義されたルックのリストをユーザに提供してよく、ユーザは、事前定義されたルックを出発点として選択してよい。事前定義されたルックを選択すると、アプリ111は、選択されたルックに対する推奨デジタルメイクアップおよび/またはデジタルメイクアップパレットのセットをユーザに提供できる。ユーザは、推奨のセットに基づいて、データベース107からか、またはメイクアップ提供者から、例えばメイクアップ提供者のウェブサイトから、デジタルメイクアップおよびデジタルメイクアップパレットを取得してよい。 In some embodiments, theapp 111 may provide the user with a list of predefined looks, and the user may select a predefined look as a starting point. Upon selecting a predefined look, theapp 111 may provide the user with a set of recommended digital makeup and/or digital makeup palettes for the selected look. The user may obtain digital makeup and digital makeup palettes from thedatabase 107 or from a makeup provider, such as from a makeup provider's website, based on the set of recommendations.

図5は、デジタルメイクアップパレットを取得する方法のフローチャートである。図5を参照すると、S501では、ユーザは、メイクアップ目的ユニットを介して、所望のルックを入力し、S503では、メイクアップ経験のレベルを入力する。S505では、ユーザはメイクアップパレットユニットを介してデジタルメイクアップパレットを取得する。所望のルック(本明細書ではバーチャル試着とも呼ぶ)は、事前定義されたルックのリストから選択しても、事前定義されたルックを反映するルック名として入力してもよい。場合によっては、ユーザは、事前定義されたルックを持たない新しいルック、または事前定義されたルックの変更であるルックを入力することがある。 FIG. 5 is a flowchart of a method for obtaining a digital makeup palette. Referring to FIG. 5, at S501, a user inputs a desired look via a makeup destination unit, and at S503, a user inputs a level of makeup experience. In S505, the user obtains a digital makeup palette via the makeup palette unit. The desired look (also referred to herein as a virtual try-on) may be selected from a list of predefined looks or entered as a look name that reflects the predefined look. In some cases, a user may enter a new look that does not have a predefined look, or a look that is a modification of a predefined look.

デジタルメイクアップパレットは、特定のタイプのメイクアップルックを作成するためのパレットであってもよい。デジタルメイクアップパレットは、物理的なメイクアップ製品と同様にメイクアップ会社から購入しても、またはデジタルメイクアップ製品を専門とするWebサイトから取得してもよい。図6は、本開示の例示的な態様によるデジタルメイクアップパレットを有するユーザインタフェースを示す。ユーザインタフェースは、特定のメイクアップルック603および特定のユーザ経験レベル605用のデジタルメイクアップパレット601を含んでもよい。デジタルメイクアップパレット601は、特定の色、カバレッジ、色合い、および仕上がりの、特定のデジタルメイクアップを選択するためのボタンを含んでもよい。ユーザ経験レベル605は、一般的なアプリケーションから精密なアプリケーションまでの範囲で、スライドバーによって制御されてもよい。ユーザインタフェースは、メイクアップアプリケータツール607を選択するためのボタンを含んでもよい。 A digital makeup palette may be a palette for creating a specific type of makeup look. Digital makeup palettes may be purchased from makeup companies in the same way as physical makeup products, or obtained from websites that specialize in digital makeup products. FIG. 6 illustrates a user interface with a digital makeup palette according to example aspects of the disclosure. The user interface may include adigital makeup palette 601 for aparticular makeup look 603 and a particularuser experience level 605.Digital makeup palette 601 may include buttons for selecting a particular digital makeup of particular color, coverage, shade, and finish.User experience level 605 may range from general applications to precise applications and may be controlled by a slide bar. The user interface may include a button for selectingmakeup applicator tool 607.

デジタルメイクアップパレットには1つ以上の特定のデジタルメイクアップが含まれており、物理的なメイクアップと同様に、特定の色、カバレッジ、色合い、仕上がりを備えている。物理的なメイクアップとは異なり、カバレッジは不透明フィルタとして実装されてよく、色合いはRGB値の範囲として実装され、仕上がりは色の濃度または色の明るさであってよい。 A digital makeup palette contains one or more specific digital makeups, similar to physical makeup, with specific colors, coverage, shades, and finishes. Unlike physical makeup, coverage may be implemented as an opaque filter, tint as a range of RGB values, and finish may be the intensity of a color or the brightness of a color.

デジタルメイクアップパレットも、汎用のメイクアップパレットであってもよい。さらに、デジタルメイクアップパレットは、顔の一部に対する特定のバーチャルメイクアップ用であってもよい。図7は、1つ以上のバーチャルメイクアップ用の入れ物および1つ以上のメイクアップアプリケータツール用の入れ物を有するユーザインタフェースを示す。バーチャルメイクアップは、製品701、または1つ以上のメイクアップ提供者のウェブサイトから取得された製品であってもよい。バーチャルメイクアップ製品は、ユーザ703のメイクアップバッグに格納されてもよい。ユーザエクスペリエンスレベル705は、一般的なアプリケーションから精密なアプリケーションまでの範囲で、スライドバーによって制御されてもよい。メイクアップアプリケータツールは、入れ物707に格納されてもよい。特定のバーチャルメイクアップ製品を適用するために、さまざまなメイクアップアプリケータツールを使用してよい。アプリケータツールのタイプには、ブラシ、スポンジメイクアップアプリケータ、メイクアップアプリケータパフが含まれうる。ブラシにはさまざまな幅があってよく、角度のついた先端、平らな先端、または尖った先端を有してよい。マスカラブラシなどの特殊なブラシには剛毛がある。一般的なスポンジアプリケータは、先端が1つまたは2つ付いたスポンジ綿棒である。一部のスポンジは平らな楕円形である。一部のスポンジはくさび形をしている場合がある。パフにはさまざまなサイズと素材があってよい。一部のメイクアップ製品は、メイクアップペンシル、例えばアイブロウペンシル、アイライナーペンシル、およびリップライナーペンシルの形態である。コンシーラーおよびハイライター製品には、ペンのようなディスペンサーが内蔵されている場合がある。 The digital makeup palette may also be a general-purpose makeup palette. Additionally, the digital makeup palette may be for specific virtual makeup on a portion of the face. FIG. 7 shows a user interface with one or more containers for virtual makeup and one or more containers for makeup applicator tools. The virtual makeup may be aproduct 701 or a product obtained from one or more makeup provider websites. Virtual makeup products may be stored in the user's 703 makeup bag.User experience level 705 may range from general applications to precise applications and may be controlled by a slide bar. Makeup applicator tools may be stored incontainer 707. Various makeup applicator tools may be used to apply certain virtual makeup products. Types of applicator tools may include brushes, sponge makeup applicators, makeup applicator puffs. Brushes may come in a variety of widths and may have angled, flat, or pointed tips. Specialized brushes, such as mascara brushes, have bristles. A common sponge applicator is a sponge swab with one or two tips. Some sponges are flat oval shaped. Some sponges may be wedge-shaped. Puffs can come in a variety of sizes and materials. Some makeup products are in the form of makeup pencils, such as eyebrow pencils, eyeliner pencils, and lipliner pencils. Concealer and highlighter products may have a built-in pen-like dispenser.

バーチャルメイクアップには、スタイラス、マウス、内蔵モーションセンサを備えた物理的なアプリケータツール、さらにはユーザの指を使用した実際の物理的なジェスチャに従って動作するように構成されうるアプリケータツールが含まれる場合がある。物理的ジェスチャを行って、バーチャルブラシにスタイラスの動きおよび力に応じたブラシストロークを適用させてもよい。実施形態によっては、スタイラスは、タッチスクリーン上の力の量によって、その力に見合った太さを有する線が生成されるモバイルデバイスの3Dタッチ画面上で使用されうる。実施形態によっては、スタイラスは、メイクアップアプリケータの形態をとり、ユーザがスタイラスを使用して顔画像にバーチャル的にメイクアップを適用するときに、ブラシストロークの動きおよび力を検出するための動きセンサおよび力センサの両方を含んでもよい。 Virtual makeup includes a stylus, a mouse, a physical applicator tool with a built-in motion sensor, and even an applicator tool that can be configured to operate according to real physical gestures using the user's fingers. There may be cases where Physical gestures may be made to cause the virtual brush to apply brush strokes in response to stylus movement and force. In some embodiments, a stylus may be used on a 3D touch screen of a mobile device where the amount of force on the touch screen produces a line with a commensurate thickness. In some embodiments, the stylus takes the form of a makeup applicator and includes motion to detect the movement and force of brushstrokes as the user uses the stylus to virtually apply makeup to the facial image. It may include both a sensor and a force sensor.

ユーザが独自のカスタムルックを作成することを選択した場合(S303で自分で行う)、S307で、モバイルデバイス101またはノートパソコン103上で実行されているモバイルアプリケーション111は、内蔵カメラ機能を使用してユーザの顔画像をキャプチャすることができる。実施形態によっては、カメラ231は、ユーザのビデオをキャプチャするために使用される。実施形態によっては、カメラ231は、わずかに異なる方向からおよび/または異なる明るさの条件でユーザの顔のいくつかの画像を取り込むために使用される。代替として、以前にキャプチャされた1つの画像、複数の画像、またはビデオがモバイルアプリケーション111にアップロードされてもよい。さらに、以前にキャプチャされた1つの画像、複数の画像、またはビデオは、外部カメラ装置を使用して撮影されてもよいし、モバイルデバイスもしくはノートパソコンの内部記憶デバイスからかまたは外部記憶デバイスから取得されてもよい。 If the user chooses to create their own custom look (which they do at S303), at S307 themobile application 111 running on themobile device 101 orlaptop 103 uses the built-in camera functionality to A user's facial image can be captured. In some embodiments,camera 231 is used to capture video of the user. In some embodiments,camera 231 is used to capture several images of the user's face from slightly different directions and/or under different lighting conditions. Alternatively, a previously captured image, images, or video may be uploaded to themobile application 111. Additionally, the previously captured image, images, or video may be taken using an external camera device or obtained from an internal storage device of the mobile device or laptop or from an external storage device. may be done.

実施形態によっては、画像がキャプチャされると、S309では、モバイルアプリケーション111は、顔認識を実行し、唇、目、鼻、耳、および髪を含む顔画像内のパーツおよびその位置を識別してもよい。顔認識を実行するために、モバイルアプリケーション111は、明るさを改善するなど、画像特徴を改善するために画像処理操作を実行してよい。例えば、ユーザは、ユーザの背後から明るい光や日光が差し込んだときに、不注意に自分の写真を撮ってしまう可能性がある。モバイルアプリケーション111は、ユーザの顔画像を明るくしうる。画質を向上させるために、他の画像処理操作が実行される場合がある。 In some embodiments, once the image is captured, at S309 themobile application 111 performs facial recognition to identify parts and their locations in the facial image, including lips, eyes, nose, ears, and hair. Good too. To perform facial recognition,mobile application 111 may perform image processing operations to improve image features, such as improving brightness. For example, a user may inadvertently take a photo of themselves when bright light or sunlight shines from behind the user.Mobile application 111 may brighten the user's facial image. Other image processing operations may be performed to improve image quality.

図8は、顔分析ステップのより詳細なフローチャートである。 FIG. 8 is a more detailed flowchart of the face analysis step.

S801では、キャプチャされた画像を分析して顔形状を決定してもよい。1つ以上の実施形態では、キャプチャされたユーザの顔の顔形状は、機械学習モデルを使用して検出されてもよい。機械学習モデルは、既知の顔形状を有する顔画像を使用して顔形状を分類するようにトレーニングされてもよい。最近、画像分類は、人間の脳の視覚皮質が物体を認識する際にどのように機能するかにヒントを得た、一種のニューラルネットワークを使用して実行されている。ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)として知られるネットワークのファミリーである。画像分類には他のアプローチも提案されており、改良が続けられている。画像分類に使用されうる他のアプローチには、線形回帰、デシジョンツリー、ランダムフォレスト、およびサポートベクターマシンなどがある。実施形態によっては、機械学習モデルは、クラウドサービス105の機械学習サービス109を使用してリモートでトレーニングされうる。 In S801, the captured image may be analyzed to determine the face shape. In one or more embodiments, the facial shape of the captured user's face may be detected using a machine learning model. A machine learning model may be trained to classify facial shapes using facial images with known facial shapes. Recently, image classification has been performed using a type of neural network inspired by how the human brain's visual cortex works when recognizing objects. Neural networks are a family of networks known as convolutional neural networks (CNNs). Other approaches to image classification have been proposed and continue to be improved. Other approaches that may be used for image classification include linear regression, decision trees, random forests, and support vector machines. In some embodiments, machine learning models may be trained remotely usingmachine learning services 109 ofcloud service 105.

1つ以上の実施形態では、顔形状を分類するために使用されうる機械学習モデルのアーキテクチャはCNNである。図9は、顔形状を分類するためのCNNのブロック図である。CNNの次元および活性化関数は、利用可能な処理能力および必要な精度に応じて変化する可能性がある。次元には、チャネルの数、各層のニューロンの数、および層の数が含まれる。考えられる活性化関数には、ロジスティック関数、正規化線形ユニットなどが含まれる。 In one or more embodiments, the machine learning model architecture that may be used to classify facial shapes is a CNN. FIG. 9 is a block diagram of a CNN for classifying facial shapes. The dimensions and activation functions of the CNN can vary depending on the available processing power and required accuracy. Dimensions include the number of channels, the number of neurons in each layer, and the number of layers. Possible activation functions include logistic functions, normalized linear units, etc.

畳み込みニューラルネットワーク(CNN)は、いくつかの種類の層で構成されてもよい。畳み込み構成要素903は、畳み込み層903a、プーリング層903c、および正規化線形ユニット層903bから構成されうる。畳み込み層903aは、与えられたすべての空間位置で特徴部分の特別な位置を検出する2次元活性化マップを開発するためのものである。プーリング層903cは、ダウンサンプリングの一形態として機能する。正規化線形ユニット層903bは、畳み込み層自体の受容野に影響を与えることなく、活性化関数を適用して、決定関数およびネットワーク全体の非線形特性を増加させる。全結合層905は、前の層間のすべての活性化への接続を有するニューロンを含む。損失層は、ネットワークトレーニングが予測された層と真の層との間の偏差にどのようにペナルティを与えるかを指定する。損失層907は、相互に排他的なクラスのセット内のクラスを検出する。損失層の1つのタイプはソフトマックス関数であり、複数のクラスのそれぞれに出力値を提供する。 Convolutional neural networks (CNNs) may be composed of several types of layers.Convolution component 903 may be composed of aconvolution layer 903a, apooling layer 903c, and a normalizedlinear unit layer 903b.Convolutional layer 903a is for developing a two-dimensional activation map that detects special locations of features at all given spatial locations.Pooling layer 903c functions as a form of downsampling. The normalizedlinear unit layer 903b applies an activation function to increase the decision function and the nonlinear properties of the overall network without affecting the receptive field of the convolutional layer itself. Fully connectedlayer 905 contains neurons with connections to all activations between previous layers. The loss layer specifies how network training penalizes deviations between the predicted layer and the true layer.Loss layer 907 detects classes within a set of mutually exclusive classes. One type of loss layer is a softmax function, which provides an output value for each of multiple classes.

実施形態によっては、損失層907はソフトマックス関数であってもよい。ソフトマックス関数は、各クラスの確率値を提供する。例示的な実施形態では、クラス909は、正方形、長方形、円形、長円形、楕円形、ひし形、三角形、およびハート面の形状を含むことができる。 In some embodiments,loss layer 907 may be a softmax function. The softmax function provides probability values for each class. In an exemplary embodiment,class 909 may include square, rectangular, circular, oval, oval, diamond, triangular, and heart-shaped shapes.

S803では、モバイルアプリケーション111は、顔の特徴部分およびランドマークをさらに分析しうる。顔の形状と同様に、キャプチャされたユーザの顔の特徴部分およびランドマークは、機械学習モデルを使用して検出されうる。機械学習モデルは、顔のランドマークを検出するようにトレーニングされうる。顔形状分類を用いて、図9と同様のCNNアーキテクチャを顔のランドマーク検出に使用してもよい。分類への他のアプローチも使用してよい。 At S803, themobile application 111 may further analyze facial features and landmarks. Similar to facial shape, features and landmarks of the captured user's face may be detected using machine learning models. Machine learning models can be trained to detect facial landmarks. A CNN architecture similar to that of FIG. 9 may be used for facial landmark detection using facial shape classification. Other approaches to classification may also be used.

図10は、顔のランドマーク検出のための深層学習ニューラルネットワークの図である。図9のアーキテクチャと同様に、深層学習ニューラルネットワークは畳み込みニューラルネットワークである。深層学習ニューラルネットワークのトレーニングを改善するために、残差接続が含まれてもよい。1つ以上の実施形態では、ネットワーク内の初期の層に対して残差接続が行われる、反転された残差構造が含まれてもよい。図10のアーキテクチャに関して、ネットワークは、1003および1005の2段として提供される。第1の段1003は、特徴抽出を行うための畳み込みの段である。第2の段1005は、関心領域内で予測を実行する。 FIG. 10 is a diagram of a deep learning neural network for facial landmark detection. Similar to the architecture of Figure 9, the deep learning neural network is a convolutional neural network. Residual connections may be included to improve training of deep learning neural networks. One or more embodiments may include an inverted residual structure where residual connections are made to earlier layers in the network. Regarding the architecture of FIG. 10, the network is provided as two stages, 1003 and 1005. Thefirst stage 1003 is a convolution stage for feature extraction. Thesecond stage 1005 performs prediction within the region of interest.

第1の段1003のアーキテクチャは、入力顔画像1001が提供されると、畳み込み演算および最大プーリング演算を実行する畳み込みセクション1003aを含む。畳み込みセクション1003aは、反転残差構造(inverted residual structure)1003bに接続されている。マスク層1003cは、反転残差構造1003bに接続されている。マスク層1003cのサイズは、ランドマークの数(例えば、2×L、ランドマークの数)に基づく。マスク層1003cは、入力オブジェクトの空間レイアウトを符号化する。 The architecture of thefirst stage 1003 includes aconvolution section 1003a that performs convolution and max pooling operations when provided with an inputfacial image 1001.Convolution section 1003a is connected to an invertedresidual structure 1003b.Mask layer 1003c is connected to invertedresidual structure 1003b. The size of themask layer 1003c is based on the number of landmarks (for example, 2×L, the number of landmarks).Mask layer 1003c encodes the spatial layout of the input object.

第2の段1005のアーキテクチャは、第1の段1003の反転残差構造1003bに接続された反転残差構造1005bを含む。また、第1の段1003のマスク層1003cは、反転残差構造1005bの結果に適用され、ROIおよび連結ブロック1011における関心領域のトリミングを実行するための入力として提供される。ROIおよび連結ブロック1011は、反転残差構造1005b内のチャネルの数およびランドマークの数に基づく。予測ブロック1013は、マスク層1005c内のランドマークおよびおおよその位置を予測する。第2の段1003の関心領域の予測は、画像全体に対してマスク1003cによって推定されたランドマークと結合されて、出力層1007内の出力ランドマークを取得する。 The architecture of thesecond stage 1005 includes an invertedresidual structure 1005b connected to an invertedresidual structure 1003b of thefirst stage 1003. Themask layer 1003c of thefirst stage 1003 is also applied to the result of the invertedresidual structure 1005b and is provided as an input for performing region-of-interest trimming in the ROI andconnection block 1011. The ROI andconnection block 1011 is based on the number of channels and the number of landmarks in the invertedresidual structure 1005b.Prediction block 1013 predicts landmarks and approximate locations withinmask layer 1005c. The region of interest predictions of thesecond stage 1003 are combined with the landmarks estimated by themask 1003c for the entire image to obtain output landmarks in theoutput layer 1007.

1つ以上の実施形態では、顔のランドマークには、目、鼻、唇、頬骨、眉毛を含む目の周囲の領域、まぶた、および髪が含まれる。実施形態によっては、ランドマークには顔の異常の可能性が含まれる場合がある。 In one or more embodiments, facial landmarks include the eyes, nose, lips, cheekbones, area around the eyes including eyebrows, eyelids, and hair. In some embodiments, landmarks may include potential facial anomalies.

各層の具体的な次元および層の数は、所望の精度、機械学習モデルを実行するハードウェア、機械学習モデルのトレーニング時間などのパラメータに依存する場合がある。機械学習モデルは、クラウドサービス105の機械学習サービス109を使用してトレーニングされてもよい。 The specific dimensions of each layer and the number of layers may depend on parameters such as the desired accuracy, the hardware on which the machine learning model is run, and the training time of the machine learning model. Machine learning models may be trained usingmachine learning services 109 ofcloud service 105.

顔の特徴部分の分析S803は、唇の形状の検出S805、まぶたの形状の検出S807、および髪型の検出S809をさらに含むことができる。検出されたランドマークは、唇、目、および髪型の輪郭を計算するために使用できる。さらに、肌の色S811および肌の質感S813などの他の顔の特徴も顔画像から決定されうる。肌の色および肌の質感は、画像処理技術を使用して決定される場合がある。肌の色合いのタイプとしては、色白、明るい、普通、濃いなどが挙げられうるが、これらに限定されない。皮膚の質感のタイプとしては、柔らかい、滑らかな、粗い、革のようなものが挙げられるが、これらに限定されない。 The facial feature analysis S803 can further include lip shape detection S805, eyelid shape detection S807, and hairstyle detection S809. The detected landmarks can be used to calculate the contours of lips, eyes, and hairstyle. Additionally, other facial features such as skin color S811 and skin texture S813 may also be determined from the facial image. Skin color and skin texture may be determined using image processing techniques. Skin tone types may include, but are not limited to, fair, light, normal, dark, and the like. Skin texture types include, but are not limited to, soft, smooth, rough, and leathery.

顔画像の追加の特徴は、明るさ(lighting)(画像の明るさ(image brightness))であってもよい。S815では、画像処理技術を使用して画像の明るさ(明るさ)を決定してよい。明るさは、画像内で知覚される光の総量の尺度として定義されうる。実施形態によっては、画像の明るさは、キャプチャされたときの初期の明るさレベルから増加または減少することがある。 An additional feature of the facial image may be lighting (image brightness). At S815, image processing techniques may be used to determine the brightness (brightness) of the image. Brightness may be defined as a measure of the total amount of light perceived within an image. In some embodiments, the brightness of the image may increase or decrease from the initial brightness level when it was captured.

S817では、過去のルックの好みをデータベース107から取得してよい。過去のルックの好みには、色、カバレッジ、色合い、仕上がり、および過去のルックに使用された適用ジェスチャなどのデジタルメイクアップの特性を含むことができる。過去のユーザの好みは、顔の特定のパーツのデジタルメイクアップの特性を含んでよく、特定のルックに適用されたデジタルメイクアップの選択も含むことができる。 In S817, past look preferences may be acquired from thedatabase 107. Past look preferences can include digital makeup characteristics such as color, coverage, tint, finish, and application gestures used for past looks. Past user preferences may include characteristics of digital makeup for particular parts of the face, and may also include selections of digital makeup applied for particular looks.

S311では、ユーザインタフェースは、バーチャルメイクアップを選択する機能を含んでよい。図11は、適用するバーチャルメイクアップを選択するための例示的なユーザインタフェースである。ユーザインタフェース画面1100は、ポインタ1103を使用してバーチャルメイクアップを選択するための指示を含むメッセージ1101を含んでもよい。 At S311, the user interface may include the ability to select virtual makeup. FIG. 11 is an example user interface for selecting virtual makeup to apply.User interface screen 1100 may include amessage 1101 that includes instructions for selecting a virtualmakeup using pointer 1103.

S313では、バーチャルメイクアップが選択されると、モバイルアプリケーション111は、選択されたバーチャルメイクアップをアクティブにする機能を実行できる。バーチャルメイクアップは、アプリケータのスワイプジェスチャおよびバーチャルメイクアップが適用される顔の典型的な領域を含む、バーチャルメイクアップの特性を取得することによってアクティブにされてもよい。実施形態によっては、バーチャルメイクアップに関連付けられたデータは、カバレッジ、色合い、および仕上がりを含むことができる。 At S313, once a virtual makeup is selected, themobile application 111 may perform a function of activating the selected virtual makeup. Virtual makeup may be activated by capturing characteristics of the virtual makeup, including an applicator swipe gesture and a typical area of the face to which the virtual makeup is applied. In some embodiments, data associated with virtual makeup may include coverage, tint, and finish.

S315では、モバイルアプリケーション111は、バーチャルメイクアップを適用する方法についての推奨案が必要かどうかをユーザに質問するメッセージを表示できる。推奨メッセージの要求を表示するためのユーザインタフェースの例を図12に示す。 At S315, themobile application 111 may display a message asking the user if they would like recommendations on how to apply the virtual makeup. An example of a user interface for displaying a request for recommendation messages is shown in FIG.

図12は、ユーザがメイクアップを適用するか、モバイルアプリケーションがメイクアップを適用する方法を推奨するかを選択するための例示的なユーザインタフェースである。ユーザインタフェース1200は、バーチャルメイクアップ1205を適用する方法に関する推奨案を選択するためのボタン1203を表示できる。ユーザインタフェース1200は、代替として、スタイラスまたはマウスをスワイプして顔画像1207にバーチャルメイクアップを適用するようにユーザに指示するボタン1201を表示してもよい。 FIG. 12 is an example user interface for a user to select whether to apply makeup or whether the mobile application recommends how to apply makeup.User interface 1200 can displaybuttons 1203 for selecting recommendations on how to applyvirtual makeup 1205.User interface 1200 may alternatively display abutton 1201 that instructs the user to apply virtual makeup tofacial image 1207 by swiping a stylus or mouse.

ユーザが推奨案を取得しないことを選択した場合(S315でNO)、S317では、ユーザは、バーチャルメイクアップを適用する顔画像上の位置を指定してもよい。S321では、ユーザは、メイクアップ目的視覚化ユニットを介して、スタイラスまたはマウスを使用して顔の位置でスワイプを行うことによってバーチャルメイクアップを適用してよい。図13は、モバイルデバイス101上の例示的なユーザインタフェースである。ボタン1201が選択されると、ユーザインタフェースは、顔画像1301およびデジタルメイクアップパレット1303を表示してよい。ユーザは、デジタルメイクアップパレット1303から色1303bを選択し、スタイラス1310のスワイプジェスチャを使用して、バーチャルメイクアップ1303aを特定の位置1305に適用してよい。モバイルデバイス101上の画面は、顔の特徴部分の表示を調整するために顔画像1301を拡大または縮小するために使用できるズーム機能を含むタッチスクリーンであってもよい。実施形態によっては、タッチスクリーンのモードを切り替えて、画像を動かすことなくスタイラスを使用して顔画像にバーチャルメイクアップを適用できるようにしてもよい。 If the user chooses not to obtain a recommendation (NO in S315), in S317 the user may specify a position on the face image to which virtual makeup is to be applied. At S321, the user may apply virtual makeup by making swipes at facial locations using a stylus or mouse via the makeup objective visualization unit. FIG. 13 is an example user interface onmobile device 101. Whenbutton 1201 is selected, the user interface may displayfacial image 1301 anddigital makeup palette 1303. The user may select acolor 1303b from thedigital makeup palette 1303 and applyvirtual makeup 1303a to aparticular location 1305 using a swipe gesture of thestylus 1310. The screen onmobile device 101 may be a touch screen that includes a zoom feature that can be used to enlarge or reducefacial image 1301 to adjust the display of facial features. In some embodiments, the touch screen may switch modes to allow virtual makeup to be applied to the facial image using a stylus without moving the image.

もう1つの決定では、ユーザが推奨案を取得することを選択した場合(S315でYES)、S319では、モバイルアプリケーション111は、バーチャルメイクアップを適用する顔画像上の位置を示す。 In another determination, if the user chooses to obtain recommendations (YES at S315), at S319 themobile application 111 indicates the location on the facial image to apply virtual makeup.

図14は、レコメンダシステムの図である。レコメンダシステム1400は、バーチャルメイクアップを適用する方法を示すために使用されうる(図3AのS319)。レコメンダシステム1400は、画像データおよびメイクアップフィルタのインデックス付きデータベース1405に基づいて動作する。レコメンダシステム1400は、推奨案を検索してランク付けする推奨エンジン1407を含む。特定のバーチャルメイクアップを適用する場合、推奨案は、ユーザがステップS301で入力したルックおよびバーチャルメイクアップに関するものであってもよい。実施形態によっては、推奨案は、ユーザの好みまたはお気に入りに基づいて取得されてもよい。個人的なユーザの好みは、アプリ111が最初にセットアップされるときにユーザが入力したメイクアップの特性であってもよい。お気に入りは、ユーザがお気に入りとしてフラグを立てたメイクアップの特性である場合がある。個人の好みおよびお気に入りは、顔の特定のパーツまたは顔全体に関するものであってもよい。 FIG. 14 is a diagram of the recommender system.Recommender system 1400 may be used to indicate how to apply virtual makeup (S319 of FIG. 3A).Recommender system 1400 operates based on an indexeddatabase 1405 of image data and makeup filters.Recommender system 1400 includes a recommendation engine 1407 that searches and ranks recommendations. When applying a particular virtual makeup, the recommendation may be related to the look and virtual makeup that the user input in step S301. In some embodiments, recommendations may be obtained based on the user's preferences or favorites. Personal user preferences may be makeup characteristics entered by the user whenapp 111 is first set up. Favorites may be features of makeup that the user has flagged as favorites. Personal preferences and favorites may be for specific parts of the face or the entire face.

実施形態によっては、推奨エンジン1407は、ルックフィーチャマトリクス(look-feature matrix)を使用しうる。図15は、本開示の例示的な態様による非限定的なルックフィーチャマトリクスを示す。図15のルックフィーチャマトリクスは、簡潔にするために2つのタイプのバーチャルメイクアップを示す部分マトリクスである。いくつか例を挙げると、ファンデーション、マスカラ、コンシーラー、チークパウダー、アイブロウペンシルを含むがこれらに限定されない、他のタイプのバーチャルメイクアップがマトリクスに含まれてもよい。ルックフィーチャマトリクスは、モバイルデバイスのアプリ111に格納され、所望の特徴のベクトルと比較されてもよい。所望の特徴は、現在のユーザの好みであり、ユーザの現在の経験レベルおよび所望のルックを考慮してもよい。推奨エンジン1407は、1つ以上の類似性メトリック(similarity metrics)およびスコアリングアルゴリズムを使用して、推奨案をランク付けできる。一実施形態では、推奨エンジン1407は、バーチャルメイクアップの特定の特性を推奨されるものから変更することによって創造性を促進するために、推奨案を高める特徴のセットを生成できる。例えば、推奨エンジン1407が、取得した複数の推奨案の中から1つの推奨案を上位にランク付けした場合、類似性スコアを高めるために1つ以上の特性を変更してもよい。あるいは、推奨エンジン1407は、色合いまたは仕上がりなど、取得された推奨案における1つ以上の特性を、1つ上または1つ下に変更(例えば、色合いを、記憶された色合いより1レベル上または1レベル下に変更)してよい。1つ以上の実施形態では、推奨エンジン1407は、ユーザの経験レベルに基づいてアプリケーションジェスチャを多かれ少なかれ正確になるように調整することができる。 In some embodiments, recommendation engine 1407 may use a look-feature matrix. FIG. 15 illustrates a non-limiting look feature matrix according to example aspects of the disclosure. The look feature matrix of FIG. 15 is a partial matrix that shows two types of virtual makeup for the sake of brevity. Other types of virtual makeup may be included in the matrix, including, but not limited to, foundation, mascara, concealer, cheek powder, and eyebrow pencil, to name a few. The look feature matrix may be stored in themobile device app 111 and compared to the vector of desired features. The desired features are current user preferences and may take into account the user's current experience level and desired look. Recommendation engine 1407 can rank recommendations using one or more similarity metrics and scoring algorithms. In one embodiment, the recommendation engine 1407 can generate a set of features that enhance the recommendations to encourage creativity by changing certain characteristics of the virtual makeup from those recommended. For example, if the recommendation engine 1407 ranks one recommendation highly among the multiple obtained recommendations, one or more characteristics may be changed to increase the similarity score. Alternatively, the recommendation engine 1407 may change one or more characteristics in the obtained recommendations, such as tint or finish, one level higher or one lower than the stored tint (e.g., change the tint one level higher or one lower than the stored tint). (change to lower level). In one or more embodiments, recommendation engine 1407 may adjust application gestures to be more or less accurate based on the user's experience level.

推奨エンジン1407は、1つ以上の推奨案を推奨ユーザインタフェース(S319)に出力できる。推奨ユーザインタフェース(S319)は、選択された推奨案の適用を示す一連のビデオフレームを表示することができる。 Recommendation engine 1407 can output one or more recommendations to a recommendation user interface (S319). A recommendation user interface (S319) may display a series of video frames illustrating application of the selected recommendation.

1つ以上の実施形態では、推奨用のビデオフレームは、ユーザの顔画像と、データベース1405に格納されている1つ以上のメイクアップフィルタとを使用して生成されてもよい。インデックス付きデータベース1405は、ビデオフレームのシーケンスを作成するために使用される1つ以上のメイクアップフィルタを提供してよい。図16は、顔画像内の所望の特徴部分およびオリジナルの特徴部分に基づいて顔画像を作成するために使用されうるブレンドプロセスを示す。 In one or more embodiments, video frames for recommendations may be generated using the user's facial image and one or more makeup filters stored indatabase 1405.Indexed database 1405 may provide one or more makeup filters used to create a sequence of video frames. FIG. 16 illustrates a blending process that may be used to create a facial image based on desired features within the facial image and original features.

顔の特徴部分のブレンドは以下のように行われる。
1.所望の特徴部分1601は、オリジナルの特徴部分の色とマッチするように再色付けされ1603、再色付けされた特徴部分1605が得られる。
2.再色付けされた特徴部分1605は、特徴マスク1607によって乗算される。
3.オリジナルの特徴部分1609は、特徴マスクの逆の数(inverse)1611(すなわち、0から1の範囲の各マスク値を1から引いたもの)によって乗算される。
4.結果として得られる2および3の画像は1613ピクセルごとに追加され、最終的にブレンドされた特徴部分の画像1615が作成される。
Blending of facial features is performed as follows.
1. The desiredfeature 1601 is recolored 1603 to match the color of the original feature, resulting in a recoloredfeature 1605.
2.Recolored feature portion 1605 is multiplied byfeature mask 1607.
3. Theoriginal feature portion 1609 is multiplied by the inverse of the feature mask 1611 (ie, 1 minus each mask value ranging from 0 to 1).
4. The resultingimages 2 and 3 are added every 1613 pixels to create a final blendedfeature image 1615.

オリジナルの特徴部分の境界は、顔分析ステップS309の間に決定されていてもよい。ビデオフレームのシーケンスは、特定の顔パーツにバーチャルメイクアップを適用する方法を示すアニメーションとして生成されうる。 The original feature boundaries may have been determined during the face analysis step S309. A sequence of video frames may be generated as an animation illustrating how to apply virtual makeup to particular facial parts.

S321では、ユーザは、特定のタイプのアプリケータとして描画するように構成されたスタイラスまたはマウスを使用して、顔画像の顔の位置で1回以上のスワイプを行うことによって、バーチャルメイクアップで示された適用を模倣してメイクアップを適用してよい。 At S321, the user applies the virtual makeup by making one or more swipes at the facial position of the facial image using a stylus or mouse configured to draw as a particular type of applicator. Make-up may be applied to mimic the applied application.

図17は、本開示の例示的な態様による、バーチャルメイクアップを適用するステップのフローチャートである。S1701では、ユーザは、ユーザインタフェースと対話して、バーチャルメイクアップを適用するための開始点を選択またはタッチしてよい。S1703では、ユーザは、バーチャルメイクアップを適用するためのジェスチャを実行してよい。ジェスチャは、スワイプ動作、線描画動作、またはタップ動作であってもよい。スワイプ動作は、例えば、まつ毛にマスカラを塗る場合に行われてもよい。より厚いアプリケータをスワイプ動作で使用すると、アイシャドウなどのより広いストロークを適用できる。線描画動作は、例えばアイライナーを塗るために使用できる。口紅を塗るには、太い線で線描画動作を使用してよい。タップ動作を使用してフェイスパウダーを塗ってもよい。 FIG. 17 is a flowchart of steps for applying virtual makeup, according to example aspects of the present disclosure. At S1701, a user may interact with a user interface to select or touch a starting point for applying virtual makeup. At S1703, the user may perform a gesture to apply virtual makeup. The gesture may be a swipe motion, a line drawing motion, or a tap motion. A swiping motion may be performed, for example, when applying mascara to eyelashes. Using a thicker applicator in a swiping motion allows you to apply wider strokes, such as eyeshadow. Line drawing operations can be used, for example, to apply eyeliner. To apply lipstick, you may use line drawing motions with thick lines. You may also apply face powder using a tapping motion.

1つ以上の実施形態では、S1705では、ジェスチャをユーザの経験レベルに基づいて分析し、ジェスチャが誤って、すなわち間違いとして適用されたかどうかを判定してよい。初心者ユーザの場合、経験豊富なユーザよりも大きなエラーが許容される場合がある。そのような場合、経験豊富なユーザにとって許容量(tolerance amount)を越えたジェスチャは間違いと判断される可能性があるが、初心者ユーザの場合には許容量が大きくなる可能性がある。初心者ユーザによるジェスチャがより高い許容量を越えた場合、そのジェスチャはエラーであると判定される可能性がある。S1707では、アプリ111は、ジェスチャが誤って、すなわち間違いとして適用されたか否かを判定する。ジェスチャが許容量を越えて行われたと判定された場合(S1707でYES)、S1709では、ジェスチャが間違って適用された可能性があることをユーザに通知するため、および/またはジェスチャが適切に適用されたことを確認するためにユーザに質問するための、通知メッセージが表示されてもよい。アプリは、S1711で、バーチャルメイクアップの適用をやり直すオプションをユーザに提供できる。間違いがない場合(S1707でNO)、またはユーザがバーチャルメイクアップをやり直さないことを選択した場合(S1711でNO)、アプリ111は次のステップS323に進む。 In one or more embodiments, at S1705, the gesture may be analyzed based on the user's level of experience to determine whether the gesture was applied incorrectly, ie, by mistake. Novice users may have a greater tolerance for error than experienced users. In such a case, a gesture that exceeds the tolerance amount may be judged as a mistake by an experienced user, but the tolerance amount may be large for a novice user. If a gesture by a novice user exceeds the higher tolerance, the gesture may be determined to be an error. In S1707, theapplication 111 determines whether the gesture was applied in error, ie, by mistake. If it is determined that the gesture was performed in excess of the allowable amount (YES in S1707), in S1709 the user is notified that the gesture may have been applied incorrectly and/or the gesture is applied properly. A notification message may be displayed to ask the user to confirm that the request has been made. The app may provide the user with an option to redo the application of virtual makeup at S1711. If there is no mistake (NO in S1707), or if the user chooses not to redo the virtual makeup (NO in S1711), theapplication 111 proceeds to the next step S323.

実施形態によっては、領域およびスワイプ動作は、顔の特徴部分内に留まるように制限または制御されうる。例えば、スタイラスが画面に触れると、モバイルアプリケーション111は、その位置が顔の特徴部分内にあるものとして検出できる。スタイラスが移動すると、スワイプが画面上に描画されうるが、例えば、顔分析ステップS309で決定されたように顔パーツの境界の外側には描画されない。メイクアップ製品のカバレッジ、色合い、および仕上がりなどの特性に合わせてスクリーン上に描画してもよい。画面上の描画は、一般的なアプリケーションのジェスチャおよび顔の領域に従って実行することができる。 In some embodiments, regions and swiping motions may be limited or controlled to stay within facial features. For example, when the stylus touches the screen, themobile application 111 can detect its location as being within a facial feature. As the stylus moves, swipes may be drawn on the screen, but not outside the boundaries of the facial parts, for example, as determined in the facial analysis step S309. Properties such as makeup product coverage, shade, and finish may be drawn on the screen. Drawing on the screen can be performed according to common application gestures and facial areas.

S323では、モバイルアプリケーション111は、ユーザがバーチャルメイクアップを適用するときの領域およびスワイプの動きをモバイルデバイス101、103のメモリ202に記録できる。図18は、メイクアップを適用しながら領域およびスワイプを記録するステップのフローチャートである。図18を参照すると、S1801では、モバイルアプリケーション111は、バーチャルメイクアップが適用される顔画像上の位置およびスワイプの数を含む、メモリ内の各ステップおよび関連データを追跡および記録することができる。 At S323, themobile application 111 may record in thememory 202 of themobile device 101, 103 the area and swipe movements when the user applies the virtual makeup. FIG. 18 is a flowchart of steps for recording areas and swipes while applying makeup. Referring to FIG. 18, at S1801, themobile application 111 may track and record each step and related data in memory, including the location and number of swipes on the facial image where virtual makeup is applied.

S325では、モバイルアプリケーション111は、ユーザの顔の問題領域または最良の特徴部分を推定するために、バーチャルメイクアップの記録された位置およびスワイプならびにバーチャルメイクアップの特徴部分を分析する。位置は顔の特徴部分にマッピングされてもよい。図19は、問題領域または最良の特徴部分を推定するために、メイクアップを適用するユーザのステップを分析するステップのフローチャートである。図19を参照すると、S1901では、モバイルアプリケーション111は、メイクアップスワイプを分析して、潜在的な問題領域を特定してよい。潜在的な問題領域には、シミ、傷跡、加齢シミ、および色素沈着過剰などが含まれる場合がある。潜在的な問題領域は、ユーザが問題であると考える顔の領域、または望ましくない特徴部分である可能性がある。言い換えれば、潜在的な問題領域は、ユーザが外観を隠すかまたは変更することを望む領域である可能性がある。 At S325, themobile application 111 analyzes the recorded positions and swipes of the virtual makeup and the features of the virtual makeup to estimate problem areas or best features of the user's face. The locations may be mapped to facial features. FIG. 19 is a flowchart of steps for analyzing a user's steps in applying makeup to estimate problem areas or best features. Referring to FIG. 19, at S1901,mobile application 111 may analyze makeup swipes to identify potential problem areas. Potential problem areas may include age spots, scars, age spots, and hyperpigmentation. Potential problem areas may be areas of the face that the user considers problematic or undesirable features. In other words, potential problem areas may be areas that the user would like to hide or change in appearance.

モバイルアプリケーション111は、顔の特徴部分の特定の位置における異常なスワイプジェスチャを検出することによって、潜在的な問題領域を特定できる。異常なスワイプジェスチャには、方向の突然の変更や、誤って行われたわけではない力の突然の変更が含まれる場合がある。モバイルアプリケーション111は、ユーザがデジタルメイクアップパレットから異なるバーチャルメイクアップまたは代替色を特定の顔の領域に適用すること(すなわち、異なるカバレッジ特性および/または異なる色合いを有するバーチャルメイクアップ)を検出することによって、潜在的な問題領域を特定することができる。Mobile application 111 can identify potential problem areas by detecting abnormal swipe gestures at specific locations on facial features. Abnormal swipe gestures may include a sudden change in direction or a sudden change in force that is not done by mistake. Themobile application 111 may detect that the user applies different virtual makeup or alternative colors from the digital makeup palette to specific facial areas (i.e., virtual makeup with different coverage characteristics and/or different shades). can identify potential problem areas.

S1903では、モバイルアプリケーション111は、メイクアップスワイプを分析して、最良の顔の特徴部分を特定してよい。最良の顔の特徴部分には、頬骨、目の色、まつ毛、唇の形状、またはユーザが強調したい任意の特徴部分が含まれうる。モバイルアプリケーション111は、同じ顔の特徴部分に対する平均的なメイクアップの適用から閾値量だけ異なる顔の特徴部分に対するメイクアップの適用の変化を検出することによって、最良の顔の特徴部分を検出できる。例えば、モバイルアプリケーション111は、顔領域に適用される色の典型的な色合いおよび/または仕上がりとは異なる色合いおよび/または仕上がりの色の適用を検出することによって、最良の顔の特徴部分を検出できる。目の色の場合、モバイルアプリケーション111は、特定のアイシャドウの色の適用を検出することによって、目の色が最良の顔の特徴部分であることを検出することができる。 At S1903,mobile application 111 may analyze the makeup swipe to identify the best facial features. The best facial features may include cheekbones, eye color, eyelashes, lip shape, or any feature the user wants to emphasize. Themobile application 111 can detect the best facial feature by detecting changes in makeup application for facial features that differ by a threshold amount from an average makeup application for the same facial feature. For example, themobile application 111 can detect the best facial feature by detecting the application of a different shade and/or finish of color than the typical shade and/or finish of the color applied to the facial area. . In the case of eye color, themobile application 111 can detect that eye color is the best facial feature by detecting the application of a particular eye shadow color.

S1905では、モバイルアプリケーション111は、特定された問題領域および最良の顔の特徴を、以前に格納された推奨案と比較できる。モバイルアプリケーション111は、いくつかの新たな問題領域が存在する可能性があるか、またはいくつかの問題領域がもはや問題領域になりうるものではないと判定できる。モバイルアプリケーション111は、潜在的な問題領域として以前に考えられていた問題領域の重要性を高めることができる。 At S1905, themobile application 111 may compare the identified problem areas and best facial features to previously stored recommendations. Themobile application 111 may determine that some new problem areas may exist or that some problem areas are no longer potential problem areas.Mobile application 111 can elevate the importance of problem areas that were previously considered as potential problem areas.

S1907では、推奨エンジン1407が検証された問題領域を有する推奨案に高いスコアを割り当てるように、比較の結果を使用して推奨案を調整してもよい。新しい問題領域および最良の顔の特徴部分、あるいは、もはや潜在的でない問題領域または最良の顔の特徴部分である、問題領域および最良の顔の特徴部分を用いて、推奨案が新しいまたはもはや潜在的でないものへの変更を支援する可能性がある場合、推奨案を調整してもよい。 At S1907, the results of the comparison may be used to adjust the recommendations such that the recommendation engine 1407 assigns a higher score to recommendations that have verified problem areas. New problem areas and best facial features, or problem areas and best facial features that are no longer potential. Recommendations may be adjusted if they have the potential to support changes to something that is not.

ユーザは、問題領域を補正したり、最良の特徴部分を強調したりする方法で、デジタルメイクアップパレットからバーチャルメイクアップを適用してよい。1つ以上の実施形態では、問題領域の不完全性をぼかすためのフィルタを適用することによって、問題領域を補正してよい。例えば、顔画像内のシミを含む領域をぼかすことによって、シミを目立たなくしてよい。 A user may apply virtual makeup from a digital makeup palette in a way that corrects problem areas or emphasizes best features. In one or more embodiments, the problem region may be corrected by applying a filter to blur imperfections in the problem region. For example, the stain may be made less noticeable by blurring the area containing the stain in the facial image.

上述のとおり、潜在的な問題領域は、ユーザが問題であると考える顔の領域、または望ましくない特徴部分である可能性がある。最良の顔の特徴部分には、頬骨、目の色、まつ毛、唇の形状、またはユーザが強調したい任意の特徴部分が含まれる。 As mentioned above, potential problem areas may be areas of the face that the user considers problematic or undesirable features. Best facial features include cheekbones, eye color, eyelashes, lip shape, or any feature the user wants to emphasize.

S327では、モバイルアプリケーション111は、検証された問題領域、検証された最良の顔の特徴部分、およびユーザメイクアップアプリケーションを将来のカスタム推奨としてデータベース1405に格納することができる。 At S327, themobile application 111 may store the verified problem areas, the verified best facial features, and the user makeup application as future custom recommendations in thedatabase 1405.

図3Bを参照すると、S331では、ユーザは、別のバーチャルメイクアップに対してバーチャルメイクアップを適用するステップを繰り返すことを選択してもよい。所望のバーチャルメイクアップがすべて適用された後、ユーザは、S335で、データベース107に作成されたルックを保存することを選択してよい(S333でYES)。S337では、ユーザは、S339で作成されたルックをソーシャルメディアプラットフォームまたはライブビデオを有する他のプラットフォームに移動/公開することを選択してもよい(S337でYES)。1つ以上の実施形態では、ルックは、別の顔画像に適用されうるメイクアップフィルタとして格納されてもよい。 Referring to FIG. 3B, at S331, the user may choose to repeat the steps of applying virtual makeup for another virtual makeup. After all desired virtual makeup has been applied, the user may elect to save the created look in thedatabase 107 at S335 (YES at S333). At S337, the user may choose to move/publish the Look created at S339 to a social media platform or other platform with live video (YES at S337). In one or more embodiments, looks may be stored as makeup filters that may be applied to another facial image.

図20は、メイクアップルックを格納するための例示的なユーザインタフェースである。ユーザインタフェース2000は、完成した顔画像2001を表示し、完成した顔画像を保存する機能のためのボタン2003を提供してよい。完成した顔画像は、基礎となる顔画像、および完成した顔画像を再作成するために基礎となる顔画像に適用されうる1つ以上のフィルタとして格納されてもよい。実施形態によっては、完成した顔画像は、基礎となる顔画像およびメイクアップ製品の記録されたスワイプとして格納されてもよい。ユーザインタフェース2000は、完成した顔画像をソーシャルメディアプラットフォームまたはビデオ会議プラットフォームなどのライブビデオまたは静止画像を提供するプラットフォームに移動する機能のためのボタン2005をさらに提供できる。ソーシャルメディアプラットフォームには、いくつか例を挙げると、Facebook、Linked-in、Instagram、YouTube、Snapchat、TikTokが含まれる。ビデオ会議プラットフォームには、いくつか例を挙げると、Microsoft Teams、FaceTime、Google HangoutsもしくはGoogle Meet、およびZoomが含まれる。 FIG. 20 is an example user interface for storing makeup looks. Theuser interface 2000 may display the completedfacial image 2001 and providebuttons 2003 for the ability to save the completed facial image. The completed facial image may be stored as a base facial image and one or more filters that can be applied to the base facial image to recreate the completed facial image. In some embodiments, the completed facial image may be stored as the underlying facial image and recorded swipes of makeup product. Theuser interface 2000 can further provide abutton 2005 for the ability to move the completed facial image to a platform that provides live video or still images, such as a social media platform or a video conferencing platform. Social media platforms include Facebook, Linked-in, Instagram, YouTube, Snapchat, TikTok, to name a few. Video conferencing platforms include Microsoft Teams, FaceTime, Google Hangouts or Google Meet, and Zoom, to name a few.

実施形態によっては、完成した顔画像を再作成するための1つ以上のメイクアップフィルタが、ソーシャルメディアプラットフォームまたはビデオ会議プラットフォームに提供されてもよい。1つ以上のフィルタを別のベース画像に適用して、新しい完成した顔画像を取得してもよい。 In some embodiments, one or more makeup filters may be provided on the social media platform or video conferencing platform to recreate the completed facial image. One or more filters may be applied to another base image to obtain a new completed facial image.

実施形態によっては、S315では、ユーザは、デジタルメイクアップパレットおよびキャプチャされた顔画像を別のユーザに転送してよい。そのような場合、他のユーザがメイクアップアプリケーションを行っている間に、S321からS327を行ってもよい。他のユーザは、メイクアップの適用において、より高いレベルの経験を持つ人でもよいし、またはオリジナルのユーザが好みうるタイプのメイクアップルックを作成できるとオリジナルのユーザが信じている人であってもよい。 In some embodiments, at S315, the user may transfer the digital makeup palette and the captured facial image to another user. In such a case, S321 to S327 may be performed while another user is applying the makeup application. The other users may be people with a higher level of experience in applying makeup, or who the original user believes can create the type of makeup look the original user would prefer. Good too.

図21は、デジタルパレットのカスタムアプリケーション方法のフローチャートである。ユーザがカスタムメイクアップルックを作成することを選択すると(S303のカスタム)、S2101では、ユーザは、ユーザの顔の1つの画像、複数の画像、またはビデオをキャプチャするように指示されてもよい。モバイルデバイス101のカメラ231、または外部カメラは、ユーザの顔の1つの画像またはビデオをキャプチャするために使用されてもよい。S2103では、モバイルアプリケーション111は、キャプチャされたユーザの顔を分析してもよい。図22は、カスタムメイクアップアプリケーションの作成状況を示すための例示的なユーザインタフェースである。図8は、上述のとおり、顔分析ステップのより詳細なフローチャートである。図9は、上述のとおり、顔形状を分類するためのCNNのブロック図である。CNNの次元および活性化関数は、利用可能な処理能力および所望の精度に応じて変化する可能性がある。次元には、チャネル、各層の大きさ、および層の数が含まれる。活性化関数には、ロジスティック関数、正規化線形ユニットなどが含まれる。図10は、上述のとおり、顔のランドマーク検出のための深層学習ニューラルネットワークの図である。 FIG. 21 is a flowchart of a digital palette custom application method. If the user selects to create a custom makeup look (Custom at S303), at S2101 the user may be instructed to capture an image, multiple images, or a video of the user's face.Camera 231 ofmobile device 101, or an external camera, may be used to capture an image or video of one of the user's face. At S2103, themobile application 111 may analyze the captured user's face. FIG. 22 is an exemplary user interface for illustrating the creation of a custom makeup application. FIG. 8 is a more detailed flowchart of the face analysis step, as described above. FIG. 9 is a block diagram of a CNN for classifying facial shapes, as described above. The dimensions and activation functions of the CNN can vary depending on the available processing power and desired accuracy. Dimensions include the channel, the size of each layer, and the number of layers. Activation functions include logistic functions, normalized linear units, and the like. FIG. 10 is a diagram of a deep learning neural network for facial landmark detection, as described above.

S2105では、顔分析(S2103および図8)によって特定された顔の特徴部分および過去のルックの好みに基づいて、データベース107から1つ以上のメイクアップフィルタが選択/検索されてもよい。格納されているメイクアップ顔フィルタのいくつかは、(S303で「自分で行う」を選択したときに)ユーザによって以前に作成されたフィルタであってもよい。メイクアップフィルタのいくつかは、共通のルックであってもよい。 At S2105, one or more makeup filters may be selected/retrieved fromdatabase 107 based on facial features identified by facial analysis (S2103 and FIG. 8) and past look preferences. Some of the stored makeup face filters may be filters previously created by the user (when selecting "Do it myself" at S303). Some of the makeup filters may be common looks.

図23は、メイクアップフィルタの選択方法のフローチャートである。S2301では、S2103の分析結果から顔形状が取得される。S2303では、S2103の分析結果からランドマークが取得される。S2305では、S2103の分析から肌、髪、目、顔の色、および明るさの特徴が取得される。S2307では、デジタルメイクアップパレットの過去のルックの好みが取得されてもよい。S2309では、ランドマーク、顔の形状、肌の色、髪型、まぶたの形状、過去の好みに対して可能な顔フィルタがデータベース107から取得される。S2311では、取得された顔フィルタのサブセットを選択してよい。選択基準は、可能な顔フィルタの中からランダムな選択、過去のルックの好みに最もよく適合する顔フィルタの選択、ユーザにカスタムルックを与えるために過去のルックの好みとは異なるがユーザに異なるクリエイティブなルックの選択肢を提供できる少なくとも1つの顔フィルタの選択、を含むことができる。 FIG. 23 is a flowchart of a makeup filter selection method. In S2301, the face shape is acquired from the analysis result in S2103. In S2303, landmarks are acquired from the analysis results in S2103. In S2305, characteristics of skin, hair, eyes, facial color, and brightness are obtained from the analysis in S2103. At S2307, past look preferences for the digital makeup palette may be obtained. In S2309, possible face filters are acquired from thedatabase 107 for landmarks, face shape, skin color, hairstyle, eyelid shape, and past preferences. At S2311, a subset of the obtained facial filters may be selected. The selection criteria may include random selection among possible face filters, selection of the face filter that best matches past look preferences, and selection of a face filter that is different from past look preferences but different to the user to give the user a custom look. A selection of at least one facial filter that can provide creative look options.

S2107では、取得されたメイクアップフィルタを顔画像に重ねて、1つ以上のカスタムルックを取得してよい。オーバーレイプロセスには、顔の形状および顔のランドマークに基づいてメイクアップフィルタを位置合わせすることが含まれてもよい。図16のブレンドプロセスを用いて、所望の特徴と顔画像内のオリジナルな特徴とに基づいて顔画像を作成することによってオーバーレイプロセスを実行してよい。 In S2107, the acquired makeup filter may be superimposed on the facial image to obtain one or more custom looks. The overlay process may include aligning the makeup filter based on the shape of the face and facial landmarks. The blending process of FIG. 16 may be used to perform the overlay process by creating a facial image based on the desired features and the original features in the facial image.

S2111では、ユーザは、モバイルアプリケーション111によって作成されたルックをデータベース107に保存することを選択してもよい(S2109でYES)。S2113では、ユーザは、(S2113でYES)を選択し、S2115では、作成されたメイクアップルックをソーシャルメディアプラットフォームまたはビデオ会議プラットフォームに移動/公開することを選択してもよい。 At S2111, the user may choose to save the look created by themobile application 111 in the database 107 (YES at S2109). At S2113, the user may select (YES at S2113) and at S2115 select to move/publish the created makeup look to a social media platform or a video conferencing platform.

図24は、メイクアップルックを格納するための例示的なユーザインタフェースである。ユーザインタフェース2400は、完成した顔画像2401を表示し、それぞれの完成した顔画像を保存する機能のボタン2403を提供しうる。完成した顔画像は、基礎となる顔画像、および完成した顔画像を再作成するために基礎となる顔画像に適用されうる1つ以上のメイクアップフィルタとして格納されてもよい。実施形態によっては、完成した顔画像は、基礎となる顔画像およびメイクアップ製品の記録されたスワイプとして格納されてもよい。ユーザインタフェース2400は、完成した顔画像をソーシャルメディアプラットフォームまたはビデオ会議プラットフォームに移動する機能のためのボタン(不図示)をさらに提供しうる。ソーシャルメディアプラットフォームには、いくつか例を挙げると、Facebook、Linked-in、Instagram、Snapchat、YouTube、TikTokが含まれる。ビデオ会議プラットフォームの例には、Microsoft Teams、FaceTime、Google HangoutsもしくはGoogle Meet、およびZoomが含まれる。 FIG. 24 is an example user interface for storing makeup looks.User interface 2400 may display completedfacial images 2401 and providebuttons 2403 for the ability to save each completed facial image. The completed facial image may be stored as a base facial image and one or more makeup filters that can be applied to the base facial image to recreate the completed facial image. In some embodiments, the completed facial image may be stored as the underlying facial image and recorded swipes of makeup product.User interface 2400 may further provide buttons (not shown) for the ability to move the completed facial image to a social media platform or video conferencing platform. Social media platforms include Facebook, Linked-in, Instagram, Snapchat, YouTube, TikTok, to name a few. Examples of video conferencing platforms include Microsoft Teams, FaceTime, Google Hangouts or Google Meet, and Zoom.

本発明の多数の変更および変形は、上記の教示に照らして可能である。例えば、さまざまな消費者の肌の色合いおよび質感から収集されるデータは、一人以上の消費者への人工ニューラルネットワークのスケーリングを可能にするであろう。人工ニューラルネットワークは、製品の色合いごとに、新しい化粧品のフォーミュラのレンダリングを予測することができるであろう。 Many modifications and variations of the present invention are possible in light of the above teachings. For example, data collected from various consumer skin tones and textures would enable scaling of artificial neural networks to more than one consumer. Artificial neural networks would be able to predict the rendering of new cosmetic formulas for each shade of the product.

1つ以上の実施形態では、強化学習などの機械学習の形式を使用して、ユーザが何を問題領域であると考えているか、およびユーザが最良の顔の特徴部分としてどの領域を強調したいかを学習してよい。 In one or more embodiments, a form of machine learning, such as reinforcement learning, is used to determine what the user considers to be the problem areas and which areas the user would like to emphasize as the best facial features. It is good to learn.

図25は、強化学習アーキテクチャのタイプのブロック図である。注目すべきは、いくつか例を挙げると、深層強化学習、Qラーニング、ディープQネットワークなど、強化学習用にさまざまなアーキテクチャおよびアルゴリズムが開発されている。本開示では、強化学習の一般的な説明が提供されており、強化学習へのさまざまなアプローチに適用されることが理解されるべきである。 FIG. 25 is a block diagram of a type of reinforcement learning architecture. Notably, a variety of architectures and algorithms have been developed for reinforcement learning, including deep reinforcement learning, Q-learning, and deep Q networks, to name a few. It should be understood that this disclosure provides a general description of reinforcement learning and applies to a variety of approaches to reinforcement learning.

教師あり学習とは異なり、強化学習は機械学習の一形態であり、出力を事前に知る必要はない。代わりに、アクターによって出力されたアクションは、そのアクションが適切であったかどうかを示す報酬をもたらす。強化学習システムには、環境内で移動アクションを指示するアクターが関与する場合があり、アクションの選択により、特定の値のスコアの形で報酬が得られる場合がある。移動アクションにより、環境が新しい状態になる。スコアはアクターにフィードバックされ、機械学習コンポーネントが調整される。移動アクションの例は、環境内のアクターが新しい場所に移動してタスクを実行するアクションであってよく、そのタスクによりアクターのスコア値が増加する。スコアの増加は、移動アクションが有益であったことを裏付けるものとなる。次の移動アクションは、環境内のアクターが新しい位置に到達しない移動を行い、その後負のスコアをもたらすか、または少なくともスコア値を増加させないアクションである可能性がある。スコアの低下は負の影響としてフィードバックされ、機械学習コンポーネントは、環境の状態を考慮すると、アクターによって指示された移動アクションが適切な選択ではなかったことを学習するように調整されてもよい。したがって、アクターが動作アクションを指示し続けるにつれて、強化学習を採用し続けることができる。 Unlike supervised learning, reinforcement learning is a form of machine learning that does not require knowing the output in advance. Instead, actions output by an actor yield rewards that indicate whether the action was appropriate. Reinforcement learning systems may involve an actor directing movement actions within an environment, and the choice of action may result in a reward in the form of a score of a particular value. A move action brings the environment into a new state. The scores are fed back to the actors and the machine learning components are adjusted. An example of a movement action may be an action in which an actor within the environment moves to a new location and performs a task that increases the actor's score value. An increase in score confirms that the move action was beneficial. The next movement action may be an action in which an actor in the environment performs a movement that does not reach a new position and subsequently results in a negative score, or at least does not increase the score value. A decrease in score is fed back as a negative impact, and the machine learning component may be tuned to learn that the movement action directed by the actor was not an appropriate choice given the state of the environment. Therefore, reinforcement learning can continue to be employed as the actor continues to direct behavioral actions.

図25に関して、エージェント2510は、人工ニューラルネットワーク2513を介して、離散時間ステップでその環境2520と対話する。各時間tで、エージェント2510は通常、関連する報酬を持つ観察を受信する。次に、エージェントは利用可能なアクションのセットからアクションを選択し、その後、環境2520に送信される。環境2520は新しい状態に移行し、その移行に関連する報酬が決定される。強化学習エージェント2510の目標は、できるだけ多くの報酬を収集することである。エージェント2510は、以前のアクションの履歴に応じて任意のアクションを(おそらくランダムに)選択することができる。 With respect to FIG. 25,agent 2510 interacts with itsenvironment 2520 at discrete time steps via artificial neural network 2513. At each time t,agent 2510 typically receives an observation with an associated reward. The agent then selects an action from the set of available actions, which is then sent to theenvironment 2520. Theenvironment 2520 transitions to a new state and rewards associated with that transition are determined. The goal ofreinforcement learning agent 2510 is to collect as much reward as possible.Agent 2510 can select any action (possibly randomly) depending on the history of previous actions.

一実施形態では、強化学習システムを、ユーザが何を問題領域であると考えているか、およびユーザが最良の顔の特徴部分としてどの領域を強調したいかを学習するように構成してもよく、2つの強化学習プロセスとして提供してよい。図26は、本開示の例示的な態様による、機械学習システムのフロー図である。上述したように、強化学習は一般に、報酬2520aのフィードバックを通じて学習を行う。実施形態によっては、フィードバックは、ユーザが顔画像にメイクアップ製品を適用するときに、モバイルアプリケーション111との音声対話の形で提供されうる。音声フィードバックは、マイクロフォン103a、241を使用して提供することができ、その音声フィードバックは、音声回路242を介して出力される質問および発言に応答して提供されうる。 In one embodiment, the reinforcement learning system may be configured to learn what the user considers to be problem areas and which areas the user would like to emphasize as the best facial features; It may be provided as two reinforcement learning processes. FIG. 26 is a flow diagram of a machine learning system, according to example aspects of the disclosure. As mentioned above, reinforcement learning generally performs learning through reward 2520a feedback. In some embodiments, feedback may be provided in the form of an audio interaction with themobile application 111 when the user applies makeup products to the facial image. Audio feedback may be provided usingmicrophone 103a, 241, and the audio feedback may be provided in response to questions and statements output via audio circuit 242.

一実施形態では、強化学習システム2600は、複数の強化学習モデルの形態をとることができる。1つの強化学習モデル2603は、顔画像に対するメイクアップ製品の1回または一連のスワイプ2601に基づいて問題領域を検出しうる。強化学習システム2600は、「問題領域にメイクアップを適用していますか?」などの質問をすることによって、問題領域の検出を検証してよい(すなわち、報酬をフィードバックしてよい)。別の強化学習モデル2605は、顔画像に対するメイクアップ製品の1回または一連のスワイプ2601に基づいて最良の顔の特徴部分を検出してよい。強化学習システム2600は、「最良の顔の特徴部分にメイクアップを適用していますか?」などの質問をすることによって、最良の顔の特徴部分の検出を検証してよい(すなわち、報酬をフィードバックしてよい)。強化学習システムは、問題領域の位置や最良の顔の特徴の情報を利用して、「シミにメイクアップを適用していますか?」または「目の色を強調するためにメイクアップを適用していますか?」など、より具体的な質問を提供する場合がある。 In one embodiment,reinforcement learning system 2600 may take the form of multiple reinforcement learning models. One reinforcement learning model 2603 may detect problem areas based on one or a series of swipes 2601 of makeup product on a facial image.Reinforcement learning system 2600 may verify problem area detection (i.e., may feed back a reward) by asking questions such as "Are you applying makeup to the problem area?" Another reinforcement learning model 2605 may detect the best facial features based on one or a series of swipes 2601 of makeup product on a facial image.Reinforcement learning system 2600 may validate detection of the best facial features (i.e., reward You may give feedback). Reinforcement learning systems use information about the location of problem areas and best facial features to answer questions such as “Are you applying makeup to the blemishes?” or “Are you applying makeup to highlight the eye color?” They may ask more specific questions, such as "Are you sure?"

図26の強化学習システム2600は一連の機械学習モデルであるが、代替アプローチは、最初に1つまたは一連のスワイプを問題領域、最良の顔の特徴部分、またはそのどちらでもないものとして分類し、最初の分類の結果を強化学習モデル2603、強化学習モデル2605のいずれかに提供する、またはどちらのモデルにも提供しない、機械学習コンポーネントを含むことであってもよい。 Although thereinforcement learning system 2600 of FIG. 26 is a series of machine learning models, an alternative approach is to first classify a swipe or series of swipes as a problem area, a best facial feature, or neither; A machine learning component may be included that provides the results of the initial classification to either reinforcement learning model 2603, reinforcement learning model 2605, or neither model.

ユーザによる応答は、強化学習システムに報酬を適用するために使用されてもよい。報酬は、ユーザの応答に応じて正または負のスコアになる場合がある。スコアは、それぞれの機械学習モデル2603または2605のパラメータを調整するために使用されるであろう。 Responses by the user may be used to apply rewards to the reinforcement learning system. The reward may be a positive or negative score depending on the user's response. The scores will be used to adjust the parameters of the respective machine learning model 2603 or 2605.

強化学習と同様の継続学習を実行して、問題領域を検出したり、最良の顔の特徴部分を検出したりする別のアプローチは、回帰分析である。回帰分析の利点は、計算が速いことである。ただし、非線形回帰分析のモデルは、予測可能なデータ予測により適している。メイクアップスワイプのデータは、問題領域や最良の特徴部分以外の理由で行われることがあるため、明確に予測することが難しい場合がある。 Another approach that performs continuous learning similar to reinforcement learning to detect problem areas or find the best facial features is regression analysis. The advantage of regression analysis is that it is computationally fast. However, nonlinear regression analysis models are better suited for predictable data prediction. Makeup swipe data can be difficult to predict with certainty, as it may be done for problem areas or reasons other than the best features.

一実施形態では、用語「a」、「an」などは、別様に示されない限り、概して、「1つ以上」の意味を有する。 In one embodiment, the terms "a," "an," etc. generally have the meaning of "one or more," unless indicated otherwise.

一実施形態では、用語「約」、「近似」、「おおよそ」、および類似の用語は、概して、20%、10%、または好ましくは5%のマージン内の特定された値、およびそれらの間の任意の値を含む範囲を指す。 In one embodiment, the terms "about," "approximate," "approximately," and similar terms generally refer to specified values within a margin of 20%, 10%, or preferably 5%, and between them. Refers to a range that includes any value of .

その結果として、添付の特許請求の範囲内で、本発明は、本明細書に具体的に記載される以外の方法で実施されうることを理解されたい。 Consequently, it is to be understood that within the scope of the appended claims, the invention may be practiced otherwise than as specifically described herein.

上記の開示はまた、以下に列挙される実施形態を包含する。 The above disclosure also encompasses the embodiments listed below.

(1)メイクアップ用の拡張現実システム。拡張現実システムは、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザが選択したメイクアップ目的情報に従ってバーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含む、メイクアップ目的視覚化ユニットとを含む。 (1) Augmented reality system for makeup. The augmented reality system includes a computation operatively coupled to a graphical user interface configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. a makeup object unit including circuitry; a makeup palette unit operably coupled to the makeup object unit, the makeup palette unit configured to provide at least one digital makeup product according to user-selected makeup object information; a makeup palette unit comprising a computational circuit configured to generate one digital makeup palette; configured to generate one or more instances of virtual try-on according to user-selected makeup objective information; and a make-up purpose visualization unit, including a calculation circuit.

(2)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の少なくとも一部を含むユーザの1つ以上のデジタル画像を受信し、ユーザの顔画像を分析して顔パーツを特定し、ユーザの顔画像にデジタルメイクアップ製品を適用するユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、少なくとも1つのジェスチャを分析してユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、推定された問題領域または推定された強調された顔の特徴部分を、適用されたカバレッジ、色合い、および仕上がりとともにメモリ内に格納するようにさらに構成される、特徴(1)に記載のメイクアップ用の拡張現実システム。 (2) the computing circuitry of the makeup purpose visualization unit receives one or more digital images of the user including at least a portion of the user's face, analyzes the facial images of the user to identify facial parts, and track and record in memory at least one gesture by a user applying a digital makeup product to a facial image of the user; analyze the at least one gesture to estimate problem areas on the user's face; or the feature further configured to estimate enhancement of the feature portion of the feature and store the estimated problem region or the estimated enhanced facial feature portion in memory along with applied coverage, tint, and finish; The augmented reality system for makeup according to (1).

(3)メイクアップ目的視覚化ユニットの計算回路は、ユーザが選択したメイクアップ目的情報と一致する少なくとも1つの変更を含むユーザの顔の一部のバーチャル表現を生成するようにさらに構成される、特徴(2)に記載のメイクアップ用の拡張現実システム。 (3) the computational circuitry of the makeup purpose visualization unit is further configured to generate a virtual representation of a portion of the user's face that includes at least one modification consistent with the user-selected makeup purpose information; The augmented reality system for makeup according to feature (2).

(4)タッチスクリーンをさらに備え、ユーザによる少なくとも1つのジェスチャは、タッチスクリーン上の1回以上のスワイプを含み、メイクアップ目的視覚化ユニットの計算回路は、1回以上のスワイプを検出し、選択された色をユーザの顔の画像内の位置に適用するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (4) further comprising a touch screen, wherein the at least one gesture by the user includes one or more swipes on the touch screen, and the computational circuitry of the makeup purpose visualization unit detects and selects the one or more swipes; The augmented reality system for makeup according to feature (2) or (3), further configured to apply the colored color to a location within the image of the user's face.

(5)メイクアップ目的視覚化ユニットの計算回路は、タッチスクリーン上の1回以上のスワイプを検出し、ユーザの顔画像内の位置にある顔パーツの境界によって限定される画像の領域に選択された色を適用するようにさらに構成される、特徴(4)に記載のメイクアップ用の拡張現実システム。 (5) The computational circuitry of the makeup purpose visualization unit detects one or more swipes on the touch screen and selects a region of the image bounded by the boundaries of the facial parts located in the user's facial image. The augmented reality system for make-up according to feature (4), further configured to apply colored colors.

(6)メイクアップ目的視覚化ユニットの計算回路は、メイクアップの適用におけるユーザの経験レベルを受信し、タッチスクリーン上の1回以上のスワイプを検出し、スワイプによって示された顔パーツの位置でユーザの顔画像の領域に選択された色を適用し、顔パーツは境界を有し、適用された色を分析して、1回以上のスワイプが境界から許容量を越えているかどうかを判定するようにさらに構成され、許容量はメイクアップの適用におけるユーザの経験レベルに基づく、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (6) The computing circuitry of the makeup purpose visualization unit receives the user's experience level in applying makeup, detects one or more swipes on the touch screen, and at the location of the facial part indicated by the swipe. applying a selected color to an area of the user's facial image, the facial feature having a border, and analyzing the applied color to determine if one or more swipes are beyond the allowed amount from the border; The augmented reality system for makeup according to feature (2) or (3), further configured to: and wherein the tolerance is based on the user's level of experience in applying makeup.

(7)タッチスクリーンは、スクリーンに加えられる圧力の量を感知する3次元タッチスクリーンであり、ユーザによる少なくとも1つのジェスチャは、スクリーン上で一定の圧力で3次元タッチスクリーン上でのスワイプを含み、計算回路は、1回以上のスワイプおよびスワイプの圧力を検出し、圧力に応じた厚さで選択された色をユーザの顔画像内の位置に適用するようにさらに構成される、特徴(4)または(5)に記載のメイクアップ用の拡張現実システム。 (7) the touch screen is a three-dimensional touch screen that senses the amount of pressure applied to the screen, and the at least one gesture by the user includes a swipe on the three-dimensional touch screen with a constant pressure on the screen; feature (4), wherein the computational circuitry is further configured to detect one or more swipes and swipe pressure and apply the selected color to a location in the user's facial image with a thickness responsive to the pressure; Or the augmented reality system for makeup according to (5).

(8)メイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、問題領域強化学習モデルを使用して問題領域を推定するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (8) The computational circuitry of the makeup objective visualization unit is further configured to analyze the gesture and estimate the problem area using the problem area reinforcement learning model, according to feature (2) or (3). Augmented reality system for makeup described.

(9)メイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して顔の特徴部分の強調を推定するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (9) the computational circuitry of the makeup purpose visualization unit is further configured to analyze the gesture and estimate enhancement of the facial feature using the best feature reinforcement learning model; ) or the augmented reality system for makeup according to (3).

(10)メイクアップ目的視覚化ユニットの計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (10) the computational circuitry of the makeup purpose visualization unit is further configured to distinguish between gestures for the problem area and gestures for the highlighted facial feature using a gesture identification machine learning model; The augmented reality system for makeup according to (2) or (3).

(11)メイクアップ目的視覚化ユニットの計算回路は、モバイルデバイスの音声出力機能を使用して、ユーザの顔画像にデジタルメイクアップ製品を適用する方法についての推奨を希望するかどうかをユーザに質問するようにさらに構成される、特徴(2)または(3)に記載のメイクアップ用の拡張現実システム。 (11) The computational circuitry of the makeup purpose visualization unit asks the user whether he or she would like recommendations on how to apply digital makeup products to the user's facial image using the voice output feature of the mobile device. The augmented reality system for make-up according to feature (2) or (3), further configured to:

(12)メイクアップパレットユニットの計算回路は、複数のデジタルメイクアップ製品用の複数のプリセットサブカルチャーパレットからサブカルチャーパレットを取得するように構成される、特徴(1)から(11)のいずれかに記載のメイクアップ用の拡張現実システム。 (12) Any of features (1) to (11), wherein the calculation circuitry of the makeup palette unit is configured to obtain a subculture palette from a plurality of preset subculture palettes for a plurality of digital makeup products. Augmented reality system for makeup described in.

(13)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔を多かれ少なかれドラマチックにするための少なくとも1つの変更を含む、サブカルチャーパレットを使用してユーザの顔のバーチャル表現を生成するようにさらに構成される、特徴(12)に記載のメイクアップ用の拡張現実システム。 (13) the computational circuitry of the makeup objective visualization unit is configured to generate a virtual representation of the user's face using the subculture palette, including at least one modification to make the user's face more or less dramatic; The augmented reality system for makeup according to feature (12), further comprising:

(14)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の一部をぼかすことによってシミを除去するための少なくとも1つの変更を含む、サブカルチャーパレットを使用してユーザの顔のバーチャル表現を生成するようにさらに構成される、特徴(12)または(13)に記載のメイクアップ用の拡張現実システム。 (14) The computational circuitry of the makeup objective visualization unit uses a subculture palette to represent a virtual representation of the user's face, including at least one modification for removing blemishes by blurring a portion of the user's face. The augmented reality system for make-up according to feature (12) or (13), further configured to generate.

(15)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔のバーチャル表現をライブビデオ用のプラットフォームに転送するようにさらに構成される、特徴(1)から(14)のいずれかに記載の拡張現実システム。 (15) The computing circuitry of the makeup purpose visualization unit is further configured to transfer the virtual representation of the user's face to a platform for live video. Augmented reality system.

(16)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の少なくとも一部を含むユーザの1つ以上のデジタル画像を、第2のユーザのための第2のメイクアップ目的視覚化ユニットに送信するようにさらに構成され、第2のメイクアップ目的視覚化ユニットの計算回路は、ユーザの顔画像を分析して顔パーツを特定し、ユーザの顔画像にデジタルメイクアップ製品を適用する第2のユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、少なくとも1つのジェスチャを分析して、ユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、推定された問題領域または推定された強調された顔の特徴部分を、適用されたカバレッジ、色合いおよび仕上がりとともにそのメモリ内に格納するように構成される、特徴(1)から(15)のいずれかに記載のメイクアップ用の拡張現実システム。 (16) the computational circuitry of the makeup purpose visualization unit transmits one or more digital images of the user, including at least a portion of the user's face, to a second makeup purpose visualization unit for a second user; the computing circuitry of the second makeup objective visualization unit is further configured to transmit a second makeup objective visualization unit for analyzing the facial image of the user to identify facial parts and applying digital makeup products to the facial image of the user; tracking and recording in memory at least one gesture by a user of the user, and analyzing the at least one gesture to estimate problem areas of the user's face or to estimate enhancement of particular facial features; any of features (1) to (15) configured to store in its memory an estimated problem region or an estimated enhanced facial feature portion with applied coverage, tint and finish; Augmented reality system for makeup described in.

(17)第2のメイクアップ目的視覚化ユニットの計算回路は、メイクアップの適用における第2のユーザ経験レベルを受信し、タッチスクリーン上の1回以上のスワイプを検出し、スワイプによって示された顔パーツの位置にあるユーザの顔画像の領域に選択された色を適用し、顔パーツは境界を有し、適用された色を分析して、1回以上のスワイプが境界から許容量を越えているかどうかを判定するようにさらに構成され、許容量はメイクアップの適用における第2のユーザの経験レベルに基づく、特徴(16)に記載のメイクアップ用の拡張現実システム。 (17) the computational circuitry of the second makeup objective visualization unit receives a second user experience level in applying makeup, detects one or more swipes on the touch screen, and detects the one or more swipes indicated by the swipe. Applies the selected color to an area of the user's facial image at the location of the facial feature, the facial feature has a border, and analyzes the applied color to determine if one or more swipes exceed the allowed amount from the border. The augmented reality system for make-up according to feature (16), further configured to determine whether the second user has applied the make-up, and wherein the acceptable amount is based on the second user's level of experience in applying make-up.

(18)第2のメイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、問題領域強化学習モデルを使用して問題領域を推定するようにさらに構成される、特徴(16)または(17)に記載のメイクアップ用の拡張現実システム。 (18) the computational circuitry of the second makeup objective visualization unit is further configured to analyze the gesture and estimate the problem domain using the problem domain reinforcement learning model; The augmented reality system for makeup according to 17).

(19)第2のメイクアップ目的視覚化ユニットの計算回路は、ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して顔の特徴部分の強調を推定するようにさらに構成される、特徴(16)から(18)のいずれかに記載のメイクアップ用の拡張現実システム。 (19) the computational circuitry of the second makeup objective visualization unit is further configured to analyze the gesture and estimate facial feature enhancement using the best feature reinforcement learning model; The augmented reality system for makeup according to any one of features (16) to (18).

(20)第2のメイクアップ目的視覚化ユニットの計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、特徴(16)から(19)のいずれかに記載のメイクアップ用の拡張現実システム。 (20) The computational circuitry of the second makeup objective visualization unit is further configured to distinguish between gestures for the problem area and gestures for the highlighted facial feature using the gesture identification machine learning model. The augmented reality system for makeup according to any one of features (16) to (19).

(21)メイクアップ用の拡張現実システムであって、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、メイクアップパレットユニットは、デジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;ユーザの顔を分析して、顔形状、顔のランドマーク、肌の色合い、髪の色、目の色、唇の形状、まぶたの形状、ヘアスタイルおよび明るさのうちの1つ以上を特定し、ユーザが選択したメイクアップ目的情報と、ユーザの顔の分析に基づいて生成された少なくとも1つのデジタルメイクアップパレットとに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成された計算回路を含むメイクアップ目的視覚化ユニットとを含む、拡張現実システム。 (21) An augmented reality system for makeup, the graphical user configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. a makeup object unit including a computing circuit operably coupled to the interface; a makeup palette unit operably coupled to the makeup object unit, the makeup palette unit comprising at least one computer for digital makeup products; a makeup palette unit including a computational circuit configured to generate a digital makeup palette; analyze the user's face to determine facial shape, facial landmarks, skin tone, hair color, and eyes; identifying one or more of color, lip shape, eyelid shape, hairstyle, and brightness, and at least one makeup purpose information selected by the user and generated based on an analysis of the user's face. An augmented reality system comprising a digital makeup palette and a makeup objective visualization unit that includes a computational circuit configured to automatically create one or more instances of a custom virtual try-on for a user according to.

(22)少なくとも1つのデジタルメイクアップパレットは、カバレッジ、色合い、および仕上がりを有する複数の色を含む、特徴(21)に記載のメイクアップ用の拡張現実システム。 (22) The augmented reality system for makeup according to feature (21), wherein the at least one digital makeup palette includes a plurality of colors with coverage, tint, and finish.

(23)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の少なくとも一部を含むユーザの1つ以上のデジタル画像を受信し、ユーザの顔画像を分析して顔パーツを特定するようにさらに構成される、特徴(21)または(22)に記載のメイクアップ用の拡張現実システム。 (23) the computing circuitry of the makeup purpose visualization unit is configured to receive one or more digital images of the user including at least a portion of the user's face, and to analyze the facial image of the user to identify facial parts. The augmented reality system for makeup according to feature (21) or (22), further comprising:

(24)メイクアップ目的視覚化ユニットの計算回路は、顔パーツを明確にするために、1つ以上のデジタル画像内の明るさを補正するようにさらに構成される、特徴(23)に記載のメイクアップ用の拡張現実システム。 (24) The computational circuitry of the makeup purpose visualization unit is further configured to correct brightness within the one or more digital images to clarify facial parts. Augmented reality system for makeup.

(25)メイクアップ目的視覚化ユニットの計算回路は、取得された少なくとも1つのデジタルメイクアップパレットに基づいて少なくとも1つのメイクアップフィルタを選択し、少なくとも1つのメイクアップフィルタを使用してユーザのためのカスタムバーチャル試着を作成するようにさらに構成される、特徴(21)から(24)のいずれかに記載のメイクアップ用の拡張現実システム。 (25) The calculation circuit of the makeup purpose visualization unit selects at least one makeup filter based on the obtained at least one digital makeup palette, and uses the at least one makeup filter for the user. The augmented reality system for makeup according to any of features (21) to (24), further configured to create a custom virtual try-on of.

(26)少なくとも1つのメイクアップフィルタは、以前に記録されたジェスチャを使用して形成される、特徴(25)に記載のメイクアップ用の拡張現実システム。 (26) The augmented reality system for makeup according to feature (25), wherein the at least one makeup filter is formed using previously recorded gestures.

(27)少なくとも1つのメイクアップフィルタは、以前に格納された推定の問題領域および推定された強調された顔の特徴部分を使用して形成される、特徴(26)に記載のメイクアップ用の拡張現実システム。 (27) The at least one makeup filter for makeup according to feature (26) is formed using a previously stored estimated problem region and an estimated enhanced facial feature. Augmented reality system.

(28)メイクアップ目的視覚化ユニットの計算回路は、過去のルックの好みに基づいて少なくとも1つのメイクアップフィルタを選択するようにさらに構成される、特徴(26)または(27)に記載のメイクアップ用の拡張現実システム。 (28) Make-up according to feature (26) or (27), wherein the calculation circuit of the make-up purpose visualization unit is further configured to select at least one make-up filter based on past look preferences. Augmented reality system for up.

(29)メイクアップ目的視覚化ユニットの計算回路は、ユーザの顔の一部をぼかすことによってシミを除去することを含む、ユーザのためのカスタムバーチャル試着を作成するようにさらに構成される、特徴(23)または(24)に記載のメイクアップ用の拡張現実システム。 (29) the computational circuitry of the makeup objective visualization unit is further configured to create a custom virtual try-on for the user, including removing blemishes by blurring a portion of the user's face; The augmented reality system for makeup according to (23) or (24).

(30)メイクアップ目的視覚化ユニットの計算回路は、1つ以上のインスタンスをメモリ内に保存する機能を備え、カスタムバーチャル試着の1つ以上のインスタンスを表示するようにさらに構成される、特徴(21)から(29)のいずれかに記載のメイクアップ用の拡張現実システム。 (30) the computational circuitry of the makeup objective visualization unit is capable of storing one or more instances in memory and is further configured to display one or more instances of the custom virtual try-on; The augmented reality system for makeup according to any one of 21) to (29).

(31)メイクアップ目的視覚化ユニットの計算回路は、複数のデジタルメイクアップパレットに基づいて作成されたカスタムバーチャル試着の1つ以上のインスタンスをメモリに格納するようにさらに構成される、特徴(21)から(30)のいずれかに記載のメイクアップ用の拡張現実システム。 (31) the computational circuitry of the makeup objective visualization unit is further configured to store in memory one or more instances of custom virtual try-ons created based on the plurality of digital makeup palettes; ) to (30).

(32)メイクアップ目的視覚化ユニットの計算回路は、カスタムバーチャル試着を、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、特徴(21)から(31)のいずれかに記載のメイクアップ用の拡張現実システム。 (32) Makeup according to any of features (21) to (31), wherein the computing circuitry of the makeup purpose visualization unit is further configured to transfer the custom virtual try-on to a platform providing live video. Augmented reality system for up.

(33)複数のメイクアップフィルタを含むインデックス付きデータベースを含むレコメンダシステムをさらに備え、レコメンダシステムは、デジタルメイクアップの適用方法を示す要求に応じて、インデックス付きデータベースから1つ以上のメイクアップフィルタを取得し、顔画像を取得された1つ以上のメイクアップフィルタとブレンドすることによってビデオフレームのシーケンスを生成し、ビデオフレームのシーケンスを表示するように構成される、特徴(21)から(32)のいずれかに記載のメイクアップ用の拡張現実システム。 (33) further comprising a recommender system including an indexed database including a plurality of makeup filters, wherein the recommender system selects one or more makeups from the indexed database in response to a request indicating how to apply digital makeup. from feature (21), configured to obtain a filter, generate a sequence of video frames by blending the facial image with the obtained one or more makeup filters, and display the sequence of video frames; The augmented reality system for makeup according to any one of 32).

(34)インデックス付きデータベースはメイクアップフィルタの複数のカテゴリを含み、レコメンダシステムは、メイクアップフィルタの複数のカテゴリのうちの1つのカテゴリにデジタルメイクアップを適用する要求に応じて、インデックス付きデータベースから1つ以上のメイクアップフィルタを取得するようにさらに構成される、特徴(33)に記載のメイクアップ用の拡張現実システム。 (34) the indexed database includes a plurality of categories of makeup filters; The augmented reality system for makeup according to feature (33), further configured to obtain one or more makeup filters from.

(35)メイクアップフィルタのカテゴリがサブカルチャーメイクアップルックであり、メイクアップ目的ユニットの計算回路は、ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスとしてサブカルチャーメイクアップルックを生成するように構成され、メイクアップ目的視覚化ユニットの計算回路は、ユーザが選択したサブカルチャーメイクアップルックに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成される、特徴(34)に記載のメイクアップ用の拡張現実システム。 (35) the category of the makeup filter is a subculture makeup look, and the computational circuitry of the makeup objective unit is configured to generate the subculture makeup look as one or more instances of user-selectable makeup objectives; and the computational circuitry of the makeup objective visualization unit is configured to automatically create one or more instances of a custom virtual try-on for the user according to the subculture makeup look selected by the user. , the augmented reality system for makeup according to feature (34).

(36)メイクアップ目的視覚化ユニットの計算回路は、1つ以上のインスタンスの中からカスタムバーチャル試着のインスタンスを選択し、カスタムバーチャル試着の選択されたインスタンスを、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、特徴(35)に記載のメイクアップ用の拡張現実システム。 (36) the computational circuitry of the makeup objective visualization unit selects an instance of the custom virtual try-on from among the one or more instances and transfers the selected instance of the custom virtual try-on to a platform providing live video; The augmented reality system for makeup according to feature (35), further configured to:

(37)メイクアップ目的視覚化ユニットの計算回路は、カスタムバーチャル試着の1つ以上のインスタンスとしてメイクアップフィルタを作成し、作成された複数のメイクアップフィルタの中から1つのメイクアップフィルタを選択し、選択されたメイクアップフィルタをライブビデオに適用するようにさらに構成される、特徴(36)に記載のメイクアップ用の拡張現実システム。 (37) The computational circuitry of the makeup purpose visualization unit creates makeup filters as one or more instances of the custom virtual try-on and selects one makeup filter from among the plurality of created makeup filters. , the augmented reality system for makeup according to feature (36), further configured to apply the selected makeup filter to the live video.

(38)選択されたメイクアップフィルタは、ユーザが選択した複数のサブカルチャーメイクアップルックの中の1つのサブカルチャーメイクアップルック用であり、メイクアップ目的視覚化ユニットの計算回路は、選択されたメイクアップフィルタをライブビデオに適用してサブカルチャーメイクアップルックを実現するようにさらに構成される、特徴(37)に記載の拡張現実システム。 (38) The selected makeup filter is for one subculture makeup look among the plurality of subculture makeup looks selected by the user, and the calculation circuit of the makeup purpose visualization unit selects the selected makeup filter. The augmented reality system of feature (37), further configured to apply makeup filters to the live video to achieve a subculture makeup look.

Claims (38)

Translated fromJapanese
メイクアップ用の拡張現実システムであって:
ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;
前記メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、前記メイクアップパレットユニットは、前記ユーザが選択したメイクアップ目的情報に従ってデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;
前記ユーザが選択したメイクアップ目的情報に従って、バーチャル試着の1つ以上のインスタンスを生成するように構成された計算回路を含むメイクアップ目的視覚化ユニットと
を備える、メイクアップ用の拡張現実システム。
An augmented reality system for makeup, comprising:
A makeup device that includes a computational circuit operably coupled to a graphical user interface configured to generate one or more instances of user-selectable makeup objectives and to receive user-selected makeup objective information. With the objective unit;
a makeup palette unit operably coupled to the makeup purpose unit, the makeup palette unit configured to store at least one digital makeup palette for digital makeup products according to the user-selected makeup purpose information; a makeup palette unit including a computing circuit configured to generate;
and a make-up purpose visualization unit configured to generate one or more instances of virtual try-on according to the user-selected make-up purpose information.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の少なくとも一部を含む前記ユーザの1つ以上のデジタル画像を受信し、
前記ユーザの顔画像を分析して顔パーツを特定し、
前記ユーザの顔画像に前記デジタルメイクアップ製品を適用する前記ユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、
前記少なくとも1つのジェスチャを分析して、前記ユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、
前記推定された問題領域または前記推定された強調された顔の特徴部分を、適用されたカバレッジ、色合い、および仕上がりとともに前記メモリ内に格納する
ようにさらに構成される、請求項1に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
receiving one or more digital images of the user including at least a portion of the user's face;
Analyzing the user's facial image to identify facial parts;
tracking and recording in memory at least one gesture by the user applying the digital makeup product to an image of the user's face;
analyzing the at least one gesture to estimate problem areas of the user's face or to estimate enhancement of particular facial features;
The makeup of claim 1, further configured to store the estimated problem areas or the estimated enhanced facial features in the memory along with applied coverage, tint, and finish. Augmented reality system for up.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザが選択したメイクアップ目的情報と一致する少なくとも1つの変更を含む、前記ユーザの顔の一部のバーチャル表現を生成するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
3. The extension for makeup of claim 2, further configured to generate a virtual representation of a portion of the user's face that includes at least one modification consistent with makeup objective information selected by the user. reality system.
タッチスクリーンをさらに備え、
前記ユーザによる前記少なくとも1つのジェスチャは、前記タッチスクリーン上の1回以上のスワイプを含み、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記1回以上のスワイプを検出し、選択された色を前記ユーザの顔の前記画像内の位置に適用するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。
Also equipped with a touch screen,
the at least one gesture by the user includes one or more swipes on the touch screen;
5. The computational circuitry of the makeup objective visualization unit is further configured to detect the one or more swipes and apply a selected color to a location in the image of the user's face. Augmented reality system for makeup according to item 2.
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記タッチスクリーン上の前記1回以上のスワイプを検出し、前記ユーザの顔の前記画像内の前記位置にある顔パーツの境界によって限定される前記画像の領域に、前記選択された色を適用するようにさらに構成される、請求項4に記載のメイクアップ用の拡張現実システム。 The calculation circuitry of the make-up purpose visualization unit detects the one or more swipes on the touch screen, and detects the one or more swipes on the touch screen, and the calculation circuitry detects the one or more swipes on the touch screen, and the calculation circuitry detects the one or more swipes on the touch screen, and detects the one or more swipes on the touch screen. 5. The augmented reality system for makeup according to claim 4, further configured to apply the selected color to a region of an image. 前記メイクアップ目的視覚化ユニットの前記計算回路は:
メイクアップの適用におけるユーザの経験レベルを受信し、
前記タッチスクリーン上の前記1回以上のスワイプを検出し、
前記スワイプによって示された顔パーツの位置で前記ユーザの顔の前記画像の領域に前記選択された色を適用し、前記顔パーツは境界を有し、
前記適用された色を分析して、前記1回以上のスワイプが前記境界から許容量を越えているかどうかを判定するようにさらに構成され、前記許容量は、メイクアップの適用における前記ユーザの経験レベルに基づく、請求項2に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
receive the user's experience level in applying makeup;
detecting the one or more swipes on the touch screen;
applying the selected color to an area of the image of the user's face at the location of the facial feature indicated by the swipe, the facial feature having a border;
further configured to analyze the applied color to determine whether the one or more swipes exceed a tolerance from the boundary, the tolerance being dependent on the user's experience in applying makeup. Augmented reality system for makeup according to claim 2, based on levels.
前記タッチスクリーンは、前記スクリーンに加えられる圧力の量を感知する3次元タッチスクリーンであり、
前記ユーザによる前記少なくとも1つのジェスチャは、前記スクリーン上である特定の圧力で前記3次元タッチスクリーン上でのスワイプを含み、
前記計算回路は、前記1回以上のスワイプおよび前記スワイプの前記圧力を検出し、前記圧力に応じた厚さで前記選択された色を前記ユーザの顔の前記画像内の位置に適用するようにさらに構成される、請求項4に記載のメイクアップ用の拡張現実システム。
the touch screen is a three-dimensional touch screen that senses the amount of pressure applied to the screen;
the at least one gesture by the user includes a swipe on the three-dimensional touch screen with a certain pressure on the screen;
The calculation circuit is configured to detect the one or more swipes and the pressure of the swipe, and apply the selected color to a location in the image of the user's face with a thickness responsive to the pressure. 5. The augmented reality system for makeup according to claim 4, further comprising:
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、問題領域強化学習モデルを使用して前記問題領域を推定するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 Make-up according to claim 2, wherein the calculation circuit of the make-up purpose visualization unit is further configured to analyze the gesture and estimate the problem domain using a problem domain reinforcement learning model. Augmented reality system for. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して前記顔の特徴部分の強調を推定するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 5. The computational circuit of the makeup purpose visualization unit is further configured to analyze the gesture and estimate enhancement of the facial features using a best feature reinforcement learning model. Augmented reality system for makeup according to item 2. 前記メイクアップ目的視覚化ユニットの前記計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 5. The computational circuitry of the makeup purpose visualization unit is further configured to use a gesture identification machine learning model to distinguish between gestures for problem areas and gestures for highlighted facial features. Augmented reality system for makeup according to item 2. 前記メイクアップ目的視覚化ユニットの前記計算回路は、モバイルデバイスの音声出力機能を使用して、前記ユーザの顔の前記画像に前記デジタルメイクアップ製品を適用する方法についての推奨事項を希望するかどうかを前記ユーザに質問するようにさらに構成される、請求項2に記載のメイクアップ用の拡張現実システム。 whether the calculation circuit of the make-up purpose visualization unit would like a recommendation on how to apply the digital make-up product to the image of the user's face using a voice output function of a mobile device; 3. The augmented reality system for makeup according to claim 2, further configured to ask the user: . 前記メイクアップパレットユニットの前記計算回路は、複数のデジタルメイクアップ製品用の複数のプリセットサブカルチャーパレットからサブカルチャーパレットを取得するように構成される、請求項1に記載のメイクアップ用の拡張現実システム。 Augmented reality for makeup according to claim 1, wherein the calculation circuit of the makeup palette unit is configured to obtain a subculture palette from a plurality of preset subculture palettes for a plurality of digital makeup products. system. 前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔を多かれ少なかれドラマチックにするための少なくとも1つの変更を含む、前記サブカルチャーパレットを使用して前記ユーザの前記顔のバーチャル表現を生成するようにさらに構成される、請求項12に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
13. The subculture palette of claim 12, further configured to generate a virtual representation of the user's face using the subculture palette, including at least one modification to make the user's face more or less dramatic. Augmented reality system for makeup.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の前記一部をぼかすことによってシミを除去するための少なくとも1つの変更を含む、サブカルチャーパレットを使用して前記ユーザの前記顔のバーチャル表現を生成するようにさらに構成される、請求項12に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
further configured to generate a virtual representation of the face of the user using a subculture palette, including at least one modification to remove blemishes by blurring the portion of the user's face; Augmented reality system for makeup according to claim 12.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの前記顔の前記バーチャル表現をライブビデオ用のプラットフォームに転送するようにさらに構成される、請求項1に記載の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
The augmented reality system of claim 1, further configured to transfer the virtual representation of the face of the user to a platform for live video.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の少なくとも一部を含む前記ユーザの1つ以上のデジタル画像を、第2のユーザのための第2のメイクアップ目的視覚化ユニットに送信するようにさらに構成され、
前記第2のメイクアップ目的視覚化ユニットの計算回路は:
前記ユーザの顔画像を分析して顔パーツを特定し、
前記ユーザの顔の前記画像に前記デジタルメイクアップ製品を適用する前記第2のユーザによる少なくとも1つのジェスチャを追跡し、メモリ内に記録し、
前記少なくとも1つのジェスチャを分析して、前記ユーザの顔の問題領域を推定するか、または特定の顔の特徴部分の強調を推定し、
前記推定された問題領域または前記推定された強調された顔の特徴部分を、適用されたカバレッジ、色合いおよび仕上がりとともに前記メモリに格納するように構成される、請求項1に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
further configured to transmit one or more digital images of the user including at least a portion of the user's face to a second makeup purpose visualization unit for a second user;
The calculation circuit of the second makeup purpose visualization unit is:
Analyzing the user's facial image to identify facial parts;
tracking and recording in memory at least one gesture by the second user applying the digital makeup product to the image of the user's face;
analyzing the at least one gesture to estimate problem areas of the user's face or to estimate enhancement of particular facial features;
The make-up device of claim 1, configured to store the estimated problem areas or the estimated enhanced facial features in the memory along with applied coverage, tint and finish. Augmented reality system.
前記第2のメイクアップ目的視覚化ユニットの前記計算回路は:
メイクアップの適用における前記第2のユーザの経験レベルを受信し、
前記タッチスクリーン上の前記1回以上のスワイプを検出し、
前記スワイプによって示された顔パーツの位置で前記ユーザの顔の前記画像の領域に前記選択された色を適用し、前記顔パーツは境界を有し、
前記適用された色を分析して、前記1回以上のスワイプが前記境界から許容量を越えているかどうかを判定するようにさらに構成され、前記許容量はメイクアップの適用における前記第2のユーザの経験レベルに基づく、請求項16に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the second makeup purpose visualization unit is:
receiving the second user's experience level in applying makeup;
detecting the one or more swipes on the touch screen;
applying the selected color to an area of the image of the user's face at the location of the facial feature indicated by the swipe, the facial feature having a border;
further configured to analyze the applied color to determine whether the one or more swipes exceed a tolerance amount from the boundary, the tolerance amount being applied to the second user in applying makeup. 17. The augmented reality system for makeup according to claim 16, based on the experience level of.
前記第2のメイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、問題領域強化学習モデルを使用して前記問題領域を推定するようにさらに構成される、請求項16に記載のメイクアップ用の拡張現実システム。 17. The computational circuitry of the second makeup objective visualization unit is further configured to analyze the gesture and estimate the problem area using a problem area reinforcement learning model. Augmented reality system for makeup. 前記第2のメイクアップ目的視覚化ユニットの前記計算回路は、前記ジェスチャを分析して、最良の特徴部分強化学習モデルを使用して前記顔の特徴部分の強調を推定するようにさらに構成される、請求項16に記載のメイクアップ用の拡張現実システム。 The computational circuitry of the second makeup objective visualization unit is further configured to analyze the gesture and estimate enhancement of the facial features using a best feature reinforcement learning model. 17. The augmented reality system for makeup according to claim 16. 前記第2のメイクアップ目的視覚化ユニットの前記計算回路は、ジェスチャ識別機械学習モデルを使用して、問題領域に対するジェスチャと強調された顔の特徴部分に対するジェスチャとを区別するようにさらに構成される、請求項16に記載のメイクアップ用の拡張現実システム。 The computational circuitry of the second makeup objective visualization unit is further configured to distinguish between gestures for problem areas and gestures for highlighted facial features using a gesture identification machine learning model. 17. The augmented reality system for makeup according to claim 16. メイクアップ用の拡張現実システムであって:
ユーザが選択可能なメイクアップ目的の1つ以上のインスタンスを生成し、ユーザが選択したメイクアップ目的情報を受信するように構成されたグラフィカルユーザインタフェースに動作可能に結合された計算回路を含むメイクアップ目的ユニットと;
前記メイクアップ目的ユニットに動作可能に結合されたメイクアップパレットユニットであって、前記イクアップパレットユニットはデジタルメイクアップ製品用の少なくとも1つのデジタルメイクアップパレットを生成するように構成された計算回路を含む、メイクアップパレットユニットと;
ユーザの顔を分析して顔形状、顔のランドマーク、肌の色合い、髪の色、目の色、唇の形状、まぶたの形状、ヘアスタイルおよび明るさのうちの1つ以上を特定し、前記ユーザが選択したメイクアップ目的情報と、前記ユーザの顔の前記分析に基づいて生成された前記少なくとも1つのデジタルメイクアップパレットに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成された、計算回路を含むメイクアップ目的視覚化ユニットと
を備える、メイクアップ用の拡張現実システム。
An augmented reality system for makeup, comprising:
A make-up device comprising computational circuitry operably coupled to a graphical user interface configured to generate one or more instances of user-selectable make-up objectives and to receive user-selected make-up objective information. With the objective unit;
a makeup palette unit operably coupled to the makeup destination unit, the makeup palette unit including a computing circuit configured to generate at least one digital makeup palette for a digital makeup product; A makeup palette unit, including;
analyzing the user's face to identify one or more of facial shape, facial landmarks, skin tone, hair color, eye color, lip shape, eyelid shape, hairstyle, and brightness; automatically generating one or more instances of a custom virtual try-on for a user according to makeup objective information selected by the user and the at least one digital makeup palette generated based on the analysis of the user's face; an augmented reality system for make-up, comprising: a make-up object visualization unit configured to create a make-up object;
前記少なくとも1つのデジタルメイクアップパレットは、カバレッジ、色合い、および仕上がりを備えた複数の色を含む、請求項21に記載のメイクアップ用の拡張現実システム。 22. The augmented reality system for makeup of claim 21, wherein the at least one digital makeup palette includes a plurality of colors with coverage, tint, and finish. 前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記ユーザの顔の少なくとも一部を含む前記ユーザの1つ以上のデジタル画像を受信し、
前記ユーザの顔画像を分析して顔パーツを特定するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
receiving one or more digital images of the user including at least a portion of the user's face;
22. The augmented reality system for makeup of claim 21, further configured to analyze facial images of the user to identify facial features.
前記メイクアップ目的視覚化ユニットの前記計算回路は:
前記顔パーツを明確にするために、前記1つ以上のデジタル画像の明るさを補正するようにさらに構成される、請求項23に記載のメイクアップ用の拡張現実システム。
The calculation circuit of the makeup purpose visualization unit is:
24. The augmented reality system for makeup of claim 23, further configured to correct brightness of the one or more digital images to clarify the facial features.
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記取得された少なくとも1つのデジタルメイクアップパレットに基づいて少なくとも1つのメイクアップフィルタを選択し、
前記少なくとも1つのメイクアップフィルタを使用して、前記ユーザの前記カスタムバーチャル試着を作成するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。
the calculation circuit of the makeup objective visualization unit selects at least one makeup filter based on the obtained at least one digital makeup palette;
22. The augmented reality system for makeup of claim 21, further configured to create the custom virtual try-on of the user using the at least one makeup filter.
前記少なくとも1つのメイクアップフィルタは、以前に記録されたジェスチャを使用して形成される、請求項25に記載のメイクアップ用の拡張現実システム。 26. The augmented reality system for makeup according to claim 25, wherein the at least one makeup filter is formed using previously recorded gestures. 前記少なくとも1つのメイクアップフィルタは、以前に格納された推定の問題領域および推定され強調された顔の特徴部分を使用して形成される、請求項26に記載のメイクアップ用の拡張現実システム。 27. The augmented reality system for makeup of claim 26, wherein the at least one makeup filter is formed using previously stored estimated problem areas and estimated enhanced facial features. 前記メイクアップ目的視覚化ユニットの前記計算回路は、過去のルックの好みに基づいて少なくとも1つのメイクアップフィルタを選択するようにさらに構成される、請求項26に記載のメイクアップ用の拡張現実システム。 27. The augmented reality system for makeup according to claim 26, wherein the calculation circuit of the makeup objective visualization unit is further configured to select at least one makeup filter based on past look preferences. . 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ユーザの顔の前記一部をぼかすことによってシミを除去することを含む、前記ユーザのための前記カスタムバーチャル試着を作成するようにさらに構成される、請求項23に記載のメイクアップ用の拡張現実システム。 The computational circuitry of the makeup objective visualization unit is further configured to create the custom virtual try-on for the user, the computer circuitry comprising: removing blemishes by blurring the portion of the user's face; 24. The augmented reality system for makeup according to claim 23. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記1つ以上のインスタンスをメモリ内に保存する機能を備え、前記カスタムバーチャル試着の前記1つ以上のインスタンスを表示するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。 the computing circuitry of the makeup objective visualization unit is further configured to display the one or more instances of the custom virtual try-on, with the ability to store the one or more instances in memory; Augmented reality system for makeup according to claim 21. 前記メイクアップ目的視覚化ユニットの前記計算回路は、複数のデジタルメイクアップパレットに基づいて作成された前記カスタムバーチャル試着の前記1つ以上のインスタンスをメモリに格納するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。 5. The computing circuit of the makeup objective visualization unit is further configured to store in memory the one or more instances of the custom virtual try-on created based on a plurality of digital makeup palettes. The augmented reality system for makeup according to 21. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記カスタムバーチャル試着を、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、請求項21に記載のメイクアップ用の拡張現実システム。 22. The augmented reality system for makeup according to claim 21, wherein the computing circuit of the makeup objective visualization unit is further configured to transfer the custom virtual try-on to a platform providing live video. 複数のメイクアップフィルタを含むインデックス付きデータベースを含むレコメンダシステムをさらに備え、
前記レコメンダシステムは:
デジタルメイクアップを適用する方法を示す要求に応じて、前記インデックス付きデータベースから1つ以上のメイクアップフィルタを取得し;
前記顔画像を、前記取得された1つ以上のメイクアップフィルタとブレンドすることによってビデオフレームのシーケンスを生成し;
前記ビデオフレームのシーケンスを表示するように構成される、請求項21に記載のメイクアップ用の拡張現実システム。
It further includes a recommender system that includes an indexed database containing multiple makeup filters,
The recommender system is:
retrieving one or more makeup filters from the indexed database in response to a request indicating how to apply digital makeup;
generating a sequence of video frames by blending the facial image with the obtained one or more makeup filters;
22. The augmented reality system for make-up according to claim 21, configured to display the sequence of video frames.
前記インデックス付きデータベースは、メイクアップフィルタの複数のカテゴリを含み、
前記レコメンダシステムは:
前記メイクアップフィルタの複数のカテゴリのうちの1つのカテゴリにデジタルメイクアップを適用する要求に応じて、前記インデックス付きデータベースから1つ以上のメイクアップフィルタを取得するようにさらに構成される、請求項33に記載のメイクアップ用の拡張現実システム。
the indexed database includes multiple categories of makeup filters;
The recommender system is:
5. The method of claim 1, further configured to retrieve one or more makeup filters from the indexed database in response to a request to apply digital makeup to one of the plurality of categories of makeup filters. The augmented reality system for makeup according to No. 33.
前記メイクアップフィルタのカテゴリは、サブカルチャーメイクアップルックであり、
前記メイクアップ目的ユニットの前記計算回路は、ユーザが選択可能なメイクアップ目的の前記1つ以上のインスタンスとして前記サブカルチャーメイクアップのルックを生成するように構成され、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記ユーザが選択したサブカルチャーメイクアップルックに従って、ユーザのためのカスタムバーチャル試着の1つ以上のインスタンスを自動的に作成するように構成される、請求項34に記載のメイクアップ用の拡張現実システム。
the makeup filter category is subculture makeup look;
the calculation circuitry of the makeup objective unit is configured to generate the subculture makeup look as the one or more instances of user-selectable makeup objectives;
the computational circuitry of the makeup objective visualization unit is configured to automatically create one or more instances of a custom virtual try-on for a user according to a subculture makeup look selected by the user; Augmented reality system for makeup according to claim 34.
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記1つ以上のインスタンスの中から前記カスタムバーチャル試着のインスタンスを選択し、前記カスタムバーチャル試着の前記選択されたインスタンスを、ライブビデオを提供するプラットフォームに転送するようにさらに構成される、請求項35に記載のメイクアップ用の拡張現実システム。 The computing circuit of the makeup objective visualization unit selects an instance of the custom virtual try-on from among the one or more instances, and displays the selected instance of the custom virtual try-on on a platform that provides live video. 36. The augmented reality system for makeup according to claim 35, further configured to transfer to. 前記メイクアップ目的視覚化ユニットの前記計算回路は、前記カスタムバーチャル試着の前記1つ以上のインスタンスとしてメイクアップフィルタを作成し、前記作成された複数のメイクアップフィルタの中から1つのメイクアップフィルタを選択し、前記選択されたメイクアップフィルタを前記ライブビデオに適用するようにさらに構成される、請求項36に記載のメイクアップ用の拡張現実システム。 The calculation circuit of the makeup objective visualization unit creates makeup filters as the one or more instances of the custom virtual try-on, and selects one makeup filter from among the created plurality of makeup filters. 37. The augmented reality system for makeup of claim 36, further configured to select and apply the selected makeup filter to the live video. 前記選択されたメイクアップフィルタは、前記ユーザが選択した複数のサブカルチャーメイクアップルックの中の1つのサブカルチャーメイクアップルック用であり、
前記メイクアップ目的視覚化ユニットの前記計算回路は、前記選択されたメイクアップフィルタを前記ライブビデオに適用して、前記サブカルチャーメイクアップルックを実現するようにさらに構成される、請求項37に記載の拡張現実システム。
the selected makeup filter is for one subculture makeup look among a plurality of subculture makeup looks selected by the user;
38. The computational circuitry of the makeup objective visualization unit is further configured to apply the selected makeup filter to the live video to achieve the subculture makeup look. augmented reality system.
JP2023540040A2020-12-302021-12-02 Digital Makeup PaletteActiveJP7721649B2 (en)

Applications Claiming Priority (9)

Application NumberPriority DateFiling DateTitle
US17/138,0312020-12-30
US17/137,970US11321882B1 (en)2020-12-302020-12-30Digital makeup palette
US17/138,031US12136173B2 (en)2020-12-302020-12-30Digital makeup palette
US17/137,9702020-12-30
FR2107904AFR3125612B1 (en)2021-07-222021-07-22 DIGITAL MAKEUP PALETTE
FR21079232021-07-22
FR21079042021-07-22
FR2107923AFR3125611A1 (en)2021-07-222021-07-22 digital makeup palette
PCT/US2021/061654WO2022146615A1 (en)2020-12-302021-12-02Digital makeup palette

Publications (2)

Publication NumberPublication Date
JP2024506454Atrue JP2024506454A (en)2024-02-14
JP7721649B2 JP7721649B2 (en)2025-08-12

Family

ID=79164968

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2023540040AActiveJP7721649B2 (en)2020-12-302021-12-02 Digital Makeup Palette

Country Status (4)

CountryLink
EP (1)EP4272050A1 (en)
JP (1)JP7721649B2 (en)
KR (1)KR20230117240A (en)
WO (1)WO2022146615A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2025181286A1 (en)*2024-02-292025-09-04L'oréalApparatus, systems and methods for an effects rendering pipeline, including makeup effects, video conference streamlining and vto ui option configuration/selection and looks

Citations (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2002117365A (en)*2000-10-102002-04-19Tokyo Sogo Kenkyusho:KkMake-up simulation service device
JP2009064423A (en)*2007-08-102009-03-26Shiseido Co LtdMakeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2010017360A (en)*2008-07-102010-01-28Sega CorpGame device, game control method, game control program, and recording medium recording the program
KR20120066773A (en)*2010-12-152012-06-25고스트리트(주)A method of virtual make-up using mobile device
WO2015029371A1 (en)*2013-08-302015-03-05パナソニックIpマネジメント株式会社Makeup assistance device, makeup assistance method, and makeup assistance program
WO2017110041A1 (en)*2015-12-252017-06-29パナソニックIpマネジメント株式会社Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
US20180075524A1 (en)*2016-09-152018-03-15GlamST LLCApplying virtual makeup products
JP2018077766A (en)*2016-11-112018-05-17ソニー株式会社 Information processing apparatus, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US8908904B2 (en)*2011-12-282014-12-09Samsung Electrônica da Amazônia Ltda.Method and system for make-up simulation on portable devices having digital cameras
US10192359B2 (en)*2014-01-312019-01-29Empire Technology Development, LlcSubject selected augmented reality skin
US20160093081A1 (en)*2014-09-262016-03-31Samsung Electronics Co., Ltd.Image display method performed by device including switchable mirror and the device
US10553006B2 (en)*2014-09-302020-02-04Tcms Transparent Beauty, LlcPrecise application of cosmetic looks from over a network environment
CN112036261A (en)*2020-08-112020-12-04海尔优家智能科技(北京)有限公司Gesture recognition method and device, storage medium and electronic device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2002117365A (en)*2000-10-102002-04-19Tokyo Sogo Kenkyusho:KkMake-up simulation service device
JP2009064423A (en)*2007-08-102009-03-26Shiseido Co LtdMakeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2010017360A (en)*2008-07-102010-01-28Sega CorpGame device, game control method, game control program, and recording medium recording the program
KR20120066773A (en)*2010-12-152012-06-25고스트리트(주)A method of virtual make-up using mobile device
WO2015029371A1 (en)*2013-08-302015-03-05パナソニックIpマネジメント株式会社Makeup assistance device, makeup assistance method, and makeup assistance program
WO2017110041A1 (en)*2015-12-252017-06-29パナソニックIpマネジメント株式会社Makeup part creation device, makeup part usage device, makeup part creation method, makeup part usage method, makeup part creation program, and makeup part usage program
US20180075524A1 (en)*2016-09-152018-03-15GlamST LLCApplying virtual makeup products
JP2018077766A (en)*2016-11-112018-05-17ソニー株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication numberPublication date
JP7721649B2 (en)2025-08-12
EP4272050A1 (en)2023-11-08
WO2022146615A1 (en)2022-07-07
KR20230117240A (en)2023-08-07

Similar Documents

PublicationPublication DateTitle
US12136173B2 (en)Digital makeup palette
US11776187B2 (en)Digital makeup artist
CN111968248B (en)Intelligent cosmetic method and device based on virtual image, electronic equipment and storage medium
JP6956389B2 (en) Makeup support device and makeup support method
TWI773096B (en)Makeup processing method and apparatus, electronic device and storage medium
TWI573093B (en)Method of establishing virtual makeup data, electronic device having method of establishing virtual makeup data and non-transitory computer readable storage medium thereof
US11961169B2 (en)Digital makeup artist
CN110738620B (en)Intelligent makeup method, makeup mirror and storage medium
CN109690617A (en) System and method for digital vanity mirror
CN108932654A (en)A kind of virtually examination adornment guidance method and device
JP2025103007A (en) Digital Makeup Artist
US11321882B1 (en)Digital makeup palette
JP7721649B2 (en) Digital Makeup Palette
US12342923B2 (en)Augmented reality cosmetic design filters
CN115393552A (en)Beauty makeup interaction platform providing digital makeup trial and makeup method
CN114021022A (en) Method, device, vehicle and storage medium for acquiring makeup information
KR20020069595A (en)System and method for producing caricatures
JP7727839B2 (en) Augmented reality makeup design filters
US20250261743A1 (en)Smart Makeup Compact

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20230818

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20240820

A601Written request for extension of time

Free format text:JAPANESE INTERMEDIATE CODE: A601

Effective date:20241119

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20250120

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20250128

A601Written request for extension of time

Free format text:JAPANESE INTERMEDIATE CODE: A601

Effective date:20250422

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20250619

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20250701

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20250730

R150Certificate of patent or registration of utility model

Ref document number:7721649

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150


[8]ページ先頭

©2009-2025 Movatter.jp