Movatterモバイル変換


[0]ホーム

URL:


JP2020068468A - Generation device, generation method, and generation program - Google Patents

Generation device, generation method, and generation program
Download PDF

Info

Publication number
JP2020068468A
JP2020068468AJP2018200375AJP2018200375AJP2020068468AJP 2020068468 AJP2020068468 AJP 2020068468AJP 2018200375 AJP2018200375 AJP 2018200375AJP 2018200375 AJP2018200375 AJP 2018200375AJP 2020068468 AJP2020068468 AJP 2020068468A
Authority
JP
Japan
Prior art keywords
moving image
weight
scenes
unit
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018200375A
Other languages
Japanese (ja)
Other versions
JP7133433B2 (en
Inventor
直也 中嶋
Naoya Nakajima
直也 中嶋
香乃 中嶋
Kano Nakajima
香乃 中嶋
啓太 水落
Keita Mizuochi
啓太 水落
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan CorpfiledCriticalYahoo Japan Corp
Priority to JP2018200375ApriorityCriticalpatent/JP7133433B2/en
Publication of JP2020068468ApublicationCriticalpatent/JP2020068468A/en
Application grantedgrantedCritical
Publication of JP7133433B2publicationCriticalpatent/JP7133433B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Abstract

Translated fromJapanese

【課題】適切に編集された動画をユーザに提供すること。
【解決手段】生成装置100は、加算部133と、生成部135とを有する。加算部133は、動画に表示される対象物が所定の条件を満たす場合に、対象物に対応するシーンであって、動画を構成する複数のシーンの重要度を示す重みを加算する。生成部135は、加算部133によって加算された重みに基づいて、複数のシーンのうち、所定数のシーンから構成される編集動画を生成する。
【選択図】図3
PROBLEM TO BE SOLVED: To provide a user with a properly edited moving image.
A generation device 100 has an addition unit 133 and a generation unit 135. When the target displayed in the moving image satisfies a predetermined condition, the adding unit 133 adds weights indicating the importance of a plurality of scenes that are the scene corresponding to the target and that form the moving image. The generating unit 135 generates an edited moving image composed of a predetermined number of scenes among the plurality of scenes, based on the weights added by the adding unit 133.
[Selection diagram] Fig. 3

Description

Translated fromJapanese

本発明は、生成装置、生成方法、生成プログラムに関する。  The present invention relates to a generation device, a generation method, and a generation program.

従来、動画情報を表示時間等に応じて編集する技術が提供されている。  Conventionally, techniques for editing moving image information according to display time and the like have been provided.

特開2006−011358号公報JP, 2006-011358, A

しかしながら、上記の従来技術では、適切に編集された動画をユーザに提供することができるとは限らない。例えば、上記の従来技術では、単純に動画情報の時間を短縮する編集をした場合、動画情報に含まれる重要箇所の内容をユーザに提供することが困難になる場合がある。そのため、上記の従来技術では、適切に編集された動画をユーザに提供することができるとは限らない。  However, in the above-described conventional technique, it is not always possible to provide the user with a properly edited moving image. For example, in the above-mentioned conventional technique, when the moving image information is simply edited to shorten the time, it may be difficult to provide the user with the contents of the important part included in the moving image information. Therefore, in the above-described conventional technique, it is not always possible to provide the user with a properly edited moving image.

本願は、上記に鑑みてなされたものであって、適切に編集された動画をユーザに提供することができる生成装置、生成方法、生成プログラムを提供することを目的とする。  The present application has been made in view of the above, and an object thereof is to provide a generation device, a generation method, and a generation program capable of providing an appropriately edited moving image to a user.

本願に係る生成装置は、動画に表示される対象物が所定の条件を満たす場合に、当該対象物に対応するシーンであって、動画を構成する複数のシーンの重要度を示す重みを加算する加算部と、前記加算部によって加算された重みに基づいて、前記複数のシーンのうち、所定数のシーンから構成される編集動画を生成する生成部と、を備えたことを特徴とする。  The generation device according to the present application adds, when an object displayed in a moving image satisfies a predetermined condition, a weight that indicates the importance of a plurality of scenes that are included in the moving image and that are scenes corresponding to the object. An addition unit and a generation unit that generates an edited moving image composed of a predetermined number of scenes among the plurality of scenes based on the weight added by the addition unit.

実施形態の一態様によれば、適切に編集された動画をユーザに提供することができるという効果を奏する。  According to the aspect of the embodiment, it is possible to provide an appropriately edited moving image to the user.

図1は、実施形態に係る生成装置が実行する生成処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a generation process executed by the generation device according to the embodiment.図2は、実施形態に係る生成装置が実行する編集動画の生成方法の処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of processing of an edited moving image generation method executed by the generation device according to the embodiment.図3は、実施形態に係る生成装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the generation device according to the embodiment.図4は、実施形態に係る動画情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of the moving image information storage unit according to the embodiment.図5は、実施形態に係る辞書情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of the dictionary information storage unit according to the embodiment.図6は、実施形態に係る重み情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the weight information storage unit according to the embodiment.図7は、実施形態に係る生成装置が実行する生成処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the flow of a generation process executed by the generation device according to the embodiment.図8は、変形例に係る生成装置が実行する編集動画の生成方法の処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of processing of an edited moving image generation method executed by the generation device according to the modification.図9は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the generation device.

以下に、本願に係る生成装置、生成方法、生成プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、生成プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。  Hereinafter, modes (hereinafter, referred to as “embodiments”) for carrying out the generation device, the generation method, and the generation program according to the present application will be described in detail with reference to the drawings. Note that the generation device, the generation method, and the generation program according to the present application are not limited by this embodiment. Further, the respective embodiments can be appropriately combined within the range in which the processing content is not inconsistent. Also, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicated description will be omitted.

〔1.生成装置が示す生成処理の一例〕
図1を用いて、実施形態に係る生成装置が実行する生成処理の一例について説明する。図1は、実施形態に係る生成装置が実行する生成処理の一例を示す図である。具体的には、生成装置100は、ユーザから受け付けた動画を編集し、編集された編集動画をユーザに提供する。なお、以下では、ユーザによって撮影された動画を編集する例を示す。
[1. Example of generation process indicated by generation device]
An example of the generation process executed by the generation device according to the embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram illustrating an example of a generation process executed by the generation device according to the embodiment. Specifically, thegeneration device 100 edits the moving image received from the user and provides the edited edited moving image to the user. In addition, below, the example which edits the video image | photographed by the user is shown.

図1に示すように、生成システム1は、端末装置10と、生成装置100とを含む。端末装置10及び生成装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す生成システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてもよい。  As shown in FIG. 1, thegeneration system 1 includes aterminal device 10 and ageneration device 100. Theterminal device 10 and thegeneration device 100 are communicably connected by wire or wirelessly via a predetermined communication network (not shown). Note that thegeneration system 1 illustrated in FIG. 1 may include a plurality ofterminal devices 10 and a plurality ofgeneration devices 100.

実施形態に係る端末装置10は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスするユーザによって利用される情報処理装置である。例えば、端末装置10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。図1の例では、端末装置10がユーザによって利用されるスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。  Theterminal device 10 according to the embodiment is an information processing device used by a user who accesses contents such as web pages displayed on a browser and contents for applications. For example, theterminal device 10 is a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or the like. The example of FIG. 1 illustrates a case where theterminal device 10 is a smartphone used by a user. In addition, below, theterminal device 10 may be described as a user. That is, in the following, the user can be read as theterminal device 10.

実施形態に係る生成装置100は、例えば、サーバ装置等により実現される。具体的には、生成装置100は、動画に表示される対象物が所定の条件を満たす場合に、対象物に対応するシーンであって、動画を構成する複数のシーンの重要度を示す重みを加算する。そして、生成装置100は、かかる重みに基づいて、複数のシーンのうち、所定数のシーンから構成される編集動画を生成する。  Thegeneration device 100 according to the embodiment is realized by, for example, a server device or the like. Specifically, when the object displayed in the moving image satisfies a predetermined condition, thegeneration device 100 assigns a weight that indicates the degree of importance of the scenes corresponding to the object and that are included in the moving image. to add. Then, thegeneration device 100 generates an edited moving image including a predetermined number of scenes among the plurality of scenes based on the weight.

以下、図1を用いて、生成装置100による生成処理の一例を流れに沿って説明する。  Hereinafter, with reference to FIG. 1, an example of the generation process performed by thegeneration device 100 will be described along the flow.

まず、図1に示すように、生成装置100は、ユーザU1によって利用される端末装置10から動画MO1に関する情報を受け付ける(ステップS1)。例えば、生成装置100は、ユーザU1に提供されるアプリケーション等を介して、ユーザU1から動画MO1に関する情報を受け付ける。  First, as illustrated in FIG. 1, thegeneration device 100 receives information about the moving image MO1 from theterminal device 10 used by the user U1 (step S1). For example, thegeneration device 100 receives information regarding the moving image MO1 from the user U1 via an application or the like provided to the user U1.

続いて、生成装置100は、ユーザU1から受け付けた動画MO1に表示される対象物を人と人以外の物体とに分類する(ステップS2)。具体的には、生成装置100は、機械学習等の従来技術により、動画MO1に表示される対象物を人と人以外の物体とに分類する。なお、ここでいう人以外の物体とは、動物、生物、移動体、食べ物、玩具等を含む。  Then, thegeneration device 100 classifies the objects displayed in the moving image MO1 received from the user U1 into a person and an object other than the person (step S2). Specifically, thegeneration device 100 classifies a target object displayed in the moving image MO1 into a person and an object other than the person by a conventional technique such as machine learning. It should be noted that the objects other than the person here include animals, living things, moving bodies, foods, toys, and the like.

例えば、人以外の物体が、食べ物であるとする。この場合、生成装置100は、人と食べ物とを学習させた学習モデルに動画MO1を入力することにより、動画MO1に表示される対象物を人と食べ物とに分類した結果を出力する。  For example, suppose that an object other than a person is food. In this case, thegeneration device 100 inputs the moving image MO1 to the learning model in which the person and the food are learned, and outputs the result of classifying the objects displayed in the moving image MO1 into the person and the food.

そして、生成装置100は、辞書情報記憶部を参照して、動画MO1を構成するシーンの重みを加算する(ステップS3)。具体的には、生成装置100は、人や人以外の物体等の対象物と重みとが対応付られた情報が記憶された辞書情報記憶部を参照して、動画MO1を構成するシーンに表示される対象物の重みを、動画MO1のフレーム毎に加算する。これにより、生成装置100は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。  Then, thegeneration device 100 refers to the dictionary information storage unit and adds the weights of the scenes forming the moving image MO1 (step S3). Specifically, thegeneration device 100 refers to a dictionary information storage unit that stores information in which an object such as a person or an object other than the person is associated with a weight, and displays the scene in the scene forming the moving image MO1. The weight of the target to be added is added for each frame of the moving image MO1. Thereby, thegeneration device 100 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1.

例えば、動画MO1が、人及び食べ物が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、食べ物の重みが「+5」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人が動画に表示されていない場合の重みが「−5」であるとする。この場合、生成装置100は、はじめのシーンが、食べ物が表示されるシーンの場合に、重みとして「+5」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+5」を加えることで「+5」となる。  For example, it is assumed that the moving image MO1 is a moving image in which people and food are displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, it is assumed that the weight of food is “+5” as the weight corresponding to the object stored in the dictionary information storage unit. Further, as the weight corresponding to the object stored in the dictionary information storage unit, the weight when the person is not displayed in the moving image is “−5”. In this case, thegeneration device 100 adds “+5” as a weight when the first scene is a scene in which food is displayed. As a result, the accumulated weight becomes "+5" by adding "+5" to the initial weight "0".

そして、生成装置100は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+5」に「+7」を加えることで「+12」となる。そして、生成装置100は、次のシーンが、人が表示されないシーンである場合に、重みとして「−5」を加算する。これにより、累積された重みは、「+12」に「−5」を加えることで「+7」となる。そして、生成装置100は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、生成装置100は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。このように、生成装置100は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。  Then, thegeneration device 100 adds “+7” as a weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+12" by adding "+7" to "+5". Then, thegeneration device 100 adds “−5” as the weight when the next scene is a scene in which no person is displayed. Accordingly, the accumulated weight becomes "+7" by adding "-5" to "+12". Then, thegeneration device 100 adds “+7” as a weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, thegeneration device 100 adds “+7” as a weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". In this way, thegeneration device 100 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1.

また、例えば、動画MO1が、複数の人が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、所定数の人の重みが「0」であるとする。この場合、生成装置100は、はじめのシーンが、人が表示されるシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+7」を加えることで「+7」となる。  Further, for example, it is assumed that the moving image MO1 is a moving image in which a plurality of people are displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, it is assumed that the weight of a predetermined number of persons is “0” as the weight corresponding to the object stored in the dictionary information storage unit. In this case, thegeneration device 100 adds “+7” as a weight when the first scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+7" by adding "+7" to the initial weight "0".

そして、生成装置100は、次のシーンが、所定数の人が表示されるシーンの場合に、重みとして「0」を加算する。これにより、累積された重みは、「+7」に「0」を加えることで「+7」となる。そして、生成装置100は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、生成装置100は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。このように、生成装置100は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。  Then, thegeneration device 100 adds “0” as the weight when the next scene is a scene in which a predetermined number of people are displayed. As a result, the accumulated weight becomes "+7" by adding "0" to "+7". Then, thegeneration device 100 adds “+7” as a weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, thegeneration device 100 adds “+7” as a weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". In this way, thegeneration device 100 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1.

また、例えば、動画MO1が、人が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、人の座標が変化しないシーンが3回連続で続く場合に、重みをさらに「+10」加算するとする。この場合、生成装置100は、はじめのシーンが、人が表示されるシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+7」を加えることで「+7」となる。  In addition, for example, it is assumed that the moving image MO1 is a moving image in which a person is displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, when the scene in which the person's coordinates do not change continues three times in a row, the weight is further added by “+10”. In this case, thegeneration device 100 adds “+7” as a weight when the first scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+7" by adding "+7" to the initial weight "0".

そして、生成装置100は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、生成装置100は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。そして、生成装置100は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+21」に「+7」を加えることで「+28」となる。また、生成装置100は、人の座標が変化しないシーンが3回連続で続いた場合に、さらに重み「+10」を加算する。これにより、累積された重みは、「+28」に「+10」を加えることで「+38」となる。このように、生成装置100は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。  Then, thegeneration device 100 adds “+7” as the weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, thegeneration device 100 adds “+7” as the weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". Then, thegeneration device 100 adds “+7” as the weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+28" by adding "+7" to "+21". In addition, thegeneration device 100 further adds the weight “+10” when the scene in which the coordinate of the person does not change continues three times in a row. As a result, the accumulated weight becomes "+38" by adding "+10" to "+28". In this way, thegeneration device 100 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1.

なお、生成装置100は、動画MO1のフレーム毎に重みを累積することで、動画MO1の時間に対応する累積された重みを算出する算出処理に限らず、動画内の時間毎に重みを累積することで、動画MO1の時間に対応する累積された重みを算出してもよい。例えば、生成装置100は、1秒毎に重みを累積することで、動画MO1の時間に対応する累積された重みを算出してもよい。  Note that thegeneration device 100 accumulates the weights for each frame of the moving image MO1, and is not limited to the calculation process of calculating the accumulated weights corresponding to the time of the moving image MO1, but accumulates the weights for each time of the moving image. Thus, the accumulated weight corresponding to the time of the moving image MO1 may be calculated. For example, thegeneration device 100 may calculate the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight every one second.

続いて、生成装置100は、各シーンの重みに基づいて、シーンを選択し、編集動画EM1を生成する(ステップS4)。具体的には、生成装置100は、重みが所定の閾値以上であるシーンを選択する。そして、生成装置100は、選択されたシーンによって構成される編集動画EM1を生成する。  Then, thegeneration device 100 selects a scene based on the weight of each scene and generates the edited moving image EM1 (step S4). Specifically, thegeneration device 100 selects a scene whose weight is equal to or greater than a predetermined threshold. And the production |generation apparatus 100 produces | generates the edit animation EM1 comprised by the selected scene.

ここで、図2を用いて編集動画EM1の生成方法について説明する。図2は、実施形態に係る生成装置100が実行する編集動画の生成方法の処理の一例を示す図である。図2に示すように、図FG1は、動画MO1の時間に対応する重みの変化を示す。図FG1の縦軸は、加算された重みの値を示す。図FG1の横軸は、動画MO1の動画内の時間を示す。図FG1は、所定の重みの閾値の表示を含む。例えば、図FG1では、所定の範囲内の複数のシーンSE1、SE2、SE3が所定の重みの閾値以上であるシーンである。  Here, a method of generating the edited moving image EM1 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of processing of an edited moving image generation method executed by thegeneration device 100 according to the embodiment. As shown in FIG. 2, a diagram FG1 shows a change in weight corresponding to time of the moving image MO1. The vertical axis of FIG. FG1 shows the value of the added weight. The horizontal axis of FIG. FG1 indicates the time in the moving image of the moving image MO1. Diagram FG1 includes a display of thresholds of predetermined weights. For example, in FIG. FG1, a plurality of scenes SE1, SE2, and SE3 within a predetermined range are scenes having a predetermined weight threshold value or more.

また、図2に示すように、図FG2は、所定の重みの閾値以上である所定の範囲内の複数のシーンSE1、SE2、SE3を合わせた動画を示す。すなわち、かかる動画は、編集動画EM1に対応する。  Further, as shown in FIG. 2, FIG. FG2 shows a moving image in which a plurality of scenes SE1, SE2, and SE3 within a predetermined range that is equal to or greater than a threshold of a predetermined weight are combined. That is, this moving image corresponds to the edited moving image EM1.

例えば、生成装置100は、重みの閾値が「70」であるとする。この場合、生成装置100は、動画MO1から、重みの閾値以上である所定の範囲内の複数のシーンSE1、SE2、SE3を選択する。そして、生成装置100は、選択された複数のシーンに基づいて、編集動画EM1を生成する。  For example, it is assumed that thegeneration device 100 has a weight threshold value of “70”. In this case, thegeneration device 100 selects, from the moving image MO1, a plurality of scenes SE1, SE2, SE3 within a predetermined range that is equal to or greater than the weight threshold. Then, thegeneration device 100 generates the edited moving image EM1 based on the selected plurality of scenes.

図1に戻り、実施形態に係る生成処理の一例を説明する。生成装置100は、ユーザU1に対して、動画MO1に対応する編集された動画として編集動画EM1に関する情報を提供する(ステップS5)。  Returning to FIG. 1, an example of the generation process according to the embodiment will be described. Thegeneration device 100 provides the user U1 with information regarding the edited moving image EM1 as an edited moving image corresponding to the moving image MO1 (step S5).

このように、実施形態に係る生成装置100は、動画に表示される対象物が所定の条件を満たす場合に、動画を構成する複数のシーンの重要度を示す重みを加算する。そして、生成装置100は、かかる重みに基づいて、複数のシーンのうち、所定数のシーンから構成される編集動画を生成する。これにより、実施形態に係る生成装置100は、特定の対象物が表示されるシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。この点について説明する。図1の例を用いて説明すると、生成装置100は、ユーザU1から受け付けた動画MO1に含まれる特定の対象物に対して重みを大きくすることで、特定の対象物が表示されるシーンを選択する。そして、生成装置100は、選択されたシーンによって構成される編集動画EM1を生成する。また、図2の例を用いて説明すると、生成装置100は、動画MO1を構成する複数のシーンの重みを動画MO1のフレーム毎に累積するように加算する。これにより、生成装置100は、所定の閾値以上である重みを示す複数のシーンを選択することで、編集動画内のシーンが飛び飛びになることを防ぎ、編集動画の質の低下を低減することができる。このことから、生成装置100は、特定の対象物が表示されるシーンを高精度に選択することができる。したがって、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  As described above, thegeneration device 100 according to the embodiment adds a weight indicating the degree of importance of a plurality of scenes forming a moving image when an object displayed in the moving image satisfies a predetermined condition. Then, thegeneration device 100 generates an edited moving image including a predetermined number of scenes among the plurality of scenes based on the weight. Accordingly, thegeneration device 100 according to the embodiment can select a scene in which a specific target object is displayed, and thus can appropriately provide a moving image to the user. This point will be described. To describe using the example of FIG. 1, thegeneration device 100 selects a scene in which a specific target object is displayed by increasing the weight of the specific target object included in the moving image MO1 received from the user U1. To do. And the production |generation apparatus 100 produces | generates the edit animation EM1 comprised by the selected scene. Further, to describe using the example of FIG. 2, thegeneration device 100 adds the weights of the plurality of scenes forming the moving image MO1 so as to be accumulated for each frame of the moving image MO1. With this, thegeneration device 100 can prevent the scenes in the edited moving image from skipping and reduce the deterioration of the quality of the edited moving image by selecting a plurality of scenes having a weight that is equal to or greater than a predetermined threshold. it can. From this, thegeneration device 100 can highly accurately select the scene in which the specific target object is displayed. Therefore, thegeneration device 100 according to the embodiment can select an appropriate scene from the moving image by paying attention to the weight corresponding to the specific target object, and thus can provide the user with the appropriately edited moving image. .

〔2.生成装置の構成〕
次に、図3を用いて、実施形態に係る生成装置100の構成について説明する。図3は、実施形態に係る生成装置100の構成例を示す図である。図3に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration of generator]
Next, the configuration of thegeneration device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of thegeneration device 100 according to the embodiment. As illustrated in FIG. 3, thegeneration device 100 includes a communication unit 110, a storage unit 120, and acontrol unit 130.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、端末装置10との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from theterminal device 10.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、動画情報記憶部121と、辞書情報記憶部122と、重み情報記憶部123とを有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a moving imageinformation storage unit 121, a dictionaryinformation storage unit 122, and a weightinformation storage unit 123.

(動画情報記憶部121について)
実施形態に係る動画情報記憶部121は、ユーザから受け付けられた動画に関する情報を記憶する。ここで、図4に、実施形態に係る動画情報記憶部121の一例を示す。図4に示した例では、動画情報記憶部121は、「動画ID」、「ユーザID」、「動画」といった項目を有する。
(About the video information storage unit 121)
The moving imageinformation storage unit 121 according to the embodiment stores information about moving images received from a user. Here, FIG. 4 illustrates an example of the moving imageinformation storage unit 121 according to the embodiment. In the example shown in FIG. 4, the moving imageinformation storage unit 121 has items such as “moving image ID”, “user ID”, and “moving image”.

「動画ID」は、動画を識別する識別子である。「ユーザID」は、ユーザを識別する識別子である。「動画」は、「ユーザID」と対応付けられたユーザから受け付けられた動画に関する情報である。例えば、図4では、動画IDによって識別された「M1」は、ユーザIDによって識別される「U1」から受け付けられた動画が「MO1」である。なお、図4に示した例では、動画を「MO1」等の抽象的な符号で表現したが、動画は、具体的な動画のファイル形式を示す情報等であってもよい。  The “moving image ID” is an identifier for identifying a moving image. The "user ID" is an identifier that identifies a user. The “moving image” is information about the moving image received from the user associated with the “user ID”. For example, in FIG. 4, for “M1” identified by the moving image ID, the moving image received from “U1” identified by the user ID is “MO1”. In the example shown in FIG. 4, the moving image is represented by an abstract code such as “MO1”, but the moving image may be information indicating a specific file format of the moving image.

(辞書情報記憶部122について)
実施形態に係る辞書情報記憶部122は、対象物に対応する重みに関する情報を記憶する。ここで、図5に、実施形態に係る辞書情報記憶部122の一例を示す。図5に示した例では、辞書情報記憶部122は、「辞書ID」、「項目」、「重み」といった項目を有する。
(About the dictionary information storage unit 122)
The dictionaryinformation storage unit 122 according to the embodiment stores information regarding the weight corresponding to the object. Here, FIG. 5 illustrates an example of the dictionaryinformation storage unit 122 according to the embodiment. In the example shown in FIG. 5, the dictionaryinformation storage unit 122 has items such as “dictionary ID”, “item”, and “weight”.

「辞書ID」は、辞書に記憶された対象物の項目を識別する識別子である。「項目」は、「辞書ID」と対応付けられた対象物の種類の項目に関する情報である。また、「項目」は、対象物が動画に表示される態様に関する情報を含む。「重み」は、「辞書ID」と対応付けられた対象物の項目に対応する重みに関する情報である。例えば、図5では、辞書IDによって識別される「D1」は、項目が「食べ物」であり、重みが「+5」である。  The “dictionary ID” is an identifier for identifying the item of the object stored in the dictionary. The “item” is information regarding the item of the type of the object associated with the “dictionary ID”. In addition, the “item” includes information regarding the manner in which the object is displayed in the moving image. The “weight” is information regarding the weight corresponding to the item of the object associated with the “dictionary ID”. For example, in FIG. 5, “D1” identified by the dictionary ID has an item “food” and a weight “+5”.

(重み情報記憶部123について)
実施形態に係る重み情報記憶部123は、ユーザから受け付けられた動画の加算された重みに関する情報を記憶する。ここで、図6に、実施形態に係る重み情報記憶部123の一例を示す。図6に示した例では、重み情報記憶部123は、「重みID」、「動画ID」、「時間」、「重み」といった項目を有する。
(About the weight information storage unit 123)
The weightinformation storage unit 123 according to the embodiment stores information on the added weight of the moving image received from the user. Here, FIG. 6 illustrates an example of the weightinformation storage unit 123 according to the embodiment. In the example shown in FIG. 6, the weightinformation storage unit 123 has items such as “weight ID”, “moving image ID”, “time”, and “weight”.

「重みID」は、重みを識別する識別子である。「動画ID」は、ユーザから受け付けられた動画を識別する識別子である。「時間」は、動画内の時間に関する情報である。「重み」は、動画MO1のフレーム毎に累積するように加算された重みに関する情報である。例えば、図6では、重みIDによって識別される「W1」は、動画IDによって識別される「M1」に対応する時間が「T1」であり、重みが「0」である。  The “weight ID” is an identifier for identifying the weight. The “moving image ID” is an identifier that identifies a moving image received from the user. “Time” is information about time in the moving image. The “weight” is information on the weight added so as to be accumulated for each frame of the moving image MO1. For example, in FIG. 6, “W1” identified by the weight ID is “T1” at the time corresponding to “M1” identified by the moving image ID, and the weight is “0”.

(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
Thecontrol unit 130 is a controller (Controller), and includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, which stores various programs (an example of the generation program) stored in a storage device inside thegeneration apparatus 100. (Corresponding) is executed by using the RAM as a work area. Thecontrol unit 130 is a controller and is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部130は、受付部131と、分類部132と、加算部133と、選択部134と、生成部135と、提供部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。  As illustrated in FIG. 3, thecontrol unit 130 includes areception unit 131, a classification unit 132, anaddition unit 133, a selection unit 134, a generation unit 135, and aprovision unit 136, and information described below. Realize or execute processing functions and actions. The internal configuration of thecontrol unit 130 is not limited to the configuration shown in FIG. 3 and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship between the processing units included in thecontrol unit 130 is not limited to the connection relationship illustrated in FIG. 3 and may be another connection relationship.

(受付部131について)
受付部131は、ユーザによって利用される端末装置10から動画に関する情報を受け付ける。例えば、受付部131は、ユーザに提供されるアプリケーション等を介して、ユーザから動画に関する情報を受け付ける。そして、受付部131は、かかる動画に関する情報を動画情報記憶部121に格納する。
(About the reception unit 131)
Thereception unit 131 receives information regarding a moving image from theterminal device 10 used by the user. For example, thereception unit 131 receives information regarding a moving image from a user via an application or the like provided to the user. Then, thereception unit 131 stores the information on the moving image in the moving imageinformation storage unit 121.

(分類部132について)
分類部132は、受付部131によって受け付けられた動画に表示される対象物を人と人以外の物体とに分類する。具体的には、分類部132は、機械学習等の従来技術により、動画に表示される対象物を人と人以外の物体とに分類する。例えば、人以外の物体が、食べ物であるとする。この場合、分類部132は、人と食べ物とを学習させた学習モデルに動画を入力することにより、動画に表示される対象物を人と食べ物とに分類した結果を出力する。
(Regarding the classification unit 132)
The classifying unit 132 classifies the objects displayed in the moving image accepted by the acceptingunit 131 into a person and an object other than the person. Specifically, the classification unit 132 classifies a target object displayed in a moving image into a person and an object other than the person by a conventional technique such as machine learning. For example, suppose that an object other than a person is food. In this case, the classification unit 132 outputs the result of classifying the objects displayed in the moving image into the human and the food by inputting the moving image into the learning model in which the person and the food are learned.

(加算部133について)(About adder 133)

加算部133は、動画に表示される対象物が所定の条件を満たす場合に、対象物に対応するシーンであって、動画を構成する複数のシーンの重要度を示す重みを加算する。具体的には、加算部133は、動画に表示される対象物が所定の条件を満たす第1のシーンの重みに、動画に表示される対象物が所定の条件を満たす第2のシーンの重みを累積するように加算する。より具体的には、加算部133は、人や人以外の物体等の対象物と重みとが対応付られた情報が記憶された辞書情報記憶部122を参照して、動画を構成するシーンに表示される対象物の重みを算出することで、かかるシーンの重みを加算する。  When the target displayed in the moving image satisfies a predetermined condition, the addingunit 133 adds weights indicating the importance of a plurality of scenes that are the scene corresponding to the target and that form the moving image. Specifically, theaddition unit 133 sets the weight of the first scene in which the object displayed in the moving image satisfies the predetermined condition and the weight of the second scene in which the object displayed in the moving image satisfies the predetermined condition. Are added so as to be accumulated. More specifically, theaddition unit 133 refers to the dictionaryinformation storage unit 122 that stores information in which an object such as a person or an object other than a person and weight are associated with each other, and refers to a scene that forms a moving image. The weight of such a scene is added by calculating the weight of the displayed object.

例えば、動画MO1が、人及び食べ物が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、食べ物の重みが「+5」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人が動画に表示されていない場合の重みが「−5」であるとする。この場合、加算部133は、はじめのシーンが、食べ物が表示されるシーンの場合に、重みとして「+5」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+5」を加えることで「+5」となる。  For example, it is assumed that the moving image MO1 is a moving image in which people and food are displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, it is assumed that the weight of food is “+5” as the weight corresponding to the object stored in the dictionary information storage unit. Further, as the weight corresponding to the object stored in the dictionary information storage unit, the weight when the person is not displayed in the moving image is “−5”. In this case, theaddition unit 133 adds “+5” as a weight when the first scene is a scene in which food is displayed. As a result, the accumulated weight becomes "+5" by adding "+5" to the initial weight "0".

そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+5」に「+7」を加えることで「+12」となる。そして、加算部133は、次のシーンが、人が表示されないシーンである場合に、重みとして「−5」を加算する。これにより、累積された重みは、「+12」に「−5」を加えることで「+7」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。このように、加算部133は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。そして、加算部133は、かかる動画の重みを動画の時間に対応する形式で重み情報記憶部123に格納する。  Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+12" by adding "+7" to "+5". Then, the addingunit 133 adds “−5” as the weight when the next scene is a scene in which no person is displayed. Accordingly, the accumulated weight becomes "+7" by adding "-5" to "+12". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". In this way, theaddition unit 133 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1. Then, theaddition unit 133 stores the weight of the moving image in the weightinformation storage unit 123 in a format corresponding to the time of the moving image.

また、例えば、動画MO1が、複数の人が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、所定数の人の重みが「0」であるとする。この場合、加算部133は、はじめのシーンが、人が表示されるシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+7」を加えることで「+7」となる。  Further, for example, it is assumed that the moving image MO1 is a moving image in which a plurality of people are displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, it is assumed that the weight of a predetermined number of persons is “0” as the weight corresponding to the object stored in the dictionary information storage unit. In this case, theaddition unit 133 adds “+7” as the weight when the first scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+7" by adding "+7" to the initial weight "0".

そして、加算部133は、次のシーンが、所定数の人が表示されるシーンの場合に、重みとして「0」を加算する。これにより、累積された重みは、「+7」に「0」を加えることで「+7」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。このように、加算部133は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。そして、加算部133は、かかる動画の重みを動画の時間に対応する形式で重み情報記憶部123に格納する。  Then, the addingunit 133 adds “0” as a weight when the next scene is a scene in which a predetermined number of people are displayed. As a result, the accumulated weight becomes "+7" by adding "0" to "+7". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". In this way, theaddition unit 133 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1. Then, theaddition unit 133 stores the weight of the moving image in the weightinformation storage unit 123 in a format corresponding to the time of the moving image.

また、例えば、動画MO1が、人が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、人の座標が変化しないシーンが3回連続で続く場合に、重みをさらに「+10」加算するとする。この場合、加算部133は、はじめのシーンが、人が表示されるシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+7」を加えることで「+7」となる。  In addition, for example, it is assumed that the moving image MO1 is a moving image in which a person is displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, when the scene in which the person's coordinates do not change continues three times in a row, the weight is further added by “+10”. In this case, theaddition unit 133 adds “+7” as the weight when the first scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+7" by adding "+7" to the initial weight "0".

そして、加算部133は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、加算部133は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。そして、加算部133は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+21」に「+7」を加えることで「+28」となる。また、加算部133は、人の座標が変化しないシーンが3回連続で続いた場合に、さらに重み「+10」を加算する。これにより、累積された重みは、「+28」に「+10」を加えることで「+38」となる。このように、加算部133は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。そして、加算部133は、かかる動画の重みを動画の時間に対応する形式で重み情報記憶部123に格納する。  Then, the addingunit 133 adds “+7” as a weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, the addingunit 133 adds “+7” as a weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". Then, the addingunit 133 adds “+7” as a weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+28" by adding "+7" to "+21". The addingunit 133 further adds the weight “+10” when the scene in which the coordinates of the person does not change continues three times in a row. As a result, the accumulated weight becomes "+38" by adding "+10" to "+28". In this way, theaddition unit 133 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1. Then, theaddition unit 133 stores the weight of the moving image in the weightinformation storage unit 123 in a format corresponding to the time of the moving image.

(選択部134について)
選択部134は、加算部133によって加算された重みに基づいて、所定数のシーンを複数のシーンから選択する。具体的には、選択部134は、加算部133によって加算された重みが所定の閾値以上である場合に、所定数のシーンを複数のシーンから選択する。例えば、選択部134は、重み情報記憶部123に記憶される重みが所定の閾値以上であるシーンを選択する。例えば、選択部134は、重みの閾値が「70」であるとする。この場合、選択部134は、動画から、重みの閾値以上である複数のシーンを選択する。
(About the selection unit 134)
The selection unit 134 selects a predetermined number of scenes from the plurality of scenes based on the weights added by theaddition unit 133. Specifically, the selecting unit 134 selects a predetermined number of scenes from a plurality of scenes when the weight added by the addingunit 133 is equal to or larger than a predetermined threshold. For example, the selection unit 134 selects a scene whose weight stored in the weightinformation storage unit 123 is equal to or greater than a predetermined threshold. For example, the selection unit 134 is assumed to have a weighting threshold value of “70”. In this case, the selection unit 134 selects a plurality of scenes having a weight threshold value or more from the moving image.

(生成部135について)
生成部135は、選択部134によって選択された所定数のシーンから構成される編集動画を生成する。例えば、生成部135は、選択部134によって選択された複数のシーンに基づいて、編集動画を生成する。
(Regarding the generation unit 135)
The generation unit 135 generates an edited moving image including a predetermined number of scenes selected by the selection unit 134. For example, the generation unit 135 generates an edited moving image based on the plurality of scenes selected by the selection unit 134.

(提供部136について)
提供部136は、ユーザに対して、動画に対応する編集された動画として編集動画に関する情報を提供する。例えば、提供部136は、重み情報記憶部123を参照して、動画に対応する編集された動画として編集動画に関する情報をユーザに提供する。
(About providing unit 136)
The providingunit 136 provides the user with information regarding the edited moving image as an edited moving image corresponding to the moving image. For example, the providingunit 136 refers to the weightinformation storage unit 123 and provides the user with information regarding the edited moving image as the edited moving image corresponding to the moving image.

〔3.生成処理のフローチャート〕
次に、図7を用いて、実施形態に係る生成装置100が実行する生成処理の手順について説明する。図7は、実施形態に係る生成装置が実行する生成処理の流れの一例を示すフローチャートである。
[3. Flowchart of generation processing]
Next, the procedure of the generation process executed by thegeneration device 100 according to the embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of the flow of a generation process executed by the generation device according to the embodiment.

図7に示すように、受付部131は、ユーザU1から動画MO1に関する情報を受け付ける(ステップS101)。そして、分類部132は、受付部131がユーザU1から動画MO1を受け付けていない場合(ステップS101;No)、ユーザU1から動画MO1を受け付けるまで待機する。  As illustrated in FIG. 7, thereception unit 131 receives information regarding the moving image MO1 from the user U1 (step S101). Then, when the receivingunit 131 does not receive the moving image MO1 from the user U1 (step S101; No), the classification unit 132 waits until receiving the moving image MO1 from the user U1.

一方、分類部132は、受付部131がユーザU1から動画MO1を受け付けた場合(ステップS101;Yes)、動画MO1に表示される対象物を人と人以外の物体とに分類する(ステップS102)。例えば、人以外の物体が、食べ物であるとする。この場合、分類部132は、人と食べ物とを学習させた学習モデルに動画を入力することにより、動画に表示される対象物を人と食べ物とに分類した結果を出力する。  On the other hand, when the receivingunit 131 receives the moving image MO1 from the user U1 (step S101; Yes), the classifying unit 132 classifies the objects displayed in the moving image MO1 into a person and an object other than the person (step S102). . For example, suppose that an object other than a person is food. In this case, the classification unit 132 outputs the result of classifying the objects displayed in the moving image into the human and the food by inputting the moving image into the learning model in which the person and the food are learned.

そして、加算部133は、辞書情報記憶部122を参照して、動画MO1を構成する各シーンの重みを加算する(ステップS103)。例えば、動画MO1が、人及び食べ物が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、食べ物の重みが「+5」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人が動画に表示されていない場合の重みが「−5」であるとする。この場合、加算部133は、はじめのシーンが、食べ物が表示されるシーンの場合に、重みとして「+5」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+5」を加えることで「+5」となる。  Then, the addingunit 133 refers to the dictionaryinformation storage unit 122 and adds the weights of the respective scenes forming the moving image MO1 (step S103). For example, it is assumed that the moving image MO1 is a moving image in which people and food are displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, it is assumed that the weight of food is “+5” as the weight corresponding to the object stored in the dictionary information storage unit. Further, as the weight corresponding to the object stored in the dictionary information storage unit, the weight when the person is not displayed in the moving image is “−5”. In this case, theaddition unit 133 adds “+5” as a weight when the first scene is a scene in which food is displayed. As a result, the accumulated weight becomes "+5" by adding "+5" to the initial weight "0".

そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+5」に「+7」を加えることで「+12」となる。そして、加算部133は、次のシーンが、人が表示されないシーンである場合に、重みとして「−5」を加算する。これにより、累積された重みは、「+12」に「−5」を加えることで「+7」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。このように、加算部133は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。そして、加算部133は、かかる動画の重みを動画の時間に対応する形式で重み情報記憶部123に格納する。  Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+12" by adding "+7" to "+5". Then, the addingunit 133 adds “−5” as the weight when the next scene is a scene in which no person is displayed. Accordingly, the accumulated weight becomes "+7" by adding "-5" to "+12". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". In this way, theaddition unit 133 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1. Then, theaddition unit 133 stores the weight of the moving image in the weightinformation storage unit 123 in a format corresponding to the time of the moving image.

また、例えば、動画MO1が、複数の人が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、所定数の人の重みが「0」であるとする。この場合、加算部133は、はじめのシーンが、人が表示されるシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+7」を加えることで「+7」となる。  Further, for example, it is assumed that the moving image MO1 is a moving image in which a plurality of people are displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, it is assumed that the weight of a predetermined number of persons is “0” as the weight corresponding to the object stored in the dictionary information storage unit. In this case, theaddition unit 133 adds “+7” as the weight when the first scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+7" by adding "+7" to the initial weight "0".

そして、加算部133は、次のシーンが、所定数の人が表示されるシーンの場合に、重みとして「0」を加算する。これにより、累積された重みは、「+7」に「0」を加えることで「+7」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、加算部133は、次のシーンが、人が表示されるシーンである場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。このように、加算部133は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。そして、加算部133は、かかる動画の重みを動画の時間に対応する形式で重み情報記憶部123に格納する。  Then, the addingunit 133 adds “0” as a weight when the next scene is a scene in which a predetermined number of people are displayed. As a result, the accumulated weight becomes "+7" by adding "0" to "+7". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, the addingunit 133 adds “+7” as the weight when the next scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". In this way, theaddition unit 133 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1. Then, theaddition unit 133 stores the weight of the moving image in the weightinformation storage unit 123 in a format corresponding to the time of the moving image.

また、例えば、動画MO1が、人が表示される動画であるものとする。また、辞書情報記憶部に記憶された対象物に対応する重みとして、人の重みが「+7」であるとする。また、人の座標が変化しないシーンが3回連続で続く場合に、重みをさらに「+10」加算するとする。この場合、加算部133は、はじめのシーンが、人が表示されるシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、はじめの重みである「0」に「+7」を加えることで「+7」となる。  In addition, for example, it is assumed that the moving image MO1 is a moving image in which a person is displayed. Further, it is assumed that the weight of a person is “+7” as the weight corresponding to the object stored in the dictionary information storage unit. Further, when the scene in which the person's coordinates do not change continues three times in a row, the weight is further added by “+10”. In this case, theaddition unit 133 adds “+7” as the weight when the first scene is a scene in which a person is displayed. As a result, the accumulated weight becomes "+7" by adding "+7" to the initial weight "0".

そして、加算部133は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+7」に「+7」を加えることで「+14」となる。そして、加算部133は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+14」に「+7」を加えることで「+21」となる。そして、加算部133は、次のシーンが、人が表示されるシーンであって、前のシーンと人の座標が変化しないシーンの場合に、重みとして「+7」を加算する。これにより、累積された重みは、「+21」に「+7」を加えることで「+28」となる。また、加算部133は、人の座標が変化しないシーンが3回連続で続いた場合に、さらに重み「+10」を加算する。これにより、累積された重みは、「+28」に「+10」を加えることで「+38」となる。このように、加算部133は、動画MO1のフレーム毎の重みを累積することで、動画MO1の時間に対応する累積された重みを算出する。そして、加算部133は、かかる動画の重みを動画の時間に対応する形式で重み情報記憶部123に格納する。  Then, the addingunit 133 adds “+7” as a weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+14" by adding "+7" to "+7". Then, the addingunit 133 adds “+7” as a weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+21" by adding "+7" to "+14". Then, the addingunit 133 adds “+7” as a weight when the next scene is a scene in which a person is displayed and the coordinates of the person do not change from the previous scene. As a result, the accumulated weight becomes "+28" by adding "+7" to "+21". The addingunit 133 further adds the weight “+10” when the scene in which the coordinates of the person does not change continues three times in a row. As a result, the accumulated weight becomes "+38" by adding "+10" to "+28". In this way, theaddition unit 133 calculates the accumulated weight corresponding to the time of the moving image MO1 by accumulating the weight of each frame of the moving image MO1. Then, theaddition unit 133 stores the weight of the moving image in the weightinformation storage unit 123 in a format corresponding to the time of the moving image.

そして、選択部134は、加算部133によって加算された各シーンの重みに基づいて、シーンを選択する(ステップS104)。例えば、選択部134は、重み情報記憶部123に記憶される重みが所定の閾値以上であるシーンを選択する。例えば、選択部134は、重みの閾値が「70」であるとする。この場合、選択部134は、動画から、重みの閾値以上である複数のシーンを選択する。そして、生成部135は、選択部134によって選択された複数のシーンから構成される編集動画EM1を生成する(ステップS105)。  Then, the selecting unit 134 selects a scene based on the weight of each scene added by the adding unit 133 (step S104). For example, the selection unit 134 selects a scene whose weight stored in the weightinformation storage unit 123 is equal to or greater than a predetermined threshold. For example, the selection unit 134 is assumed to have a weighting threshold value of “70”. In this case, the selection unit 134 selects a plurality of scenes having a weight threshold value or more from the moving image. Then, the generation unit 135 generates the edited moving image EM1 including the plurality of scenes selected by the selection unit 134 (step S105).

〔4.変形例〕
上述した生成装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、生成装置100の他の実施形態について説明する。
[4. Modification example)
The above-describedgeneration device 100 may be implemented in various different forms other than the above embodiment. Therefore, other embodiments of thegeneration device 100 will be described below.

〔4−1.対象物〕
上記実施形態では、生成装置100の辞書情報記憶部122には、人や人以外の物体等の対象物と重みとが対応付られた情報が記憶される一例を説明したが、辞書情報記憶部122に記憶される重みは対象物のみに限定されなくてもよい。例えば、対象物ではない人の音声等に対応する重みに関する情報が辞書情報記憶部122に記憶されてもよい。
[4-1. Object〕
In the above embodiment, an example in which the dictionaryinformation storage unit 122 of thegeneration device 100 stores information in which an object such as a person or an object other than a person is associated with a weight, but the dictionaryinformation storage unit 122 is described. The weight stored in 122 does not have to be limited to the object. For example, the dictionaryinformation storage unit 122 may store information about weights corresponding to voices of persons who are not objects.

〔4−2.加算処理 目的に応じて重みを変更〕
上記実施形態では、生成装置100の加算部133が人や人以外の物体等の対象物と重みとが対応付られた情報が記憶された辞書情報記憶部122を参照して、動画を構成するシーンに表示される対象物の重みを算出することで、かかるシーンの重みを加算する加算処理の一例を説明したが、辞書情報記憶部122に記憶される重みであって、編集動画の提供先に応じて変動される重みを参照して、重みを加算してもよい。具体的には、加算部133は、編集動画の提供先に応じて変動される重みに基づいて、動画のフレーム毎の重みを累積するように加算してもよい。例えば、ユーザがSNS(Social Networking Service)に登録しているものとする。また、ユーザによって利用されるSNSでは食べ物の動画が頻繁に投稿されているものとする。この場合、加算部133は、SNSに対応して食べ物の重みを一律に「+5」大きくした重みが記憶された辞書情報記憶部122を参照して、動画のフレーム毎の重みを累積するように加算してもよい。
[4-2. Addition process Change weight according to purpose)
In the above-described embodiment, theaddition unit 133 of thegeneration device 100 configures a moving image by referring to the dictionaryinformation storage unit 122 that stores information in which a weight is associated with an object such as a person or an object other than a person. Although an example of the addition process of adding the weights of the scenes by calculating the weights of the objects displayed in the scenes has been described, the weights stored in the dictionaryinformation storage unit 122 are the provision destinations of the edited moving images. The weights may be added with reference to the weights that are changed according to. Specifically, the addingunit 133 may add the weights for each frame of the moving image so as to be accumulated based on the weights that are changed according to the providing destination of the edited moving image. For example, it is assumed that the user has registered in SNS (Social Networking Service). Also, it is assumed that food videos are frequently posted on the SNS used by the user. In this case, theaddition unit 133 refers to the dictionaryinformation storage unit 122 that stores the weight obtained by uniformly increasing the food weight by “+5” corresponding to the SNS, and accumulates the weight for each frame of the moving image. You may add.

これにより、実施形態に係る生成装置100の加算部133は、ユーザによって投稿されるSNS毎に最適化された重みに基づいて動画のフレーム毎に重みを累積するように加算することができるため、ユーザによって編集動画が投稿される態様に適した重みを加算することができる。  Accordingly, theaddition unit 133 of thegeneration device 100 according to the embodiment can perform addition so as to accumulate the weights for each frame of the moving image based on the weight optimized for each SNS posted by the user. It is possible to add a weight suitable for the mode in which the edited moving image is posted by the user.

〔4−3.選択処理(1)特定の物体のシーンが続く場合に倍速〕
上記実施形態では、生成装置100の選択部134が加算部133によって加算された重みが所定の閾値以上である場合に、所定数のシーンを複数のシーンから選択する選択処理の一例を説明したが、加算部133によって加算された重みが動画のうち、前後のシーンで変化しない場合に、かかるシーンに対して動画の表示速度を早くしたシーンを含む所定数のシーンを複数のシーンから選択してもよい。例えば、選択部134は、重み情報記憶部123に記憶される重みが変化しないシーンに対して動画の表示速度を倍速にしたシーンを含む所定数のシーンを選択する。
[4-3. Selection process (1) Double speed when scene of specific object continues]
In the above embodiment, an example of the selection process in which the selection unit 134 of thegeneration device 100 selects a predetermined number of scenes from a plurality of scenes when the weight added by theaddition unit 133 is equal to or larger than a predetermined threshold has been described. When the weight added by the addingunit 133 does not change in the preceding and following scenes in the moving image, a predetermined number of scenes including a scene in which the moving image display speed is increased with respect to the scene are selected from a plurality of scenes. Good. For example, the selection unit 134 selects a predetermined number of scenes including a scene in which the moving image display speed is doubled with respect to a scene in which the weight stored in the weightinformation storage unit 123 does not change.

これにより、実施形態に係る生成装置100の選択部134は、前後のシーンで変化しない場合に、かかるシーンに対して動画の表示速度を倍速にしたシーンを含む所定数のシーンを複数のシーンから選択することができるため、冗長なシーンを編集動画から除くことができる。  Accordingly, when the selection unit 134 of thegeneration device 100 according to the embodiment does not change in the preceding and succeeding scenes, a predetermined number of scenes including a scene in which the display speed of the moving image is doubled with respect to the scenes are selected from the plurality of scenes. Since it can be selected, redundant scenes can be removed from the edited video.

〔4−4.選択処理(2)動画時間の選択〕
上記実施形態では、生成装置100の選択部134が加算部133によって加算された重みが所定の閾値以上である場合に、所定数のシーンを複数のシーンから選択する選択処理の一例を説明したが、加算部133によって加算された重みに基づいて、動画の時間に対応する所定数のシーンを複数のシーンから選択してもよい。例えば、ユーザから受け付けられた動画の総時間が「5分」であるものとする。また、ユーザによって動画の総時間を「3分」と指定されたものとする。この場合、選択部134は、重み情報記憶部123に記憶される重みが変化しないシーンを除くことで、動画の総時間が「3分」の編集動画を生成できるように、所定数のシーンを選択する。
[4-4. Selection process (2) Selection of video time]
In the above embodiment, an example of the selection process in which the selection unit 134 of thegeneration device 100 selects a predetermined number of scenes from a plurality of scenes when the weight added by theaddition unit 133 is equal to or larger than a predetermined threshold has been described. The predetermined number of scenes corresponding to the time of the moving image may be selected from the plurality of scenes based on the weights added by the addingunit 133. For example, it is assumed that the total time of moving images received from the user is "5 minutes". Further, it is assumed that the user has designated the total time of the moving image as "3 minutes". In this case, the selection unit 134 excludes the scenes in which the weights stored in the weightinformation storage unit 123 do not change, thereby selecting a predetermined number of scenes so that an edited moving image with a total moving image time of “3 minutes” can be generated. select.

これにより、実施形態に係る生成装置100の選択部134は、動画の時間に対応する所定数のシーンを複数のシーンから選択することができるため、冗長なシーンを編集動画から除くことができる。  Accordingly, the selection unit 134 of thegeneration device 100 according to the embodiment can select a predetermined number of scenes corresponding to the time of a moving image from a plurality of scenes, and thus redundant scenes can be excluded from the edited moving image.

〔4−5.選択処理(3)重みが加算された場合に選択〕
上記実施形態では、生成装置100の選択部134が加算部133によって加算された重みが所定の閾値以上である場合に、所定数のシーンを複数のシーンから選択する選択処理の一例を説明したが、加算部133によって加算された重みに対応する所定数のシーンを複数のシーンから選択してもよい。
[4-5. Selection processing (3) Selection when weights are added]
In the above embodiment, an example of the selection process in which the selection unit 134 of thegeneration device 100 selects a predetermined number of scenes from a plurality of scenes when the weight added by theaddition unit 133 is equal to or larger than a predetermined threshold has been described. The predetermined number of scenes corresponding to the weights added by theadder 133 may be selected from a plurality of scenes.

ここで、図8を用いて編集動画EM21の生成方法について説明する。図8は、変形例に係る生成装置100が実行する編集動画の生成方法の処理の一例を示す図である。図8に示すように、図FG21は、動画MO1の時間に対応する重みの変化を示す。図FG21の縦軸は、加算された重みの値を示す。図FG21の横軸は、動画MO1の動画内の時間を示す。図FG21は、所定の重みの閾値の表示を含む。例えば、図FG21では、所定の範囲内の複数のシーンSE1、SE2、SE3が所定の重みの閾値以上であるシーンである。  Here, a method of generating the edited moving image EM21 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of processing of an edited moving image generation method executed by thegeneration device 100 according to the modification. As shown in FIG. 8, a diagram FG21 shows a change in weight corresponding to time of the moving image MO1. The vertical axis of FIG. FG21 shows the value of the added weight. The horizontal axis of FIG. FG21 indicates the time in the moving image of the moving image MO1. Diagram FG21 includes a display of thresholds of predetermined weights. For example, in FIG. FG21, a plurality of scenes SE1, SE2, and SE3 within a predetermined range are scenes having a predetermined weight threshold value or more.

また、図8に示すように、図FG22は、所定の重みの閾値以上である所定の範囲内の複数のシーンSE21、SE22、SE23を合わせた動画を示す。すなわち、かかる動画は、編集動画EM1に対応する。  Further, as shown in FIG. 8, a diagram FG22 shows a moving image in which a plurality of scenes SE21, SE22, and SE23 within a predetermined range that is equal to or larger than a threshold of a predetermined weight are combined. That is, this moving image corresponds to the edited moving image EM1.

例えば、選択部134は、重みの閾値が「70」であるとする。この場合、選択部134は、動画MO1から、重みの閾値以上である所定の範囲内の複数のシーンSE21、SE22、SE23を選択する。  For example, the selection unit 134 is assumed to have a weighting threshold value of “70”. In this case, the selection unit 134 selects, from the moving image MO1, a plurality of scenes SE21, SE22, SE23 within a predetermined range that is equal to or greater than the weight threshold.

これにより、実施形態に係る生成装置100の選択部134は、所定の閾値以上である重みを示す複数のシーンであって、重みが増加する範囲内の複数のシーンを選択することができるため、編集動画内のシーンが飛び飛びになることを防ぐだけでなく、間延びする冗長なシーンをも除くことができる。  As a result, the selection unit 134 of thegeneration device 100 according to the embodiment can select a plurality of scenes having a weight that is equal to or greater than a predetermined threshold and within a range in which the weight increases. Not only can the scenes in the edited video be prevented from being scattered, but redundant redundant scenes can also be eliminated.

〔4−6.重み〕
上記実施形態では、生成装置100の辞書情報記憶部122には、人がいないシーンの場合に重みとして「−5」に関する情報が記憶される一例を説明したが、辞書情報記憶部122に記憶される重みは上記に限定されなくてもよい。例えば、人がいないシーンの場合に重みとして「0」に関する情報が辞書情報記憶部122に記憶されてもよい。
[4-6. weight〕
In the above-described embodiment, an example in which the dictionaryinformation storage unit 122 of thegeneration device 100 stores information regarding “−5” as a weight in the case of a scene without a person has been described, but the dictionaryinformation storage unit 122 stores the information. The weight to be assigned may not be limited to the above. For example, in the case of a scene with no people, the information about “0” as the weight may be stored in the dictionaryinformation storage unit 122.

〔4−7.動画〕
上記実施形態では、生成装置100の受付部131が、ユーザによって端末装置10で撮影された動画を受け付ける処理の一例を説明したが、受付部131によって受け付けられる動画は、ユーザによって撮影された動画に限定されず、如何なる動画であってもよい。
[4-7. Video)
In the above embodiment, an example of the process in which thereception unit 131 of thegeneration device 100 receives a moving image captured by the user with theterminal device 10 has been described. However, the moving image received by thereception unit 131 is a moving image captured by the user. The moving image is not limited and may be any moving image.

〔5.ハードウェア構成〕
また、上述してきた実施形態に係る端末装置10及び生成装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、生成装置100を例に挙げて説明する。図9は、生成装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
In addition, theterminal device 10 and thegeneration device 100 according to the above-described embodiments are realized by, for example, acomputer 1000 having a configuration illustrated in FIG. 9. Hereinafter, thegeneration device 100 will be described as an example. FIG. 9 is a hardware configuration diagram illustrating an example of acomputer 1000 that realizes the functions of thegeneration device 100. Thecomputer 1000 includes aCPU 1100, aRAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。  TheCPU 1100 operates based on a program stored in theROM 1300 or theHDD 1400, and controls each unit. TheROM 1300 stores a boot program executed by theCPU 1100 when thecomputer 1000 starts up, a program dependent on the hardware of thecomputer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。  TheHDD 1400 stores programs executed by theCPU 1100, data used by the programs, and the like. Thecommunication interface 1500 receives data from another device via the network N, sends the data to theCPU 1100, and transmits the data generated by theCPU 1100 via the network N to the other device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。  TheCPU 1100 controls output devices such as a display and a printer and input devices such as a keyboard and a mouse via the input /output interface 1600. TheCPU 1100 acquires data from the input device via the input /output interface 1600. TheCPU 1100 also outputs the data generated via the input /output interface 1600 to the output device.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。  Themedia interface 1700 reads a program or data stored in therecording medium 1800 and provides the program or data to theCPU 1100 via theRAM 1200. TheCPU 1100 loads the program from therecording medium 1800 onto theRAM 1200 via themedia interface 1700 and executes the loaded program. Therecording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。  For example, when thecomputer 1000 functions as thegeneration device 100 according to the embodiment, theCPU 1100 of thecomputer 1000 implements the function of thecontrol unit 130 by executing the program loaded on theRAM 1200. Further, theHDD 1400 stores the data in the storage unit 120. TheCPU 1100 of thecomputer 1000 reads these programs from therecording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Further, of the processes described in the above-described embodiment and modified examples, all or part of the processes described as being automatically performed may be manually performed, or described as manually performed. It is also possible to automatically carry out all or part of the processing performed by a known method. In addition, the processing procedures, specific names, information including various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various kinds of information shown in each drawing are not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。  Further, each component of each device shown in the drawings is functionally conceptual, and does not necessarily have to be physically configured as shown. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part of the device may be functionally or physically distributed / arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。  Further, the above-described embodiments and modified examples can be appropriately combined within a range in which the processing content is not inconsistent.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。  Also, the above-mentioned "section (module, unit)" can be read as "means" or "circuit". For example, the generation unit can be read as a generation unit or a generation circuit.

〔7.効果〕
上述してきたように、実施形態に係る生成装置100は、加算部133と、生成部135とを有する。加算部133は、動画に表示される対象物が所定の条件を満たす場合に、動画を構成する複数のシーンの重要度を示す重みを加算する。生成部135は、加算部133によって加算された重みに基づいて、複数のシーンのうち、所定数のシーンから構成される編集動画を生成する。
[7. effect〕
As described above, thegeneration device 100 according to the embodiment has theaddition unit 133 and the generation unit 135. Theaddition unit 133 adds a weight indicating the degree of importance of a plurality of scenes forming a moving image when the object displayed in the moving image satisfies a predetermined condition. The generating unit 135 generates an edited moving image composed of a predetermined number of scenes among the plurality of scenes, based on the weights added by the addingunit 133.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、加算部133は、動画に表示される対象物が所定の条件を満たす第1のシーンの重みに、動画に表示される対象物が所定の条件を満たす第2のシーンの重みを加算し、加算部133によって加算された重みに基づいて、所定数のシーンを複数のシーンから選択する選択部134をさらに備え、生成部135は、選択部134によって選択された所定数のシーンから構成される編集動画を生成する。  In addition, in thegeneration device 100 according to the embodiment, theaddition unit 133 causes the object displayed in the moving image to satisfy the predetermined condition in the weight of the first scene in which the object displayed in the moving image satisfies the predetermined condition. The selection unit 134 that adds the weights of the second scenes and selects a predetermined number of scenes from the plurality of scenes based on the weights added by theaddition unit 133, and the generation unit 135 selects the selection unit 134. An edited moving image composed of a predetermined number of scenes is generated.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、選択部134は、加算部133によって加算された重みが所定の閾値以上である場合に、所定数のシーンを複数のシーンから選択する。  Further, in thegeneration device 100 according to the embodiment, the selection unit 134 selects a predetermined number of scenes from a plurality of scenes when the weight added by theaddition unit 133 is equal to or larger than a predetermined threshold.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、選択部134は、加算部133によって加算された重みに対応する所定数のシーンを複数のシーンから選択する。  Further, in thegeneration device 100 according to the embodiment, the selection unit 134 selects a predetermined number of scenes corresponding to the weights added by theaddition unit 133 from a plurality of scenes.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、選択部134は、加算部133によって加算された重みが動画のうち、前後のシーンで変化しない場合に、当該シーンを含まない所定数のシーンを複数のシーンから選択する。  In addition, in thegeneration device 100 according to the embodiment, when the weight added by the addingunit 133 does not change in the preceding and succeeding scenes in the moving image, the selecting unit 134 sets a plurality of predetermined number of scenes that do not include the scene. Select from the scene.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、選択部134は、加算部133によって加算された重みに基づいて、動画の時間に対応する所定数のシーンを複数のシーンから選択する。  Further, in thegeneration device 100 according to the embodiment, the selection unit 134 selects a predetermined number of scenes corresponding to the time of the moving image from the plurality of scenes based on the weights added by theaddition unit 133.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、加算部133は、動画に表示される対象物が所定の条件を満たす場合に、対象物と重みとが対応付られた情報が記憶される記憶部を参照して、重みを加算する。  In addition, in thegeneration device 100 according to the embodiment, theaddition unit 133 includes a storage unit that stores therein information in which an object and a weight are associated with each other when the object displayed in the moving image satisfies a predetermined condition. The weights are added by referring to them.

これにより、実施形態に係る生成装置100は、特定の対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to the weight corresponding to a specific target object, and thus can provide a user with an appropriately edited moving image. it can.

また、実施形態に係る生成装置100において、加算部133は、動画に表示される対象物が所定の条件を満たす場合に、記憶部に記憶される重みであって、編集動画の提供先に応じて変動される重みを参照して、重みを加算する。  In addition, in thegeneration device 100 according to the embodiment, theaddition unit 133 is a weight stored in the storage unit when an object displayed in the moving image satisfies a predetermined condition, and theaddition unit 133 determines the weight depending on the provision destination of the edited moving image. The weights are added by referring to the weights that are changed.

これにより、実施形態に係る生成装置100は、編集動画の提供先に応じた適切なシーンを動画から選択することができるため、適切に編集された動画をユーザに提供することができる。  With this, thegeneration device 100 according to the embodiment can select an appropriate scene from the moving images according to the provision destination of the edited moving image, and thus can provide the appropriately edited moving image to the user.

また、実施形態に係る生成装置100において、加算部133は、所定の条件として、動画に表示される対象物が、人、人の音声、動物、生物、移動体、食べ物、玩具である場合に、重みを加算する。  In addition, in thegeneration device 100 according to the embodiment, when the target displayed in the moving image is a person, a human voice, an animal, a living thing, a moving body, food, a toy, as the predetermined condition, theaddition unit 133 , Add weights.

これにより、実施形態に係る生成装置100は、様々な対象物に対応する重みに着目して動画から適切なシーンを選択することができるため、適切に編集された動画をユーザに提供することができる。  Accordingly, thegeneration device 100 according to the embodiment can select an appropriate scene from a moving image by paying attention to weights corresponding to various objects, and thus can provide a user with an appropriately edited moving image. it can.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。  As described above, some of the embodiments of the present application have been described in detail based on the drawings, but these are examples, and various modifications based on the knowledge of those skilled in the art, including the modes described in the section of the disclosure of the invention, It is possible to implement the present invention in other forms with improvements.

1 生成システム
10 端末装置
100 生成装置
110 通信部
120 記憶部
121 動画情報記憶部
122 辞書情報記憶部
123 重み情報記憶部
130 制御部
131 受付部
132 分類部
133 加算部
134 選択部
135 生成部
136 提供部
1generation system 10terminal device 100 generation device 110 communication unit 120storage unit 121 moving imageinformation storage unit 122 dictionaryinformation storage unit 123 weightinformation storage unit 130control unit 131 reception unit 132classification unit 133 addition unit 134 selection unit 135generation unit 136 provision Department

Claims (11)

Translated fromJapanese
動画に表示される対象物が所定の条件を満たす場合に、当該対象物に対応するシーンであって、動画を構成する複数のシーンの重要度を示す重みを加算する加算部と、
前記加算部によって加算された重みに基づいて、前記複数のシーンのうち、所定数のシーンから構成される編集動画を生成する生成部と、
を備えたことを特徴とする生成装置。
When the object displayed in the moving image satisfies a predetermined condition, it is a scene corresponding to the target object, and an addition unit that adds weights indicating the importance of a plurality of scenes forming the moving image,
A generation unit that generates an edited moving image composed of a predetermined number of scenes among the plurality of scenes based on the weights added by the addition unit;
A generating device comprising:
前記動画に表示される対象物が所定の条件を満たす第1のシーンの前記重みに、前記動画に表示される対象物が所定の条件を満たす第2のシーンの前記重みを累積するように加算し、
前記加算部によって加算された重みに基づいて、前記所定数のシーンを前記複数のシーンから選択する選択部をさらに備え、
前記生成部は、
前記選択部によって選択された所定数のシーンから構成される前記編集動画を生成する、
ことを特徴とする請求項1に記載の生成装置。
The object displayed in the moving image is added to the weight of the first scene satisfying a predetermined condition so that the object displayed in the moving image accumulates the weight of the second scene satisfying the predetermined condition. Then
Further comprising a selection unit that selects the predetermined number of scenes from the plurality of scenes based on the weights added by the addition unit,
The generator is
Generating the edited video composed of a predetermined number of scenes selected by the selection unit,
The generation device according to claim 1, wherein
前記選択部は、
前記加算部によって加算された重みが所定の閾値以上である場合に、前記所定数のシーンを前記複数のシーンから選択する、
ことを特徴とする請求項2に記載の生成装置。
The selection unit,
When the weight added by the adding unit is equal to or more than a predetermined threshold value, the predetermined number of scenes is selected from the plurality of scenes,
The generation device according to claim 2, wherein
前記選択部は、
前記加算部によって加算された重みに対応する前記所定数のシーンを前記複数のシーンから選択する、
ことを特徴とする請求項2又は3に記載の生成装置。
The selection unit,
Selecting the predetermined number of scenes corresponding to the weights added by the adding unit from the plurality of scenes;
The generating device according to claim 2 or 3, characterized in that.
前記選択部は、
前記加算部によって加算された重みが前記動画のうち、前後のシーンで変化しない場合に、動画の表示速度を早くした当該シーンを含む前記所定数のシーンを前記複数のシーンから選択する、
ことを特徴とする請求項2〜4のいずれか1つに記載の生成装置。
The selection unit,
When the weight added by the adding unit does not change in the preceding and succeeding scenes of the video, the predetermined number of scenes including the scene in which the display speed of the video is increased is selected from the plurality of scenes.
The generating apparatus according to claim 2, wherein the generating apparatus is a generating apparatus.
前記選択部は、
前記加算部によって加算された重みに基づいて、前記動画の時間に対応する前記所定数のシーンを前記複数のシーンから選択する、
ことを特徴とする請求項2〜5のいずれか1つに記載の生成装置。
The selection unit,
Selecting the predetermined number of scenes corresponding to the time of the moving image from the plurality of scenes based on the weight added by the adding unit;
The generating device according to any one of claims 2 to 5, characterized in that.
前記加算部は、
前記動画に表示される対象物が所定の条件を満たす場合に、対象物と重みとが対応付られた情報が記憶される記憶部を参照して、前記重みを加算する、
ことを特徴とする請求項1〜6のいずれか1つに記載の生成装置。
The adding unit is
When the object displayed in the moving image satisfies a predetermined condition, the weight is added with reference to a storage unit that stores information in which the object and the weight are associated with each other.
The generating device according to claim 1, wherein the generating device is a generating device.
前記加算部は、
前記動画に表示される対象物が所定の条件を満たす場合に、前記記憶部に記憶される重みであって、前記編集動画の提供先に応じて変動される重みを参照して、前記重みを加算する、
ことを特徴とする請求項7に記載の生成装置。
The adding unit is
When the object displayed in the moving image satisfies a predetermined condition, the weight stored in the storage unit is changed with reference to the weight changed depending on the destination of the edited moving image. to add,
The generation device according to claim 7, wherein
前記加算部は、
前記所定の条件として、前記動画に表示される対象物が、人、人の音声、動物、生物、移動体、食べ物、玩具である場合に、前記重みを加算する、
ことを特徴とする請求項1〜8のいずれか1つに記載の生成装置。
The adding unit is
As the predetermined condition, when the object displayed in the video is a person, a human voice, an animal, a living thing, a moving body, food, a toy, the weight is added,
The generating device according to claim 1, wherein the generating device is a generating device.
コンピュータが実行する生成方法であって、
動画に表示される対象物が所定の条件を満たす場合に、動画を構成する複数のシーンの重要度を示す重みを加算する加算工程と、
前記加算工程によって加算された重みに基づいて、前記複数のシーンのうち、所定数のシーンから構成される編集動画を生成する生成工程と、
を含むことを特徴とする生成方法。
A generation method executed by a computer,
An addition step of adding weights indicating the degrees of importance of a plurality of scenes forming a moving image when an object displayed in the moving image satisfies a predetermined condition,
A generation step of generating an edited moving image composed of a predetermined number of scenes of the plurality of scenes based on the weights added by the adding step;
A generation method comprising:
動画に表示される対象物が所定の条件を満たす場合に、動画を構成する複数のシーンの重要度を示す重みを加算する加算手順と、
前記加算手順によって加算された重みに基づいて、前記複数のシーンのうち、所定数のシーンから構成される編集動画を生成する生成手順と、
をコンピュータに実行させることを特徴とする生成プログラム。
An addition procedure for adding weights indicating the degrees of importance of a plurality of scenes forming a video when the object displayed in the video satisfies a predetermined condition,
A generation procedure for generating an edited moving image composed of a predetermined number of scenes of the plurality of scenes based on the weights added by the addition procedure;
A generation program characterized by causing a computer to execute.
JP2018200375A2018-10-242018-10-24 Generation device, generation method, generation programActiveJP7133433B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2018200375AJP7133433B2 (en)2018-10-242018-10-24 Generation device, generation method, generation program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2018200375AJP7133433B2 (en)2018-10-242018-10-24 Generation device, generation method, generation program

Publications (2)

Publication NumberPublication Date
JP2020068468Atrue JP2020068468A (en)2020-04-30
JP7133433B2 JP7133433B2 (en)2022-09-08

Family

ID=70388698

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2018200375AActiveJP7133433B2 (en)2018-10-242018-10-24 Generation device, generation method, generation program

Country Status (1)

CountryLink
JP (1)JP7133433B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN114697700A (en)*2020-12-282022-07-01北京小米移动软件有限公司Video editing method, video editing device and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2002125199A (en)*2000-06-302002-04-26Toshiba Corp Frame information description method, frame information generation device and method, video reproduction device and method, and recording medium
JP2005277531A (en)*2004-03-232005-10-06Seiko Epson Corp Moving image processing device
JP4449216B2 (en)*1998-12-282010-04-14ソニー株式会社 Video information editing method and editing apparatus
JP2010187374A (en)*2009-01-152010-08-26Victor Co Of Japan LtdSummary video-generating apparatus and summary video generating method
JP2010258768A (en)*2009-04-242010-11-11Canon Inc Image display apparatus, control method therefor, program, and storage medium
JP2015099958A (en)*2013-11-182015-05-28日本電信電話株式会社 Digest video generation device, digest video generation method, and digest video generation program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP4449216B2 (en)*1998-12-282010-04-14ソニー株式会社 Video information editing method and editing apparatus
JP2002125199A (en)*2000-06-302002-04-26Toshiba Corp Frame information description method, frame information generation device and method, video reproduction device and method, and recording medium
JP2005277531A (en)*2004-03-232005-10-06Seiko Epson Corp Moving image processing device
JP2010187374A (en)*2009-01-152010-08-26Victor Co Of Japan LtdSummary video-generating apparatus and summary video generating method
JP2010258768A (en)*2009-04-242010-11-11Canon Inc Image display apparatus, control method therefor, program, and storage medium
JP2015099958A (en)*2013-11-182015-05-28日本電信電話株式会社 Digest video generation device, digest video generation method, and digest video generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN114697700A (en)*2020-12-282022-07-01北京小米移动软件有限公司Video editing method, video editing device and storage medium

Also Published As

Publication numberPublication date
JP7133433B2 (en)2022-09-08

Similar Documents

PublicationPublication DateTitle
JP7357706B2 (en) Avatar generator and computer program
US10776754B2 (en)Content creation, deployment collaboration, and subsequent marketing activities
JP5993897B2 (en) Specific apparatus, specific method, and specific program
CN108875539B (en)Expression matching method, device and system and storage medium
JP7348230B2 (en) Generation device, generation method, and generation program
US20150331842A1 (en)Systems and methods for selecting content items and generating multimedia content
US12099547B2 (en)Searching and ranking modifiable videos in multimedia messaging application
US11604622B1 (en)Selecting audio clips for inclusion in content items
US11222208B2 (en)Portrait image evaluation based on aesthetics
CN117099158A (en)Neural network for changing characteristics of sound
JP7133433B2 (en) Generation device, generation method, generation program
US20220139251A1 (en)Motivational Extended Reality
JP2020115285A (en)Calculation device, calculation method, and calculation program
US11743396B2 (en)Electronic album generating apparatus, electronic album generating method, and non-transitory computer-readable storage medium
JP2019036087A (en)Generation device, method for generation, generation program, learning data, and model
CN113934843A (en)Article classification method and device based on model fusion
US11669951B1 (en)System for selecting content for a personalized video reel
US12143664B2 (en)Dynamically creating and playing a scenario replication for an activity on visual and audio devices
JP2019056979A (en)Generation device, model, generation method and generation program
US12443879B2 (en)Modification and generation of conditional data
KR102555967B1 (en)Method for recommending a user character according to the other user's propensity based on artificial intelligence and a digital content providing server including the same
US20250322206A1 (en)Graph-based modeling of relational affect in group interactions
JP2018018384A (en) Estimation apparatus, estimation method, and estimation program
JP2024134277A (en) Information processing device, information processing method, and information processing program
JP2024134278A (en) Information processing device, information processing method, and information processing program

Legal Events

DateCodeTitleDescription
A711Notification of change in applicant

Free format text:JAPANESE INTERMEDIATE CODE: A712

Effective date:20191101

RD03Notification of appointment of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7423

Effective date:20191108

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20200917

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20210521

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20210608

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20210806

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20220104

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20220304

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20220802

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20220829

R150Certificate of patent or registration of utility model

Ref document number:7133433

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

S111Request for change of ownership or part of ownership

Free format text:JAPANESE INTERMEDIATE CODE: R313111

R350Written notification of registration of transfer

Free format text:JAPANESE INTERMEDIATE CODE: R350

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250


[8]ページ先頭

©2009-2025 Movatter.jp