























本発明は、コンテンツデータを外部機器に送信する携帯機器に関するものである。 The present invention relates to a portable device that transmits content data to an external device.
従来から、例えばカメラ付きの携帯電話機等の携帯機器で撮影した画像データを、他の携帯機器やパソコン等の外部機器に送信するといったことが一般的に行われている。また、特許文献1には、外部機器との通信を行って受信した画像データに送信元情報を関連付けて記憶しておき、あるいは外部機器との通信を行ってその外部機器に送信した画像データに送信先情報を関連付けて記憶しておく画像データ管理装置が開示されている。この特許文献1の画像データ管理装置では、画像データに関連付けられた送信元情報や送信先情報をもとに、外部機器から転送されてきた画像データ、あるいは以前外部機器へ転送したことがある画像データを削除するようにしている。 Conventionally, for example, image data taken by a mobile device such as a camera-equipped mobile phone is generally transmitted to another mobile device or an external device such as a personal computer. In Patent Document 1, transmission source information is stored in association with image data received through communication with an external device, or image data transmitted to the external device through communication with an external device is stored. An image data management apparatus that stores transmission destination information in association with each other is disclosed. In the image data management apparatus disclosed in Patent Document 1, based on transmission source information and transmission destination information associated with image data, image data transferred from an external device, or an image that has been transferred to an external device before. The data is deleted.
ところで、集合写真等、複数の人物が映る画像を携帯機器で撮影した場合、撮影した画像データをその画像に映る人物が所有する携帯機器に送信することが想定される。ここで、単にその人物の所有する携帯機器と通信して画像データを送信するだけでは、誰に画像データを送信したのかを後で知ることができない。このため、ユーザは、送信した人物を覚えておかなければならなかった。また、忘れて再度送信する無駄が生じる場合もあった。 By the way, when an image showing a plurality of persons such as a group photo is taken with a mobile device, it is assumed that the taken image data is transmitted to a mobile device owned by the person shown in the image. Here, by simply communicating with a portable device owned by the person and transmitting the image data, the person who transmitted the image data cannot be known later. For this reason, the user had to remember the person who sent it. In addition, there is a case where there is a waste of forgetting to transmit again.
本発明は、上記に鑑みてなされたものであって、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減することができる携帯機器を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a portable device that can reduce waste of redundantly transmitting the same content data to the same external device.
上述した課題を解決し、目的を達成するため、本発明にかかる携帯機器は、被写体像を撮像して画像データを生成する撮像部と、外部機器との間で無線通信を行う無線通信部と、前記無線通信部を介し、前記画像データを前記外部機器に送信する処理を行う送信処理部と、前記画像データが顔を含む場合に、前記外部機器から、前記画像データ中の顔を前記外部機器のユーザの顔と認識したことを示す顔照合データを前記無線通信部を介して取得する取得処理部と、前記画像データを表示部に表示処理するとともに、該表示処理の際、前記画像データが顔を含む場合に、前記顔照合データが取得されている顔と前記顔照合データが取得されていない顔とを識別表示する処理を行う表示処理部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, a portable device according to the present invention includes an imaging unit that captures a subject image and generates image data, and a wireless communication unit that performs wireless communication with an external device. A transmission processing unit that performs processing for transmitting the image data to the external device via the wireless communication unit; and the face in the image data from the external device when the image data includes a face. An acquisition processing unit that acquires face matching data indicating that the device is recognized as a face of a user of the device via the wireless communication unit, and the image data is displayed on the display unit, and the image data is displayed during the display processing. A display processing unit that performs a process of identifying and displaying a face for which the face matching data has been acquired and a face for which the face matching data has not been acquired.
また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、前記外部機器が前記画像データ中で認識した前記外部機器のユーザの顔の位置データを含むことを特徴とする。 In the portable device according to the present invention as set forth in the invention described above, the face collation data includes position data of a user's face of the external device recognized by the external device in the image data.
また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、前記外部機器が前記画像データ中で認識した前記外部機器のユーザの顔領域を切り出した顔画像データを含むことを特徴とする。 In the portable device according to the present invention as set forth in the invention described above, the face matching data includes face image data obtained by cutting out a user's face area of the external device recognized by the external device in the image data. Features.
また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、前記外部機器が前記画像データ中で認識した前記外部機器のユーザの顔の位置データを含み、前記無線通信部を介し、前記外部機器から該外部機器を識別するための機器データを取得する機器データ取得処理部と、前記顔照合データに含まれる顔の位置データをもとに前記画像データ中から切り出した顔画像データを、前記機器データ取得処理部によって取得された前記外部機器の機器データと対応付けて前記外部機器の所有者の顔として登録する処理を行う登録処理部と、を備えることを特徴とする。 In the portable device according to the present invention as set forth in the invention described above, the face matching data includes position data of a user's face of the external device recognized by the external device in the image data, and the wireless communication unit A device data acquisition processing unit for acquiring device data for identifying the external device from the external device, and a face image cut out from the image data based on face position data included in the face matching data A registration processing unit that performs processing for registering data as a face of the owner of the external device in association with the device data of the external device acquired by the device data acquisition processing unit.
また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、前記外部機器が前記画像データ中で認識した前記外部機器のユーザの顔領域を切り出した顔画像データを含み、前記無線通信部を介し、前記外部機器から該外部機器を識別するための機器データを取得する機器データ取得処理部と、前記顔照合データに含まれる顔画像データを、前記機器データ取得処理部によって取得された前記外部機器の機器データと対応付けて前記外部機器の所有者の顔として登録する処理を行う登録処理部と、を備えることを特徴とする。 Further, in the portable device according to the present invention, in the above invention, the face matching data includes face image data obtained by cutting out a user's face area of the external device recognized by the external device in the image data, A device data acquisition processing unit that acquires device data for identifying the external device from the external device and a face image data included in the face matching data are acquired by the device data acquisition processing unit via a wireless communication unit. A registration processing unit that performs processing for registering as a face of the owner of the external device in association with the device data of the external device.
また、本発明にかかる携帯機器は、上記の発明において、前記表示処理部は、前記取得された機器データに対応する顔画像データが前記登録処理部によって既に登録されている場合に、前記取得された機器データに対応する顔画像データを前記画像データとともに表示処理することを特徴とする。 In the portable device according to the present invention, in the above invention, the display processing unit acquires the face image data corresponding to the acquired device data when the registration processing unit has already registered the face image data. The face image data corresponding to the device data is displayed together with the image data.
また、本発明にかかる携帯機器は、上記の発明において、自機ユーザの顔の特徴情報を記録する自機顔データ記録部と、前記無線通信部を介し、前記外部機器から画像データを受信する処理を行う受信処理部と、前記画像データが顔を含む場合に、該顔を前記自機顔データ記録部に記録されている顔の特徴情報と照合して前記画像データ中に含まれる自機ユーザの顔を認識する人物認識部と、前記人物認識部によって前記画像データ中で自機ユーザの顔を認識した場合に、該認識した顔の前記画像データ中の位置データを顔照合データとして前記外部機器に送信する処理を行う顔照合データ送信処理部と、を備えることを特徴とする。 In the above invention, the portable device according to the present invention receives image data from the external device via the own device face data recording unit that records the facial feature information of the own device user and the wireless communication unit. A reception processing unit that performs processing, and when the image data includes a face, the face is matched with face feature information recorded in the own face data recording unit, and is included in the image data A person recognition unit for recognizing the face of the user, and when the person recognition unit recognizes the face of the user of the user in the image data, the position data in the image data of the recognized face is used as the face matching data. And a face collation data transmission processing unit for performing processing for transmission to an external device.
また、本発明にかかる携帯機器は、上記の発明において、自機ユーザの顔の特徴情報を記録する自機顔データ記録部と、前記無線通信部を介し、前記外部機器から画像データを受信する処理を行う受信処理部と、前記画像データが顔を含む場合に、該顔を前記自機顔データ記録部に記録されている顔の特徴情報と照合して前記画像データ中に含まれる自機ユーザの顔を認識する人物認識部と、前記人物認識部によって前記画像データ中で自機ユーザの顔を認識した場合に、該認識した顔領域を切り出した顔画像データを顔照合データとして前記外部機器に送信する処理を行う顔照合データ送信処理部と、を備えることを特徴とする。 In the above invention, the portable device according to the present invention receives image data from the external device via the own device face data recording unit that records the facial feature information of the own device user and the wireless communication unit. A reception processing unit that performs processing, and when the image data includes a face, the face is matched with face feature information recorded in the own face data recording unit, and is included in the image data A person recognition unit for recognizing the face of the user, and when the person recognition unit recognizes the face of the user of the user in the image data, the face image data obtained by cutting out the recognized face area is used as the face matching data as the external matching data. And a face collation data transmission processing unit that performs processing to be transmitted to the device.
本発明によれば、顔を含む画像データを外部機器に送信した場合に、この外部機器において画像データ中の顔をこの外部機器のユーザの顔と認識したことを示す顔照合データを外部機器から取得することができる。そして、顔を含む画像データを表示部に表示処理する際に、顔照合データが取得されている顔と顔照合データが取得されていない顔とを識別表示することができる。すなわち、画像データ中に含まれる顔のうち、過去にこの画像データを外部機器に送信した際に送信先の外部機器においてこの画像データ中でこの送信先の外部機器のユーザと認識された顔を識別表示することができる。したがって、ユーザは、画像データ中の顔の人物が所有する外部機器にその画像データを送信済みか否かを確認することができる。これによれば、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減することができるという効果を奏する。 According to the present invention, when image data including a face is transmitted to an external device, face matching data indicating that the face in the image data is recognized as the face of the user of the external device from the external device is transmitted from the external device. Can be acquired. When image data including a face is displayed on the display unit, a face for which face matching data has been acquired and a face for which face matching data has not been acquired can be identified and displayed. That is, of the faces included in the image data, the face recognized as the user of the destination external device in the image data in the destination external device when the image data was transmitted to the external device in the past. Identification can be displayed. Therefore, the user can confirm whether or not the image data has already been transmitted to the external device owned by the face person in the image data. According to this, it is possible to reduce the waste of redundantly transmitting the same content data to the same external device.
以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.
(実施の形態)
  図1は、本発明の携帯機器を適用したデジタルカメラ1の前面側を示す概略斜視図であり、図2は、デジタルカメラ1の背面側を示す概略斜視図である。図1に示すように、デジタルカメラ1は、カメラ本体3の前面に撮像レンズ4が配設され、この撮像レンズ4を通して入射する被写体像を撮像する撮像部11(図4を参照)をカメラ本体3の内部に備えている。一方、カメラ本体3の上面には、撮影タイミングを指示するためのレリーズスイッチ5が配設されている。そして、カメラ本体3の背面には、各種画面を表示する表示部15、電源投入やモードの選択といった各種操作を入力するための固有の機能が割り当てられた複数のボタンスイッチ7等が配設されている。(Embodiment)
 FIG. 1 is a schematic perspective view showing the front side of a digital camera 1 to which the portable device of the present invention is applied, and FIG. 2 is a schematic perspective view showing the back side of the digital camera 1. As shown in FIG. 1, the digital camera 1 has an imaging lens 4 disposed on the front surface of the camera body 3, and an imaging unit 11 (see FIG. 4) that captures a subject image incident through the imaging lens 4. 3 is provided. On the other hand, a
  そして、デジタルカメラ1の電源を投入(ON)し、撮影モードを選択すると、デジタルカメラ1は撮影可能な状態となる。撮影モードでは、撮像レンズ4を通して入射する被写体像がライブビュー画像としてリアルタイムに表示部15に表示されるようになっており、ユーザは、ライブビュー画像を見ながらレリーズスイッチ5を押下して静止画や動画の撮影を行う。あるいは、デジタルカメラ1の動作モードを再生モードに切り換え、撮影した静止画や動画を表示部15に表示(再生)して楽しむ。  When the digital camera 1 is turned on (ON) and the shooting mode is selected, the digital camera 1 is ready for shooting. In the shooting mode, a subject image incident through the imaging lens 4 is displayed on the
  また、デジタルカメラ1は、図1に示すように、カメラ本体3内部の所定位置において、他のデジタルカメラ1やパソコン、携帯電話機、テレビ等の外部機器との間で近接無線通信を行うための無線通信部19を内蔵している。この無線通信部19は、カメラ本体3内部の適所において、そのアンテナを外装面側に向けるようにして配置される。図1の例では、無線通信部19は、カメラ本体3の底面側の一方の角部に配置している。このように無線通信部19を装置筐体の角部に配置することによって、ユーザは、無線通信部19を介した通信を行う際に通信相手の機器との間の位置決めがし易く、位置ズレによる通信の失敗を抑制できる。  In addition, as shown in FIG. 1, the digital camera 1 is for performing close proximity wireless communication with other digital cameras 1 and external devices such as a personal computer, a mobile phone, and a television at a predetermined position inside the camera body 3. A
  図3は、デジタルカメラ1が、他のデジタルカメラ1と通信を行う様子を示した図である。図3では、一方をデジタルカメラ1とし、他方をデジタルカメラ1−2としている。図3に示すように、カメラ本体3同士が近づけられて各々の無線通信部19が互いの通信可能圏内に近接されると、これらの間の通信が確立するようになっている。以下、本実施の形態では、外部機器の一例である他のデジタルカメラ1を通信相手としてデータを送受信する場合を例にとって説明し、この通信相手の他のデジタルカメラ1を、適宜「相手カメラ1」と呼ぶ。  FIG. 3 is a diagram illustrating how the digital camera 1 communicates with another digital camera 1. In FIG. 3, one is a digital camera 1 and the other is a digital camera 1-2. As shown in FIG. 3, when the camera bodies 3 are brought close to each other and the
  図4は、デジタルカメラ1の主要内部構成の一例を示すブロック図である。図4に示すように、デジタルカメラ1は、撮像部11、画像処理部12、顔検出部13、操作部14、表示部15、時計部16、記録部17、一時記録部18、無線通信部19、制御部20等を備える。  FIG. 4 is a block diagram illustrating an example of a main internal configuration of the digital camera 1. As shown in FIG. 4, the digital camera 1 includes an
  撮像部11は、撮像レンズ4を通して入射する被写体像を光電変換し、アナログ電気信号を出力するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を含み、撮像素子からのアナログ電気信号をデジタル電気信号に変換して画像データを出力する。  The
  画像処理部12は、撮像部11から出力された画像データに対して各種の画像処理を施すとともに、記録用や表示用に適した画像データに変換する処理を行う。例えば、撮影画像の画像データを記録する際、あるいは記録されている画像データを表示する際等に、JPEG(Joint Photographic Experts Group)方式等に基づく画像データの圧縮処理や伸張処理を行う。また、画像処理部12は、撮影画像の画像データを縮小処理して表示用の小画像(サムネイル)の画像データ(サムネイルデータ)を生成する処理や、画像データ中の所定の領域を切り出す処理等を行う。  The
  この画像処理部12は、人物認識部121と、顔画像処理部123とを含む。人物認識部121は、画像データについて実行されている顔検出結果(顔特徴情報)を自機データ171として記録部17に登録(記録)されている自機のユーザ(自機ユーザ)の顔特徴情報と照合し、画像データ中の顔が自機ユーザの顔か否かを認識(識別)する処理(人物認識処理)を行う。本実施の形態では、人物認識部121は、相手カメラ1から受信した画像ファイルの画像データについて人物認識処理を行い、その画像データ中に映る自機ユーザの顔を認識する。顔画像処理部123は、撮影人物画像を表示する際、画像データ中の顔のうち、既にその顔の人物が所有する外部機器(本実施の形態では他のデジタルカメラ1)にその画像データ(実際には画像ファイル30)が送信されている顔(送信済みの顔)の近傍位置に、送信済みを示す送信済マークを合成する処理を行う。  The
  顔検出部13は、撮影画像の画像データに対して公知技術である顔検出処理を行い、画像データ中に映る顔の領域(顔領域)を検出して顔の特徴情報(顔特徴情報)を抽出する。ここで、顔検出処理は、例えば、パターンマッチングを適用して画像データ中の顔領域を検出し、この顔領域の検出結果をもとに左右の目や鼻、唇等の各顔パーツを検出するものである。画像データ中に複数の顔が含まれる場合には、顔毎に顔特徴情報が得られる。  The
  操作部14は、撮影タイミングの指示(撮影指示)、撮影モードや再生モードといったデジタルカメラ1の動作モードの切り換え、相手カメラ1に対するデータの送信指示、撮影条件の設定等、ユーザによる各種操作を受け付けて操作信号を制御部20に通知するためのものである。この操作部14は、図1のレリーズスイッチ5やボタンスイッチ7を含む。  The operation unit 14 accepts various operations by the user, such as a shooting timing instruction (shooting instruction), switching of the operation mode of the digital camera 1 such as a shooting mode and a playback mode, a data transmission instruction to the partner camera 1, and setting of shooting conditions. This is to notify the control unit 20 of the operation signal. The operation unit 14 includes the
  表示部15は、撮影された静止画や動画、ライブビュー画像の他、デジタルカメラ1の各種設定情報等を表示するためのものであり、LCD(Liquid Crystal Display)やELディスプレイ(Electroluminescence Display)等の表示装置で実現される。この表示部15には、撮影モード中は例えば1フレーム毎にライブビュー画像が再描画されて動画的に連続表示され、再生モード中は撮影された静止画や動画が表示される。  The
  時計部16は、日付および時刻を計時するためのものである。この時計部16が計時する現在時刻によって撮影時の日付や時刻が特定されるようになっており、撮影画像の画像データは、特定された撮影日時とともに記録部17に記録される。  The clock unit 16 is for measuring the date and time. The date and time at the time of shooting are specified by the current time counted by the clock unit 16, and the image data of the shot image is recorded in the
  記録部17は、更新記録可能なフラッシュメモリやROM等の各種半導体メモリ、内蔵あるいはデータ通信端子で接続されたハードディスク、メモリカード等の記録媒体およびその読み書き装置等によって実現されるものであり、用途に応じた記録装置を適宜採用し、あるいは組み合わせて用いることができる。この記録部17には、デジタルカメラ1を動作させ、このデジタルカメラ1が備える種々の機能を実現するための各種のカメラプログラムや、このカメラプログラムの実行中に使用されるデータ等が記録される。ここで、カメラプログラムは、制御部20を後述する撮影人物画像登録処理部201、相手機器データ取得処理部202、通信履歴仮記録処理部203、データ送受信処理部204、送信判定部241、通信履歴一覧更新部242、画像ファイル送信処理部243、自機顔判定部244および顔/機器対応付け処理部205として機能させるためのプログラムを含む。  The
  また、記録部17には、自機データ171が記録される。この自機データ171は、機器データと、自機顔データとを含む。機器データは、自機を識別するためのものであり、例えばデジタルカメラ1の製造時に機器毎に固有に割り当てられる機器IDを用いることができる。なお、機器IDに限らず、デジタルカメラ1を識別可能な情報を適宜機器データとして用いることとしてよい。一方、自機顔データは、自機ユーザの顔が映る画像データから抽出した顔特徴情報である。この自機顔データは、ユーザ操作に従って登録される。手順を説明すると、例えば自機ユーザの顔を実際に撮影することによって、あるいは自機ユーザが映る画像データ中の自機ユーザの顔領域を領域選択することによって自機ユーザの顔画像を指定する。これに応答し、先ず顔検出部13が、指定された顔画像データを顔検出処理し、顔特徴情報を抽出する。そして、制御部20が、得られた顔特徴情報を自機顔データとして記録部17に記録処理するようになっている。  In addition,
  また、記録部17には、複数の画像ファイル30である画像情報173が記録される。本実施の形態では、画像処理部12によって記録用に画像処理されたコンテンツデータの一例である撮影画像の画像データは、例えば撮影日時、撮影時に得たGPSデータ、タイトル、コメント、個人情報といったEXIF(Exchangeable  Image  File)情報を含むヘッダを付加したファイル形式の画像ファイル30として記録部17に記録される。  The
  図5は、画像ファイル30のデータ構成例を示す図である。図5に示すように、画像ファイル30は、画像ID31と、撮影日時等の撮影情報(EXIF情報)32と、撮影画像の画像データ33と、撮影画像のサムネイルデータ34と、検出顔情報35と、通信履歴一覧36とを含む。画像ID31は、各画像を識別するために例えばその画像データの生成時(撮影時)に固有に割り当てられる識別情報である。なお、画像情報173を構成する各画像ファイル30は、自機で撮影された撮影画像の画像ファイルの他、無線通信部19を介して他のデジタルカメラ1と通信することによって他のデジタルカメラ1から取得した画像ファイルを適宜含む。  FIG. 5 is a diagram illustrating a data configuration example of the
  検出顔情報35は、その画像データ33について実行された顔検出結果であり、検出された顔毎の顔データ350を含む。例えば、画像データ33中で3つの顔が検出されて顔特徴情報が抽出された場合には、各顔についての3つの顔特徴情報がそれぞれ顔データ350として設定される。具体的には、顔データ350には、その顔について抽出された顔特徴情報が、その顔を識別するための顔番号と対応付けられて設定される。ここで、顔特徴情報は、その画像データ33中の顔の位置や大きさを含む。また、顔番号は、例えばその画像データ33中で検出された顔に割り振られた通し番号である。なお、画像データ33中で顔が検出されていない画像ファイル30には検出顔情報35は設定されない。  The detected
  通信履歴一覧36は、現在までにその画像ファイル30について機器間(本実施の形態では、図3に示したデジタルカメラ1と他のデジタルカメラ1−2との間)で行った送受信の履歴情報である。本実施の形態では、画像ファイル30を送受信するたびに通信履歴データ360が生成されるようになっており、生成された通信履歴データ360が通信履歴一覧36に追加される。例えば、通信履歴一覧36に3つの通信履歴データ360が設定されていれば、その画像ファイル30は、各通信履歴データ360がそれぞれ示す所定のデジタルカメラ1間で3回送受信されている。一方、通信履歴一覧36に通信履歴データ360が設定されていない場合には、その画像ファイル30はデジタルカメラ1間で1度も送受信されていない。  The communication history list 36 is history information of transmission / reception performed between devices (in this embodiment, between the digital camera 1 and the other digital camera 1-2 shown in FIG. 3) for the
  図6は、通信履歴データ360のデータ構成例を示す図である。図6に示すように、通信履歴データ360は、送信元機器データ361と、送信先機器データ363と、送受信日時365とを含む。送信元機器データ361には、その通信履歴データ360を生成した際の画像ファイル30の送受信において、画像ファイル30を送信する側(送信元のデジタルカメラ1)の機器データが設定される。一方、送信先機器データ363には、その通信履歴データ360を生成した際のその画像ファイル30の送受信において、画像ファイル30を受信する側(送信先のデジタルカメラ1)の機器データが設定される。また、送受信日時365は、その通信履歴データ360を生成した際の現在時刻が設定される。  FIG. 6 is a diagram illustrating a data configuration example of the
  さらに、図4に示すように、記録部17には、撮影人物画像送信情報175と、顔/機器対応テーブル177とが記録される。  Further, as shown in FIG. 4, photographed person
  撮影人物画像送信情報175は、自機で撮影した撮影画像であって、顔が映る撮影画像(その画像データ中で顔が検出された撮影画像:以下、適宜「撮影人物画像」と呼ぶ。)の外部機器(本実施の形態では他のデジタルカメラ1)への送信の有無を管理するためのデータテーブルである。より詳細には、撮影人物画像送信情報175には、撮影人物画像毎に、その撮影人物画像中に映る顔の人物が所有するものとして登録された他のデジタルカメラ1への送信の有無が記録される。  The photographed person
  図7は、撮影人物画像送信情報175のデータ構成例を示す図である。図7に示すように、撮影人物画像送信情報175は、自機で撮影した撮影人物画像の画像IDと対応付けて、顔番号および画像送信フラグが設定されたデータテーブルである。顔番号には、対応する画像IDの画像データ中で検出された顔に割り振られた顔番号が設定される。画像送信フラグは、対応する顔番号の顔の人物が所有する他のデジタルカメラ1に対し、対応する画像IDの画像ファイル30を送信したか否かを示すフラグ情報である。送信済みの場合には“ON”が設定され、未送信の場合には“OFF”が設定される。例えば、画像ID31として“ID00011”が設定されている画像ファイル30の画像データ33中では、顔番号“01”〜“03”が割り振られた3つの顔が検出されている。そして、レコードR11に示すように、このうち顔番号“01”の画像送信フラグには“ON”が設定されており、画像ID31が“ID00011”である画像ファイル30は顔番号“01”の顔の人物が所有する他のデジタルカメラ1に送信済みである。一方、顔番号“03”の画像送信フラグには“OFF”が設定されており(レコードR13)、その画像ファイル30は顔番号“03”の顔の人物が所有する他のデジタルカメラ1には未だ送信されていない。  FIG. 7 is a diagram illustrating a data configuration example of the photographed person
顔/機器対応テーブル177は、撮影人物画像の画像データから顔領域を切り出すことで得た顔画像データと、その顔の人物が所有するものとして登録された他のデジタルカメラ1から取得した機器データとの対応関係を設定したデータテーブルである。 The face / device correspondence table 177 includes face image data obtained by cutting out a face area from image data of a photographed person image, and device data acquired from another digital camera 1 registered as possessed by the person of the face. Is a data table in which the correspondence relationship is set.
  一時記録部18は、例えばRAM等の半導体メモリで構成され、制御部20の作業用メモリとして用いられる。この一時記録部18は、制御部20が実行するプログラムやこのプログラムの実行中に使用されるデータ等を一時的に保持するメモリ領域を備える。例えば、通信履歴仮データ181を一時記録する。この通信履歴仮データ181は、送信元機器データ、送信先機器データおよび送受信日時を含む図6に示した通信履歴データ360と同様のデータ構成を有する。また、一時記録部18は、撮像部11から出力される画像データの一時記録用等に使用され、1フレーム毎に撮像部11から取り込まれる画像(ライブビュー画像)の画像データや、撮影タイミングで撮像部11から取り込まれる画像(撮影画像)の画像データ等を一時記録する。  The temporary recording unit 18 is configured by a semiconductor memory such as a RAM, for example, and is used as a working memory for the control unit 20. The temporary recording unit 18 includes a memory area that temporarily stores a program executed by the control unit 20 and data used during execution of the program. For example, the communication history temporary data 181 is temporarily recorded. This temporary communication history data 181 has the same data structure as the
  無線通信部19は、相手カメラ1との間で近接無線通信を行うためのものであり、アンテナ191によって相手カメラ1の無線通信部との間で電波信号を送受信し、受信信号を復調処理するとともに、送信信号を変調処理する送受信回路等で構成される。この無線通信部19は、起動時においてその存在を報知する通信信号を定期的に送出するとともに、相手カメラ1の無線通信部19から送出された通信信号を検知して停止状態または待機状態から復帰し、相手カメラ1との間で通信を確立するようになっている。  The
  ここで、無線通信部19は、例えば、数cm程度の通信距離で、100Mbps程度の伝送速度を実現可能な非接触の近接無線通信を想定している。この無線通信部19によって実現される近接無線通信によれば、デジタルカメラ1に記録されているデータ(画像ファイル30)の全部または一部を瞬時に相手カメラ1に送信することができる。ただし、これに限定されるものではなく、所望の通信距離や伝送速度を実現可能な通信規格の通信装置を適宜採用して無線通信部19を構成できる。  Here, the
  制御部20は、CPU等で実現され、操作部14からの操作信号等に応じて記録部17からカメラプログラムを読み出して実行し、デジタルカメラ1を構成する各部に対する指示やデータの転送等を行ってデジタルカメラ1の動作を統括的に制御する。この制御部20は、CPUや各部間のDMA転送を制御するためのDMAコントローラ等を適宜含む。そして、制御部20は、撮影人物画像登録処理部201と、相手機器データ取得処理部202と、通信履歴仮記録処理部203と、データ送受信処理部204と、顔/機器対応付け処理部205とを含む。  The control unit 20 is realized by a CPU or the like, reads out and executes a camera program from the
  撮影人物画像登録処理部201は、撮影タイミングが指示されて撮影画像を生成した際、その画像データについて行った顔検出の結果顔が検出された場合に、その撮影画像を撮影人物画像として登録する処理を行う。  The photographed person image
  相手機器データ取得処理部202は、相手カメラ1に機器データ送信要求を通知し、相手カメラ1からその機器データ(相手カメラ1において記録部に記録されている機器データ)を取得する処理を行う。  The counterpart device data
  通信履歴仮記録処理部203は、通信履歴データを生成し、通信履歴仮データ181として一時記録部18に仮記録する。本実施の形態では、画像ファイル30の通信履歴一覧36に設定される通信履歴データ360は、画像ファイル30を送信する側のデジタルカメラ1が生成するものであり、後述する送信条件を満足する場合に、この通信履歴仮記録処理部203が仮記録した通信履歴仮データ181が通信履歴データ360として通信履歴一覧36に追加されるようになっている。具体的には、通信履歴仮記録処理部203は、記録部17に記録されている自機データ171の機器データを送信元機器データとする。また、通信履歴仮記録処理部203は、相手機器データ取得処理部202によって相手カメラ1から取得された相手カメラ1の機器データを送信先機器データとする。そして、通信履歴仮記録処理部203は、時計部16から現在時刻を取得して送受信日時とし、これらを対応付けた通信履歴データを生成して通信履歴仮データ181として一時記録部18に記録する処理を行う。  The communication history temporary recording processing unit 203 generates communication history data and temporarily records it as temporary communication history data 181 in the temporary recording unit 18. In the present embodiment, the
  データ送受信処理部204は、無線通信部19を介して相手カメラ1に送信対象の画像ファイル30を送信し、相手カメラ1から送信された画像ファイルを受信する処理を行う。このデータ送受信処理部204は、送信判定部241と、通信履歴一覧更新部242と、画像ファイル送信処理部243と、自機顔判定部244とを含む。  The data transmission /
  送信判定部241は、送信対象の画像ファイル30を相手カメラ1に送信する前に、通信履歴仮記録処理部203によって一時記録部18に記録処理された通信履歴仮データ181が後述する送信条件を満足するか否かを判定する。  Before transmitting the
  通信履歴一覧更新部242は、送信判定部241によって送信条件を満足すると判定された場合に、通信履歴仮データ181を送信対象の画像ファイル30の通信履歴一覧36に新たに追加して更新する処理を行う。  The communication history
  画像ファイル送信処理部243は、送信判定部241が送信条件を満足すると判定した場合に、送信対象の画像ファイル30が撮影人物画像として登録されているか否かに応じて“ON”または“OFF”を設定した顔位置要求フラグを送信対象の画像ファイル30に付加し、相手カメラ1に送信処理する。  When the
  自機顔判定部244は、相手カメラ1から顔位置要求フラグ“ON”が付加された画像ファイルを受信した場合であって、人物認識部121によってその画像データ中に映る自機ユーザの顔が認識された場合に、その顔位置を画像IDと対応付けた顔位置データを相手カメラ1に送信処理する。  The own device
  顔/機器対応付け処理部205は、画像ファイル送信処理部243が画像ファイル30を送信処理した後、相手カメラ1から顔位置データを受信した場合に、受信した顔位置データをもとに該当する画像データ中の該当する顔番号を特定し、特定した顔番号に対応する画像送信フラグに“ON”を設定して撮影人物画像送信情報175を更新する。そして、顔/機器対応付け処理部205は、特定した顔番号の顔の人物が、今回通信を行って画像ファイル30を送信した相手カメラ1の所有者であるとして登録する。すなわち、顔/機器対応付け処理部205は、対応する画像データ33中の特定された顔番号が割り振られた顔領域(顔画像データ)を、相手機器データ取得処理部202によって取得されている相手カメラ1の機器データと対応付けて顔/機器対応テーブル177に設定する。  The face / device association processing unit 205 corresponds to the received face position data based on the received face position data when the image file
図8および図9は、本実施の形態におけるデジタルカメラ1と他のデジタルカメラ1(相手カメラ1)との通信の概要を説明する図である。ここでは、撮影モード中、撮影の直後に人物が映る撮影人物画像を他のデジタルカメラ1に送信する場合を例示しているが、再生モード中に撮影人物画像を送信する場合も同様の処理を行う。 FIG. 8 and FIG. 9 are diagrams for explaining the outline of communication between the digital camera 1 and another digital camera 1 (other camera 1) in the present embodiment. Here, a case where a photographed person image in which a person appears immediately after photographing is transmitted to another digital camera 1 in the photographing mode is illustrated, but the same processing is performed when a photographed person image is transmitted in the playback mode. Do.
  例えば、図8に示すように、デジタルカメラ1を所有する自機ユーザがデジタルカメラ1を撮影モードにして例えば友人である人物Pa,Pb,Pcの集合写真の撮影を行うと、デジタルカメラ1の表示部15には、人物Pa,Pb,Pcを撮影した撮影人物画像I1が画面表示される。このようにして集合写真を撮影を行ったデジタルカメラ1の自機ユーザは、デジタルカメラ1を人物Pa,Pb,Pcの所有する外部機器(本実施の形態では他のデジタルカメラ1)と通信させ、人物Pa,Pb,Pcを撮影した集合写真(撮影人物画像)を順次送信していく。ここで、図8の人物Paの所有する他のデジタルカメラ1を図9(a)に示すデジタルカメラ1−2aとし、図8の人物Pbの所有する他のデジタルカメラ1を図9(b)に示すデジタルカメラ1−2bとし、図8の人物Pcが所有する他のデジタルカメラ1を図9(c)に示すデジタルカメラ1−2cとする。  For example, as shown in FIG. 8, when the user owning the digital camera 1 takes the digital camera 1 in the shooting mode and takes a group photo of, for example, friends Pa, Pb, Pc who are friends, On the
  先ず、自機ユーザは、図9(a)に示すように、デジタルカメラ1を人物Paが所有する他のデジタルカメラ1−2aと近接させて通信を行う。これにより、デジタルカメラ1は、他のデジタルカメラ1−2aを相手カメラ1−2aとして撮影人物画像の画像ファイル30を送信する(a1)。本実施の形態では、デジタルカメラ1は、画像ファイルを受信すると、その画像データ中に映る自機ユーザの顔を認識し、認識した顔位置のデータを相手カメラ1に送信するようになっている。すなわち、相手カメラ1−2aは、受信した画像ファイルの画像データ中で自機ユーザの顔を認識した場合に、その顔位置のデータをデジタルカメラ1に送信する(a3)。そして、デジタルカメラ1では、顔位置のデータを受信すると、画像データ中の受信した顔位置の人物が今回通信を行って画像ファイル30を送信した相手カメラ1−2aの所有者であるとして登録する。またこのとき、その顔を送信済みの顔とし、送信済みの顔に送信済マークM11を付した撮影人物画像I11を表示部15において画面表示する。なお、ここでは、顔領域を破線で囲う送信済マークを例示しているが、これに限定されるものではなく、まだその顔の人物が所有する外部機器(他のデジタルカメラ1)が特定されておらず、画像データ(画像ファイル30)が未送信である顔と識別可能な表示であればよい。  First, as shown in FIG. 9A, the user of the own device performs communication by bringing the digital camera 1 close to another digital camera 1-2a owned by the person Pa. Accordingly, the digital camera 1 transmits the
  同様にして、自機ユーザは、図9(b)に示すように、デジタルカメラ1を人物Pbが所有する他のデジタルカメラ1−2bと近接させて通信を行う。これにより、デジタルカメラ1は、他のデジタルカメラ1−2bを相手カメラ1−2bとして撮影人物画像の画像ファイル30を送信する(a5)。そして、デジタルカメラ1は、相手カメラ1−2bから顔位置のデータを受信すると(a7)、画像データ中の受信した顔位置の人物が相手カメラ1−2bの所有者であるとして登録する。またこのとき、その顔を送信済みの顔とし、送信済みの顔に送信済マークM11,M13を付した撮影人物画像I13を表示部15において画面表示する。  Similarly, as shown in FIG. 9B, the user of the own device performs communication by bringing the digital camera 1 close to another digital camera 1-2b owned by the person Pb. Accordingly, the digital camera 1 transmits the
  さらに、自機ユーザは、図9(c)に示すように、デジタルカメラ1を人物Pcが所有する他のデジタルカメラ1−2cと近接させて通信を行う。これにより、デジタルカメラ1は、他のデジタルカメラ1−2cを相手カメラ1−2cとして撮影人物画像の画像ファイル30を送信する(a9)。そして、デジタルカメラ1は、相手カメラ1−2cから顔位置のデータを受信すると(a11)、画像データ中の受信した顔位置の人物が相手カメラ1−2cの所有者であるとして登録する。またこのとき、その顔を送信済みの顔とし、送信済みの顔に送信済マークM11,M13,M15を付した撮影人物画像I15を表示部15において画面表示する。  Further, as shown in FIG. 9C, the user of the own device performs communication by bringing the digital camera 1 close to another digital camera 1-2c owned by the person Pc. As a result, the digital camera 1 transmits the
  次に、デジタルカメラ1が行う処理手順について説明する。図10は、デジタルカメラ1が行う基本処理の手順を示すフローチャートである。電源投入時、デジタルカメラ1は、ユーザ操作によって選択されるモードに応じた処理を行う。すなわち、図10に示すように、現在選択されているモードが撮影モードの場合には(ステップb1:Yes)、撮影モード処理に移る(ステップb3)。撮影モード処理を終えると、ステップb9に移る。現在のモードが撮影モードではなく(ステップb1:No)、再生モードの場合には(ステップb5:Yes)、再生モード処理に移る(ステップb7)。再生モード処理を終えると、ステップb9に移る。そして、ステップb9では、基本処理を終了するか否かを判定する。例えば、ボタンスイッチ7の操作によって電源OFFが指示された場合に、本処理を終える(ステップb9:Yes)。一方、終了しない場合には(ステップb9:No)、ステップb1に戻る。  Next, a processing procedure performed by the digital camera 1 will be described. FIG. 10 is a flowchart illustrating a procedure of basic processing performed by the digital camera 1. When the power is turned on, the digital camera 1 performs processing according to the mode selected by the user operation. That is, as shown in FIG. 10, when the currently selected mode is the shooting mode (step b1: Yes), the process proceeds to shooting mode processing (step b3). When the shooting mode process is completed, the process proceeds to step b9. If the current mode is not the shooting mode (step b1: No) and is the playback mode (step b5: Yes), the process proceeds to the playback mode process (step b7). When the reproduction mode process is completed, the process proceeds to step b9. In step b9, it is determined whether or not to end the basic process. For example, when the power switch OFF is instructed by the operation of the
ここで、ステップb3の撮影モード処理およびステップb7の再生モード処理について順次説明する。先ず、撮影モード処理について説明する。図11は、撮影モード処理の詳細な処理手順を示すフローチャートである。 Here, the shooting mode process in step b3 and the reproduction mode process in step b7 will be described in order. First, photographing mode processing will be described. FIG. 11 is a flowchart showing a detailed processing procedure of the shooting mode processing.
  図11に示すように、撮影モード処理では、制御部20は先ず、無線通信部19を起動(ON)する(ステップc1)。その後、制御部20は、撮像部11を起動して画像を取り込み、取り込んだ画像をライブビュー画像として表示部15に表示する処理を行う(ステップc2)。ここでの処理によって、撮像素子に結像されている被写体像であるライブビュー画像を1フレーム毎に更新表示させる。  As shown in FIG. 11, in the photographing mode process, the control unit 20 first activates (ON) the wireless communication unit 19 (step c1). Thereafter, the control unit 20 activates the
  そして、レリーズスイッチ5が押下されて撮影が指示されたならば(ステップc3:Yes)、撮影処理を行って撮影画像の画像データを生成する(ステップc5)。続いて、顔検出部13が顔検出を実行し、撮影画像の画像データから顔領域を検出し、顔領域中の各顔パーツを検出する(ステップc6)。ここでの処理によって画像データ中の顔が検出されて顔特徴情報が抽出された場合には、制御部20は、検出された顔に顔番号を割り振って検出顔情報を生成する。そして、制御部20は、生成した撮影画像に画像IDを割り当て、画像処理後の画像データやそのサムネイルデータ、検出顔情報、現在時刻等と対応付けて画像ファイル30として記録部17に記録する処理を行う(ステップc7)。なお、ここで記録される画像ファイル30の通信履歴一覧36には、通信履歴データ360は設定されない(空の状態である)。またこのとき、ステップc6で撮影画像の画像データから顔を検出した場合に(ステップc8:Yes)、撮影人物画像登録処理部201が、生成した撮影画像を撮影人物画像として登録する処理を行う(ステップc9)。具体的には、撮影人物画像登録処理部201は、生成した撮影画像の画像IDと検出した顔に割り振った顔番号とをもとに、画像送信フラグを“OFF”としたレコードを撮影人物画像情報に追加する。  If the
続くステップc10では、ユーザによる送信指示を判定しており、送信指示が入力された場合に、例えば通信が確立した相手カメラ1に対し、ステップc5の撮影処理で生成した最新の撮影画像の画像ファイル30を送信対象として送信するようになっている。 In the subsequent step c10, the transmission instruction by the user is determined, and when the transmission instruction is input, for example, the image file of the latest photographed image generated by the photographing process of step c5 is performed on the partner camera 1 with which communication has been established. 30 is transmitted as a transmission target.
  すなわち、送信指示が入力されると(ステップc10:Yes)、続くステップc11では、この相手カメラ1との間の通信の確立を監視する。このとき、無線通信部19が電波の発信を開始するようになっており、この電波を相手カメラ1の無線通信部が受信すると、相手カメラ1との間の通信が確立する。  That is, when a transmission instruction is input (step c10: Yes), in the subsequent step c11, establishment of communication with the counterpart camera 1 is monitored. At this time, the
  そして、例えば、予め設定される所定時間が経過するまでの間に相手カメラ1との間で通信が確立しなければ(ステップc11:No)、ステップc13に移行し、制御部20が警告報知処理を行う。そしてその後、ステップc25に移る。例えば、ステップc13では、制御部20は、警告報知処理として、通信が確立しない旨のメッセージを表示部15に表示する処理を行う。なお、警告音を不図示のスピーカから音出力する処理を警告報知処理として行う構成としてもよいし、これらを組み合わせて行う構成としてもよい。  For example, if communication with the counterpart camera 1 is not established before a predetermined time elapses (step c11: No), the process proceeds to step c13, and the control unit 20 performs a warning notification process. I do. Then, the process proceeds to step c25. For example, in step c13, the control unit 20 performs a process of displaying a message indicating that communication is not established on the
一方、相手カメラ1との間で通信が確立した場合には(ステップc11:Yes)、通信履歴仮記録処理に移る(ステップc15)。図12は、通信履歴仮記録処理の詳細な処理手順を示すフローチャートである。 On the other hand, when communication is established with the counterpart camera 1 (step c11: Yes), the process proceeds to a communication history temporary recording process (step c15). FIG. 12 is a flowchart showing a detailed processing procedure of the communication history temporary recording process.
  図12に示すように、通信履歴仮記録処理では先ず、相手機器データ取得処理部202が、無線通信部19を介し、相手カメラ1に対して機器データ送信要求を通知する処理を行う(ステップd1)。このとき、相手機器データ取得処理部202は、機器データ送信要求とともに記録部17に記録されている自機データ171の機器データを相手カメラ1に送信処理するようになっている。  As shown in FIG. 12, in the communication history temporary recording process, first, the counterpart device data
  そして、相手機器データ取得処理部202は、無線通信部19を介して相手カメラ1から機器データを受信するまで待機状態となり、相手カメラ1から機器データを受信し(ステップd3)、受信に成功した場合には(ステップd5:Yes)、ステップd7に移る。そして、通信履歴仮記録処理部203が、時計部16から現在時刻を取得する(ステップd7)。そして、通信履歴仮記録処理部203は、記録部17に記録されている自機データ171の機器データと、ステップd3で取得した相手カメラ1の機器データと、ステップd7で取得した現在時刻とを対応付けて通信履歴データを生成し、通信履歴仮データ181として一時記録部18に記録処理して仮記録する(ステップd9)。また、通信履歴仮記録処理部203は、通信履歴生成フラグを“ON(成功)”に設定する(ステップd11)。そして、図11のステップc15にリターンし、その後ステップc17に移る。  Then, the partner device data
  一方、図12のステップd5において受信に失敗した場合には(ステップd5:No)、通信履歴仮記録処理部203が、警告報知処理を行う(ステップd13)。例えば、通信履歴仮記録処理部203は、相手カメラ1からの機器データの受信に失敗し、通信履歴データを生成していない旨のメッセージを表示部15に表示する処理を行う。受信に失敗した場合としては、例えば、途中で自機のデジタルカメラ1と相手カメラ1との間が遠ざけられて通信が遮断した場合等が挙げられる。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。また、通信履歴仮記録処理部203は、通信履歴生成フラグを“OFF(失敗)”に設定する(ステップd15)。そして、図11のステップc15にリターンし、その後ステップc17に移る。  On the other hand, when reception fails in step d5 of FIG. 12 (step d5: No), the communication history temporary recording processing unit 203 performs a warning notification process (step d13). For example, the communication history temporary recording processing unit 203 performs a process of displaying a message on the
  そして、ステップc17では、データ送受信処理部204が、ステップc15の通信履歴仮記録処理で通信履歴データを生成したか否かを判定する。例えば、データ送受信処理部204は、通信履歴フラグが“OFF”であれば通信履歴データを生成していないと判定し(ステップc17:No)、データ送信処理を行わずに(ステップc5の撮影処理で生成した最新の撮影画像の画像ファイル30を相手カメラ1に送信せずに)、ステップc25に移る。  In step c17, the data transmission /
  一方、データ送受信処理部204は、通信履歴生成フラグが“ON”の場合には、通信履歴データを生成したと判定し(ステップc17:Yes)、データ送信処理を行う(ステップc19)。図13は、データ送信処理の詳細な処理手順を示すフローチャートである。  On the other hand, if the communication history generation flag is “ON”, the data transmission /
図13に示すように、データ送信処理では先ず、送信判定処理に移る(ステップe1)。図14は、送信判定処理の詳細な処理手順を示すフローチャートである。 As shown in FIG. 13, in the data transmission process, the process first proceeds to a transmission determination process (step e1). FIG. 14 is a flowchart illustrating a detailed processing procedure of the transmission determination process.
  図14に示すように、送信判定処理では先ず、送信判定部241が、送信対象の画像ファイル30の通信履歴一覧36を参照し、既に設定されている通信履歴データ360の中から、通信履歴仮データ181の送信先機器データ(すなわち図12のステップd3で通信相手の相手カメラ1から取得した機器データ)を検索する(ステップf1)。  As shown in FIG. 14, in the transmission determination process, first, the
  そして、送信判定部241は、この検索結果をもとに送信条件を満足するか否かを判定する。すなわち、送信判定部241は、通信履歴仮データ181の送信先機器データが、いずれかの通信履歴データ360の送信元機器データ361または送信先機器データ363と一致した場合であって、その通信履歴データ360の送受信日時365から予め設定されている所定期間(例えば「6ヶ月」等)が経過していない場合に、送信条件を満足しないと判定する。一致した通信履歴データ360の送受信日時365から所定期間が経過している場合には、送信条件を満足すると判定する。また、通信履歴仮データ181の送信先機器データがいずれの通信履歴データ360の送信元機器データ361および送信先機器データ363とも一致しない場合も、送信条件を満足すると判定する。  Then, the
  これは、通信履歴仮データ181の送信先機器データ(今回の送信先である通信相手の相手カメラ1)が過去にその画像ファイル30の送信元または送信先となっている場合、相手カメラ1の記録部にはその画像ファイル30が記録されていると想定できる一方で、相手カメラ1のユーザがその画像ファイル30を削除している場合もあり得るからである。このため、本実施の形態では、その画像ファイル30を送受信してからある程度の時間(所定期間)が経過している場合には、再度送信するようにしている。  This is because the destination device data of the communication history temporary data 181 (the partner camera 1 of the communication partner that is the current sender) is the sender or destination of the
  具体的には、図14に示すように、送信判定部241は、通信履歴仮データ181の送信先機器データが既に設定されている通信履歴データ360の送信元機器データ361と一致している場合には(ステップf3:Yes)、続いて、その通信履歴データ360の送受信日時365を読み出す(ステップf5)。そして、送信判定部241は、読み出した送受信日時365と、通信履歴仮データ181の送受信日時(現在時刻)とを比較し、所定期間が経過しているか否かを判定する。経過していなければ(ステップf7:No)、ステップf15に移る。  Specifically, as illustrated in FIG. 14, the
  一方、通信履歴仮データ181の送信先機器データが、既に設定されている通信履歴データ360の送信元機器データ361と一致しない場合(ステップf3:No)、あるいはステップf5で読み出した送受信日時365から所定期間が経過している場合には(ステップf7:Yes)、送信判定部241は、通信履歴仮データ181の送信先機器データが既に設定されている通信履歴データ360の送信先機器データ363と一致しているか否かを判定する。そして、一致している場合も同様に(ステップf9:Yes)、その通信履歴データ360の送受信日時365を読み出す(ステップf11)。そして、送信判定部241は、読み出した送受信日時365と、通信履歴仮データ181の送受信日時(現在時刻)とを比較し、所定期間が経過しているか否かを判定する。経過していなければ(ステップf13:No)、ステップf15に移る。  On the other hand, when the transmission destination device data of the communication history temporary data 181 does not match the transmission
  そして、ステップf15では、送信判定部241は、送信条件を満足しないと判定し、その後警告報知処理を行う(ステップf17)。例えば、送信判定部241は、送信対象の画像ファイル30が相手カメラ1に記録済みである旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。またこのとき、一時記録部18に記録されている通信履歴仮データ181を削除する。その後、図13のステップe1にリターンし、ステップe3に移る。  In step f15, the
  一方、通信履歴仮データ181の送信先機器データが、既に設定されている通信履歴データ360の送信元機器データ361と一致しない場合(ステップf9:No)、あるいはステップf11で読み出した送受信日時365から所定期間が経過している場合には(ステップf13:Yes)、送信判定部241は、送信条件を満足すると判定する(ステップf19)。そして、通信履歴一覧更新部242が、一時記録部18に仮記録されている通信履歴仮データ181を通信履歴一覧36に追加して送信対象の画像ファイル30を更新する(ステップf21)。またこのとき、一時記録部18の通信履歴仮データ171を削除する。その後、図13のステップe1にリターンし、ステップe3に移る。  On the other hand, when the transmission destination device data of the temporary communication history data 181 does not match the transmission
  そして、ステップe3では、データ送受信処理部204が、ステップe1の送信判定処理の結果をもとに画像ファイル30を送信するか否かを判定する。すなわち、送信判定処理で送信条件を満足しないと判定した場合には、データ送受信処理部204は、画像ファイル30を送信しないと判定し(ステップe3:No)、図11のステップc19にリターンしてステップc25に移る。  In step e3, the data transmission /
  一方、データ送受信処理部204は、送信条件を満足すると判定した場合には画像ファイル30を送信すると判定し(ステップe3:Yes)、続いて画像ファイル送信処理部243が、撮影人物画像として登録された画像ファイル30か否かを判定する。具体的には、画像ファイル送信処理部243は、送信対象の画像ファイル30の画像ID31が撮影人物画像送信情報175に設定されている場合に登録されていると判定する。そして、登録されている場合には(ステップe4:Yes)、画像ファイル送信処理部243は、顔位置データの送信を要求するための顔位置要求フラグ“ON”を送信対象の画像ファイル30に付加して相手カメラ1に送信処理する(ステップe5)。登録されていない場合には(ステップe4:No)、画像ファイル送信処理部243は、顔位置データの送信を要求しない顔位置要求フラグ“OFF”を送信対象の画像ファイル30に付加して相手カメラ1に送信処理する(ステップe6)。そして、データ送受信処理部204は、受信完了通知を受信するまで待機状態となる。  On the other hand, when determining that the transmission condition is satisfied, the data transmission /
  例えば予め設定される所定時間が経過するまでの間に相手カメラ1からの受信完了通知を受信しない場合には(ステップe7:No)、データ送受信処理部204は、画像ファイル30の送信に失敗したと判定し、警告報知処理を行う(ステップe9)。送信に失敗した場合には、受信に失敗した場合と同様、途中で自機のデジタルカメラ1と相手カメラ1との間が遠ざけられて通信が遮断した場合等が挙げられる。データ送受信処理部204は、相手カメラ1に対する画像ファイル30の送信に失敗した旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。  For example, when the reception completion notification from the counterpart camera 1 is not received before the predetermined time elapses (step e7: No), the data transmission /
  また、通信履歴一覧更新部242が、送信対象の画像ファイル30の通信履歴一覧36の中から、図14のステップf21で今回追加した通信履歴データ360を削除して画像ファイル30を更新する(ステップe11)。その画像ファイル30は相手カメラ1に送信されていないためであり、次に今回送信対象とした画像ファイル30について同一の相手カメラ1に対する送信指示が入力されたときに送信処理されるようにするためである。その後、図11のステップc19にリターンしてステップc25に移る。  Further, the communication history
一方、相手カメラ1からの受信完了通知を受信した場合には(ステップe7:Yes)、さらに、相手カメラ1からの顔位置データの受信を待機する。例えば予め設定される所定時間が経過するまでの間に相手カメラ1から顔位置データを受信しない場合には(ステップe13:No)、図11のステップc19にリターンしてステップc25に移る。 On the other hand, when the reception completion notification from the counterpart camera 1 is received (step e7: Yes), the reception of the face position data from the counterpart camera 1 is further waited. For example, when face position data is not received from the counterpart camera 1 until a predetermined time has elapsed (step e13: No), the process returns to step c19 in FIG. 11 and proceeds to step c25.
  そして、顔位置データを受信した場合には(ステップe13:Yes)、顔/機器対応付け処理に移る(ステップe15)。ここで受信する顔位置データは、ステップe5で送信処理した画像ファイル30の画像データ33中で相手カメラ1において自機ユーザと認識された顔(すなわち相手カメラ1のユーザの顔)の位置情報である。図15は、顔/機器対応付け処理の詳細な処理手順を示すフローチャートである。  When face position data is received (step e13: Yes), the process proceeds to face / device association processing (step e15). The face position data received here is the position information of the face recognized as the own user in the partner camera 1 in the
  図15に示すように、顔/機器対応付け処理では先ず、顔/機器対応付け処理部205が、受信した顔位置データに設定されている画像IDをもとに該当する画像ファイル30を参照し、検出顔情報35の顔データ350の中から該当する顔位置の顔データ350を選出して顔番号を特定する(ステップg1)。具体的には、顔/機器対応付け処理部205は、受信した顔位置データを検出顔情報35に設定されている顔データ350の顔位置と比較し、一致する顔位置の顔データ350を選出して顔番号を特定する。続いて、顔/機器対応付け処理部205は、受信した顔位置データの画像IDおよび特定した顔番号をもとに該当する画像送信フラグを“ON”に設定して撮影人物画像送信情報175を更新する(ステップg3)。  As shown in FIG. 15, in the face / device association processing, first, the face / device association processing unit 205 refers to the
  また、顔/機器対応付け処理部205は、特定した顔番号の顔の人物が、今回通信を行って画像ファイル30を送信した相手カメラ1の所有者であるとして登録する(ステップg5)。具体的にはこのとき、画像処理部12が、顔/機器対応付け処理部205の制御のもと、該当する画像ID31に対応する画像データ33からステップg1で特定された顔番号の顔領域を切り出す処理を行うようになっており、顔/機器対応付け処理部205は、画像処理部12によって切り出された画像データ(顔画像データ)を、図12のステップd3で通信相手の相手カメラ1から受信した機器データと対応付けて顔/機器対応テーブル177に設定する。  Further, the face / device association processing unit 205 registers that the person of the face with the identified face number is the owner of the partner camera 1 that has transmitted the
  そして、制御部20が、その画像データ33中の送信済みの顔に送信済マークを付して確認表示するための処理を行う(ステップg7)。ここでの処理によって、制御部20は、表示処理部として、画像データ中の送信済みの顔を未送信の顔と識別可能に表示処理する。具体的には先ず、制御部20が、撮影人物画像送信情報175において受信した顔位置データの画像IDに対応する画像送信フラグとして“ON”が設定されている顔番号、すなわち、ステップg3で画像送信フラグを“ON”に設定した顔番号およびその画像IDに対応する画像送信フラグとして既に“ON”が設定されている顔番号をもとに、該当する顔データ350から顔位置を読み出す。そして、顔画像処理部123が、読み出した顔位置をもとに、その顔領域の近傍位置に送信済マークを合成処理する。そして、制御部20が、合成処理後の画像データを表示部15に表示処理する。なお、ここでは、送信済マークを合成処理することとしたが、該当する顔領域の近傍位置に、送信済マークを重畳表示(OSD:On  Screen  Display)するようにしてもよい。  Then, the control unit 20 performs a process for confirming and displaying a transmitted mark on the transmitted face in the image data 33 (step g7). By the processing here, the control unit 20 performs display processing as a display processing unit so that the transmitted face in the image data can be distinguished from the untransmitted face. Specifically, first, the controller 20 sets the face number for which “ON” is set as the image transmission flag corresponding to the image ID of the face position data received in the photographed person
  また、図11において、ステップc3で撮影指示が入力されない場合には(ステップc3:No)、続いて制御部20は、相手カメラ1からのデータを受信可能か否かを判定する。例えば、制御部20は、相手カメラ1との間で通信が確立した場合に受信可能と判定する。受信可能でなければ(ステップc21:No)、ステップc25に移る。そして、受信可能と判定した場合には(ステップc21:Yes)、データ送受信処理部204がデータ受信処理を行う(ステップc23)。図16は、データ受信処理の詳細な処理手順を示すフローチャートである。  In FIG. 11, when a shooting instruction is not input in step c3 (step c3: No), the control unit 20 subsequently determines whether data from the partner camera 1 can be received. For example, the control unit 20 determines that reception is possible when communication with the counterpart camera 1 is established. If it is not receivable (step c21: No), it moves to step c25. If it is determined that reception is possible (step c21: Yes), the data transmission /
  図16に示すように、データ受信処理では先ず、通信が確立した相手カメラ1から通知される機器データ送信要求を受信するまで待機状態となる。そして、例えば予め設定される所定時間が経過するまでの間に相手カメラ1から機器データ送信要求を受信したならば(ステップh1:Yes)、データ送受信処理部204は、無線通信部19を介して記録部17に記録されている自機データ171の機器データ(自機の機器ID)を相手カメラ1に送信する処理を行う(ステップh3)。そして、データ送受信処理部204は、送信に成功した場合には(ステップh5:Yes)、続いて相手カメラ1から画像ファイルを受信し(ステップh7)、受信に成功したならば(ステップh9:Yes)、受信完了通知を相手カメラ1に送信する処理を行う(ステップh11)。  As shown in FIG. 16, in the data reception process, first, a standby state is entered until a device data transmission request notified from the partner camera 1 with which communication has been established is received. For example, if a device data transmission request is received from the counterpart camera 1 before a predetermined time elapses (step h1: Yes), the data transmission /
  続いて、自機顔判定部244が、受信した画像ファイルの顔位置要求フラグを判定する。“ON”である顔位置要求フラグが付加された画像ファイルがなければ(ステップh13:No)、ステップh27に移る。  Subsequently, the own device
  一方、“ON”である顔位置要求フラグが付加された画像ファイルがある場合には(ステップh13:Yes)、自機顔判定部244は、この“ON”の顔位置要求フラグが付加された画像ファイルを処理対象に設定する(ステップh15)。そして、処理対象の画像ファイル毎にループAの処理を行う(ステップh17〜ステップh25)。ここでの処理により、ステップh7で“ON”の顔位置要求フラグが付加された複数の画像ファイルを受信した場合には、その画像ファイル毎にループAの処理が行われることとなる。  On the other hand, when there is an image file to which the face position request flag that is “ON” is added (step h13: Yes), the own device
  すなわち、ループAでは先ず、人物認識部121が、処理対象の画像ファイルから検出顔情報を読み出し、読み出した検出顔情報に設定されている顔データを自機データ171の自機顔データと照合して人物認識処理を行う(ステップh19)。検出顔情報として複数の顔データが設定されている場合には、各顔データをそれぞれ自機顔データと照合する。そして、人物認識部121は、自機顔データとの類似度の高い顔データがあれば、その顔領域を自機ユーザの顔として認識し、顔番号を認識結果として出力する。  That is, in the loop A, first, the person recognition unit 121 reads the detected face information from the processing target image file, and collates the face data set in the read detected face information with the own face data of the
  そして、人物認識部121が自機ユーザの顔を認識した場合には(ステップh21:Yes)、自機顔判定部244が、処理対象の画像ファイルから画像IDを読み出し、顔番号と対応付けた顔位置データを相手カメラ1に送信処理する(ステップh23)。全ての処理対象の画像ファイルについてループAの処理を行ったならば、ステップh27に移る。  When the person recognition unit 121 recognizes the user's own user's face (step h21: Yes), the own device
  そして、ステップh27では、データ送受信処理部204は、ステップh7で受信した画像ファイルを画像ファイル30として記録部17に記録処理し、画像情報173に追加する(ステップh27)。そして、図11のステップc23にリターンし、ステップc25に移る。  In step h27, the data transmission /
  一方、図16のステップh1において機器データ送信要求を受信しない場合(ステップh1:No)、ステップh5において送信に失敗した場合(ステップh5:No)、ステップh9において受信に失敗した場合は(ステップh9:No)、ステップh29に移る。そして、ステップh29では、データ送受信処理部204は、警告報知処理を行う。例えば、データ送受信処理部204は、相手カメラ1からの画像ファイル30の受信に失敗した旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。その後、図11のステップc23にリターンし、ステップc25に移る。  On the other hand, when the device data transmission request is not received at step h1 in FIG. 16 (step h1: No), when transmission fails at step h5 (step h5: No), when reception fails at step h9 (step h9). : No), it moves to step h29. In step h29, the data transmission /
そして、図11のステップc25では、制御部20が撮影モードの終了判定を行い、終了する場合には(ステップc25:Yes)、ステップc27に移る。撮影モードを終了しない場合には(ステップc25:No)、ステップc1に戻る。 Then, in step c25 of FIG. 11, the control unit 20 determines whether or not to end the shooting mode, and when it ends (step c25: Yes), the process proceeds to step c27. If the shooting mode is not terminated (step c25: No), the process returns to step c1.
  そして、ステップc27では、制御部20は、無線通信部19を停止状態(OFF)にする。なお、このときに無線通信部19による通信が実行中でなければ、特に処理を行わない。そして、撮影モード処理を終えて図10のステップb3にリターンしてステップb9に移る。  And in step c27, the control part 20 makes the radio | wireless communication part 19 a halt condition (OFF). At this time, if communication by the
  次に、再生モード処理について説明する。図17は、再生モード処理の詳細な処理手順を示すフローチャートである。図17に示すように、再生モード処理では、制御部20は先ず、無線通信部19を起動(ON)する(ステップi1)。続いて制御部20は、記録部17に画像ファイル30として記録されている画像の中から再生する画像(再生画像)を選択する(ステップi2)。ここで行う画像の選択は、例えば、記録部17に記録されている画像を記録順に1枚ずつ順番に選択する構成としてもよいし、複数の画像のサムネイルデータを読み出して一覧表示する制御を行い、ユーザ操作に従って一覧の中から1つの画像を選択する構成としてもよい。その後、画像再生処理に移る(ステップi3)。図18は、画像再生処理の詳細な処理手順を示すフローチャートである。  Next, the playback mode process will be described. FIG. 17 is a flowchart showing a detailed processing procedure of the playback mode processing. As shown in FIG. 17, in the reproduction mode process, the control unit 20 first activates (ON) the wireless communication unit 19 (step i1). Subsequently, the control unit 20 selects an image (reproduced image) to be reproduced from images recorded as the
  図18に示すように、画像再生処理では先ず、制御部20が、図17のステップi2で選択した再生画像が撮影人物画像として登録された撮影画像か否かを判定する。具体的には、制御部20は、選択した画像ファイル30の画像ID31が撮影人物画像送信情報175に設定されている場合に登録されていると判定する。登録されていなければ(ステップj1:No)、ステップj9に移る。一方、登録されている場合には(ステップj1:Yes)、制御部20は、対応する画像送信フラグとして“ON”が設定されている顔番号の有無を判定する。そして、画像送信フラグが“ON”である顔番号がなければ(ステップj3:No)、ステップj9に移る。  As shown in FIG. 18, in the image reproduction process, first, the control unit 20 determines whether or not the reproduction image selected in step i2 in FIG. 17 is a captured image registered as a photographed person image. Specifically, the control unit 20 determines that it is registered when the
  そして、ステップj9では、制御部20は、再生画像の画像データ33を読み込んで表示部15に再生(表示)する処理を行う。その後、図17のステップi3にリターンしてステップi5に移る。なお、ここで再生される再生画像の画像データには、自機で撮影されて記録部17に記録されたものの他、図16のデータ受信処理で相手カメラ1から受信した画像ファイル30の画像データが含まれる。  In step j9, the control unit 20 performs a process of reading the
  一方、画像送信フラグが“ON”である顔番号がある場合には(ステップj3:Yes)、制御部20は、検出顔情報35を参照し、画像送信フラグが“ON”である顔番号をもとに該当する顔データ350から顔位置を読み出す(ステップj5)。そして、制御部20は、読み出した顔位置をもとに、その画像データ33中の送信済みの顔に送信済マークを付して再生表示するための処理を行う(ステップj7)。具体的には先ず、顔画像処理部123が、ステップj5で制御部20が読み出した顔位置をもとに、その顔領域の近傍位置に送信済マークを合成処理する。そして、制御部20が、合成処理後の画像データを表示部15に表示処理する。その後、図17のステップi3にリターンしてステップi5に移る。  On the other hand, when there is a face number whose image transmission flag is “ON” (step j3: Yes), the control unit 20 refers to the detected
そして、ステップi5では、再生画像の切換指示を受け付け、切換指示が入力された場合には(ステップi5:Yes)、制御部20は、ステップi2に戻って再生画像を再度選択し、画像再生処理を行う(ステップi3)。 In step i5, a playback image switching instruction is received. If the switching instruction is input (step i5: Yes), the control unit 20 returns to step i2 to select the playback image again and perform image playback processing. (Step i3).
  また、この再生モード処理では、ステップi7でユーザによる送信指示を判定しており、送信指示が入力された場合には、例えば通信が確立した相手カメラ1に対し、記録部17に記録されている画像の画像ファイル30を送信するようになっている。送信指示が入力されない場合には(ステップi7:No)、ステップi25に移る。  In this playback mode process, the transmission instruction by the user is determined in step i7, and when the transmission instruction is input, for example, it is recorded in the
  そして、送信指示が入力されると(ステップi7:Yes)、先ず、制御部20が、入力された送信指示を判定する。本実施の形態のデジタルカメラ1は、再生モード中の送信指示として、例えば、記録部17に記録されている全ての画像を一括で送信する送信指示と、記録部17に記録されている画像を1枚ずつ送信する送信指示と、記録部17に記録されている複数の画像をユーザ操作に従って選択して送信する送信指示とが可能に構成されている。制御部20は、入力された送信指示に応じて送信対象の画像ファイル30を選択する(ステップi9)。  When a transmission instruction is input (step i7: Yes), first, the control unit 20 determines the input transmission instruction. The digital camera 1 according to the present embodiment, for example, transmits a transmission instruction for transmitting all the images recorded in the
  そして、続くステップi11では、この相手カメラ1との間の通信の確立を監視する。このとき、無線通信部19が電波の発信を開始するようになっており、この電波を相手カメラ1の無線通信部が受信すると、相手カメラ1との間の通信が確立する。  In subsequent step i11, establishment of communication with the counterpart camera 1 is monitored. At this time, the
  そして、例えば、予め設定される所定時間が経過するまでの間に相手カメラ1との間で通信が確立しなければ(ステップi11:No)、制御部20が警告報知処理を行う(ステップi13)。そしてその後、ステップi25に移る。例えば、制御部20は、警告報知処理として、通信が確立しない旨のメッセージを表示部15に表示処理する。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。  Then, for example, if communication with the counterpart camera 1 is not established before a predetermined time elapses (step i11: No), the control unit 20 performs a warning notification process (step i13). . Then, the process proceeds to step i25. For example, as a warning notification process, the control unit 20 displays a message indicating that communication is not established on the
一方、相手カメラ1との間で通信が確立した場合には(ステップi11:Yes)、通信履歴仮記録処理に移る(ステップi15)。この通信履歴仮記録処理は、図12に示した処理手順と同様にして行う。 On the other hand, when communication is established with the partner camera 1 (step i11: Yes), the process proceeds to a communication history temporary recording process (step i15). This communication history temporary recording process is performed in the same manner as the processing procedure shown in FIG.
  そして、続くステップi17では、データ送受信処理部204が、ステップi15の通信履歴仮記録処理で通信履歴データを生成したか否かを判定する。具体的には、図11のステップc17と同様に、データ送受信処理部204は、ステップi15の通信履歴仮記録処理の結果設定された通信履歴フラグが“OFF”であれば通信履歴データを生成していないと判定し(ステップi17:No)、データ送信処理を行わずに(ステップi7の送信指示に応じてステップi9で選択した送信対象の画像ファイル30を相手カメラ1に送信せずに)、ステップi25に移る。  In step i17, the data transmission /
  そして、データ送受信処理部204は、通信履歴生成フラグが“ON”の場合には、通信履歴データを生成したと判定し(ステップi17:Yes)、続いてステップi9で選択した送信対象の画像ファイル30の数を判定する。そして、ステップi9で選択した送信対象の画像ファイル30が1つ(ステップi7において画像の1枚送信が指示された場合)であれば(ステップi19:No)、データ送受信処理部204は、データ送信処理を行う(ステップi21)。このデータ送信処理は、図13に示した処理手順と同様にして行う。  When the communication history generation flag is “ON”, the data transmission /
  一方、送信対象の画像ファイル30が複数の場合(ステップi7において画像の一括送信が指示された場合や、複数の画像が選択されて送信指示された場合)には(ステップi19:Yes)、データ送受信処理部204は、データ一括送信処理を行う(ステップi23)。図19は、データ一括送信処理の詳細な処理手順を示すフローチャートである。  On the other hand, when there are a plurality of image files 30 to be transmitted (when a batch transmission of images is instructed in step i7 or when a plurality of images are selected and instructed to be transmitted) (step i19: Yes), the data The transmission /
  図19に示すように、データ一括送信処理では先ず、送信対象の複数の画像ファイル30を順次処理対象としてループBの処理を行う(ステップk1〜ステップk5)。すなわち、各送信対象の画像ファイル30それぞれについて、送信判定処理を行う(ステップk3)。この送信判定処理は、図14に示した処理手順と同様にして行う。全ての送信対象の画像ファイル30についてループBの処理(すなわち送信判定処理)を行ったならば、ステップk7に移る。  As shown in FIG. 19, in the data batch transmission process, first, a loop B process is performed on a plurality of image files 30 to be transmitted sequentially as a process target (step k1 to step k5). That is, transmission determination processing is performed for each
  そして、ステップk7では、データ送受信処理部204が、ステップk1〜ステップk5の全ての送信対象の画像ファイル30に対する送信判定処理の結果をもとに、送信する画像ファイル30の有無を判定する。すなわち、ステップk1〜ステップk5において複数の送信対象の画像ファイル30全てについて送信条件を満足しないと判定した場合には、データ送受信処理部204は、送信する画像ファイル30なしと判定し(ステップk7:No)、図17のステップi23にリターンしてステップi25に移る。  In step k7, the data transmission /
  一方、データ送受信処理部204は、送信条件を満足した画像ファイル30があれば送信する画像ファイル30ありと判定する(ステップk7:Yes)。この場合には、続いて画像ファイル送信処理部243が、送信する画像ファイル30のうちの撮影人物画像として登録された画像ファイル30、すなわち、その画像ID31が撮影人物画像送信情報175に設定されている画像ファイル30に顔位置要求フラグ“ON”を付加する(ステップk8)。また、送信する画像ファイル30のうちの撮影人物画像として登録されていない画像ファイル30、すなわち、その画像ID31が撮影人物画像送信情報175に設定されていない画像ファイル30に顔位置要求フラグ“OFF”を付加する(ステップk9)。その後、画像ファイル送信処理部243は、送信する画像ファイル30を無線通信部19を介して相手カメラ1に一括送信する処理を行う(ステップk10)。そして、データ送受信処理部204は、受信完了通知を受信するまで待機状態となる。  On the other hand, if there is an
  例えば予め設定される所定時間が経過するまでの間に相手カメラ1からの受信完了通知を受信しない場合には(ステップk11:No)、データ送受信処理部204は、画像ファイル30の送信に失敗したと判定し、警告報知処理を行う(ステップk13)。例えば、データ送受信処理部204は、図13のステップe9と同様に、相手カメラ1に対する画像ファイル30の送信に失敗した旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。  For example, when the reception completion notification from the counterpart camera 1 is not received before a predetermined time elapses (step k11: No), the data transmission /
  また、通信履歴一覧更新部242が、送信対象の画像ファイル30の通信履歴一覧36の中から、ステップk3の送信判定処理において今回追加した通信履歴データ360を削除して画像ファイル30を更新する(ステップk15)。複数の画像ファイル30に通信履歴データ360を追加した場合には、各画像ファイル30それぞれからその追加した通信履歴データ360を削除する。その後、図17のステップi23にリターンし、ステップi25に移る。  Further, the communication history
一方、相手カメラ1からの受信完了通知を受信した場合には(ステップk11:Yes)、さらに、相手カメラ1からの顔位置データの受信を待機する。例えば予め設定される所定時間が経過するまでの間に相手カメラ1から顔位置データを受信しない場合には(ステップk17:No)、図11のステップc19にリターンしてステップc25に移る。 On the other hand, when the reception completion notification from the counterpart camera 1 is received (step k11: Yes), the reception of the face position data from the counterpart camera 1 is awaited. For example, when face position data is not received from the counterpart camera 1 until a predetermined time has elapsed (step k17: No), the process returns to step c19 in FIG. 11 and proceeds to step c25.
そして、顔位置データを受信した場合には(ステップk17:Yes)、受信した顔位置データ毎にループCの処理を行う(ステップk19〜ステップk23)。すなわち、各顔位置データそれぞれについて顔/機器対応付け処理を行う(ステップk21)。この顔/機器対応付け処理は、図15に示した処理手順と同様にして行う。受信した全ての顔位置データについてループCの処理(すなわち顔/機器対応付け処理)を行ったならば、図11のステップc19にリターンしてステップc25に移る。 When the face position data is received (step k17: Yes), the process of loop C is performed for each received face position data (step k19 to step k23). That is, face / device association processing is performed for each face position data (step k21). This face / device association processing is performed in the same manner as the processing procedure shown in FIG. If loop C processing (that is, face / device association processing) has been performed for all received face position data, the process returns to step c19 in FIG. 11 and proceeds to step c25.
そして、ステップi25では、制御部20が再生モードの終了判定を行い、終了する場合には(ステップi25:Yes)、ステップi27に移る。再生モードを終了しない場合には(ステップi25:No)、ステップi5に戻る。 In step i25, the control unit 20 determines whether or not to end the reproduction mode. When the control unit 20 ends (step i25: Yes), the process proceeds to step i27. If the playback mode is not terminated (step i25: No), the process returns to step i5.
  そして、ステップi27では、制御部20は、無線通信部19を停止状態(OFF)にする。なお、このときに無線通信部19による通信が実行中でなければ、特に処理を行わない。そして、再生モード処理を終えて図10のステップb7にリターンしてステップb9に移る。  In step i27, the control unit 20 puts the
  以上説明したように、本実施の形態によれば、相手カメラ1に人物の顔が映る撮影人物画像の画像ファイル30を送信した場合であって、相手カメラ1から顔位置データを受信した場合に、受信した顔位置データをもとに送信した撮影人物画像中の顔を特定することができる。そして、特定した顔の人物を相手カメラ1の所有者として登録することができる。ここで、顔位置データは、画像ファイル30を受信した相手カメラ1がその画像データ中で自機ユーザと認識した顔(すなわち、相手カメラ1のユーザの顔)の顔位置を含む。  As described above, according to the present embodiment, when the
  また、撮影人物画像の画像データ33を確認表示または再生表示する際、画像データ33中の顔のうち、既にその顔の人物が所有する外部機器(他のデジタルカメラ1)にその画像データ(実際には画像ファイル30)が送信されている送信済みの顔の近傍位置に、送信済みを示す送信済マークを合成する処理を行って表示部15に表示処理することができる。  In addition, when the
一方、相手カメラ1から顔位置要求フラグ“ON”が付加された画像ファイルを受信した場合であって、人物認識部121によってその画像データ中に映る自機ユーザの顔が認識された場合に、その顔位置を画像IDと対応付けた顔位置データを相手カメラ1に送信処理することができる。 On the other hand, when an image file to which the face position request flag “ON” is added is received from the counterpart camera 1 and the face of the user of the user reflected in the image data is recognized by the person recognition unit 121, The face position data in which the face position is associated with the image ID can be transmitted to the counterpart camera 1.
したがって、ユーザは、画像データ中の顔の人物が所有する他のデジタルカメラ1にその画像データを送信済みか否かを確認することができる。これによれば、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減することができるという効果を奏する。 Therefore, the user can confirm whether or not the image data has already been transmitted to the other digital camera 1 owned by the face person in the image data. According to this, it is possible to reduce the waste of redundantly transmitting the same content data to the same external device.
なお、上記した実施の形態では、撮影人物画像に映る顔のうち、その人物が所有する外部機器にその画像データがすでに送信されている送信済みの顔の近傍位置に、送信済マークを付して送信済みの顔を識別表示する場合について説明したが、これに限定されるものではない。 In the above-described embodiment, among the faces shown in the photographed person image, a transmitted mark is added to a position near the transmitted face where the image data has already been transmitted to the external device owned by the person. Although the case where the transmitted face is identified and displayed has been described, the present invention is not limited to this.
(変形例1)
  図20は、変形例1における撮影人物画像の表示画面例を示す図である。変形例1では、図20に示すように、撮影人物画像を確認表示または再生表示する際に表示画面を2分割する。上側の画像表示画面W21には、撮影人物画像が表示される。一方、下側のサムネイル表示画面W23には、画像表示画面W21に表示されている撮影人物画像に映る顔のうち、その画像データが送信済みである顔のサムネイルS21,S23が表示される。この場合の内部処理としては、例えば先ず、制御部20が、撮影人物画像送信情報175から、撮影人物画像の画像IDに対応する顔番号のうちの画像送信フラグが“ON”である顔番号を読み出し、該当する顔データ350から顔位置を読み出す。そして、ここで読み出された顔位置をもとに、画像処理部12が、画像データ33から顔領域を切り出す処理を行う。その後、制御部20が、顔領域をサムネイル画面W23においてサムネイル表示する処理を行う。(Modification 1)
 FIG. 20 is a diagram illustrating a display screen example of a photographed person image in the first modification. In the first modification, as shown in FIG. 20, the display screen is divided into two when the photographed person image is displayed for confirmation or reproduction. The photographed person image is displayed on the upper image display screen W21. On the other hand, on the lower thumbnail display screen W23, thumbnails S21 and S23 of faces whose image data have already been transmitted among the faces appearing in the photographed person image displayed on the image display screen W21 are displayed. As internal processing in this case, for example, first, the control unit 20 selects a face number for which the image transmission flag is “ON” among the face numbers corresponding to the image ID of the photographed person image from the photographed person
  なお、相手機器データ取得処理部202が相手カメラ1から機器データを取得する際に、その相手カメラ1を所有している所有者の名前といった所有者データを機器データとともに取得する構成としてもよい。あるいは、自機データ171として、自機の所有者データをさらに記録しておくこととし、相手カメラ1から通知された機器データ送信要求に応答し、機器データとともに所有者データを相手カメラ1に送信する構成としてもよい。この場合には、制御部20は、サムネイル表示画面W23において送信済みの顔の顔領域をサムネイル表示する際、併せて所有者データをテキスト表示する処理を行う。  Note that when the counterpart device data
(変形例2)
  また、変形例1では、サムネイル表示画面W23において、送信済みの顔をサムネイル表示することとした。これに対し、未送信の顔をサムネイル表示することとしてもよい。図21は、変形例2における撮影人物画像の表示画面例を示す図である。変形例2では、図21に示すように、撮影人物画像を確認表示または再生表示する際、表示画面を、図20に例示した表示画面と同様に2分割する。上側の画像表示画面W31には、撮影人物画像が表示される。一方、下側のサムネイル表示画面W33には、画像表示画面W31に表示されている撮影人物画像に映る顔のうち、その画像データが未送信である顔のサムネイルS31が表示される。この場合の内部処理としては、例えば先ず、制御部20が、撮影人物画像送信情報175から、撮影人物画像の画像IDに対応する顔番号のうちの画像送信フラグが“OFF”である顔番号を読み出し、該当する顔データ350から顔位置を読み出す。そして、ここで読み出された顔位置をもとに、画像処理部12が、画像データ33から顔領域を切り出す処理を行う。その後、制御部20が、顔領域をサムネイル画面W33においてサムネイル表示する処理を行う。(Modification 2)
 In the first modification, the transmitted face is displayed as a thumbnail on the thumbnail display screen W23. On the other hand, untransmitted faces may be displayed as thumbnails. FIG. 21 is a diagram illustrating a display screen example of a photographed person image in the second modification. In the second modification, as shown in FIG. 21, when the photographed person image is displayed for confirmation or reproduction, the display screen is divided into two as in the display screen illustrated in FIG. The photographed person image is displayed on the upper image display screen W31. On the other hand, the lower thumbnail display screen W33 displays a thumbnail S31 of a face whose image data has not been transmitted among the faces shown in the photographed person image displayed on the image display screen W31. As internal processing in this case, for example, first, the control unit 20 selects a face number whose image transmission flag is “OFF” from the face number corresponding to the image ID of the photographed person image from the photographed person
(変形例3)
  また、相手カメラ1から顔位置データを受信しない場合や、撮影人物画像顔以外の顔を含まない画像の画像ファイル30を相手カメラ1に送信した場合に、その相手カメラ1から取得した機器データが顔/機器対応テーブル177に設定されている場合に、対応する顔画像データを今回画像ファイル30を送信した送信先の外部機器の所有者の顔として提示するようにしてもよい。(Modification 3)
 Further, when face position data is not received from the counterpart camera 1 or when an
  図22は、変形例3におけるデータ送信処理の詳細な処理手順を示すフローチャートである。なお、図22において、上記した実施の形態と同様の処理工程については、同一の符号を付する。変形例3では、図22に示すように、相手カメラ1から顔位置データを受信しない場合に(ステップe13:No)、続いて制御部20が、顔/機器対応テーブル177に相手カメラ1の機器データが設定されているか否かを判定する。ここで、顔/機器対応テーブル177に相手カメラ1の機器データが設定されているということは、過去に相手カメラ1に撮影人物画像を送信し、これに応答して相手カメラ1から顔位置データを受信しており、デジタルカメラ1において相手カメラ1の所有者の顔が既に登録されていることを示している。そこで、制御部20は、顔/機器対応テーブル177に相手カメラ1の機器データが設定されている場合には(ステップl17:Yes)、制御部20は、送信した画像データ33とともに、顔/機器対応テーブル177に相手カメラ1の機器データと対応付けられて設定されている顔画像データを表示部15に確認表示する処理を行う(ステップl19)。一方、顔/機器対応テーブル177に相手カメラ1の機器データが設定されていなければ(ステップl17:No)、制御部20は、送信した画像データ33を表示部15に確認表示する処理を行う(ステップl21)。  FIG. 22 is a flowchart showing a detailed processing procedure of data transmission processing in the third modification. In FIG. 22, the same reference numerals are assigned to the same processing steps as those in the above-described embodiment. In Modification 3, as shown in FIG. 22, when face position data is not received from the counterpart camera 1 (step e13: No), the control unit 20 subsequently stores the device of the counterpart camera 1 in the face / device correspondence table 177. It is determined whether data is set. Here, the fact that the device data of the partner camera 1 is set in the face / device correspondence table 177 means that a photographed person image has been transmitted to the partner camera 1 in the past, and in response to this, face position data is sent from the partner camera 1. The digital camera 1 indicates that the face of the owner of the counterpart camera 1 has already been registered. Therefore, when the device data of the counterpart camera 1 is set in the face / device correspondence table 177 (step l17: Yes), the control unit 20 includes the transmitted
  図23は、ステップl19で行われる画像データ33の確認表示の際の表示画面例を示す図である。変形例3では、図23に示すように、今回相手カメラ1に送信した画像を確認表示する際、表示画面を、図20や図21に例示した表示画面と同様に2分割する。上側の画像表示画面W41には、送信した画像が表示される。図23では、人物を含まない風景を撮影した画像が表示されている。一方、下側のサムネイル表示画面W43には、送信先の相手カメラ1を所有する所有者の顔のサムネイルS41(すなわち、顔/機器対応テーブル177に相手カメラ1の機器データと対応付けられて設定されている顔画像データ)が表示される。  FIG. 23 is a diagram showing an example of a display screen at the time of confirmation display of the
  このように、本変形例3によれば、一旦外部機器(他のデジタルカメラ1)の所有者として顔/機器対応テーブル177に顔画像データが登録されれば、その後にそのデジタルカメラ1を相手カメラ1として通信を行い、画像ファイル30を送信した場合に、相手カメラ1のユーザの顔を画面表示することができる。  As described above, according to the third modification, once face image data is registered in the face / device correspondence table 177 as an owner of an external device (another digital camera 1), the digital camera 1 is then used as a partner. When communication is performed as the camera 1 and the
  また、上記した実施の形態では、他のデジタルカメラ1を通信相手として画像ファイル30を送受信する場合について説明したが、通信相手の外部機器は特に限定されない。図24は、デジタルカメラ1が、パソコン(ノートパソコン)90を通信相手として通信を行う様子を示した図である。ここで、パソコン90は、デジタルカメラ1の無線通信部19との間で通信が可能な無線通信部901を内蔵している。この無線通信部901は、そのアンテナがキーボード面側に配置されるように配置される。そして、デジタルカメラ1とパソコン90とが近づけられて無線通信部19と無線通信部901とが互いに通信可能圏内に近接されると、それぞれの間で通信が確立するようになっている。このようにパソコン等の外部機器を通信相手とする場合(送信先とする場合)には、デジタルカメラ1からの機器データ送信要求の通知に応答し、その外部機器が図16のデータ受信処理を行うように構成すればよい。  In the above-described embodiment, a case has been described in which the
また、上記した実施の形態では、本発明の携帯機器の一例としてデジタルカメラを例にとって説明したが、カメラ機能付きの携帯電話機やゲーム機、音楽プレーヤ、録音装置、ノートパソコン等、外部機器との間でデータの送受信が可能な他の携帯機器に適用できる。 In the above-described embodiment, a digital camera has been described as an example of the mobile device of the present invention. However, the mobile device with a camera function, a game machine, a music player, a recording device, a laptop computer, etc. It can be applied to other portable devices that can send and receive data between them.
以上のように、本発明の携帯機器は、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減するのに適している。 As described above, the portable device of the present invention is suitable for reducing waste of redundantly transmitting the same content data to the same external device.
  1      デジタルカメラ
  3      カメラ本体
  4      撮像レンズ
  5      レリーズスイッチ
  7      ボタンスイッチ
  11      撮像部
  12      画像処理部
  121      人物認識部
  123      顔画像処理部
  13      顔検出部
  14      操作部
  15      表示部
  16      時計部
  17      記録部
  171      自機データ(機器ID,自機顔データ)
  173      画像情報
  30      画像ファイル
  175      撮影人物画像送信情報
  177      顔/機器対応テーブル
  18      一時記録部
  181      通信履歴仮データ
  19      無線通信部
  191      アンテナ
  20      制御部
  201      撮影人物画像登録処理部
  202      相手機器データ取得処理部
  203      通信履歴仮記録処理部
  204      データ送受信処理部
  241      送信判定部
  242      通信履歴一覧更新部
  243      画像ファイル送信処理部
  244      自機顔判定部
  205      顔/機器対応付け処理部DESCRIPTION OF SYMBOLS 1 Digital camera 3 Camera body 4
 173
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP2009072415AJP5331532B2 (en) | 2009-03-24 | 2009-03-24 | Portable device | 
| CN201210244282.0ACN102769733B (en) | 2009-03-24 | 2010-03-11 | Portable equipment | 
| CN2010101216024ACN101848324B (en) | 2009-03-24 | 2010-03-11 | Portable device | 
| CN201210244285.4ACN102769734B (en) | 2009-03-24 | 2010-03-11 | Portable equipment | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP2009072415AJP5331532B2 (en) | 2009-03-24 | 2009-03-24 | Portable device | 
| Publication Number | Publication Date | 
|---|---|
| JP2010226498Atrue JP2010226498A (en) | 2010-10-07 | 
| JP5331532B2 JP5331532B2 (en) | 2013-10-30 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| JP2009072415AExpired - Fee RelatedJP5331532B2 (en) | 2009-03-24 | 2009-03-24 | Portable device | 
| Country | Link | 
|---|---|
| JP (1) | JP5331532B2 (en) | 
| CN (3) | CN102769734B (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2012165119A (en)* | 2011-02-04 | 2012-08-30 | Canon Inc | Image recording device, information processing device, control method therefor, and program therefor | 
| JP2012165050A (en)* | 2011-02-03 | 2012-08-30 | Canon Inc | Video recording device and information processing device | 
| CN105162972A (en)* | 2011-07-05 | 2015-12-16 | 宏达国际电子股份有限公司 | Wireless service providing method | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| CN103591894B (en)* | 2013-11-05 | 2017-07-11 | 广东欧珀移动通信有限公司 | The method and apparatus of object length is measured by camera | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2006293912A (en)* | 2005-04-14 | 2006-10-26 | Toshiba Corp | Information display system, information display method, and portable terminal device | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2004201191A (en)* | 2002-12-20 | 2004-07-15 | Nec Corp | Image processing transmission system, mobile phone, image processing transmission method, and image processing transmission program | 
| JP4103683B2 (en)* | 2003-05-29 | 2008-06-18 | カシオ計算機株式会社 | Captured image transmitting apparatus and program | 
| JPWO2005022902A1 (en)* | 2003-09-01 | 2006-11-02 | 松下電器産業株式会社 | Camera with transmission function and mobile phone, image data acquisition and transmission program | 
| JP4419759B2 (en)* | 2004-09-01 | 2010-02-24 | 株式会社ニコン | Electronic camera system | 
| JP4522344B2 (en)* | 2004-11-09 | 2010-08-11 | キヤノン株式会社 | Imaging apparatus, control method thereof, and program thereof | 
| JP4315148B2 (en)* | 2005-11-25 | 2009-08-19 | 株式会社ニコン | Electronic camera | 
| JP5273998B2 (en)* | 2007-12-07 | 2013-08-28 | キヤノン株式会社 | Imaging apparatus, control method thereof, and program | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2006293912A (en)* | 2005-04-14 | 2006-10-26 | Toshiba Corp | Information display system, information display method, and portable terminal device | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2012165050A (en)* | 2011-02-03 | 2012-08-30 | Canon Inc | Video recording device and information processing device | 
| JP2012165119A (en)* | 2011-02-04 | 2012-08-30 | Canon Inc | Image recording device, information processing device, control method therefor, and program therefor | 
| CN105162972A (en)* | 2011-07-05 | 2015-12-16 | 宏达国际电子股份有限公司 | Wireless service providing method | 
| CN105162972B (en)* | 2011-07-05 | 2018-07-06 | 宏达国际电子股份有限公司 | Wireless service providing method | 
| Publication number | Publication date | 
|---|---|
| CN102769733A (en) | 2012-11-07 | 
| CN101848324A (en) | 2010-09-29 | 
| JP5331532B2 (en) | 2013-10-30 | 
| CN102769733B (en) | 2015-07-08 | 
| CN101848324B (en) | 2012-09-05 | 
| CN102769734B (en) | 2015-04-15 | 
| CN102769734A (en) | 2012-11-07 | 
| Publication | Publication Date | Title | 
|---|---|---|
| JP5110805B2 (en) | Communication terminal, communication method and program capable of wired and wireless communication | |
| JP5369974B2 (en) | Imaging apparatus and image sharing system | |
| CN110708466A (en) | Electronic device and imaging method for electronic device | |
| US9344631B2 (en) | Method, system and apparatus for selecting an image captured on an image capture device | |
| JP5331532B2 (en) | Portable device | |
| JP2003046707A (en) | Imaging device, information processing device and control method thereof, image processing device and method, and image processing system | |
| US10178250B2 (en) | Cooperation system, information processing apparatus, cooperation method and non-transitory computer-readable recording medium encoded with cooperation program | |
| JP6529852B2 (en) | Information acquisition apparatus, information acquisition system including the same, control method of information acquisition apparatus, and program for information acquisition apparatus | |
| JP2018136702A (en) | Communication device and control method thereof, program and recording medium | |
| JP2005123817A (en) | Mobile communication terminal | |
| JP2011172089A (en) | Electronic apparatus | |
| JP5246592B2 (en) | Information processing terminal, information processing method, and information processing program | |
| JP2005252457A (en) | Image transmission system, apparatus and method | |
| JP6426969B2 (en) | Imaging device, control method therefor, system, and program | |
| JP2018006997A (en) | Communication device, method for controlling the same, system, program, and storage medium | |
| JP5754500B2 (en) | Electronic devices and programs for electronic devices | |
| JP5448913B2 (en) | Electronic devices and programs for electronic devices | |
| JP5473034B2 (en) | Terminal device and program | |
| JP2023052626A (en) | Electronic apparatus | |
| JP5218987B2 (en) | Terminal device and program | |
| JP5644976B2 (en) | Electronic device and program for electronic device | |
| CN119893268A (en) | Data processing method, device and storage medium | |
| JP5644932B2 (en) | Electronics | |
| JP2010213241A (en) | Portable device | |
| JP2011188209A (en) | Portable apparatus and photographing device | 
| Date | Code | Title | Description | 
|---|---|---|---|
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20111214 | |
| A977 | Report on retrieval | Free format text:JAPANESE INTERMEDIATE CODE: A971007 Effective date:20121225 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20130115 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20130228 | |
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20130709 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20130729 | |
| R151 | Written notification of patent or utility model registration | Ref document number:5331532 Country of ref document:JP Free format text:JAPANESE INTERMEDIATE CODE: R151 | |
| S111 | Request for change of ownership or part of ownership | Free format text:JAPANESE INTERMEDIATE CODE: R313111 | |
| R350 | Written notification of registration of transfer | Free format text:JAPANESE INTERMEDIATE CODE: R350 | |
| S531 | Written request for registration of change of domicile | Free format text:JAPANESE INTERMEDIATE CODE: R313531 | |
| R350 | Written notification of registration of transfer | Free format text:JAPANESE INTERMEDIATE CODE: R350 | |
| LAPS | Cancellation because of no payment of annual fees |