【発明の詳細な説明】 通常射撃もしくは模擬射撃のための着弾位置マーカー 本発明は、請求の範囲第1項の序文で得られるタイプの着弾位置マーカーに関する。特に、本発明は、散弾銃や同様の武器で動いているターゲットを狙うターゲット射撃の結果を入力し、算出し、表示するための装置に関する。着弾位置マーカーは、小火器からの動いているターゲットに対する通常射撃または模擬射撃を目的とし、小火器に対するターゲットの実際の位置を推測するユニットを有するセンサ部と、発砲検出器とからなる。技術分野 クレイピジョンに対する散弾銃射撃、例えばスキート射撃およびトラップ射撃では、クレイピジョンの破壊が視認されることでヒットが分かる。さらに、クレイピジョンがいかに強烈に砕けたかによってヒットの質をいくらかは判断することも可能であるとしても、良くないヒットやミスの場合は、着弾位置の正確な認識、すなわちターゲットと散弾の絞りとの角度距離、および弾丸が通過したのはターゲットの上か下か、左側か右側かを得るのは困難である。 散弾銃射撃訓練の可能性は、環境上の理由で、住居地から離れたところに設けられるシューティングレンジの利用可能性によって限られてしまう。限られたシューティングタイムについての規定など、他の制約もまた訓練の可能性を制限してしまう。 これらの条件は、一方では、(従来の)散弾銃射撃では着弾位置を示す助けが必要とされ、もう一方では、模擬化された条件下の、すなわち実弾が発射されない散弾銃射撃のトレーニングシステムが必要とされている。関連技術の説明 小火器で射撃を実行する可能性を改善するために、模擬射撃のためのシステムが数多く提案され、そのうちのひとつは米国特許第5,194,006号に記載されている。このシステムは、小火器付きのシミュレータ内で射撃訓練が行えるようにしている。このシミュレータでは、ターゲットの映像は投影スクリーンに映し出され、射手は、ガンシミュレータで投影されたターゲットに向かって発砲する。システムは、ターゲットと仮想距離との角速度に関して着弾位置を算出する。システムは、実際のターゲットに対する実践射撃に使用することはできない。 米国特許第3,798,795号に記載されたものなど、数多くの既知のシステムには、弾道発射体を用いて実際に動いているターゲットを射撃した場合の射撃結果を推測するものが知られている。このタイプのシステムの必要部分は、距離測定機能である。このシステムにおいて、ターゲットの垂直および水平位置を入力するために(テレビ)カメラが使用され、ターゲット上のトランスポンダによって反射された無線信号の遅延時間間隔を測定することによって距離が決定される。距離を測定するこの方法は、クレイピジョン射撃には適さない。 弾丸が発射された後の評価と同様の方法で、発砲される前に、適切な照準の方向を決定しなければならない発砲制御システムでは、ターゲットの距離を決定しなければならない。米国特許第4,922,801号では、銃身が射手によって向けられる武器の発砲制御システムが記述され、「見込み」ターゲットの位置を算出することで照準の際の射手を助けるものである。見込みターゲットの位置は、ターゲットの角速度と距離および発射体の遅延時間間隔に関し算出され、射手がヒットを得るために狙いをつける照準点の形状で示される。ターゲットまでの距離は、テレビ映像上のターゲットの見かけ上のサイズから算出される。このシステムの目的は、発砲制御であり、射撃の結果を評価するものではない。 英国のパワーコン(UK)社は、特別に製造されたクレイピジョンに対する模擬射撃に用いられるレーザスポットクレイピジョンシューティングシステムと呼ばれるシステムを販売している。ヒットやミスを検出するために、散弾の絞りの幅に対応する寸法の赤外線ビームがガンシミュレータから送られる。ターゲットから反射された光は、「弾丸」がヒットかミスかを決定するために使用される。システムは、ずらし照準(aiming off)を考慮せず、弾丸の速度が光の速度に等しいかのようにヒットを検出する。これは、システムが散弾銃でのクレイピジョン射撃の状況を正確にシミュレートしていないことを意味する。よって、ずらし照準を必要とするクレイピジョン射撃のための使用可能な訓練の助けにはならない。本発明の目的 本発明の目的は、散弾銃射撃および動いているターゲットを狙う同様の射撃、上述のすべてのクレイピジョン射撃において、ターゲットの方向に関して発射された弾丸の着弾位置を算出し、表示する着弾位置マーカーを製作することである。これによって射手がミス照準の寸法および方向の感覚がつかめる。 本発明によるマーカーの別の目的は、動いているターゲットを狙う散弾銃射撃のシミュレーションで射撃訓練が行えるようにすることである。武器が発射されないという違い以外は散弾銃を用いる実際の射撃と同じ条件で模擬射撃が行える。これは、射撃が通常の方法で放出されたクレイピジョンを狙って行え、かつ、射手自身の武器で射撃できることを意味する。 本発明によるマーカーのさらに別の目的は、映像投影機を用いることによって動いているターゲットが示される投影スクリーンに対する模擬射撃を許容することである。 本発明の別の目的は、一方では、仮想ターゲットを狙う射撃に使用することができ、かつ、改造することなく、実際のクレイピジョンを狙う射撃にも使用可能なマーカーを製作することである。したがって、マーカーは、実弾で射撃する際にも、また散弾銃射撃または同様の射撃の模擬実践射撃の形態での射撃訓練にも使用できる。 本発明のさらに別の目的は、狙いが正しい方向であるか正しくない方向であるかを音響信号によって射手を手助けすることである。 さらに別の目的は、銃口が正確な照準点近くに移動された場合、発砲の正しい時点での発砲ができるよう音響的にもしくは光学的に射手を助けることを容易にすることである。 上記の目的のほとんどは、請求の範囲第1項の特徴部分によって解決される。本発明によるマーカーの更なる改良点および更なる特徴は従属クレームで提供される。 動いているターゲットに対する小火器からの通常射撃または模擬射撃のための着弾位置マーカーは、小火器およびその照準方向に対するターゲットの方向および距離を決定するためのビデオカメラなどの映像記録装置からなる。 映像記録装置は、小火器の照準線と平行に向けられた光学軸を有する。回転測定ユニット、すなわちジャイロスコープは、互いに対してある角度で少なくとも2つの面において映像記録装置の照準線の回転を測定するもので、小火器の視覚ラインと一致するまたは平行な同一のラインを有する。映像記録装置および回転測定ユニットからの出力信号は、ターゲットに対する距離および方向と、ずらし照準の必要な校正に関連してヒットを得るであろう照準点とを計算する評価ユニットに入力される。測定の結果は、表示ユニットに表示される。 システムは基本的に3つの違った方法で使用される。・実際の動いているターゲットに対する使用。これは実弾を用いた発砲である。・模擬射撃に関連する実際の動いているターゲットに対する使用。すなわち実弾を使用しない照準および発砲のを訓練。・投影機によって動いているターゲットが表示される投影スクリーンに対する模擬射撃における使用。本発明の利点 実際の射撃の際において着弾位置マーカーは、正しい照準点を見つけ、照準および発砲の際の誤りを理解するための助けとなる。 シミュレータとして使用される場合、着弾位置マーカーは、低コストで有効かつ集中的な射撃訓練を、通常の射撃場および訓練射撃が許容されていない場所においても、行えるようにするトレーニングツールである。 実弾と関連して使用される場合、射撃の際にとった誤り、たとえばずらし照準のミスについてのより良い情報を射手が得ることによって、訓練の価値が上がる。 模擬訓練射撃のシステムを使用すれば、射撃訓練が不可能な場所および時間に訓練が行える。助けのない従来のクレイピジョン射撃と比較すると、実際のクレイピジョンに対する模擬射撃および投影スクリーン上のターゲットに対する模擬射撃は、一方で、発砲の際の銃口の誤った照準、また、正しい照準を示す音響信号、もう一方で、発砲がミスであった場合も着弾位置を示すことによって、より良い訓練効果を得ることができる。最後に、消耗材料のコストを相当減らすことによって低コストで模擬訓練が行える。 システムは、まず第一に、クレイピジョン射撃、たとえばスキートおよびトラップ射撃を目的としている。システムは、特別な表面コーティングを施すことなく通常設計のクレイピジョンに対する射撃および模擬射撃に使用できる。模擬射撃では、通常のクレイピジョンよりもより固い材料のクレイピジョンであり、再利用可能に使用できる。 投影スクリーンに向かう模擬訓練においては、投影用の機器以外に特別な装置は不要である。投影用の機器における条件は、その位置と、画像内のターゲットのサイズが距離を計算するために用いられる程度に、サイズとが着弾位置マーカーの映像記録装置によって決定されるように、十分なコントラストと鮮鋭度が提供されることである。投影機の映像表現周波数とカメラのイメージ周波数との間に干渉の危険がある場合、投影機とカメラとを同期させる必要もある。 実際のクレイピジョンの使用に関する訓練において、システムは、昼光および周囲の明かりの乏しい条件両方において使用できる。後者の場合、まずシミュレータとしてシステムの使用が要求される場合、ターゲットは積極的に照射される。干渉に対する感度を最小とするために、この場合、再帰反射表面被覆を施したターゲットを使用することが適切である。 地上の可動ターゲットに対する散弾銃射撃の模擬射撃では、クレイピジョンは、適切なサイズの対応するターゲット表面およびターゲットの中心に施された表面コーティングで置換可能である。図面の簡単な説明 添付の図面のガイダンスとともに例を用いて本発明をさらに詳しく説明する。第1図は、本発明に係る完全な装置の実施例のブロック図を示す。第2図は、本発明の実施例の詳細なブロック図を示す。第3図は、着弾位置を算出する実施例のブロック図を示す。図面の詳細な説明 第1図および第2図を参照すると、本発明に係る着弾マーク付け装置は、武器1の前方のターゲット領域15にあるターゲット8上の着弾位置を分析する測定システムと、弾丸の着弾位置を表示する手段とからなる。機械的な設計は、武器1にマウントされたセンサ部2と、センサ部2とは接続されているが物理的には離された評価ユニット13とからなる。着弾位置の計算の結果を通信するために、選択された設計によって武器に関する物理的配置をかえることができる着弾位置インジケータ4が設けられる。センサ部2および着弾位置インジケータ4の詳細は以下に説明される。 センサ部2および評価ユニット13の別体化の必要性は、武器1に付けられた部分、すなわちセンサ部をできる限り軽くしたいという要請によって決定される。しかしながら、評価ユニット13の重量は、それほど重くなく、必要であれば、例えばベルトに装着するなど、ユーザが持てるような重さである。 着弾位置インジケータ4の設計について次のような多くの選択肢が考えられる。* 評価ユニットに組み込まれたインジケータに図形/数値での表示;* 合成音声によって着弾位置についての情報を与える音響表示;* 照準の際に得られた視覚的印象に重ねられる映像を生成するヘッドアップディスプレイ。 これらの実施例を組み合わせることは着想可能であり、視覚と聴覚の両方を同時に使用するのは適切である。 模擬射撃の際にリアリティを感じる度合いを増すために、システムは、発砲の際の銃声などの音響効果を生成するための手段およびリコイルをシミュレートする手段を含む。 銃声は発砲の際の音を生成するサウンドジェネレータによってシミュレートされてもよい。 リコイルは、武器もしくは肩と接触する肩付け部(バット)をちょうど実弾を発射した際のように後方に移動させるようにする装置(図示せず)によってシミュレートされてもよい。 照準の際に、武器がヒットを得るための正確な照準点に向かって狙いが付けられたか否かを表示し、また実際の照準点と正確な照準点との距離と方向についての情報を含む音響フィードバック信号を、以下「ヒット信号」と呼ぶ。(ヒットするための)正確な照準方向と実際の照準方向との角距離のサイズと方向についての情報を含むヒット信号の部分を、以下「照準信号」と呼び、適切な発砲時点に関するヒット信号の部分を、以下「発砲信号」と呼ぶ。照準信号は、適切な立体音響であり、サウンドによってヒットが得られる照準点と実際の照準方向との相対距離を決定することができるように調節されている。立体音響サウンドには2つの音源が必要であり、よって、概略的に6で示されるようにヘッドフォンを用いることが適切である。発砲信号は、適切な照準点に到達する直前に発する断続的信号である。発砲信号と適切な時間との間隔を受け入れ、射手の反応時間に対応することによって、射手は、適切なずらし照準を選択するための助けを受け、連続的にずらし照準を増加させながら発砲信号を聞いたときに発砲する。 着弾位置を表示するためのヘッドアップディスプレイは、図形情報が視覚的感覚と重なることが可能な、等倍率のテレスコピックサイトのように設計されても良い。 システムがインドアあるいは周囲の明かりの乏しい場所での実際のクレイピジョンを狙う射撃に用いられる場合、バックグラウンドに対して十分に大きなコントラストを与えるようにターゲット領域のアクティブな照明7が必要である。この照明7は、第1図に示されるように、武器またはセンサ部、あるいは射手の一方の側の固定された位置に設けられても良い。ターゲット材 着弾位置は、バックグラウンドに対して十分に高いコントラストを持ってカメラによって映像化されたターゲットに基づき、サイズを決定できる以下の方法1に従った距離測定方法によって計算される。これは、投影スクリーンに示された撮影または合成されたものに関しても実際のクレイピジョンにもある程度同じことが言える。ターゲット8は、まず第1に、国際競技に適用されるUITの一般的および特別規則に従ったクレイピジョンである。クレイピジョンの直径は110mmであり、高さは25乃至26mmである。種々のカラーが許容されており、そのうちのひとつはオレンジ−レッドで、やや蛍光色である。青色部分のスペクトルの晴れたまたは曇った空に対してクレイピジョンを再現する場合、通常このカラーは着弾位置を算出するために十分なコントラストを提供できる。そのようなカラーで通常に設計されたクレイピジョンは、システムが実際の射撃と関連して使用される場合に用いられるものである。同じタイプのターゲットが模擬射撃に使用されない理由はない。このタイプのクレイピジョンの消耗(クレイピジョンは着地時によく割れる)のコストを下げるために、衝撃抵抗度の高い材料で製造され、かつ、通常のクレイピジョンと同様の性質を有するクレイピジョンを再利用を許容するために用いてもよい。電源 野外で使用する場合、電源はバッテリ(図示せず)によって適切に得られてもよい。これによって、システムは、全体的にそれだけで使用可能であり、電源ケーブルの邪魔なく運ばれる。第2図 第2図から明らかなように、図示された実施例によれば、着弾位置は、一般的にセンサ部2の次の3つの手段から収集されたデータに基づいて算出される。* 武器前方のターゲット領域の映像を連続して生成するカメラ10* 武器の動きを記録する好ましくは二軸ジャイロスコープ11* 発砲を記録する発砲検出器12受信したデータの処理および着弾位置の算出は、好ましくは評価ユニット13で行われる。カメラ10 カメラ10は、カメラの光芯軸14が武器の銃口の方向と平行となるようにセンサ部2に設置される。カメラは、ターゲット領域15の映像を連続して生成する機能を有する。カメラからの情報は、評価ユニット13に電気的に伝送される。カメラの焦点距離は、スキートおよびトラップ射撃における通常の射撃の際のすべてのヒットが検出されるようなサイズ9を視界が有するように寸法決めされる。この場合、5度以上の最大限のずらし照準は、視界の決定寸法である。この場合、視界の対応サイズは、2×5度=10度である。最大限のずらし照準を用いてミスの際の着弾位置を決定することを可能にするために、視界はより大きく、たとえば15度に作られるのが適切である。 カメラのスペクトル感度は、バックグランドに対して可能な範囲で最も高いコントラストでターゲット8が再現される。イメージ周波数やライン解像度は、以下にさらに詳しく記載される映像処理機能によって設定される必要条件にしたがって選択される。 環境光を変化させるための補正を行うために、システムは、自動露光コントロール機能を備える。自動的に露光時間おそらくは開口を変えると同様に、特に環境における明るい光において、手動または自動で適用されたグレイフィルタが露光時間を変化させるための条件を減らすために使用される。ジャイロスコープ11 ジャイロスコープ11は、好ましくは、縦方向および横方向に対して垂直に向いた2つの面における角速度を連続して測定する。軽量化の必要条件に関してこの適切な設計は、音さジャイロスコープである。発砲検出器12 発砲検出器12は、武器の引き金5が起動されたときを検出する役目を有する。これは、撃鉄および撃針の動きによる振動をピックアップするマイクロフォンの形態が可能である。信号伝達 センサ部2が他のユニットから物理的に分離される程度に、これらユニットの信号の伝達は、ケーブル16を介してまたはテレメトリを介して評価ユニット13に送られる。評価ユニット13 評価ユニット13は、カメラ10、発砲検出器12およびジャイロスコープ11からの信号を受信し、分析する。第一の仕事は、ターゲットを検出し、その方向および距離を算出することである。 映像中のターゲット物体を検出(目標抽出)するための映像処理の2つの適切な実施例について以下に説明する。 まず第一に、以下に「スレショルディング」と称されるものは、映像内で構成される要素の各カラー強度の分析に基づいている。クレイピジョンの適切なカラーは蛍光の赤色である。カメラの適切に選択されたカラー感度で、この色は、通常青や白の空に対して強いコントラストを提供する。この色はまた、このシステムと共に使用するために最も適切であると判断される色のひとつである。 青い光を感知するモノクロカメラは使用可能である。この場合、赤いクレイピジョンは、空に対して暗い物体として視認される。所定のしきい値より下の光のレベルの映像要素を探すことによってターゲットは見つけられる。別のモノクロ色が用いられた場合、評価ユニット13は、その代わりに、所定の光のレベルよりも高い光のレベルの映像要素を探すことによって映像中のターゲットの場所を突き止める。カラーカメラを使用した場合と比べて、モノクロカメラを使用することは、製造コストを易くできるが、側方からの強い太陽光の中でターゲットを再現する際に、特別なフィルタリングにも関わらず、しきい値よりも高い(あるいは低い)強度でターゲットの一部が輪郭付けられてしまう。この場合、映像は、ターゲットの実際の形状に対応したものではなくなる。 少なくとも2つの異なるスペクトル領域、好ましくはひとつは赤でもうひとつは青の領域、を持つカラーカメラは、異なるカラーでのターゲットの写真を結合する可能性によってターゲットの側方から照明を当てている場合にターゲットの形状を正確に決定することについてかなり大きな可能性を提供する。スペクトルの赤の部分において、ターゲットは(青または白)のバックグランドよりも明るく現れる。よってこの場合のスレッショルディングは、ターゲットを示す映像要素を見つけるためにあるしきい値よりも高い強度を有する映像要素またはピクセルについて探索を行うようにして実行される。しかしながら、スペクトルの青の部分においては、別のしきい値よりも低い強度を有する映像要素について探索を行う。この場合、ターゲットの完全な映像は、ターゲットの青または赤の再現または両方からなる多数の映像要素から達成される。 目標抽出の際の探索スペースと、よって計算要求事項を最小するために、銃口の動きと目標の初期位置と次の予想位置とを以下に明白に示すように用いる。 するどい輪郭やコントラストのない均等に照明をあてられたバックグランド、たとえば雲の無い空、に対してターゲットがある場合は、上述の映像処理技術は、高い信頼性でターゲット物体の場所を突き止め、サイズを決定するに十分である。その代わりにバックグランドが模様付けされており、するどいコントラストを有する場合、たとえば空に対して木々やブッシュを再現した場合は、前記方法は、干渉に対して通常十分に大きな感度を得ることができない。 本発明による映像分析についてここで説明される第二の映像処理方法は、上述の方法を補足するものであり、連続した映像間で一時的依存を使用する。カメラのパン撮影の際、バックグランドとターゲットの両方は映像中で動く。ターゲット領域の連続する映像を取り去ることで、バックグランドを除去でき、動いているターゲットは映像中の単一の物体として現れる。この取り去る作業は、ある映像のバックグランドにおけるある点に対応するピクセルが同じ点を表現する次の映像におけるピクセルから取り去られるように行われる。カメラのパン撮影の際に起きるバックグランドの移動は、取り去る作業を行う前の映像を動かすことで補正され、よって2つの映像内のバックグランドは一様とされる。このようにして、銃口についての情報とジャイロ信号から受信される(よってカメラの)動きについての情報とを利用して前記変位のサイズと方向を決定する。 映像を取り去った結果、静止物体は抑えられ、動いているターゲット物体は現れる映像となる。この操作のあと、上記に従った映像分析、すなわちスレッショルディングが、ターゲット物体を検出するために行われる。 単に、パターン認識の助けを借りて、取り去ることで変位を決定する目的で映像情報を用いることに比較して、ジャイロ信号を使用することは、処理能力に必要とされるものをかなり少なくすることができ、これは本発明による方法の利点である。計算ずらし照準 動いているターゲットに対する散弾銃射撃の難しさのひとつは、適切なずらし照準を導くこと、つまり、散弾の絞りがターゲットの通り道に着いた時点にターゲットがそこにあるべき方向に発砲することである。ずらし照準のサイズは、散弾の絞りの移動時間と、ターゲットの明確な角速度とを用いて次の式にしたがって決定される。 Vf=tb×Sm上記式において、 Vf=ずらし照準角度(ラジアン) tb=通過時間(散弾の絞りの移動時間(秒)) Sm=ターゲットの速度(ラジアン/秒) ターゲット8の前方に適切な角度で発射される弾丸によって必要なずらし照準が達成される。経験豊富な射手がずらし照準について最大限の精度を得ようとしてよく用いられるテクニックは、追いつきスイング(オーバーテイキングスイング)付きシューティングと呼ばれるものである。これは、射手が武器の照準線をターゲットの速度より早い角速度でターゲットの経路をたどらせることを意味する。効果的なずらし照準は、1)発砲したときに射手が体験するずらし照準と、2)引き金を引く射手の意識的決定と発砲段階、すなわち弾丸の絞りが銃口から離れる時間との遅れとの合計によって得られる。しかしながら、射撃テクニック、この場合スイング、は変化し、したがって着弾位置の計算は、射撃テクニックに左右されない方法で行わなければならない。着弾位置の計算 着弾位置は、評価ユニットで、発砲時の銃身の方向、すなわち弾丸の方向、および発砲から算出された着弾時間までのターゲットの動きの推定についての情報に基づいて計算される。ターゲットがヒットされるであろう場合は、ターゲットの方向は弾丸の方向を着弾時に横切る。ターゲットの動き 算出された着弾時間におけるターゲットの位置は、発砲後の2つの垂直面両方における移動の推定によって計算される。飛行時、ターゲットは、スタート速度と、スタート方向と、重力加速度と、クレイピジョンの通過角度による空気力学的力との関数である経路をたどる。 ターゲットの動きは、ターゲットの経路が射手を取り巻く大きな円を描き、角速度が通過時間の間一定であると単純に仮定して、推定される。この場合に起き得る計算ミスは微々たるものである。実際の場合の加速度は、重力加速度と空気抵抗による減速、そしてターゲットの経路が大きな円の形状であるという仮定による幾何学的エラーであるが、比較的短い通過時間なため、実際的問題はない。 次の式は、ターゲットの位置が発砲後2つの垂直座標軸のそれぞれについていかにして推定されるかを説明する。 方向ターゲット,着弾時間=方向ターゲット,発砲+Vm×通過時間上記式において、 方向ターゲット,着弾時間=算出された着弾時間におけるターゲットの方向 方向ターゲット,発砲=発砲時のターゲットの方向 Vm=ターゲットの絶対角速度 通過時間=発砲から算出された着弾時間までの散弾の絞りの飛行時間 ターゲットの方向に加えて、ターゲットの絶対角速度が分からなければならない。これは、照準方向に対するターゲットの角速度、すなわちカメラの方向と銃身の角速度との合計として計算される。後者を算出できるようにするために、ジャイロスコープタイプの手段が着弾位置マーカーに含まれる。 着弾位置の計算にさらに必要なものは、特定のタイプの武器と装薬については、距離によって単純に決定できるものである装薬による通過時間の値である。距離は、2つの異なった計算方法が用いられて、評価ユニットによって算出される。計算方法1: 距離を算出する方法は、この方法によると、絶対寸法が知られたターゲットがカメラで映像化される事実に基づいて行われる。カメラの投影面におけるターゲットのサイズは、カメラの光学系についての情報とともに距離を決定するために使用される。計算方法2: 実際のショット際にターゲット領域と射手の位置との特別な座標上の情報が評価ユニットに使用されるように前もって記憶された場合、射撃位置から見たターゲットの角速度と同様にこの情報の関数として距離が計算される。 着弾位置インジケータ4および着信信号ジェネレータ6は、別々の物理的ユニットであってもよいし、評価ユニットに包含されても良い。 発砲後、着弾位置、すなわち、ターゲットと、弾丸がターゲットの通過面を通過する点との間の垂直面と水平面における特別な角距離は、算出され、表示される。着弾位置に加えて、たとえば、弾丸の方向や発砲前のターゲットに関する照準点の動きなど他の測定値もまた表示される。武器内部での遅れや、ターゲットまでの距離、散弾の絞りのターゲットに対する飛行時間(通過時間)、そして通過時間中のターゲットの動きなど、すべての関連要因は着弾位置の計算に考慮される。 着弾位置の結果は、照準の際に評価ユニット13によって引き続き評価される。この引き続きの評価の結果は、以下「ヒット信号ジェネレータ」と呼ばれる出力手段を制御するために用いられる。ヒット信号ジェネレータは、照準方向および適切な発砲タイミングを選択するにあたり射手を支援するものである。ヒット信号ジェネレータからの情報は、ユーザが選択した照準方向での弾丸がヒットとなるかミスとなるかを聞いて判断でき、またミスが予測されることで、どのようにして照準方向を修正するかを決定できるよう変調される音響信号でもよい。 野外のクレイピジョン射撃場では、あるブランチでは現在の規則によって、異なる状況での射手に対するクレイピジョンの放出経路が予め決められている。これは、放出経路は、評価ユニット13に予めプログラムされ、記憶されることが可能であることを意味している。この場合、すべての射手がしなければならないことは、たとえば、ひとつまたはいくつかの押しボタン(図示せず)を押すことで、射撃場の射手の状況を指定することである。これによって、評価ユニット13はプログラムされたターゲットの経路によって計算を実行する。 ヒット信号ジェネレータ6は、計算された着弾位置の結果によって変化する信号で制御される。信号が銃身の実際の照準でヒットできるか否か(ピジョンを確実に破壊できる度合い)を音で知らせるか、何も聞こえないという単純な変調原理に加えて、正しい照準点に対する正確な照準の度合いやエラーの方向さえも決定することを可能にするさらに進んだ変調原理が使用されても良い。よって、ターゲットの左を通過する弾丸を導く照準は、他の照準の狂いとは区別できるある方法で音を発する。方向を決定するためのヒアリングの感覚能力を最大限に利用するために、ヒット信号は立体音響として生成されても良い。これによって、射手の照準が低すぎたり、高すぎたり、ターゲットの左側や右側によっているなどを外れのサイズとともに示すために、音の強度の変調、左と右のチャネル間の位相差、含有周波数を用いることができる。 音響信号は、特定の弾丸について射手が正しい照準方向を選択できるようにするものであるが、射手が、ターゲットのある視覚的印象を、それが右の照準方向であることを示す音響的「フィードバック」信号で照準する際の位置および動きと組み合わせることができるようにすることで、改善されたトレーニング効果を得る目的も有する。距離を決定するための第1の実施例(映像処理を伴う)ターゲットのサイズに基づく距離の決定; 距離は、ターゲットのカメラ映像に基づいて算出される。ターゲットの実際のサイズが分かっているので、ターゲットの距離は、次の式にしたがって、映像表面上のターゲットのサイズとカメラの焦点距離との関数として計算される。 D=(diatarget/diaimage)×f D=ターゲットまでの距離 diatarget=ターゲットの実際の直径 diaimage=映像上のターゲットの直径 f=カメラの焦点距離 映像上のターゲットの直径の算出は、最も長い軸、通常のクレイピジョンで110mm、に沿って実行される。このようにして、変化するターゲットの方向の影響をなくす。 この代替例による距離測定機能は、結果として距離を測定するための精度要求が満たされるように選択される映像の解像度に要請を加える。 距離測定機能は、ターゲット物体が認識されるやいなや起動し、発砲まですべての映像上で実行される。通常に集められた一連の測定値のほか、平均値は発砲までの適切な数の最後の値から算出される。このようにして、ピクセルの量子化の結果、動きによって引き起こされた焦点のずれなどの変化で生じた測定値における広がりの影響は、減少される。 以下、ターゲットのサイズと、よってその距離とを計算するため使用され得る方法について記述する。 映像内のピクセルは、しきい値を越えるまで異なる方向のいくつかの経路で探索される。この探索は、測定精度を増すためにいくつかのしきい値によって実行される。しきい値を通る経路間の最も大きな距離によって、サイズの測定が得られる。 物体の端を記述する第二導関数のゼロ遷移の決定によってサイズは測定される。そして、ゼロ遷移間の最大距離について探索が行われる。ゼロ遷移は、測定における正確さを増すために線形補間によって決定される。グレイスケールを提供する解像でその強度が得られたピクセルを有する映像上で操作が行われる。クレイピジョンのエッジは、グレイスケールにおいて反曲点によって画定される。反曲点とは、第二導関数が0と等しくなった点である。このゼロ遷移は、ピクセル上に存在しないが、その特定位置は、強度値を囲むことによって得られる。クレイピジョンの各エッジにおけるゼロ遷移間の距離は、クレイピジョンの投影されたサイズの測定値である。反曲点は、次のように、サブピクセル補間される。ピクセルNo.iの第二導関数が10と等しく、ピクセルNo.i+1がマイナス15と等しい場合、ゼロ遷移の位置は、 i+10/(10−(−15))=i+0.4として画定される。 このタイプの補間は、投影サイズの算出における正確さ、従って距離の算出における正確さを増す。 弾丸の方向を決定するにあたっては、いくつかの連続した映像からの距離情報を積分し、投げたような経路に適合させる。 映像の露光の際カメラの視野内でターゲットが動いた場合、移動の速度と露光時間とに比例する動きによって不鮮明が引き起こされる。動きによって起こされた不鮮明は、再生される映像における移動方向の焦点のずれを大きくまたは少なくする。ターゲットのサイズを計算する方法は、その計算に基づいて動きによって起こされた不鮮明を最小化することを含む。その計算は、露光時間とともに映像から映像へのターゲットの動きから計算された視野内のターゲットの速度に基づくものである。 ターゲットのサイズを決定するための前記方法に加えて、基準に対するいわゆる相関関係に基づく別の方法が代替えされてもよい。これによれば、映像内のターゲットは多くの基準物と比較される。特定のレベルを超えた相関関係によって物体のサイズが提供される。距離を決定する第2の実施例(ターゲットの経路に基づく) 射撃位置に対するターゲットの経路の特別な座標がターゲットの線形スタート速度とともに分かっている場合、距離は、ターゲットの角速度および方向のみを使用して関数として明確に計算される。 ターゲットの角速度は銃身の回転速度(ジャイロ信号から受信される)とカメラ映像におけるターゲットの動きに対応する角速度との合計として計算されてもよい。距離を測定するためのこの方法は、ターゲットの経路が前もって決められるスキート射撃などに使用できる。弾丸が発射される前に、たとえば、そこから射撃を行う射撃ステーションの基準を入力することにより、ターゲットの経路の実際のパラメータが得られる。射撃ステーションの基準は、評価ユニットによって自動的にターゲットの2つの経路に変換される。その2つの経路は、特定の射撃ステーションについての現実でもよく、またクレイピジョン放出者2名のいずれかによる放出に対応するものである。特定の弾丸の現実であるターゲットのこれら2つの経路のものは、銃身の回転方向から明白であり、よって別の入力によって表示される必要がない。映像情報の分析は、この場合ターゲット物体の位置と速度の決定に対して減少される。ターゲットのサイズは、距離の計算に必要とされないので、評価される必要はない。 ターゲットの経路についての前もって入力された情報に基づいた距離測定は、映像の質にかかる要求を減らし、映像処理を簡単にする。着弾位置計算 発砲前に記憶されたターゲットの方向と距離についての情報は、発砲の際に、散弾の絞りがターゲットに到着もしくはミスの場合は通過した時点までのターゲットの連続する動きを推定するために使用される。この推測された方向は、弾丸の方向、すなわち発砲の瞬間の銃身の方向と比較される。ターゲットの絶対移動を推定することができるように、固定基準方向を生成するために、ジャイロスコープ信号からの銃身(およびカメラ)の回転速度についての情報が使用される。ヒットを得るため、着弾時点におけるターゲットの方向(特定のエラーマージン内で)は、発砲の瞬間の銃身の方向と一致しなければならない。これら2つの方向間の誤差は照準ミスにより起こり、そのサイズと方法は評価ユニットによる計算後の着弾位置インジケータにより指示される。第3図のフロー図 第3図は、距離の決定の第1の実施例が実行される際の評価ユニットの機能についてのフロー図である。入力信号は、一連のカメラ10からのカメラ映像とジャイロスコープ11からの信号である。この信号は垂直および水平方向の回転に関する銃身の動きの状態を提供するものである。出力信号は、着弾位置および音響ヒット信号である。 ブロック17でバックグランドの削除が行われる。ここでは映像が映像メモリ17aに記憶された前の映像と比較される。その出力信号は、フィルタに通されたビデオ映像であり、これはブロック18でターゲット物体と考えられるものの抽出のために分析される。ブロック17からのビデオ映像に加えて、ジャイロスコープ11からの銃身の動きについての測定値が18への入力信号として予想された次の位置19と同様に使用される。サイズの測定を実行する次のブロック20および前述の距離計算を実行するブロック21の処理後、算出された距離は、着弾位置計算が行われるブロック22への入力信号を形成する。 ブロック18から20への入力信号は、抽出された物体とその直近の周囲を示す完全なカメラ映像のセグメントである。 ブロック22における処理は、算出された着弾時間におけるターゲット物体の位置の予測である。この場合に使用される信号は、ブロック21から受信した距離に加えて、引き金が引かれたか否かと、ターゲット物体の位置と速度とを示す信号24である。ターゲット物体の位置と速度は、ブロック18からの位置出力信号のガイダンスおよび武器の銃身の動きに関するジャイロスコープ11からの信号で速度計算を実行するブロック23から受信されたものである。 ブロック22からの出力信号は、着弾位置インジケータ4とヒット信号ジェネレータ6とを制御するために使用される。着弾位置の計算の校正 着弾位置の校正のため着弾の実際の位置に対応する結果を得るために、システムの照準線、すなわち弾丸の方向と推定される方向は、弾丸の実際の方向と一致しなければならない。実弾での射撃する際に、武器上にカメラを設置したあと、校正専用の射撃(special calibration shooting)が実行され、弾丸コンテナにある散弾の絞りを発砲の初期で誰かがカメラで撮るようにするようにしてこの一致が行われてもよい。この時点では弾丸コンテナはかたまりを構成している。カメラの露光は、その方向が空気抵抗によって散弾の絞りの方向から逸れる前に、発射された弾丸コンテナの映像が得られるように発砲によって制御される。弾丸の方向は、映像内の発射された弾丸コンテナの位置から導き出される。 弾丸の方向を垂直に決定する際に、カメラの中心軸は銃身の軸と一致しないので起きる視差について補正が行われる。上述したように、校正は、通常の使用に先立つ特別な発砲の際に行われるが、弾丸ごとの通常の機能の部分である。後者の解決法の利点は、着弾位置計算の精度を下げることなく、射撃の際のカメラの位置のわずかな変位を許容することができる。このようにして、カメラ部分を銃身に固定する際の機械的安定性についての要求を減少でき、有利である。着弾位置インジケータ4 着弾位置インジケータ4は、射手に直前の発砲の結果を与えるものである。インジケータは、着弾位置、すなわち照準ミスのサイズと方向以外に、ターゲットの追従がどのように行われたかとともに、視覚のラインとターゲットとの相対速度など、測定された射撃距離についての情報も与えることができる。着弾位置インジケータ4は、別々の物理的ユニットであってもよいし、評価ユニット13と結合されてもよい。インジケータの設計にはたくさんの代替例が考えられる。* 評価ユニット13に組み込まれたLCDタイプなどのインジケータ上の図形/数値の表示;* 合成音声によって着弾位置を示す音響表示;* 照準時に射手がターゲット領域に重ねられたインジケータからの映像を見ることができるように設置されたインジケータ。このインジケータは、射手が実際のターゲットに関して着弾の瞬間に散弾の絞りの方向を見ることができるように着弾位置を示す。後者の場合、映像は射手の視覚のラインに設けられた照準手段(図示しないが、ヘッドアップディスプレイ分野における当業者に周知である)における半透明のミラーを介してインジケータから反射される。ヒットの瞬間またはターゲットを通過した際に、散弾の絞りの位置を示すインジケータ上の映像は、ターゲット領域からの視覚的印象と重ねられ、実弾を使用した際に受ける視覚的印象と似た印象を射手に与える。 照準ミスのサイズの測定の形態で示された弾丸の結果に加えて、着弾位置インジケータは弾丸がヒットまたはミスしたかについて可能性を計算することができる。この場合、この計算を制御するパラメータ、中でも武器の銃身のボアが、実際の状態を正確に反映するためにユーザーによって変えることができる設計が好ましい。ヒット信号ジェネレータ カメラから受けた映像の分析が引き続き行われる。そのような分析から受けた結果には、映像が露光された場合に関して発砲がある所定の時点で行われた場合に達成される着弾位置の測定値で含まれる。ターゲットの位置を推定することによって、発射された弾丸の着弾位置が有効となるように将来所定の時間間隔で計算される。時間間隔が射手の反応時間を正確に補正するように選択された場合、弾丸の方向がターゲットの経路と算出された着弾時間で交差するようターゲットを追従し、信号を聞いたちょうどその時に発砲する場合、弾丸は確実にヒットする。DETAILED DESCRIPTION OF THE INVENTION Landing position marker for normal or simulated firing The present invention A landing position marker of the type obtained in the preamble of claim 1I do. Especially, The present invention Aim at a moving target with a shotgun or similar weaponEnter the result of the get fire, Calculate, A device for displaying. Landing positionMaker Normal or simulated fire at a moving target from a small weaponFor the purpose, Has a unit to infer the actual position of the target with respect to the firearmSensor part, And a firing detector. Technical field Shotgun shooting against Clay Pigeon, Eg skeet and trap shootingThen You can tell the hit by seeing the destruction of the clay pigeon. further, CleJudging the quality of a hit depends on how violently the pigeon crushedEven if it is possible, For bad hits and mistakes, Accurate recognition of impact positionKnowledge, That is, the angular distance between the target and the shot aperture, And the bullet passedAbove or below the target, It is difficult to get left or right. The potential for shotgun shooting training is For environmental reasons, Established away from homeLimited by the availability of the shooting range to be used. LimitedSuch as the rules for the shooting time, Other constraints also limit the training possibilitiesWould. These conditions are: on the one hand, In (conventional) shotgun shooting, help to indicate the location of impactRequired, On the other hand, Under simulated conditions, That is, no live ammunition is fired.There is a need for a shotgun shooting training system. Description of related technology To improve the possibility of performing fire with small arms, System for simulated shootingHas been proposed a lot, One of them is U.S. Pat. 194, No. 006Have been. This system is Shooting training can be performed in a simulator with small armsLike that. In this simulator, Target image on projection screenIs projected, The archer Fire at the target projected by the gun simulatorI do. the system, Calculate the impact position with respect to the angular velocity between the target and the virtual distanceYou. the system, Cannot be used for practical fire on real targets. U.S. Patent No. 3, 798, No. 795, etc. Many known systemsIn the system, The firing when using a ballistic projectile to fire at a moving target.It is known to guess the shooting result. The essential parts of this type of system are: DistanceThis is a separation measurement function. In this system, The vertical and horizontal position of the targetA (television) camera is used to enter, To the transponder on the targetTherefore, the distance is determined by measuring the delay time interval of the reflected radio signal.It is. This method of measuring distance Not suitable for clay pigeon shooting. In the same way as the evaluation after the bullet was fired, Before being fired, Good aimIn the firing control system where the direction must be determined, Determine the target distanceThere must be. U.S. Patent No. 4, 922, In issue 801, The barrel is fired by the shooterA fire control system for the weapon being directed is described, The position of the "prospect" targetThe calculation helps the archer in aiming. The position of the potential target is, Calculated for the angular velocity and distance of the target and the delay time interval of the projectile, shooterAre shown in the form of aiming points to aim for a hit. Up to the targetThe distance is It is calculated from the apparent size of the target on the television image. ThisThe purpose of the stem is Firing control, It does not evaluate the result of the shooting. UK Powercon (UK), Imitations for specially manufactured clay pigeonsLaser spot clay pigeon shooting system used for simulated shootingSelling system. To detect hits and mistakes, Of the shot apertureAn infrared beam of a size corresponding to the width is sent from the gun simulator. targetThe light reflected from Used to determine if a "bullet" is a hit or a miss. the system, Without considering the aiming off, Bullet speed equals light speedDetect hits as if they were good. this is, Claypijo with system shotgunDoes not accurately simulate the shooting situation. Therefore, StaggerDoes not aid in available training for clay pigeon shooting that requires aimingNo. Object of the present invention The purpose of the present invention is Shotgun shooting and similar shooting at moving targets, In all of the above-mentioned clay pigeon shootings, Fired with respect to target directionCalculates the impact position of the bullet Is to make a landing position marker to be displayed.. This gives the shooter a sense of the size and direction of the missile aim. Another object of the marker according to the invention is that Shotgun shooting at a moving targetThe purpose of this is to make it possible to perform shooting training by simulation. Weapon is firedSimulated shooting can be performed under the same conditions as actual shooting with a shotgun except for the difference that there is no. this is, Fire can be aimed at the clay pigeon released in the usual way, And, This means that you can fire with your own weapon. Yet another object of the marker according to the invention is that By using a video projectorAllow simulated firing against the projection screen where the moving target is shown.And Another object of the invention is on the one hand, Can be used to fire at virtual targetsCan, And, Without remodeling, Can also be used to fire for actual clay pigeonsIs to make a good marker. Therefore, Markers are When shooting with live ammunitionAlso, It can also be used to practice shooting in the form of simulated practice shotgun or similar shooting.Can be used. Yet another object of the invention is to provide Aim is in the right or wrong directionThis is to assist the shooter with an acoustic signal. Yet another purpose is: If the muzzle is moved close to the exact aiming point, Fired rightEasily help the shooter acoustically or optically to fire at the point in timeIt is to be. For most of the above purposes, The problem is solved by the features of the first claim. Further improvements and further features of the marker according to the invention are provided in the dependent claims.It is. For normal or simulated fire from small arms against a moving targetThe impact position marker is The direction and orientation of the target with respect to the firearm and its aiming directionAnd a video recording device such as a video camera for determining the distance. The video recording device is It has an optical axis oriented parallel to the aim of the firearm. Rotation measurementFixed unit, That is, the gyroscope is At least at an angle to each otherIt measures the rotation of the line of sight of the video recording device in two planes, Firearm sightIt has the same line that is coincident or parallel with the line. Video recorder and rotationThe output signal from the measurement unit is Distance and direction to the target, StaggerAn evaluation unit that calculates the aiming point that will get a hit in relation to the required calibration of the aimingInput to the account. The result of the measurement is Displayed on the display unit. The system is used in basically three different ways. -Use against a real moving target. This is a fire using live ammunition. • Use against real moving targets related to simulated fire. Ie live ammunitionTraining of aiming and firing without using. A model for the projection screen on which the target moving by the projector is displayedUse in simulated shooting. Advantages of the present invention In actual shooting, the impact position marker is Find the right aiming point, AimingAnd help to understand mistakes when firing. When used as a simulator, The impact position marker is Effective at low costIntensive shooting training, In normal shooting ranges and places where training fire is not allowedEven if A training tool that allows you to do it. When used in connection with live ammunition, Mistakes made during shooting, For example, shift aimBy getting better information about his mistakes, Training value increases. With the simulated training shooting system, In places and times when shooting training is not possibleCan train. Compared to conventional clay pigeon shooting without help, Real creaseSimulated shooting for the pigeon and simulation for the target on the projection screenShooting is On the other hand, Incorrect aiming of the muzzle when firing, Also, Acoustic signal showing correct aimissue, On the other hand, By indicating the landing position even if the firing was a mistake, ThanGood training effects can be obtained. Finally, Significantly reduce the cost of consumablesThus, simulation training can be performed at low cost. the system, First of all, Clay pigeon shooting, For example, skeet and tigerIt is intended for top-down shooting. the system, Do not apply special surface coatingIt can be used to fire and simulate the usual design of clay pigeons. Mock shootingIn the strike, Clay pigeon made of harder material than regular clay pigeon, AgainAvailable to use. In simulation training toward the projection screen, Special equipment besides projection equipmentIs unnecessary. Conditions for the projection equipment are as follows: Its position and Target in imageTo the extent that the size of is used to calculate the distance, Size and landing position markerAs determined by the video recording device, Provides sufficient contrast and sharpnessIs to be offered. Between the video expression frequency of the projector and the image frequency of the cameraIs at risk of interference, It is also necessary to synchronize the projector and the camera. In training on the actual use of clay pigeons, the system, Daylight andIt can be used in both low ambient light conditions. In the latter case, First SimuleIf the use of the system is required Target is actively irradiated. To minimize sensitivity to interference, in this case, With retroreflective surface coatingIt is appropriate to use a target. In simulated shotgun shooting against a movable target on the ground, Clay Pigeon, Corresponding target surface of appropriate size and table applied to the center of the targetIt can be replaced with a surface coating. BRIEF DESCRIPTION OF THE FIGURES The invention will be described in more detail by way of example with the guidance of the accompanying drawings. Figure 1 FIG. 2 shows a block diagram of an embodiment of a complete device according to the invention. Fig. 2 FIG. 2 shows a detailed block diagram of an embodiment of the present invention. FIG. FIG. 2 shows a block diagram of an embodiment for calculating a landing position. Detailed description of the drawings Referring to FIGS. 1 and 2, The impact mark marking device according to the present invention, weaponMeasurement for analyzing the impact position on the target 8 in the target area 15 in front of 1System and Means for displaying the impact position of the bullet. The mechanical design is weaponA sensor unit 2 mounted on 1; It is connected to the sensor unit 2 but physicallyAnd the evaluation unit 13 separated. To communicate the result of the landing position calculation, Landing position that can change the physical arrangement of the weapon according to the selected designA position indicator 4 is provided. Details of the sensor unit 2 and the landing position indicator 4Details are described below. The necessity of separate sensor unit 2 and evaluation unit 13 is as follows. Attached to weapon 1part, That is, it is determined by the request to make the sensor unit as light as possible.. However, The weight of the evaluation unit 13 is Not too heavy, If necessary, For example, attaching to a belt, It is as heavy as the user can hold. There are many possible options for the design of the landing position indicator 4, such as:. * Graphical / numerical display on indicators built into the evaluation unit; * Acoustic display that gives information about the impact position by synthetic speech; * A head-up device that creates an image that is superimposed on the visual impression obtained during aiming.Display. Combining these examples is conceivable, Same for both sight and hearingIt is appropriate to use sometimes. To increase the sense of reality during simulated shooting, the system, FiringSimulate means and recoil to produce sound effects such as gunshotsMeans. Gunshots are simulated by sound generators that generate sounds when firing.It may be. Recoil is Just add a live ammunition to the shoulder or butt that comes into contact with the weapon or shoulderA device (not shown) that causes the device to move backwards as if firedMay be modulated. When aiming, The weapon is aimed towards the exact aiming point to get a hitDisplay whether or not The distance and direction between the actual aiming point and the accurate aiming pointThe acoustic feedback signal containing the information of Hereinafter, it is called a "hit signal". (hitThe size and direction of the angular distance between the exact aiming direction and the actual aiming directionThe part of the hit signal that contains all the information Hereafter referred to as the "sighting signal" Appropriate firing timeThe part of the hit signal about Hereinafter, it is referred to as a "firing signal." The aiming signal is Proper standingBody sound, Between the aim point where the sound gives a hit and the actual aim directionIt is adjusted so that the relative distance can be determined. For 3D soundYou need two sound sources, Therefore, Headphones as shown schematically at 6It is appropriate to use. The firing signal is Disconnection that occurs just before reaching the appropriate aiming pointIt is a continuous signal. Accept the interval between the firing signal and the appropriate time, To the archer ’s reaction timeBy responding, The archer Get help choosing the right staging sight, Fires when the firing signal is heard while continuously increasing the aim. The head-up display for displaying the impact position is Graphic information is visualCan overlap with the senses, Even if it is designed like a telescopic site with the same magnificationgood. The system is a real clay pipe in indoor or low light surroundingsIf used for shooting aiming at A large enough backgroundActive illumination 7 of the target area is needed to provide trust. ThisThe lighting 7 of As shown in FIG. Weapons or sensors, Or one of the archersIt may be provided at a fixed position on one side. Target material The landing position is Turtle with sufficiently high contrast to the backgroundBased on the target imaged by LA, The following method 1 that can determine the sizeIs calculated by the distance measuring method according to the following. this is, Shown on projection screenSomewhat the same applies to the actual clay pigeon when it is shot or synthesized.It can be said that. Target 8 First of all, General UIT applied to international competitionsClay pigeon according to the official and special rules. Clay pigeon diameter is 110 mm, Height is 25 to 26 mm. Various colors are allowed, One of them is orange-red, Somewhat fluorescent. The blue partIf you want to recreate a clay pigeon against a sunny or cloudy sky in Khutor, Usually thisCan provide enough contrast to calculate the impact location. That's itUClay pigeon which was usually designed with various colors, The system is related to the actual fireIt is used when used. Simulated fire of the same type of targetThere is no reason not to be used. Consumption of this type of clay pigeon (clay pigeonIs often broken when landing) Made of material with high impact resistanceBuilt And, Regenerate clay pigeons having properties similar to normal clay pigeonsIt may be used to allow use. Power supply For outdoor use, Even if power is properly obtained from a battery (not shown)Good. by this, the system, Overall it is usable by itself, Power cableCarried without disturbing the table. Fig. 2 As is clear from FIG. According to the illustrated embodiment, The landing position is generalIs calculated based on the data collected from the following three means of the sensor unit 2. * Camera 10 that continuously generates images of the target area in front of the weapon* Preferably a two-axis gyroscope 11 to record the movement of the weapon* Firing detector 12 that records firingThe processing of the received data and the calculation of the impact position Preferably in the evaluation unit 13Done. Camera 10 The camera 10 Set so that the optical axis 14 of the camera is parallel to the direction of the muzzle of the weapon.Installed in the sensor section 2. The camera is Generate images of the target area 15 continuouslyFunction. Information from the camera Electrically transmitted to the evaluation unit 13. The focal length of the camera is Skeet and trap firing during normal firingDimensioned so that the field of view has a size 9 such that all hits are detectedYou. in this case, The maximum aiming of 5 degrees or more is This is the determined dimension of the field of view. thisIf The corresponding size of the field of view is 2 × 5 degrees = 10 degrees. Use maximum shifting aimTo be able to determine the landing position in the event of a mistake, The view is bigger, For example, it is appropriate to be made at 15 degrees. The camera's spectral sensitivity is The highest possible cost for the backgroundThe target 8 is reproduced by the trust. Image frequency and line resolution Less thanAccording to the requirements set by the video processing functions described in more detail belowIs selected. To make corrections to change the ambient light, the system, Automatic exposure controlControl function. As well as automatically changing the exposure time and possibly the aperture, Especially ringsIn bright light at the border, Gray filters applied manually or automaticallyUsed to reduce the conditions for changing the light time. Gyroscope 11 The gyroscope 11 Preferably, Orientation perpendicular to portrait and landscapeThe angular velocities on the two surfaces are continuously measured. Regarding the requirements for weight reductionThe proper design of It is a sound gyroscope. Fire detector 12 The firing detector 12 Has the function of detecting when the trigger 5 of the weapon is activated. this is, Microphone that picks up vibration caused by hammering iron and pin movementIs possible. Signal transmission To the extent that the sensor unit 2 is physically separated from other units, Of these unitsSignal transmission is Evaluation unit 1 via cable 16 or via telemetrySent to 3. Evaluation unit 13 The evaluation unit 13 Camera 10, Fire detector 12 and gyroscope 1Receiving the signal from 1, analyse. The first job is Detect target, That oneIt is to calculate the direction and the distance. Image processing for detecting target objects in video (target extraction)Examples will be described below. First of all, What is called "thresholding" below, Composed in videoThe analysis is based on an analysis of the color intensity of each element. Proper color of clay pigeonー is fluorescent red. With a properly selected color sensitivity of the camera, This color is ThroughProvides strong contrast against evergreen and white skies. This color is also This systemOne of the colors deemed most appropriate for use with the system. A monochrome camera that senses blue light is available. in this case, Red crepeJohn Perceived as a dark object against the sky. Of light below a certain thresholdThe target is found by looking for the level picture element. Another monochromeIf color is used, The evaluation unit 13 Instead, A certain light levelThe target location in the image by looking for image elements with higher light levels.locate. Compared to using a color camera, Using a monochrome cameraThe thing is Although the manufacturing cost can be made easier, Target in the strong sunlight from the sideWhen reproducing, Despite special filtering, Higher than threshold(Or low) intensity, the target is partially contoured. in this case, The picture is, It no longer corresponds to the actual shape of the target. At least two different spectral regions, Preferably one is red and the other isIs the blue area, Color camera with Combine target photos in different colorsOf the target when lighting from the side of the target due to the possibility ofIt offers considerable potential for accurately determining the shape. SpectrumIn the red part of Target is brighter than (blue or white) backgroundAppear. So the thresholding in this case is Need video showing targetVideo element or pixel with an intensity higher than a certain threshold to findThis is performed by searching for files. However, Spectrum blueIn part, Search for video elements with intensity lower than another thresholdDo. in this case, A complete picture of the target The blue or red reproduction of the targetOr a number of video elements consisting of both. Search space for target extraction, So to minimize the calculation requirements, muzzleThe movement of the target, the initial position of the target and the next expected position are used as explicitly indicated below. Evenly illuminated background without sharp contours or contrast, For example, the sky without clouds, If there is a target for, The above video processing technology, Locating the target object with high reliability, Enough to determine the sizeYou. Instead, the background is patterned, Sharp contrastIf you have For example, if you reproduce trees and bushes against the sky, The methodIs Usually, a sufficiently high sensitivity to interference cannot be obtained. The second video processing method described here for video analysis according to the present invention comprises: AboveSupplements the method of Use temporary dependencies between successive videos. cameraWhen shooting bread, Both the background and the target move in the video. TargetBy removing continuous images in the Background can be removed, MovingThe target appears as a single object in the video. This removal work, A certain movieThe pixel corresponding to a point in the background of the image represents the same pointThis is done so that it is removed from the pixels in the video. When panning with the cameraThe background movement that occurs in By moving the image before performing the work to removeAmended, Therefore, the background in the two images is uniform. Like thishand, Information about the muzzle and the movement (and therefore the camera) received from the gyro signalIs used to determine the size and direction of the displacement. As a result of removing the video, Stationary objects are suppressed, The moving target object isVideo. After this operation, Video analysis according to the above, Ie thresholdRuding, Performed to detect a target object. simply, With the help of pattern recognition, Removed for the purpose of determining displacementCompared to using image information, Using a gyro signal Required for processing capacityIt can reduce the need for things considerably, This is an advantage of the method according to the inventionIt is. CalculationShift aim One of the difficulties of shooting shotguns against moving targets is Appropriate shiftGuiding the aiming, That is, When the shot aperture reaches the target path,Get is firing in the direction it should be. The size of the shift sight is ScatteredThe travel time of the bullet aperture, Using the clear angular velocity of the target andIs determined. Vf = tb × SmIn the above equation, Vf = offset aiming angle (radian) tb = transit time (movement time of shot aperture (seconds)) Sm = speed of target (radian / second) The required aiming offset by a bullet fired at an appropriate angle in front of the target 8Is achieved. Experienced archers try to get the maximum accuracy for staggered aimingThe most commonly used technique is Catch-up swing (overtaking insG) with shooting. this is, The archer shoots the line of sight of the weaponMeans to follow the target's path at an angular velocity faster than the target's velocityYou. An effective aiming shift is 1) The shooting aim that the shooter experiences when firing, 2) the conscious decision and firing phase of the triggering shooter, That is, the aperture of the bullet from the muzzleObtained by the sum of the time to leave and the delay. However, Shooting techniques, In this case swing, Changes, Therefore, the calculation of the landing position Shooting techniquesMust be done in a manner that is independent of Calculation of impact position The landing position is In the evaluation unit, The direction of the barrel when firing, Ie the direction of the bullet, YouInformation about the target's motion estimation up to the calculated landing time from firingIs calculated based on If the target will be hit, targetCrosses the direction of the bullet when impacted. Target movement The target position at the calculated impact time is Both two vertical planes after firingIs calculated by estimating the movement in. When flying, The target is Start speedWhen, Starting direction, Gravitational acceleration, Aerodynamics of Clay Pigeon through Passing AngleFollow a path that is a function of the target force. The movement of the target is The path of the target draws a large circle surrounding the archer, CornerSimply assuming that the speed is constant during the transit time, Presumed. Get up in this caseThe calculation errors you get are insignificant. The actual acceleration is Gravitational acceleration and airDeceleration by resistance, And on the assumption that the path of the target is a large circleIs a geometric error, Since the transit time is relatively short, There is no practical problem. The following equation: The target position is on each of the two vertical axes after firingIt will be explained how it is estimated. Direction target, Landing time = Direction target, Firing + Vm x transit timeIn the above equation, Direction target, Landing time = Target direction at the calculated landing time Direction target, Firing = Direction of target when firing Vm = absolute angular velocity of target Transit time = flight time of the aperture of the shot from firing to the calculated landing time In addition to the target direction, Must know the absolute angular velocity of the targetNo. this is, The angular velocity of the target with respect to the aiming direction, Ie camera direction and gunCalculated as the sum with the angular velocity of the body. To be able to calculate the latter, TheGyroscope type means are included in the impact position marker. What is needed for calculating the impact position is For certain types of weapons and charges, It is the value of the transit time by the charge, which can be determined simply by the distance. DistanceThe separation is Two different calculation methods are used, Calculated by evaluation unit. Calculation method 1: To calculate the distance, According to this method, Absolute dimensions were knownIt is based on the fact that the target is imaged with a camera. On the projection surface of the cameraTarget size Determine distance with information about camera opticsUsed to determine Calculation method 2: Special coordinates of target area and shooter position during actual shotIf the above information was pre-stored for use by the evaluation unit, Shooting positionThe distance is calculated as a function of this information, as well as the angular velocity of the target as viewed from. The impact position indicator 4 and the incoming signal generator 6 Separate physical uniMay be It may be included in the evaluation unit. After firing, Impact position, That is, Target and The bullet passes through the target's passing surfaceThe special angular distance in the vertical and horizontal planes between the passing points is Calculated, DisplayedYou. In addition to the landing position, For example, Light on bullet direction and target before firingOther measurements, such as fiducial movement, are also displayed. Delays inside the weapon, targetDistance to, The flight time (passage time) of the shot aperture against the target, And throughSuch as the movement of the target over time, All relevant factors are taken into account when calculating the impact location.It is. The result of the landing position is The evaluation is continued by the evaluation unit 13 during aiming. The result of this continued evaluation is An output referred to below as the "hit signal generator"Used to control force means. The hit signal generator Aiming direction andAnd assist the shooter in selecting the appropriate firing timing. hitThe information from the signal generator is When a bullet in the aiming direction selected by the user is hitCan be determined by listening to In addition, by predicting mistakes, HowThe sound signal may be modulated so that it can be determined whether to correct the aiming direction. At the open-air clay pigeon shooting range, In one branch, according to the current rules, DifferentThe release path of the clay pigeon to the shooter under certain circumstances is predetermined. ThisIs The release route is Pre-programmed into the evaluation unit 13, To be rememberedIt means that it is possible. in this case, Every archer must doThe thing is For example, Pressing one or several push buttons (not shown)so, To specify the shooting conditions of the shooting range. by this, Evaluation unit 13 performs calculations according to the programmed target path. The hit signal generator 6 The signal that changes depending on the result of the calculated landing positionControlled by Whether the signal can be hit with the actual aim of the barrel (see PigeonThe extent to which it can actually be destroyed) A simple modulation source that you can't hear anythingIn addition, Determining the exact aim level and even the direction of the error for the correct aim pointMore advanced modulation principles may be used that allow for the definition of Therefore, TaThe aim of the bullet that passes to the left of the target is Some are distinguishable from other aiming irregularitiesEmit sound in a way. Make the most of hearing sensory abilities to determine directionTo do The hit signal may be generated as stereophonic sound. by this, ShootingYour aim is too low, Too high, Depending on the left or right side of the targetTo show the size Modulation of sound intensity, Position between left and right channelsDifference, The content frequency can be used. The acoustic signal is Allows the shooter to select the correct aiming direction for a specific bulletBut The archer, Targeted visual impression, That is the right aiming directionAnd movement when aiming with an acoustic "feedback" signal indicatingBy being able to combine with Improved training effectivenessIt also has the purpose of gaining. First Embodiment for Determining Distance (with Video Processing)Determining the distance based on the size of the target; The distance is It is calculated based on the target camera image. Target actualBecause the size is known, The target distance is According to the following formula, Video tableIt is calculated as a function of the size of the target on the surface and the focal length of the camera. D = (diatarget / diaimage) × f D = distance to target diameter = actual diameter of the target diameter = diameter of the target on the image f = focal length of camera The calculation of the target diameter on the video is Longest axis, 1 for normal clay pigeon10mm, Is executed along. In this way, The direction of the changing targetEliminate the effects. The distance measurement function according to this alternative is Accuracy requirements for measuring distance as a resultIs added to the resolution of the image selected so that is satisfied. The distance measurement function As soon as the target object is recognized, it starts up, Wait for the firingPerformed on all videos. In addition to the normally collected series of measurements, Average value is firingCalculated from the appropriate number of last values up to. In this way, Pixel quantizationAs a result, Measurements caused by changes such as defocus caused by movementThe effect of the spread Is reduced. Less than, The size of the target, So it can be used to calculate its distanceDescribe the method. Pixels in the video are Search several paths in different directions until the threshold is exceededWill be searched. This search is Performed by several thresholds to increase measurement accuracyIs done. By the largest distance between paths that pass the threshold, Once the size measurement is obtainedIt is. Size is measured by determining the zero transition of the second derivative that describes the edge of the object. And A search is performed for the maximum distance between zero transitions. The zero transition is For measurementYouDetermined by linear interpolation to increase accuracy. Provide grayscaleAn operation is performed on an image having pixels whose intensities are obtained at different resolutions. ClayPigeon's edge is Defined by inflection points in grayscale. InflectionA point is The point at which the second derivative became equal to zero. This zero transition is On pixelDoes not exist in The specific position is Obtained by surrounding the intensity value. ClayThe distance between the zero transitions at each edge of the pigeon is Clay Pigeon projectedIt is a measure of size. The inflection point is as follows, Sub-pixel interpolation is performed. PicCell No. i is equal to 10 and pixel no. i + 1 is minus 1If equal to 5, the position of the zero transition is i + 10 / (10 − (− 15)) = i + 0. 4Is defined as This type of interpolation is more accurate in calculating the projection size, and therefore in calculating the distance.Increase accuracy. When determining the direction of the bullet, the distance information from several consecutive videosIs integrated to fit the path as thrown. If the target moves within the field of view of the camera when exposing the image, the speed and exposureMotion that is proportional to time causes blurring. Awakened by movementBlurred images can cause a large or small defocus in the direction of movement in the reproduced video.Make The method of calculating the size of the target depends on the movement based on that calculation.Including minimizing blurring caused by bleeding. The calculation is projected along with the exposure time.Based on the velocity of the target in the field of view calculated from the movement of the target from image to videoIt is based on In addition to the above method for determining the size of the target, the so-calledOther methods based on the correlation may be substituted. According to this, the tags in the videoTargets are compared to many standards. By correlation beyond a certain levelAn object size is provided.Second Example of Determining Distance (Based on Target Path) Special coordinates of the target's path with respect to the firing position will result in a linear start of the targetIf known along with the speed, the distance is only the angular velocity and direction of the target.Use calculated explicitly as a function. The angular velocity of the target depends on the rotation speed of the barrel (received from the gyro signal) and the cameraIs calculated as the sum of the angular velocity corresponding to the movement of the target in the videoGood. This method for measuring distance is based on the pre-determined target path.It can be used for skeet shooting. Before the bullet is fired, for example, from thereBy entering the criteria for the firing station that fires,The actual parameters are obtained. The firing station criteria are determined by the evaluation unit.Automatically converted into two paths of the target. The two paths are specificIt may be the reality about the shooting station and no two clay pigeon emittersThis corresponds to the release by this. The target that is the reality of a particular bulletThese two paths are apparent from the direction of rotation of the barrel, and are thusDoes not need to be displayed. The analysis of the video information, in this case, the position of the target objectAnd reduced for speed determination. The size of the target is needed to calculate the distanceIt does not need to be evaluated because it is not. Distance measurements based on previously entered information about the target ’s path,Reduce demands on video quality and simplify video processing.Landing position calculation Information about the target ’s direction and distance stored before the shot was fired.If the shot aperture reaches the target or makes a mistake, the targetIt is used to estimate the continuous movement of the unit. This guessed direction is the bullet, Ie, the direction of the barrel at the moment of firing. Absolute movement of targetGyroscope to generate a fixed reference direction so that theInformation about the rotation speed of the barrel (and camera) from the loop signal is used.To get a hit, the direction of the target at the time of impact (specific error marginWithin) must match the barrel direction at the moment of firing. These two peopleThe heading error is caused by a pointing error and its size and method are calculated by the evaluation unit.It is indicated by the calculated landing position indicator.Fig. 3 Flow chart FIG. 3 shows the function of the evaluation unit when the first embodiment of the determination of the distance is performed.FIG. The input signal is a series of camera images fromThis is a signal from the gyroscope 11. This signal is used for vertical and horizontal rotation.It provides the status of the barrel movement in relation to it. The output signal is the impact position and soundHibiki hit signal. In block 17, the background is deleted. Here, the video is stored in the video memoryIt is compared with the previous image stored in 17a. The output signal is filteredVideo image, which is considered a target object in block 18Analyzed for extraction. In addition to the video footage from block 17, GyrosMeasurements of barrel movement from Corp 11 are expected as input signals to 18.It is used in the same way as the next position 19. Next block 2 to perform size measurement0 and after the processing of block 21 for performing the distance calculation described above, the calculated distance is:The input signal to the block 22 where the landing position calculation is performed is formed. The input signals to blocks 18 to 20 indicate the extracted object and its immediate surroundingsThis is a segment of the complete camera image. The processing in the block 22 includes the processing of the target object at the calculated landing time.It is a position prediction. The signal used in this case is the distance received from block 21.In addition to release, indicates whether the trigger was triggered and the position and velocity of the target objectSignal 24. The position and speed of the target object are output from the position output from block 18.Signal guidance and gyroscope 11 for weapon barrel movementIt is received from block 23 which performs speed calculations on the signal. The output signal from the block 22 is the landing position indicator 4 and the hit signal generator.Used to control the radiator 6.Calibration of landing position calculation To obtain a result corresponding to the actual position of the impact for calibration of the impact position, the systemThe aiming line of the gun, i.e. the direction that is assumed to be the direction of the bullet, matches the actual direction of the bulletMust. When shooting with live ammunition, after setting the camera on the weapon,Special calibration shooting is performed and the bullet containerThis shot was made by letting someone shoot the shot aperture at the beginning of the shot.Matching may be performed. At this point, the bullet containers form a lump. MosquitoMera's exposure takes place before its direction deviates from the direction of the shot aperture due to air resistance.It is controlled by firing so that an image of the fired bullet container is obtained. bulletIs derived from the location of the fired bullet container in the video. When determining the vertical orientation of the bullet, the center axis of the camera does not coincide with the barrel axisIs corrected for the parallax that occurs in. As mentioned above, calibration isPerformed during a special firing preceding, but part of the normal function of each bullet. the latterThe advantage of this solution is that it reduces the accuracy of the cameraA slight displacement of the position can be tolerated. In this way, the camera part is a gunAdvantageously, the requirement for mechanical stability when fixed to the body can be reduced.Impact position indicator 4 The landing position indicator 4 gives the shooter the result of the previous firing. IIn addition to the landing position, that is, the size and direction of the aiming miss, the indicatorAlong with how the visual line was tracked, and the relative speed between the visual line and the target.Information about the measured firing distance, such as degrees, can also be provided. Landing position aIndicator 4 may be a separate physical unit, or evaluation unit 13 andThey may be combined. There are many alternatives to indicator design.* Graphic on indicator such as LCD type built into evaluation unit 13/ Numerical display;* Acoustic indication of landing position by synthesized voice;* When aiming, the shooter sees the image from the indicator overlaid on the target areaIndicator installed so that you can. This indicator indicates that the shooter is actuallyYou can now see the direction of the shot aperture at the moment of impact on the targetIndicates the impact position. In the latter case, the image is aimed at the line of sight of the shooter(Not shown, well known to those skilled in the head-up display field)Reflected from the indicator via the translucent mirror at. Until the moment of the hitOr on the indicator showing the position of the aperture of the shot when passing through the targetIs superimposed on the visual impression from the target area,Gives the shooter an impression similar to the visual impression. In addition to the results of the bullets in the form of missile size measurements,Deciators can calculate the likelihood of a bullet hit or missedYou. In this case, the parameters controlling this calculation, especially the bore of the barrel of the weapon, are actuallyDesigns that can be changed by the user to accurately reflect theGood.Hit signal generator Analysis of the video received from the camera continues. Received from such an analysisThe result is that if the shot was made at a certain point in time with respect to the case where the image was exposedIs included in the measurement of the landing position achieved. Estimating the location of the targetTherefore, it is counted at a predetermined time interval in the future so that the landing position of the fired bullet becomes valid.Is calculated. If the time interval is selected to accurately correct the shooter's reaction time,Target so that the bullet direction intersects the target path at the calculated impact timeIf you fire at exactly the moment you hear the signal, the bullet will hitYou.
─────────────────────────────────────────────────────フロントページの続き (81)指定国 EP(AT,BE,CH,DE,DK,ES,FI,FR,GB,GR,IE,IT,LU,MC,NL,PT,SE),JP,US────────────────────────────────────────────────── ───Continuation of front page (81) Designated countries EP (AT, BE, CH, DE,DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE), JP, US