
























【0001】
【発明の属する技術分野】
本発明は、ライブハウス等で実演される実演家の実演映像及び実演音楽を配信提供する映像付き高音質音楽ライブ配信ビジネス等に適用して好適な電子情報配信システム、情報収録送出装置、情報編集配信装置及び情報処理方法に関する。
【0002】
詳しくは、実演家による実演を収録して得た映像音楽素材情報を入力し、これらを情報編集処理した実演映像及び音楽に係る電子情報内容を配信する情報編集配信装置を備え、その実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御して、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理できるようにすると共に、その実演家による実演映像及び音楽に関する電子情報内容を全世界に配信可能な電子情報配信システムを構築できるようにしたものである。
【0003】
【従来の技術】
近年、ブロードバンド時代に移行し、情報量の多いデジタル映像及び音楽を配信するシステムが利用される場合が多くなってきた。例えば、放送局が複数の映像を同時に多重数デジタル送信し、受信側ではいずれかのチャンネルの映像及び音楽(コンテンツ)等を選択するようにした映像及び音楽提供サービスシステムが普及し始めている。
【0004】
このように、情報利用者にとって、コンテンツの選択の自由度が拡大する方向にある。また、情報提供業者側ではインターネット配信の特長を生かし、ユーザにとって魅力的なコンテンツを制作及び提供する必要性が益々増加している。
【0005】
一方、熱心な音楽ファンは、ライブハウスに行って、ミュージシャンの生演奏(ライブ)を直に聞いて楽しむ傾向にある。この種のライブハウスには、ミュージシャンが演奏を行うステージや、ファンのための客席が設けられる。このステージには、音響効果を上げるために複数の固定又は移動可能なマイクロフォン及び、これらのマイクロフォンで収音した音声等を拡声する複数のスピーカが設置される。
【0006】
また、情報提供業者側では生演奏の映像及び音楽を収録してCD等の記録媒体を作成したり、コンテンツ配信を行うために、マイクロフォンの他に複数のカメラが準備される。これらのカメラ操作、例えば、映像のアングル切換え・ズーム・パン・チルト機能の調整は、現場の収録オペレータ(スタップ)によってなされる。マイクロフォン操作においても、同様にして、マイクの指向性確認・ズーム機能・音声入力レベル等が調整される。
【0007】
このようなライブハウスで収録されたライブ映像及び音楽をソフトウエアにして情報利用者に提供する場合、収録後の電子情報内容を情報提供業者で映像・音声を編集して記録媒体に記録して販売される。また、ライブハウスから各家庭へ生中継する場合は、客席の前をカメラマンが移動して、複数のアングルからライブ映像を撮影し、この複数のアングルの映像を同時に多重数デジタル送信し、受信側ではいずれかのアングルの映像を選択する方法が採られる。これにより、情報利用者側ではカメラマンが撮影したアングルのライブ映像を選んで見ることができる。
【0008】
なお、特許文献1には遠隔観戦サービスシステムが開示されている。この遠隔観戦サービスシステムによれば、競技場に設置された撮影システムと、情報提供業者に配置されたサーバと、情報利用者に設置された情報処理装置とがネットワークにより接続される。また、この撮影システムにおいて、競技場には複数のカメラが備えられ、予め情報利用者の情報処理装置に備えられた操作装置を操作して、競技場に備えられた複数のカメラの撮影条件を変えるように撮影制御装置を制御するようになされる。これらのカメラで撮影された映像は、サーバを通じて利用者の情報処理装置に配信するようになされる。
【0009】
このように構成すると、情報利用者が設定した撮影条件で複数のカメラが撮影した映像を受信することができ、競技場外の各家庭や、集会所等の遠隔地において、情報利用者それぞれの希望や嗜好に合わせた場面の映像を視ることができる。従って、仮想的にスタンド観戦の醍醐味を味合うことができ、臨場感あふれた映像を提供できる。
【0010】
【特許文献1】
特開2002−165200号公報(第4頁,右欄 図1)
【0011】
【発明が解決しようとする課題】
ところで、従来例に係る映像及び音楽提供サービスシステムによれば、次のような問題がある。
【0012】
▲1▼ 従来からのナローバンドでは送受信できるデータ量が少ないため、一般的には音声は強力な圧縮をかけた2CHステレオで音質は良いとは言えず、映像も動きが不自然なものが多かった。
【0013】
▲2▼ 熱心な音楽ファンや、ミュージシャンにとって、ナローバンドでのコンテンツ内容に不満を持っている場合が多い。
【0014】
▲3▼ 既存のソフトウエア(発売済CDやDVD音楽ソフト)等を改めてネット配信している現状の音楽配信システムでは、情報利用者にとって新規性も無ければ新たな興味の対象にも成りにくいので、なかなか市場拡大に結びつかないし、熱烈なファン層も獲得できないのが実情である。
【0015】
▲4▼ また、ライブハウスでの収録においてもカメラ操作、マイクロフォンのセッティング及び調整等に人手がかかり面倒な部分が多い。収録時に客席の前をカメラマンが動いたりするとライブ鑑賞時には視界を遮ったりと迷惑な面も多々ある。
【0016】
▲5▼ 特許文献1によれば、情報利用者の情報処理装置から撮影システムの撮影制御装置を制御する形態が採られるので、不特定多数の情報利用者がカメラの撮影条件を変える範囲が限られてしまう。
【0017】
そこで、この発明はこのような従来の課題を解決したものであって、実演家による実演を収録して得た映像音楽素材情報を一元編集及び実演家の著作権を一元管理できるようにすると共に、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界等に配信できるようにした電子情報配信システム、情報収録送出装置、情報編集配信装置及び情報処理方法を提供することを目的とする。
【0018】
【課題を解決するための手段】
上述した課題は、実演家による実演に基づく電子情報内容を配信するシステムであって、実演家による実演を収録して得た映像音楽素材情報を出力する複数の情報収録送出装置と、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置と、この情報編集配信装置から電子情報内容を受信して処理する情報処理装置と、少なくとも、情報収録送出装置と情報編集配信装置とを接続する通信手段とを備え、この情報編集配信装置は、実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御することを特徴とする電子情報配信システムによって解決される。
【0019】
本発明に係る電子情報配信システムによれば、実演家による実演に基づく電子情報内容を配信する場合に、例えば、編集地となる一の国又は国内に情報編集配信装置が配置されると共に、世界各国又は国内の実演地に情報収録送出装置が配置される。これらの情報収録送出装置と情報編集配信装置とが通信手段を通じて接続される。これを前提にして、情報編集配信装置は実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御するようになされる。
【0020】
例えば、情報収録送出装置の情報出力制御手段では、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御する。撮影手段では、実演家による実演映像を撮影するように遠隔制御される。収音手段では実演家による実演音楽を収録するように遠隔制御される。撮影手段により撮影された実演映像及び収音手段により収録された実演音楽は情報出力制御手段により映像音楽素材情報に変換されて情報編集配信装置へ出力するようになされる。
【0021】
情報編集配信装置では、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容が配信される。情報処理装置では情報編集配信装置から電子情報内容を受信して処理するようになされる。
【0022】
従って、実演地における実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集地において設定できるので、実演地(ライブハウス)での収録オペレータの無人化を図ることができる。これにより、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムを構築することができる。
【0023】
本発明に係る情報収録送出装置は、電子情報内容を配信するシステムの情報編集配信装置に接続されると共に、実演家による実演に基づく実演情報及び実演音楽を収録出力処理する装置であって、実演家による実演映像を撮影する遠隔制御可能な複数の撮影手段と、この実演家による実演音楽を収録する遠隔制御可能な複数の収音手段と、撮影手段により撮影された実演映像及び収音手段により収録された実演音楽を映像音楽素材情報に変換して出力する情報出力制御手段とを備え、この情報出力制御手段は、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御することを特徴とするものである。
【0024】
本発明に係る情報収録送出装置によれば、実演家による実演に基づく実演情報及び実演音楽を収録出力処理する場合に、電子情報内容を配信するシステムの情報編集配信装置に接続される。これを前提にして、情報出力制御手段では、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御する。撮影手段では、実演家による実演映像を撮影するように遠隔制御される。収音手段では実演家による実演音楽を収録するように遠隔制御される。撮影手段により撮影された実演映像及び収音手段により収録された実演音楽は情報出力制御手段により映像音楽素材情報に変換されて情報編集配信装置へ出力するようになされる。
【0025】
従って、撮影手段や収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地での収録オペレータの無人化を図ることができる。これにより、実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0026】
本発明に係る情報編集配信装置は、電子情報内容を配信するシステムの情報収録送出装置から映像音楽素材情報を入力して編集配信処理する装置であって、情報収録送出装置を遠隔制御するための情報を含む操作情報を入力する入力手段と、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理する情報編集手段と、この情報編集手段により編集された実演映像及び実演音楽に係る電子情報内容を配信する情報配信手段と、入力手段からの操作情報に基づいて情報編集手段及び情報配信手段の入出力を制御する編集配信制御手段とを備え、この編集配信制御手段は、情報収録送出装置へ遠隔制御情報を送信し、実演家による実演映像及び実演音楽を自動収録するように情報収録送出装置を遠隔制御することを特徴とするものである。
【0027】
本発明に係る情報編集配信装置によれば、情報収録送出装置から映像音楽素材情報を入力して編集配信処理する場合に、例えば、実演地に配置された情報収録送出装置と編集地に配置された情報編集配信装置とが接続される。これを前提にして、入力手段は情報収録送出装置を遠隔制御するための情報を含む操作情報を入力するように操作される。編集配信制御手段では入力手段からの操作情報に基づいて情報収録送出装置へ遠隔制御情報を送信し、実演家による実演映像及び実演音楽を自動収録するように情報収録送出装置を遠隔制御する。これと共に、編集配信制御手段は情報編集手段及び情報配信手段の入出力を制御する。この制御によって情報編集手段では、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理がなされる。情報配信手段では、この情報編集手段により編集された実演映像及び実演音楽に係る電子情報内容を情報利用者へ配信するようになされる。
【0028】
従って、実演地における実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集地で設定できるので、実演地での収録オペレータの無人化を図ることができる。これにより、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一の国で一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0029】
本発明に係る情報処理方法は、実演家による実演に基づく電子情報内容を配信して処理する方法であって、実演地の各々に実演家による実演を収録して映像音楽素材情報を出力する情報収録送出装置を配置し、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理をし、当該情報編集処理後の実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を編集地に配置し、実演地に配置された情報収録送出装置と編集地に配置された情報編集配信装置とを通信手段を介して接続し、実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御し、ここで遠隔制御される実演地の情報収録送出装置から得られる映像音楽素材情報を編集地の情報編集配信装置で情報編集処理し、ここで情報編集処理により得られた電子情報内容を情報配信処理することを特徴とするものである。
【0030】
本発明に係る情報処理方法によれば、実演家による実演に基づく電子情報内容を配信して処理する場合に、実演地における実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集地において設定できるので、実演地での収録オペレータの無人化を図ることができる。
【0031】
従って、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に寄与するところが大きい。
【0032】
【発明の実施の形態】
続いて、この発明に係る電子情報配信システム、情報収録送出装置、情報編集配信装置及び情報処理方法の一実施の形態について、図面を参照しながら説明をする。
【0033】
(1)実施形態
図1は、本発明に係る実施形態としての電子情報配信システム10の構成例を示す概念図である。
この実施形態では、実演家による実演を収録して得た映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を備え、その実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御して、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理できるようにすると共に、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信可能な電子情報配信システムを構築できるようにしたものである。
【0034】
図1に示す電子情報配信システム10は、実演家Mi(i=1〜n)による実演に基づく電子情報内容を配信する上位概念としてのシステムである。このシステム10は実演地(以下ライブハウスという)等で実演される実演家Miの実演映像及び実演音楽を配信提供する映像付き高音質音楽ライブ配信ビジネス等に適用して好適である。ここに実演家Miとは、俳優、舞踊家、演奏家、歌手、その他実演を行う者、実演を指揮する者、又は演出する者をいう。また、実演とは、著作物を演劇的に演じ、舞い、演奏し、口演し、朗詠し、又はその他の方法により演ずること(これらに類する行為で著作物を演じないが芸能的な性質を有するものを含む)をいう。
【0035】
ライブハウスとは、実演を観る客の入場が可能な場所であって、実演家Miが実演する演劇場等をいう。ライブハウスはCD等の基礎となる原盤を作成するための収録スタジオという概念とは異なっている。電子情報配信システム10はライブハウスに限られることはなく収録スタジオについても適用できる。
【0036】
このシステム10には、複数の情報収録送出装置#Li(i=1〜n)が準備され、各々の情報収録送出装置#Liは、例えば世界各国又は国内の各地のライブハウスに配置される。このシステム10ではライブハウスにおけるオペレータの無人化を想定している。各々の情報収録送出装置#Liでは実演家Miによる実演を収録して得た映像音楽素材データを出力するようになされる。
【0037】
例えば、ライブハウス内には遠隔制御可能な数台のカメラが配置される。カメラは実演家Miの映像を撮影する位置に配置される。再生時に、情報利用者(以下ユーザという)の好みの角度からの映像を選択して再生できるようにするためである。これらのカメラにより種々の角度から撮影した実演映像に係る数チャンネル分のライブ映像データが取得される。
【0038】
また、ライブハウス内には遠隔制御可能な数十台のマイクロフォンが配置される。マイクロフォンの各々は音源の近くに配置される。再生時に、ユーザの好みの音源を選択して再生できるようにするためである。これらのマイクロフォンにより種々の音源から収録したその実演音楽に係る数十チャネル分の音声・音楽データが収録される。これらのカメラにより撮影された実演映像及びマイクロフォンにより収録された実演音楽は、ストリーミング形式の映像音楽素材データに変換して編集地に送出するようになされる。
【0039】
このシステム10には情報収録送出装置#Liの他に情報編集配信装置1が準備され、例えば、情報編集配信装置1は編集地(以下編集サイトともいう)となる一の国又は国内に配置される。この例では、情報編集配信装置1は情報提供業者4のビジネス地である我が国に配置することを想定している。各々のライブハウスの情報収録送出装置#Liと編集サイトの情報編集配信装置1とは通信手段2Aを通じて接続される。情報編集配信装置1では各々の情報収録送出装置#Liから映像音楽素材データを入力して情報編集処理し、編集処理後の実演映像及び実演音楽に係る電子情報内容を配信するようになされる。
【0040】
このシステム10では、情報編集配信装置1によって情報編集処理された電子情報内容に関しては、実演家Miの承諾が取得され、実演家Miの承諾を得た後の電子情報内容をユーザへ配信するようになされる。この情報編集配信装置1では、実演映像及び実演音楽に係る電子情報内容の不正な複製を防止するために、これらの電子情報内容に複製禁止処理を施すようになされる。例えば、電子情報内容は複製困難なスクランブル処理が施され、スクランブル処理後のデータをストリーミング形式により情報編集配信装置1からユーザへ配信するようになされる。
【0041】
また、情報編集配信装置1では、一のライブハウスで収録された複数の実演映像及び実演音楽に関する電子情報内容を多重処理して配信するようになされる。
この電子情報内容を多重配信するようにしたのは、視聴者家庭でこれらの電子情報内容を再生するときに、その電子情報内容を好みに応じて選択できるようにしたためである。例えば、好みの角度の実演映像を選択して再生したり、好みの音源を選択して実演音楽を再生できるようになる。このようにすると、ユーザは、世界各国のライブハウスの臨場感を家に居ながらにして楽しむことができる。
【0042】
更に、視聴者の各家庭、つまり、ユーザUj(j=1〜m)には情報処理装置#Pjが各々準備される。編集サイトの情報編集配信装置1と各家庭の情報処理装置#Pjとは通信手段2Bを通じて接続される。各々の情報処理装置#Pjでは、情報編集配信装置1から電子情報内容を受信して処理するようになされる。
情報処理装置#Pjにはデスクトップ型やノート型のパーソナルコンピュータ、ホームサーバ、テレビ、AVアンプ、インターネットテレビ等が使用される。各々のライブハウスの情報収録送出装置#Liと編集サイトの情報編集配信装置1とは通信手段2Aを通じて接続される。
【0043】
少なくとも、情報収録送出装置#Liと情報編集配信装置1とは通信手段2Aにより接続される。このシステム10で情報編集配信装置1は、実演家Miによる実演映像及び実演音楽を自動収録するように通信手段2Aを通じて情報収録送出装置#Liの各々を遠隔制御するようになされる。通信手段2A,2Bにはインターネットが使用される。インターネットは衛星通信回線や、海底通信ケーブル、公衆電話回線等を組み合わせて構成される。もちろん、情報編集配信装置1とユーザの情報処理装置#Pjとは通信手段2Bを通じて接続される。
【0044】
当該電子情報配信システム10における課金処理については、まず、電子機器製造事業者はライブハウスへ情報収録送出装置#Liを販売する。もちろん、これに限られることはなく、当該情報収録送出装置#Liを貸与により提供するようにしてもよい。また、電子機器製造事業者は編集サイトへ情報編集配信装置1を販売する。もちろん、これに限られることはなく、当該情報編集配信装置1を貸与により提供するようにしてもよい。
【0045】
また、電子機器製造事業者からユーザへパソコンやインターネットテレビ等の情報処理装置#Pjを販売する。又は、ソフトウエア事業者は専用の情報処理ソフトウエアをユーザへ販売する。これらの装置やソフトウエアは貸与により提供する形式を採ってもよい。
【0046】
各ユーザUjは電子情報内容を利用する利用料金を情報提供業者4へ支払う。
回線接続事業者には回線接続料を支払うようになされる。情報提供業者4はユーザから収入した利用料金を実演家Mi及びライブハウス所有者との間で利益分配するようになされる。例えば、実演家Miに対しては出演料を支払い、ライブハウス所有者には借室料等を支払う。
【0047】
図2は電子情報配信システム10における電子情報内容の流れを示す図である。このシステム10ではn=10の場合を例に挙げている。図2に示す電子情報配信システム10によれば、経路▲1▼で映像(VIDEO)及び音楽(AUDIO)の調整を遠隔制御するための電子情報内容が送信される。例えば、編集サイト11に居るオペレータが、実演(ライブ)のリハーサル、または本番中にインターネット経由で映像(VIDEO)及び音楽(AUDIO)の調整を遠隔制御(リモートコントロール)する。
【0048】
このとき、ライブハウス、スタジオ#1〜#10等における実演音楽・音声等の収録レベル及びその圧縮(コンプレッサ)などのマイクロフォン調整や、実演映像のパン、チルト、ズーム及び画質などのカメラ調整が、編集サイト11、すなわち、図1に示した情報編集配信装置1から遠く離れた国(場所)のライブハウス#1等にある情報収録送出装置#Liに対してインターネット経由で遠隔制御するようになされる。
【0049】
また、経路▲2▼で映像及び音楽等の遠隔調整制御対象となる電子情報内容が送信される。例えば、ライブハウス#1等から編集サイト11にはモニタデータが送出される。このモニタデータは、編集サイト11で実演音楽・音声等の収録レベル及びその圧縮(コンプレッサ)などのマイクロフォン調整や、実演映像のパン、チルト、ズーム及び画質などのカメラ調整をするために使用される。
【0050】
編集サイト11の図示しないモニタ画面には、ライブハウス#1等から送られてきたモニタデータに基づく、カメラ調整及びマイクロフォン調整画面が表示される。オペレータは、このモニタ画面を視聴しながら、ライブハウスにおける映像及び音声の調整を遠隔制御するようになされる。
【0051】
更に、経路▲3▼で映像及び音声を収録した実演映像(ライブ映像)及び実演音楽(ライブ音声)がローカルファイルF1等に記録される。ローカルファイルF1はライブハウス#1に設けられ、ローカルファイルF2はライブハウス#2に設けられ、・・・・ローカルファイルF10はライブハウス#10に各々設けられる。以下でローカルファイルをFi(i=1〜10)と記述する。
【0052】
例えば、ライブハウス#1等では実演家Miによるライブ映像及びライブ音声がデジタルの映像音楽素材データとして収録され、一旦、ライブハウス(現場)に配置されている情報収録送出装置#Li内のローカルファイルF1に記録される。なお、ライブ映像及びライブ音声は、当該ライブハウス#1等と編集サイト11との間の接続回線の容量や、情報収録送出装置#Liや、情報編集配信装置1等の送受信機能の速度が確実に保持できる場合には、直接編集サイト11のストレージに映像音楽素材データとして記録するようにしても良い。
【0053】
また、経路▲4▼で各ライブハウスハウス等から送出された電子情報内容を編集サイト11で受信する。例えば、編集サイト11ではインターネット20Aに接続されている複数のライブハウス#1〜#10等の情報収録送出装置#Liのローカルファイルから、インターネット経由で、収録された映像音楽素材データを素材ファイル12に受信する(吸い上げる)ようになされる。
【0054】
更に編集段階では、経路▲5▼で情報収録送出装置#Liから受信した映像音楽素材データを素材ファイル12から読み出される。例えば、編集サイト11では、素材ファイル12から読み出した映像音楽素材データを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音楽素材データを編集するようになされる。
【0055】
また、音声編集では、音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、実演音楽に係る音楽素材データは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。また、実演映像に係る映像素材データも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的には映像情報と音楽情報とがタイムコード等により同期が取られる。
編集後の映像及び音楽データは編集済ファイル13に一旦格納される。
【0056】
更に、経路▲6▼で編集済ファイル13から映像及び音楽データが読み出され、エンコード処理される。例えば、編集サイト11におけるオーサリング段階で、編集済みの映像及び音声データをエンコードして、1つのファイルにまとめ、インターネット20Bで配信できる(流せる)ような各種フォーマットに変換される。このエンコード後の映像及び音楽データは、完成パケットファイル(以下完パケファイルともいう)14に一旦格納される。
【0057】
また、エンコード後の映像及び音声データは、経路▲7▼で実演家による確認処理に移行される。この例で、実演家であるミュージシャンM1は、編集サイト11にある完パケファイル14をインターネット経由でアクセスすることができ、エンコード済みのファイルを確認できるようになされている。例えば、ミュージシャンM1の自宅などで、エンコード後のライブ映像及び音声データを再生し、視聴チェックを行う。
【0058】
このとき、ミュージシャンM1から編集者に対して配信許可又は不許可が与えられる。この視聴の結果、ミュージシャンM1の要望を入れて編集を再加工することもできる。ここで配信OKならば、同時に、インターネット20A上で著作権の手続きを行う。このとき、情報提供業者4とミュージシャンM1との間で報酬の契約を交わすようにしてもよい。
【0059】
この配信OKを得た編集サイト11では、経路▲8▼で実演家から配信許可を得た電子情報内容を完パケファイル14から読み出して配信サーバ15へ転送する。例えば、情報提供業者4の業務を一部実行するインターネット配信業者の配信サーバ15へエンコード後のライブ映像及び音声データがゆだねられる。インターネット配信業者104における電子情報内容の配信は、ストリーミング形式でも、ダウンロード形式でも対応できるようになされる。
【0060】
ダウンロード形式の場合は、ファイルにコピープロテクション機能が付加されており、不正コピーができないようになされている。インターネット配信業者104から視聴者家庭Hj(j=1〜m)には経路▲9▼でインターネット20Bを経由してストリーミング形式のライブ映像及び音声データが配信される。
【0061】
続いて、本発明に係る実施形態としての情報処理方法について説明をする。図3は電子情報配信システム10における処理例を示すフローチャートである。
この実施形態では、当該電子情報配信システム10に加入する、例えば、A国〜J国の10か国のライブハウス#1〜#10に各々情報収録送出装置#Liを配置すると共に、編集サイト11となる我が国に情報編集配信装置1を配置する場合を例に挙げる。もちろん、ミュージシャンMiによる実演に基づく電子情報内容をユーザUjへ配信して処理する場合を前提とする。図2に示した視聴者家庭Hjには情報処理装置#Pjが予め準備される。
【0062】
また、情報編集配信装置1においては、各々のライブハウス#1〜#10に配置された情報収録送出装置#L1〜#L10によって収録された映像音楽素材データを一元編集及びミュージシャンM1〜M10の著作権を一元管理すると共に、ミュージシャンM1〜M10によるライブ映像及び音楽データに関する電子情報内容を全世界又は国内の視聴者家庭に配信する場合を例に採る。
【0063】
これらを処理条件にして、図3に示すフローチャートのステップA1で世界各国のライブハウス#1〜#10の各々に情報収録送出装置#Liを配置すると共に、我が国の編集サイト11には情報編集配信装置1を配置する。例えば、図2に示したA国のライブハウス又はスタジオ#1には、図1に示した情報収録送出装置#L1が配置される。B国のライブハウス又はスタジオ#2にも、情報収録送出装置#L2が配置され、・・・・同様にして、J国のライブハウス又はスタジオ#10には、図1に示した情報収録送出装置#L10が配置される。
【0064】
各々のライブハウス#1〜#10の情報収録送出装置#LiにはローカルファイルF1〜F10が備えられる。ローカルファイルF1は情報収録送出装置#L1に設けられ、ローカルファイルF2は情報収録送出装置#L2に設けられ、・・・・ローカルファイルF10は情報収録送出装置#L10に各々設けられる。
A国のローカルファイルF1には実演家であるミュージシャンM1により実演され収録された映像(VIDEO)データ及び音声(AUDIO)データが格納される。
【0065】
B国のローカルファイルF2には実演家であるミュージシャンM2により実演され収録されたライブ映像及び音声データが格納され、・・・J国のローカルファイルF10には実演家であるミュージシャンM10により実演され収録されたライブ映像及び音声データが各々格納される。なお、図2に示した編集サイト11には、図1に示した情報編集配信装置1が配置される。この情報編集配信装置1には、図2に示した素材ファイル12、編集済ファイル13及び完パケファイル14が備えられる。
【0066】
そして、各々のライブハウス#1〜#10に配置された情報収録送出装置#L1〜#L10と編集サイト11に配置された情報編集配信装置1とをステップA2でインターネット20A、20B等の通信手段を使用して接続する。また、情報編集配信装置1は、インターネット配信事業者の配信サーバ15に接続される。これは配信業務を委託するためである。
【0067】
その後、ステップA3に移行して、インターネット20Aを通じて情報収録送出装置#L1〜#L10の各々を遠隔制御する。この遠隔制御は、ミュージシャンMiによるライブ映像及び音楽を自動収録するためである。例えば、図2に示した経路▲1▼で映像及び音声の調整を遠隔制御するための電子情報内容が送信される。このとき、編集サイト11に居るオペレータが、ライブのリハーサル、または本番中にインターネット経由で映像及び音声の調整を遠隔制御する。
【0068】
この例では、ライブハウス#1〜#10等におけるライブ音楽・音声等の収録レベル及びその圧縮処理などのマイクロフォン調整や、ライブ映像のパン、チルト、ズーム及び画質などのカメラ調整が、編集サイト11、すなわち、図1に示した情報編集配信装置1から遠く離れた国のライブハウス#1等にある情報収録送出装置#L1に対してインターネット経由で遠隔制御するようになされる。
【0069】
また、経路▲2▼でライブ映像及び音声等の遠隔調整制御対象となる電子情報内容が送信される。例えば、ライブハウス#1等から編集サイト11にはモニタデータが送出される。このモニタデータは、編集サイト11で実演音楽・音声等の収録レベル及びその圧縮などのマイクロフォン調整や、実演映像のパン、チルト、ズーム及び画質などのカメラ調整をするために使用される。
【0070】
編集サイト11の図示しないモニタ画面には、ライブハウス#1等から送られてきたモニタデータに基づく、カメラ調整及びマイクロフォン調整画面が表示される。オペレータは、このモニタ画面を視聴しながら、ライブハウスにおける映像及び音声の調整を遠隔制御するようになされる。このようような調整が済むと、ライブ本番となって、A国のライブハウス#1に配置された情報収録送出装置#L1では、ミュージシャンM1による実演を収録して映像音楽素材データを送出するようになされる。
【0071】
また、ステップA4で我が国の編集サイト11では各々のライブハウス#1〜#10の情報収録送出装置#L1〜#L10等から送出されてくる映像音楽素材データを入力して情報編集処理をするようになされる。例えば、図2に示した経路▲4▼で各ライブハウス#1等から送出された映像音楽素材データを編集サイト11の情報編集配信装置1で受信する。このとき、編集サイト11ではインターネット20Aに接続されている複数のライブハウス#1〜#10等の情報収録送出装置#Liのローカルファイルから、インターネット経由で、収録された映像音楽素材データを素材ファイル12に受信する(吸い上げる)。
【0072】
更に図2に示した経路▲5▼で編集サイト11では、素材ファイル12から読み出した映像音声素材データを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音声素材データを編集するようになされる。また、音声編集では、音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、実演音楽に係る音楽素材データは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。更に、実演映像に係る映像素材データも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的には映像情報と音楽情報とがタイムコード等により同期が取られる。編集後の映像及び音楽データは編集済ファイル13に一旦格納される。
【0073】
また、図2に示した経路▲6▼で編集サイト11におけるオーサリング段階で、編集済ファイル13から編集済みの映像及び音声データを読み出してエンコードし、1つのファイルにまとめ、インターネット20Bで配信できるような各種フォーマットに変換される。このエンコード後の映像及び音声データは、完パケファイル14に一旦格納される。
【0074】
ステップA5で情報提供業者4はミュージシャンMiに編集内容の確認を取るようになされる。このとき、情報編集配信装置1からミュージシャンMiの所持する情報処理装置に対して、インターネット20Aを利用して、情報編集処理された電子情報内容が配信され、この電子情報内容に関してミュージシャンMiの承諾を取得するようなされる。
【0075】
例えば、図2に示したエンコード後の映像及び音声データは、経路▲7▼でミュージシャンM1による確認処理に移行される。そして、ミュージシャンM1は、編集サイト11にある完パケファイル14をインターネット経由でアクセスすることができ、エンコード済みのファイルを確認するようになされる。例えば、ミュージシャンM1の自宅などで、エンコード済みのライブ映像及び音声データを再生装置でデコードし、デコード後のライブ映像及び音声データを再生し、ミュージシャンM1は視聴チェックを行う。このとき、ミュージシャンM1から編集者に対して、視聴の結果、配信OKならば、同時に、インターネット20A上で著作権の手続きが行われる。このとき、情報提供業者4とミュージシャンM1との間で報酬の契約を交わすようになされる。
【0076】
この配信OKを得た編集サイト11では、経路▲8▼でミュージシャンM1から配信許可を得たライブ映像及び音楽データを完パケファイル14から読み出して、情報提供業者4の業務を一部実行するインターネット配信業者の配信サーバ15へこのライブ映像及び音楽データが転送される。インターネット配信業者においては、ライブ映像及び音楽データの配信に関して、ストリーミング形式でも、ダウンロード形式でも対応できるようになされる。
【0077】
このとき、インターネット配信業者104では、電子情報内容に複製禁止処理が施される。例えば、完パケファイル14に基づくライブ映像及び音声データは、インターネット配信業者の配信サーバ15から視聴者家庭Hjの情報処理装置#Pjへ、複製困難なデータストリーミング形式により配信される。不正な複製を防止するためである。
【0078】
そして、ステップA6に移行して、当該情報編集処理後のライブ映像及び音楽であって、ミュージシャンM1の確認後のライブ映像及び音楽データをユーザUjへ配信する。このとき、インターネット配信業者104から視聴者家庭Hj(j=1〜m)には図2に示した経路▲9▼でインターネット20Bを経由してストリーミング形式のライブ映像及び音声データが配信される。
【0079】
また、インターネット配信業者104では、一のライブハウス#1に係る複数のライブ映像及び音楽データに関する電子情報内容を多重処理して、視聴者家庭Hjの情報処理装置#Pjへ配信するようになされる。ユーザUj側では一のライブハウス#iに係る電子情報内容を任意に選択可能なようになされる。これと共に、ユーザUjに対して課金処理が施される。
【0080】
なお、ステップA7で情報処理を終了するかを否かを判断する。この際の判断は、ライブハウスオーナ及び情報提供業者4等のシステム業務提携関係者である。ライブ映像及び音楽情報配信処理を終了しない場合は、例えば、ステップA3に戻ってインターネット20Aを通じてA国〜J国の情報収録送出装置#L1〜#L10の各々を遠隔制御する処理を継続する。もちろん、ステップA1に戻って、世界各国の他のライブハウスに情報収録送出装置#Liを配置するような業務を遂行するようにしてもよい。ライブ映像及び音楽情報配信処理を終了する場合は、システム業務提携関係者の協議の下に終了する。
【0081】
このように、本発明に係る実施形態としての電子情報配信システム10及び情報処理方法によれば、ミュージシャンMiによる実演に基づくライブ映像及び音声データを配信する場合に、情報編集配信装置1ではミュージシャンMiによるライブ映像及び音楽を自動収録するようにインターネット20Aを通じて情報収録送出装置#L1〜#L10等の各々を遠隔制御するようになされる。
【0082】
従って、ライブハウス#1〜#10におけるライブ映像を撮影するカメラの操作、ライブ音楽を収録するマイクロフォンの操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集サイト11において設定できるので、ライブハウス#1〜#10での収録オペレータの無人化を図ることができる。これにより、世界各地に存在するライブハウス#1〜#10等で実演され、この実演によって収録される映像音楽素材データを一元編集及びミュージシャンMiの著作権を一元管理することができ、そのミュージシャンMiによるライブ映像及び音楽に関する電子情報内容を全世界に配信する電子情報配信システム10を構築することができる。
【0083】
(2)実施例
図4は本発明に係る実施例として映像付き高音質音楽ライブ配信システム100の構成例を示す図である。
この実施例では、電子情報配信システムの一例となる映像付き高音質音楽ライブ配信システム100を構築し、任意の国に存在するライブハウス#1等で実演され、この実演によって収録される映像音楽素材データをコンテンツ配信サイト102で自動編集及びアーティストコミュニティ101のアーティスト(ミュージシャン)Mi等の著作権を一元管理できるようにしたものである。
【0084】
図4に示す映像付き高音質音楽ライブ配信システム100は、アーティストMi(i=1〜n)によるライブ演奏に基づくライブ映像及び音楽データDoutを配信するシステムである。このシステム100は、従来方式の配信システムと異なり、基本的に音楽性(芸術性)の高いソフトウエアを配信するところにある。ユーザコミュニティ103には、NTSC方式のテレビを含むインターネットTVや、ホームサーバ、AVアンプ、パーソナルコンピュータ等の情報処理装置が準備され、コンテンツ配信サイト102で予め編集され準備されたライブ映像及び音楽データDoutを選択して再生可能なようになされる。
【0085】
このシステム100では、ライブハウス#1等の情報収録送出装置#L1に対して、直接操作できない(又はさせない)ことが前提となる。このことで、従来方式の配信システムのように、ユーザUjがカメラ等を遠隔操作して好みの映像を鑑賞する方法とは異なる。
【0086】
この例で、高音質音楽ライブ配信を行うために、ライブハウス#iで収録するマルチチャンネルのライブ映像及び音声データについて、配信元である情報提供業者4は、次のような対応が採られる。
【0087】
▲1▼ ライブ音声収録に関して、例えば、16本のマイクロフォン#M1〜#M16をライブハウス#i内に配置する。この16チャンネル(以下CHと記す)のマイク入力のバラバラな音声データに対して、ノイズ除去、音量合わせ、効果音の付加等の編集及び加工を施す。この16CHの音声データを、ユーザUjの視聴スタイルに合わせて2CHや、4CH、8CH等に編集して配信する。
【0088】
▲2▼ ライブ映像収録に関して、例えば、4台のカメラ#C1〜#C4をライブハウス#i内に配置する。この4台のカメラ#C1〜#C4のうち、1台は演奏者のソロパートになったとき、楽器の扱い方(弾き方)等をズーム撮影するようになされる。この例では、ある程度音楽に精通する者(例えば専門のミキサー)の指示に基づいてコンテンツ配信サイト102からライブハウス#1の情報収録送出装置#L1を遠隔制御するようになされる。これにより、良質なソフトウエアを自動編集制作することができるようになる。
【0089】
このシステム100で、ライブハウス#1には情報収録送出装置#L1が準備され、アーティストMiによるライブを収録して得た映像音楽素材データDinを出力するようになされる。この例では、ライブハウス#1におけるオペレータの無人化を想定している。このライブハウス#1の情報収録送出装置#L1はオンサイト無人コントローラを構成し、インターネット20A等のブロードバンド回線に接続されている。情報収録送出装置#L1はマイクロフォン及びカメラを遠隔制御するように動作する。
【0090】
このライブハウス#1内には遠隔制御可能な4台のカメラ#C1〜#C4が配置される。カメラ#C1〜#C4はアーティストMiの映像を撮影する位置に配置される。再生時に、ユーザUjの好みの角度からの映像を選択して再生できるようにするためである。これらのカメラ#C1〜#C4により種々の角度から撮影したライブ映像に係る4CH分のライブ映像データが取得される。
【0091】
また、ライブハウス内には遠隔制御可能な16台のマイクロフォン#M1〜#M16が配置される。マイクロフォン#M1〜#M16の各々は音源の近くに配置される。再生時に、ユーザUjの好みの音源を選択して再生できるようにするためである。これらのマイクロフォン#M1〜#M16により種々の音源から収録したそのライブ音楽に係る16CH分の音声・音楽データが収録される。
【0092】
これらのカメラ#C1〜#C4により撮影されたライブ映像及びマイクロフォン#M1〜#M16により収録されたライブ音楽は、ストリーミング形式の映像音楽素材データDinに変換して、アーカイブ用の大容量サーバ、例えば、図2に示したローカルファイルF1に一旦、取り込まれる。その後、映像音楽素材データDinは編集地のコンデンサ配信サイト102に送出するようになされる。
【0093】
情報提供業者4である配信元はコンテンツ配信サイト102を構成する。このコンテンツ配信サイト102には情報編集配信装置1を構成する配信サーバ15、アーティスト管理サーバ16、自動編集加工部17及びコンテンツサーバ18が備えられる。このコンテンツ配信サイト102は情報提供業者4のビジネス地である我が国に配置することを想定している。
【0094】
上述したライブハウス#1の情報収録送出装置#L1とコンテンツ配信サイト102の自動編集加工部17とはインターネット20Aを通じて接続される。情報提供業者4である配信元では、ライブハウス#1に設置された4台のカメラ#C1〜#C4及び、16本のマイクロフォン#M1〜#M16をアーティストMiの要望により遠隔操作して収録が行われる。このシステム100では、ライブハウス#1におけるライブ映像等の収録時に、アーティスト側から配信元へ希望の映像アングルや音声編集等の要望を受け付けるようになされる。
【0095】
また、コンテンツ配信サイト102では、情報収録送出装置#L1から自動編集加工部17に映像音楽素材データDinが入力される。自動編集加工部17では、ローカルファイルF1から読み出された映像音楽素材データDinを情報編集処理する。もちろん、パソコン(PC)等を利用してオぺレータにより、アーティストMi及びユーザUjを満足するような配信ソフトを編集・制作するようにしてもよい。
【0096】
自動編集加工部17にはコンテンツサーバ18が接続され、編集処理後のライブ映像及び音楽データ(映像及び音楽ソフト)Doutが格納される。このシステム100では、情報編集処理されたライブ映像及び音楽データDoutに関して、アーティストMiの承諾が取得され、このアーティスト側の承認を以てユーザUjへの配信がOKとなる。アーティストMiの承諾を得た後のライブ映像及び音楽データDoutをユーザUjへ配信するようになされる。
【0097】
このコンテンツ配信サイト102にはアーティスト管理サーバ16が設けられ、アーティストMiの確認や、利用条件設定電子契約等を管理するようになされる。アーティスト管理サーバ16で管理されるアーティスト情報は、必要に応じてユーザUjへ配信するようになされる。
【0098】
また、コンテンツサーバ18には配信サーバ15が接続され、アーティストMiから配信許可が出されたライブ映像及び音楽データDoutが格納される。配信サーバ15はインターネット20Bを通してユーザUjコミュニティ103の情報処理装置に接続され、配信許可後のライブ映像及び音楽データDoutを配信するようになされる。
【0099】
この配信サーバ15では、ライブ映像及び音楽データDoutの不正な複製を防止するために、これらのライブ映像及び音楽データDoutに複製禁止処理を施すようになされる。例えば、ライブ映像及び音楽データDoutは複製困難なスクランブル処理が施され、スクランブル処理後のデータをストリーミング形式により配信サーバ15からユーザUjの情報処理装置へ配信するようになされる。
【0100】
また、配信サーバ15では、一のライブハウス#1で収録された複数のライブ映像及び音楽データDoutを多重処理して配信するようになされる。このライブ映像及び音楽データDoutを多重配信するようにしたのは、視聴者家庭でこれらのライブ映像及び音楽データDoutを再生するときに、そのライブ映像及び音楽データDoutを好みに応じ選択できるようにしたためである。例えば、好みの角度のライブ映像を選択して再生したり、好みの音源を選択してライブ音楽を再生できるようになる。このようにすると、ユーザUjは、ライブハウス#1の臨場感を家に居ながらにして楽しむことができる。
【0101】
図5は映像付き高音質音楽ライブ配信システム100におけるコンテンツ及び金銭等の流通例を示す図である。
図5に示すビジネスAでは業務用の映像音声編集機器(プロAV機器)201等を使用して当該高音質音楽ライブ配信システム100を稼働するためのシステムソフトウエアを作成する。このシステムソフトウエアを図5に示す実線の経路(1)で情報提供業者4へ納入し、ビジネスAは情報提供業者4から点線で示す経路(12)で代金を徴収する。
【0102】
この情報提供業者4には、アーティスト用のWEB5、ユーザUj用のWEB6、サーバ15’、自動編集加工部17及び、システムメンテナンス部(以下システムメンテ部という)19が備えられる。上述のシステムソフトウエアはシステムメンテ部19で管理される。この例で情報提供業者4は経路(2)でライブハウス#1へ情報収録送出装置#Liやその他付属システムを販売する。もちろん、これに限られることはなく、当該情報収録送出装置#Li等を貸与により提供するようにしてもよい。このとき、機器セット及び、無人化可能となるまで収録人員を派遣するようになされる。
【0103】
ライブハウス#1ではアーティストMiによってライブを催す毎に、実演家の権利である「著作権」が発生する。このライブハウス#1で開催されたアーティストMiによるライブ映像及び音楽に係る映像音楽素材データDinは収録コンテンツとなって、経路(3)で情報収録送出装置#L1から情報提供業者4のサーバ15’へ転送される。情報提供業者4では経路(4)で収録コンテンツがサーバ15’から自動編集加工部17へ転送される。
【0104】
自動編集加工部17では、収録コンテンツが情報編集及び加工される。この情報編集及び加工後の収録コンテンツは完パケコンテンツとなって、経路(5)でサーバ15’へ転送される。完パケコンテンツは経路(15)、WEB5及び経路(16)を通じてアーティストMiによって確認される。この確認後のアーティスト情報は、経路(16)、WEB5及び経路(15)を通じて情報提供業者4へ返信される。完パケコンテンツが配信可能な状態になされる。
【0105】
一方、図5に示すビジネスBでは電子機器製造事業者からユーザUjへ、経路(7)でパソコンやインターネットテレビ等の専用機器(PC/CE device)を販売する。また、ソフトウエア事業者は専用の情報処理ソフトウエアをユーザUjへ販売する。ユーザUjは経路(8)でビジネスBに対して代金を支払う。これらの専用機器やソフトウエアは貸与により提供する形式を採ってもよい。
【0106】
この映像付き高音質音楽ライブ配信システム100における課金処理については、まず、情報提供業者4のユーザUj用のWEB6から、経路(9)のインターネット20Bを通じて完パケコンテンツが配信される。ユーザUjの利益としては、無名の自分の好みに合ったアーティストMiを探し出すことができる。ライブ映像・音楽配信ソフトには編集及び加工がなされているので、最適な環境で簡便にライブ映像等を楽しむことができる。
【0107】
このサービスに対して、各ユーザUjはライブ映像及び音楽データDoutを利用するためのサービス料金を情報提供業者4へ支払う。例えば、ユーザUjは経路(10)でISP(インターネットサービス接続)事業者104に対してサービス料を支払う。このサービス料には完パケコンテンツの利用料が含まれている。ISP事業者104は、回線接続料を差し引いたコンテンツ提供料を経路(11)で情報提供業者4へ支払うようになされる。この配信元としての利益については、アーティストMiやユーザUjの負担により、最高の編集機材、大容量のサーバおよび優秀なオペレータ、ミキサー等を揃えることができる。また、配信元が世界中のアーティストMiを発掘できるようになる。
【0108】
情報提供業者4では、ユーザUjから収入したコンテンツ提供料をアーティストMi及びライブハウス所有者との間で利益分配するようになされる。例えば、アーティストMiに対しては出演料を支払い、ライブハウス所有者には借室料等を支払う。つまり、コンテンツ提供料からシステムソフトウエアの代金を除いた余剰金を、経路(13)でライブハウス#1のオーナーに利益配分するようになされる。ライブハウス#1のオーナーは、アーティストMiに対して借室料等を引いた残金を利益配分するようになされる。
【0109】
この際のアーティストMiの利益としては、各々のライブハウス#1に、カメラ#C1〜#C4、マイクロフォン#M1〜#M16等の収録端末機器だけを揃えておけば、アーティストMiは各地を移動することがなく、自分のホームグランドで演奏できるようになる。従って、時間的及び、空間的な制約がなく、編集設備に対するコスト負担が軽くなる。また、アーティストMiは複数の配信元(情報提供業者4)のうちから気に入ったコンテンツ配信サイト102等を選択可能できるようになる。このシステム100で配信元と会話をしながら、ライブ映像・音声データ編集に自分の意見を提言できるようになる。
【0110】
[情報収録送出装置]
図6は本発明に係る実施例としての情報収録送出装置#L1の内部構成例を示すブロック図である。
図6に示す情報収録送出装置#L1は、映像付き高音質音楽ライブ配信システム100を構成するものであり、アーティストMiによるライブ演奏に基づくライブ映像及び音楽データDoutを収録出力処理する装置である。情報収録送出装置#L1は情報編集配信装置1に接続して使用される。
【0111】
この情報収録送出装置#L1は収録装置本体21、駆動制御部22、通信モデム(ルータ)23及びLAN(Local Area Network)24等から構成される。収録装置本体21内には、モニタ混合器(MIX)213、コントロールポート214、中央演算装置(以下CPUという)215、ハードディスク(以下HDDという)216、データストリーマ217、LANコントローラ(LANC)218、モニタスイッチ(SW)220、16個の音声処理部211、2個のバスブリッジ212,219及び4個の映像処理部221を有している。
【0112】
この例で16本のマイクロフォン#M1〜#M16は収録装置本体21に接続される。例えば、マイクロフォン#M1は遠隔制御可能な収音手段の一例であり、#M1用の音声処理部211に接続される。マイクロフォン#M1はアーティストMiによるライブ音楽を収録するようになされる。音声処理部211はアンプ31、リミッタ/コンプレッサ(L/C)32、アナログ・デジタル変換器(ADC;以下A/D変換器という)33及びボリューム34から構成される。
【0113】
例えば、マイクロフォン#M1等で収録した音声は、アンプ31に入力される。この例では、コンテンツ配信サイト(編集室)102からの指令により、インターネット20A→コントロールポート経由でアンプのゲイン情報、リミッタコンプレッサ32のパラメータが受信されそれぞれ反映される。
【0114】
また、コンテンツ配信サイト102における音声モニタのために、MIX信号を作成し、リアルタイムにコンテンツ配信サイト102に送信する。どのチャンネルをモニタとして混合するかといった情報はコンテンツ配信サイト102のオペレータが指令を出し、これに基づいて混合を行なう。
【0115】
アンプ31にはマイクロフォン#M1が接続され、収録されたライブ音楽信号を増幅出力するようになされる。アンプ31の利得はボリューム34によって調整され、ライブ音楽信号出力を可変するようになされる。アンプ31にはリミッタ/コンプレッサ32が接続され、ライブ音楽信号出力を制限すると共に圧縮するようになされる。
【0116】
上述のリミッタ/コンプレッサ32及びボリューム34にはコントロールポート214が接続され、ボリューム34の移動量を制御してアンプ31のゲイン(Gain)を調整するようになされる。また、コントロールポート214はリミッタ/コンプレッサ32にパラメータを設定してライブ音楽信号出力を制限すると共に圧縮するようになされる。
【0117】
リミッタ/コンプレッサ32にはA/D変換器33が接続され、制限及び圧縮後のライブ音楽信号をアナログ・デジタル変換するようになされる。これにより、マイクロフォン#M1により収録されるデジタルのライブ音楽データを出力することができる。他のマイクロフォン#M2〜#M16についても、同様な音声処理部211が準備され、各々のマイクロフォン#M2〜#M16により収録されるデジタルのライブ音楽データを得ることができる。
【0118】
上述の16個の音声処理部211にはバスブリッジ212及びモニタMIX213が接続される。モニタMIX213では、バスブリッジ212において、16CHのライブ音楽データを2,4,8CH等に混合するようになされる。例えば、モニタMIX213には上述したコントロールポート214から混合制御信号が出力され、この混合制御信号に基づいて16CHのライブ音楽データを混合するようになされる。
【0119】
一方、4個のカメラ#C1〜#C4は収録装置本体21に接続される。例えば、カメラ#C1は遠隔制御可能な撮影手段の一例であり、#C1用の映像処理部221に接続される。カメラ#C1はアーティストMiによるライブ映像を収録するようになされる。映像処理部221はA/D変換器35、フレーム同期回路36及び圧縮回路37から構成される。
【0120】
A/D変換器35にはカメラ#C1が接続され、撮影されたライブ映像信号(Video)をアナログ/デジタル変換するようになされる。A/D変換器35にはフレーム同期回路36が接続され、ライブ映像信号のフレーム同期処理をするようになされる。フレーム同期回路36には圧縮回路37が接続され、フレーム同期処理後のライブ映像信号が圧縮される。圧縮後のライブ映像信号はライブ映像データとなる。これにより、カメラ#C1により撮影されたデジタルのライブ映像データを出力することができる。他のカメラ#C2〜#C4についても、同様な映像処理部221が準備され、各々のカメラ#C2〜#C4により撮影されたデジタルのライブ映像データを得ることができる。
【0121】
上述の4個の映像処理部221にはバスブリッジ219及びモニタスイッチ220が接続される。モニタスイッチ220では、バスブリッジ219において、4CHのライブ映像データを切換えるようになされる。このバスブリッジ219には内部バス222が接続されている。内部バス222には、CPU215、HDD216、データストリーマ217、LANコントローラ218、I/Oポート223及び上述のコントロールポート214等が接続される。
【0122】
HDD216はローカルファイルF1等を構成するものであり、HDD216にはバスブリッジ219を通じて転送されるライブ映像データが格納される。音声データは圧縮されずに全チャンネルがHDD216に記録されるが何らかのフォーマットで圧縮してもよい。音声及び映像データには、タイムコードが付随しており、コンテンツ配信サイト102における編集時に画像と音声の同期が取られる。
【0123】
データストリーマ217ではライブ映像データ及びライブ音声データがストリーミング形式の映像音楽素材データDinに変換される。LANコントローラ218はLAN24に接続される。LANコントローラ218ではLAN24から遠隔制御情報D1を取り込んだり、映像音楽素材データDinをLAN24へ送出するようになされる。
【0124】
LAN24は通信モデム23に接続される。通信モデム23はインターネット20A等に接続され、コンテンツ配信サイト102からの遠隔制御情報D1を受信したり、モニタ映像データをリアルタイムにコンテンツ配信サイト102に送信したり、データストリーマ217によって変換されたストリーミング形式の映像音楽素材データDinをコンテンツ配信サイト102へ送信するようになされる。モニタ映像データはコンテンツ配信サイト102で映像をモニタするためのものである。
【0125】
また、上述のI/Oポート223には駆動制御部22が接続される。駆動制御部22及び上述のCPU215は、情報出力制御手段を構成するものである。CPU215は4台のカメラ#C1〜#C4により撮影されたライブ映像データ及び16本のマイクロフォン#M1〜#M16により収録されたライブ音楽データを映像音楽素材データDinに変換し、インターネット20A等を通じてコンテンツ配信サイト102へ出力するように、HDD216やデータストリーマ217等を制御するものである。
【0126】
駆動制御部22ではCPU215の制御を受けて、図1に示した情報編集配信装置1から、図6に示す通信モデム23及びLANコントローラ218を経由して遠隔制御情報D1を受信する。そして、駆動制御部22は、例えば、コンテンツ配信サイト102からの指令を受けて、カメラLAN経由で4台のカメラ#C1〜C4のパン、チィルト、ズーム処理等の遠隔制御を行い、アーティストMiによるライブ映像及び音楽を自動収録するようになされる。この駆動制御部22ではカメラ#C1〜#C4の他に16本のマイクロフォン#M1〜#M16を遠隔制御するようになされる。
【0127】
図7及び図8はライブ映像及び音楽情報の収録機器等の配置例(前面、上面)をそれぞれ示す立体図及び平面図である。この実施例では、ライブハウス#1における映像・音声の収録する場合であって、4台のカメラ#C1〜#C4、16本のマイクロフォン#M1〜#M16を使用する場合を例に挙げる。
【0128】
図7に示すライブハウス#1のステージ105を立体視した場合に、そのステージ105上の天井部分にはレール106が設けられている。このレール106には、移動可能な1台のズーム・パンチルター付きカメラ#C1が取付けられる。カメラ#C1は、例えば、レール16に規制されて左右に移動でき、ボーカルやソロ演奏するアーティストを撮影するようになされる。
【0129】
また、ステージ105に向かって左側の壁上方にはカメラ#C2が備えられ、また、その右側の壁上方にはカメラ#C3が備えられる。いずれのカメラ#C2,#C3も、ズーム・パンチルター付きであり、例えば、客席よりやや高い位置の左右の壁に固定される。カメラ#C2,#C3は、ライブ演奏するアーティストの様子を左右から色々と撮影することが可能となされる。
【0130】
カメラ#C4は例えば、ステージ105上を移動走行可能な無線遠隔ロボット機能を有したものが使用される。カメラ#C4は演奏者のソロパートになったとき、楽器の扱い方(弾き方)等をズーム撮影するようになされる。もちろん、他のカメラ#C1〜#C3によってカメラ#C4が撮影されない位置を移動するようになされる。このように配置された移動用のカメラ及び固定カメラの計4台のカメラ操作は、インターネット20Aを通して配信元の情報編集配信装置1で行なわれる。従って、ライブハウス#1でのオペレータが不要となる。
【0131】
更に、16本のマイクロフォン#M1〜#M16がライブハウス#1の天井部やステージ105等に配置される。例えば、ステージ105上には、ピアノの音収録用に1本のマイクロフォン#M1が配置され、キーボードの音収録用に1本のマイクロフォン#M2が配置され、ベースアンプの音収録用に1本のマイクロフォン#M3が配置され、ドラムスの音収録用に4本のマイクロフォン#M4〜#M7(キック;#M4,スネアー・ハイハット;#M5,シンバル(トップ・クラッシュ);#M6,フロアータム;#M7)が配置され、ギターアンプの音収録用に1本のマイクロフォン#M8が配置され、管楽器の音収録用に1本のマイクロフォン#M9が配置される。
【0132】
また、天井中央部には、4本のマイクロフォン#M9〜#M12が配置される。#M9,#M10の2本は前方収録用であり、#M11,#M12の2本は、後方エコー成分収録用に割り当てられる。#M11,#M12の2本は図8に示す客席側の歓声等も収録可能となる。更に、天井部左右には、スポット用の1本のマイクロフォン#M13が配置され、ボーカル用に1本のマイクロフォン#M14が配置される。また、左側壁のカメラ#C2付近には、天井左端収録用の1本のマイクロフォン#M15が配置され、右側壁のカメラ#C3付近には、天井右端収録用の1本のマイクロフォン#M16が配置される。
【0133】
このような計16本のマイクロフォン#M1〜#M16は、特に、各楽器近くに配置されたマイクロフォン#M1〜#M6は、固定乃至移動可能なタイプのものが使用される。天井左右端の2本のマイクロフォン#M15、#M16には、指向性マイクが使用され、これをパンチルターに取り付け、収音方向にマイク先を向けたり、ズーム機能を動作させるようになされる。
【0134】
天井中央部の4本のマイクロフォン#M9〜#M12もできれば、パンチルターに取り付け、方向変更ができれば好ましい。この例では、カメラ#C1に4本のマイクロフォン#M9〜#M12を取付ければ、天井部の左右方向に設けたレール106でカメラ#C1と共に移動され、収録の幅が広がるようになる。このように配置された計16本のマイクロフォン#M1〜#M16の操作は、インターネット20Aを通して配信元の情報編集配信装置1で行なわれる。従って、ライブハウス#1でのオペレータが不要となる。
【0135】
続いて、ライブハウス#1における情報収録送出装置#L1の処理例について説明をする。
この実施例で情報収録送出装置#L1がライブ映像及び音楽データDoutを配信するシステム100の情報編集配信装置1に接続されることを前提とする。この例で、4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16は、図7及び図8に説明した通りに配置される。この例では、情報収録送出装置#L1における調整時及び、ライブ映像及び音声データ収録時の2つに分けて説明をする。
【0136】
図9は情報収録送出装置の自動調整例を示すフローチャートである。図10A及び図10Bは情報収録送出装置に#Liによる自動収録例を示すフローチャートである。この例では、リハーサル映像を撮影し、及び、リハーサル音声を収録して情報収録送出装置を調整し、その後、本番収録とするようになされる。
【0137】
これを前提にして、例えば、図9に示すフローチャートのステップB1で駆動制御部22では、コンテンツ配信サイトの情報編集配信装置1から遠隔制御情報D1を受信し、ステップB2で4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する。このとき、4台のカメラ#C1〜#C4は、駆動制御部22による遠隔制御によって、リハーサルに係る映像を遠隔撮影するようになされる。リハーサル映像は、例えば、転送レート約25MbpsのDVフォーマットで撮影される。
【0138】
また、カメラ#C1で撮影されたリハーサル映像は、例えば、図10Bに示すフローチャートのステップE1で映像処理部221のA/D変換器35に出力される。A/D変換器35では、カメラ#C1により撮影されたリハーサル映像信号(Video)をアナログ/デジタル変換するようになされる。A/D変換後のリハーサル映像信号はA/D変換器35からフレーム同期回路36へ出力される。フレーム同期回路36ではステップE2でリハーサル映像信号のフレーム同期処理をするようになされる。フレーム同期処理後のリハーサル映像信号は、フレーム同期回路36から圧縮回路37へ出力される。圧縮回路37では、ステップE3でフレーム同期処理後のリハーサル映像信号が圧縮される。圧縮後のリハーサル映像信号はリハーサル映像データとなる。
【0139】
これにより、カメラ#C1により撮影されたデジタルのリハーサル映像データを出力することができる。他のカメラ#C2〜#C4についても、同様な映像処理部221が準備され、各々のカメラ#C2〜#C4により撮影されたデジタルのリハーサル映像データを得ることができる。リハーサル映像データはステップE4でバスブリッジ219を通じてローカルファイルF1を構成するHDD216に格納される。これにより、リハーサル映像を自動収録することができる。
【0140】
また、16本のマイクロフォン#M1〜#M16では、図10Aに示したフローチャートのステップB2で駆動制御部22による遠隔制御によって、アーティストMiによるリハーサル音楽を遠隔収録するようになされる。このとき、コンテンツ配信サイト(編集室)102からの指令により、インターネット20A→コントロールポート経由でアンプのゲイン情報、リミッタコンプレッサ32のパラメータが受信されそれぞれ反映される。例えば、リハーサル音楽は24bit、96kHzにより16CHで録音される。
【0141】
更に、コンテンツ配信サイト102における音声モニタのために、MIX信号を作成し、リアルタイムにコンテンツ配信サイト102に送信する。どのチャンネルをモニタとして混合するかといった情報はコンテンツ配信サイト102のオペレータが指令を出し、これに基づいて混合を行なう。
【0142】
例えば、マイクロフォン#M1で収録されたリハーサル音楽は、図10Bに示すフローチャートのステップG1で音声処理部211に入力される。#M1用の音声処理部211のアンプ31では、収録されたリハーサル音楽信号を増幅出力するようになされる。アンプ31の利得はボリューム34によって調整され、リハーサル音楽信号出力を可変するようになされる。このとき、コントロールポート214は、ボリューム34の移動量を制御してアンプ31のゲイン(Gain)を調整するようになされる。
【0143】
ここにボリューム調整されたリハーサル音楽信号はアンプ31からリミッタ/コンプレッサ32へ出力される。リミッタ/コンプレッサ32ではステップG2でリハーサル音楽信号出力を制限すると共に圧縮するようになされる。このとき、コントロールポート214はリミッタ/コンプレッサ32にパラメータを設定してリハーサル音楽信号出力を制限すると共に圧縮するようになされる。
【0144】
圧縮制限後のリハーサル音楽信号はステップG3でリミッタ/コンプレッサ32からA/D変換器33へ出力され、A/D変換器33でアナログ・デジタル変換するようになされる。このA/D変換により、マイクロフォン#M1により収録されるデジタルのリハーサル音楽データを出力することができる。他のマイクロフォン#M2〜#M16についても、同様な音声処理部211が準備され、各々のマイクロフォン#M2〜#M16により収録されるデジタルのリハーサル音楽データを得ることができる。
【0145】
このとき、モニタMIX213では、バスブリッジ212において、16CHのリハーサル音楽データを2,4,8CH等に混合するようになされる。例えば、モニタMIX213には上述したコントロールポート214から混合制御信号が出力され、この混合制御信号に基づいて16CHのリハーサル音楽データを混合するようになされる。この映像4CH分のリハーサル映像データ及び、音声16CH分のリハーサル音声データは、ステップG4で一旦大容量のローカルファイルF1を構成するHDD216に格納される。これにより、リハーサル音楽を自動収録することができる。
【0146】
自動収録されたリハーサル映像及び音声データは、図9に示したフローチャートのステップB3でHDD216から読み出されてデータストリーマ217に出力される。データストリーマ217では、CPU215の制御受けて、リハーサル映像データ及びリハーサル音声データがストリーミング形式の映像音楽素材データDinに変換され、更に、タイムコードが付加される。
【0147】
このタイムコードが付加された映像音楽素材データDinはLANコントローラ218の制御受けて、LAN24を通じて通信モデム23に出力される。通信モデム23では、ステップB4でデータストリーマ217によって変換されたリハーサル映像音楽素材データDinをインターネット20A等を通じてコンテンツ配信サイト102の情報編集配信装置1へ送信するようになされる。
【0148】
その後、ステップB5に移行して終了判断がなされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信していない場合は、ステップB1に戻って上述した処理を繰り返すようになされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信した場合は、リハーサル映像及び音声データの送信処理を終了する。
【0149】
[ライブ映像及び音声データの収録例]
なお、本番収録に関して、リハーサル収録時の図10A及び図10Bのフローチャートを再度使用する。この例では、リハーサル映像及び、リハーサル音声の収録によって調整された情報収録送出装置#Liを使用して本番収録がなされる。
【0150】
これを前提にして、例えば、図9に示したフローチャートのステップB1で駆動制御部22では、コンテンツ配信サイトの情報編集配信装置1から遠隔制御情報D1を受信し、ステップB2で4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する。例えば、4台のカメラ#C1〜#C4は、駆動制御部22による遠隔制御によって、アーティストMiによるライブ映像を遠隔撮影するようになされる。ライブ映像は、例えば、転送レート約25MbpsのDVフォーマットで撮影される。
【0151】
このとき、カメラ#C1で撮影されたアーティストMiによるライブ映像は、図10Bに示すフローチャートのステップE1で映像処理部221のA/D変換器35に出力される。A/D変換器35では、カメラ#C1により撮影されたライブ映像信号(Video)をアナログ/デジタル変換するようになされる。A/D変換後のライブ映像信号はA/D変換器35からフレーム同期回路36へ出力される。フレーム同期回路36では、ステップE2でライブ映像信号のフレーム同期処理をするようになされる。フレーム同期処理後のライブ映像信号は、フレーム同期回路36から圧縮回路37へ出力される。圧縮回路37では、ステップE3でフレーム同期処理後のライブ映像信号が圧縮される。圧縮後のライブ映像信号はライブ映像データとなる。
【0152】
この圧縮回路37から、カメラ#C1により撮影されたデジタルのライブ映像データを出力することができる。他のカメラ#C2〜#C4についても、同様な映像処理部221が準備され、各々のカメラ#C2〜#C4により撮影されたデジタルのライブ映像データを得ることができる。ライブ映像データは、ステップE4でバスブリッジ219を通じてHDD216に格納される。これにより、アーティストMiによるライブ映像を自動収録することができる。
【0153】
また、16本のマイクロフォン#M1〜#M16では、図10Aに示したフローチャートのステップB2で駆動制御部22による遠隔制御によって、アーティストMiによるライブ音楽を遠隔収録するようになされる。このとき、コンテンツ配信サイト(編集室)102からの指令により、インターネット20A→コントロールポート経由でアンプのゲイン情報、リミッタコンプレッサ32のパラメータが受信されそれぞれ反映される。例えば、ライブ音楽は24bit、96kHzにより16CHで録音される。
【0154】
また、コンテンツ配信サイト102における音声モニタのために、MIX信号を作成し、リアルタイムにコンテンツ配信サイト102に送信する。どのチャンネルをモニタとして混合するかといった情報はコンテンツ配信サイト102のオペレータが指令を出し、これに基づいて混合を行なう。
【0155】
例えば、マイクロフォン#M1で収録されたアーティストMiによるライブ音楽は、図10Bに示すフローチャートのステップG1で音声処理部211に入力される。#M1用の音声処理部211のアンプ31では、収録されたライブ音楽信号を増幅出力するようになされる。アンプ31の利得はボリューム34によって調整され、ライブ音楽信号出力を可変するようになされる。このとき、コントロールポート214は、ボリューム34の移動量を制御してアンプ31のゲイン(Gain)を調整するようになされる。
【0156】
ここにボリューム調整されたライブ音楽信号はアンプ31からリミッタ/コンプレッサ32へ出力される。リミッタ/コンプレッサ32ではステップG2でライブ音楽信号出力を制限すると共に圧縮するようになされる。このとき、コントロールポート214はリミッタ/コンプレッサ32にパラメータを設定してライブ音楽信号出力を制限すると共に圧縮するようになされる。
【0157】
圧縮制限後のライブ音楽信号はステップG3でリミッタ/コンプレッサ32からA/D変換器33へ出力され、A/D変換器33でアナログ・デジタル変換するようになされる。このA/D変換により、マイクロフォン#M1により収録されるデジタルのライブ音楽データを出力することができる。他のマイクロフォン#M2〜#M16についても、同様な音声処理部211が準備され、各々のマイクロフォン#M2〜#M16により収録されるデジタルのライブ音楽データを得ることができる。
【0158】
このとき、モニタMIX213では、バスブリッジ212において、16CHのライブ音楽データを2,4,8CH等に混合するようになされる。例えば、モニタMIX213には上述したコントロールポート214から混合制御信号が出力され、この混合制御信号に基づいて16CHのライブ音楽データを混合するようになされる。
【0159】
この映像4CH分のライブ映像データ及び、音声16CH分のライブ音声データはHDD216にアーカイブされる。このライブ音声データは圧縮させずに全チャンネルがHDD216に記録されるが、何らかのフォーマットで圧縮してもよい。これにより、アーティストMiによるライブ音楽を自動収録することができる。
【0160】
自動収録されたライブ映像及び音声データは、図9に示したフローチャートのステップB3でHDD216から読み出されてデータストリーマ217に出力される。データストリーマ217では、CPU215の制御受けて、ライブ映像データ及びライブ音声データがストリーミング形式の映像音楽素材データDinに変換され、更に、タイムコードが付加される。これはコンテンツ配信サイト102において編集時に画像と音声の同期を取るためである。
【0161】
このタイムコードが付加された映像音楽素材データDinはLANコントローラ218の制御受けて、LAN24を通じて通信モデム23に出力される。通信モデム23では、ステップB4でデータストリーマ217によって変換された映像音楽素材データDinをインターネット20A等を通じてコンテンツ配信サイト102の情報編集配信装置1へ送信するようになされる。
【0162】
その後、ステップB5に移行して終了判断がなされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信していない場合は、ステップB1に戻って上述した処理を繰り返すようになされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信した場合は、ライブ映像及び音声データの送信処理を終了する。
【0163】
このように、本発明に係る情報収録送出装置#L1によれば、アーティストMiによるライブに基づくライブ映像データ及びライブ音声データを収録出力処理する場合に、コンテンツ配信サイト102の情報編集配信装置1から遠隔制御情報D1を受信し、4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する駆動制御部22が備えられるものである。
【0164】
従って、4台のカメラ#C1〜#C4や16本のマイクロフォン#M1〜#M16の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、ライブハウス#1での収録オペレータの無人化を図ることができる。これにより、アーティストMiによるライブ映像及び音声データを全世界に配信する映像付き高音質音楽ライブ配信システム100の構築に寄与することができる。
【0165】
[情報編集配信装置]
図11は本発明に係る実施例としての情報編集配信装置1の構成例を示すブロック図である。図12は情報編集配信装置1における遠隔操作例を示す図である。
【0166】
この実施例で情報編集配信装置1は、情報収録送出装置#Liによって収録される映像音楽素材データDinを一元編集及びアーティストMiの著作権を一元管理すると共に、アーティストMiによるライブ映像及び音楽データDoutを全世界又は国内に配信するようになされる。
【0167】
図11に示す情報編集配信装置1は、映像付き高音質音楽ライブ配信システム100の各々の情報収録送出装置#Liからタイムコード付きの映像音楽素材データDinを入力して情報編集処理したライブ映像及び音楽データDoutをユーザUjに配信するものである。情報編集配信装置1はコンテンツ配信サイト102となる一の国又は国内に配置される。情報編集配信装置1は、パーソナルコンピュータ400及び配信サーバ15から構成される。
【0168】
パーソナルコンピュータ400は、素材ファイル12、情報編集エディタ41、モニタ42、キーボード43、遠隔操作用のデータ送出部44、制御装置45、マウス46及び、マイクロフォン47を有している。キーボード43及びマウス46は入力手段の一例であり、情報収録送出装置#Liを遠隔制御するための情報を含む操作情報を入力するように操作される。マイクロフォン47は編集者の音声をライブ音声データ等に混合する際に使用される。
【0169】
モニタ42は情報収録送出装置#Liを遠隔制御するための設定画面を表示するものである。例えば、図12に示すように、モニタ設定画面P1はカメラ映像表示領域P11と、マイク調整表示領域P12とに分割される。カメラ映像表示領域P11には、4台のカメラ#C1〜#C4の撮影映像が表示されると共に、各々のカメラ#C1〜#C4の向きを変更したり、ズーム、パン・チルト処理等するジョイスティックキー421が表示される。ジョイスティックキー421は例えば、マウスポインタにより上下・左右(T−W)に操作するようになされる。
【0170】
また、マイク調整表示領域P12には、16本のマイクロフォン#M1〜#M16のボリューム調整映像が表示されると共に、この領域の上方には、各々のマイクロフォン#M1〜#M16の入力レベルを表示するレベル表示領域P13が割り当てられる。また、この領域P13の下方には、マイクロフォン#M1〜#M16の各々について、ボリューム調整用のスライドキー422が表示される。この16本のマイクロフォン#M13〜#M16については、収録方向を調整するジョイスティックキー423が表示される。スライドキー422は、例えば、マウスポインタにより上下(T−W)に操作するようになされ、ジョイスティックキー423は、マウスポインタにより上下及び左右に操作するようになされる。
【0171】
これにより、コンテンツ配信サイト102の編集者は、モニタ42の表示画面を見ながら、キーボード43及びマウス46を操作することにより、遠隔地のライブハウス#1の情報収録送出装置#Liに接続された、4台のカメラ#C1〜#C4及び、16本のマイクロフォン#M1〜#M16を調整することができる。
【0172】
また、図11に示す素材ファイル12は、情報収録送出装置#Liから入力した映像音楽素材データDinを格納するメモリである。素材ファイル12は映像用素材ファイル12A及び、音声用素材ファイルを有している。いずれも、ハードディスク(HDD)等から構成される。素材ファイル12に格納された映像音楽素材データDinは、情報編集手段の一例となる情報編集エディタ41に出力される。情報編集エディタ41は編集済みファイル13及び、完パケファイル14を有している。情報編集エディタ41では、各々の情報収録送出装置#Liから映像音楽素材データDinを入力して情報編集処理するようになされる。
【0173】
例えば、情報編集エディタ41では情報収録送出装置#Liから転送されてきた映像音楽素材データDinを素材ファイル12から読み出す。情報編集エディタ41では、素材ファイル12から読み出した映像音楽素材データDinを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音楽素材データDinを編集するようになされる。
【0174】
また、音声編集では情報編集エディタ41によって音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、ライブ音楽に係る音楽素材データは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。更に、ライブ映像に係る映像素材データも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的にはライブ映像データとライブ音楽データとがタイムコード等により同期が取られる。編集後の映像及び音楽データは編集済ファイル13に一旦格納される。この例では、24bit、96kHz及び16CHで録音されたライブ音声データが、図示しないデジタルミキサで24bit、96kHz及び8CHにミックスダウンされる。
【0175】
更にまた、情報編集エディタ41ではオーサリング段階で編集済みの映像及び音声データをエンコードして、1つのファイルにまとめ、インターネット20Bで配信できるような各種フォーマットに変換される。例えば、転送レート約25MbpsのDVフォーマットで撮影された4CH分のライブ映像データは、転送レートが低いMPEG2の標準(約4Mbps)又は高画質(約6Mbps)に変換される。編集後の4CH映像データと8CH音声データのタイムコードが合わせられる。このエンコード後の映像及び音楽データは、完パケファイル14に一旦格納される。
【0176】
高画質4CHのライブ映像データ及び、8CHのライブ音声データの両者を合わせた転送レートは約40Mbpsとなる。この転送レートは、通信事業者(NTT)のBフレッツ、100Mbpsが実際に規格値を満たすようになれば、充分配信可能な容量である。タイムコードを合わせた編集後の4CH映像と8CH音声データは送出用の配信サーバ15にアーカイブするようになされる。
【0177】
上述の情報編集エディタ41には、編集配信制御手段の一例となる制御装置45が接続され、この制御装置45には配信サーバ15が接続される。制御装置45では、キーボード43及びマウス46からの操作情報に基づいて情報編集エディタ及び配信サーバ15の入出力を制御するようになされる。配信サーバ15では情報編集エディタ41により編集されたライブ映像及び音楽データDoutをユーザUjに配信するようになされる。
【0178】
この制御装置45には通信モデム等により構成されるデータ送出部44が接続される。制御装置45はデータ送出部44を通じて、情報収録送出装置#Liへ遠隔制御情報D1を送信し、アーティストMiによるライブ映像及び音楽を自動収録するように情報収録送出装置#Liを遠隔制御するようになされる。例えば、制御装置45は情報収録送出装置#Liへ遠隔制御情報D1を送信し、アーティストMiによるライブ映像及び音楽を自動収録するように4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する。
【0179】
この他に、制御装置45は情報編集エディタ41によって情報編集処理されたライブ映像及び音楽データDoutに関してアーティストMiの承諾を取得し、アーティストMiの承諾を取得した後のライブ映像及び音楽データDoutを配信サーバ15からユーザUjへ配信するように制御する。例えば、制御装置45はライブ映像及び音楽データDoutに複製禁止処理を施すように配信サーバ15を制御する。例えば、配信サーバ15からユーザUjの情報処理装置#Pjへ複製困難なデータストリーミング形式によりライブ映像及び音楽データDoutを配信するようになされる。これにより、ライブ映像及び音楽データDoutの不正な複製を防止できるようになる。
【0180】
この例で制御装置45は、配信サーバ15を制御して、一のライブハウス#iに係る複数のライブ映像及び音楽データDoutを多重処理して配信するように配信サーバ15を制御する。このデータ配信によって、ユーザUjの情報処理装置で一のライブハウス#iに係るライブ映像及び音楽データDoutを任意に選択可能なようになる。しかも、ユーザUjにおいて、ライブ映像及び音楽データDoutの選別の自由度を拡大することができる。
【0181】
続いて、情報編集配信装置1における処理例について説明をする。この例では情報編集配信装置1における情報収録時の遠隔制御例、情報編集時の処理例及び情報配信時の処理例の3つに分けて説明をする。
【0182】
この実施例の配信形態に関しては、ユーザUjの情報処理装置のハードディスクへダウンロードする場合を想定し、また、データ複写の危険性が少ないストリーミング配信形式を前提とし、更に、ユーザUjの利便性を考慮してオンデマンド放送をする場合について例を挙げる。
【0183】
[情報収録時の遠隔制御例]
図13は情報編集配信装置1における情報収録時の遠隔制御例を示すフローチャートである。
この実施例では、ライブハウス#I等に配置された情報収録送出装置#Liとコンテンツ配信サイト102に配置された情報編集配信装置1とがインターネット20Aを通じて接続される場合を前提とする。
【0184】
これを制御条件にして、図13に示すフローチャートのステップQ1でキーボード43及びマウス46を操作して情報収録送出装置#Liを遠隔制御するための情報を含む操作情報を入力する。このとき、図11に示したモニタ42には、図12に示したようなカメラ映像表示領域と、マイク調整表示領域とが分割されたモニタ設定画面が表示される。
【0185】
このカメラ映像表示領域に表示された4台のカメラ#C1〜#C4の撮影映像の向きを例えば、ステップQ11で変更したり、ズーム、パン・チルト処理等する場合に、ステップQ12では、このモニタ設定画面上でマウスポインタを移動してジョイスティックキー421を操作しカメラ#C1を調整するようになされる。例えば、#C1用のジョイスティックキー421を上下・左右(T−W)に操作すると、カメラ#C1によりズーム処理された撮影が表示される。
【0186】
また、マイク調整表示領域に表示された16本のマイクロフォン#M1〜#M16のボリュームをステップQ21で調整する場合に、この領域上方に表示された入力レベルを確認しながら、ステップQ22で各々のマイクロフォン#M1〜#M16のゲインを調整する。例えば、この領域下方に表示された#M1のスライドキー422を例えば、マウスポインタにより上方向(T方向)に操作すると、マイクロフォン#M1の入力レベルが増加するように表示され、実際に、遠隔地の情報収録送出装置#Liに接続されたマイクロフォン#M1の入力レベルが高くなるようになされる。
【0187】
その後、ステップQ3に移行して遠隔制御情報D1を作成する。遠隔制御情報D1はステップQ11,Q12、Q21及びQ22により得られた調整値に基づいて作成される。このような遠隔制御情報D1は、ステップQ4で制御装置45の制御を受けて、データ送出部44を通じて情報収録送出装置#Liへ送信され、アーティストMiによるライブ映像及び音楽を自動収録するように情報収録送出装置#Liを遠隔制御するようになされる。
【0188】
これにより、コンテンツ配信サイト102の編集者は、モニタ42の表示画面を見ながら、キーボード43及びマウス46を操作することにより、遠隔地のライブハウス#1の情報収録送出装置#Liに接続された、4台のカメラ#C1〜#C4及び、16本のマイクロフォン#M1〜#M16を調整することができる。
【0189】
その後、ステップQ5に移行して終了判断がなされる。遠隔制御情報D1を全部、情報収録出力装置#1へ送信していない場合は、ステップQ1に戻って上述した処理を繰り返すようになされる。遠隔制御情報D1を全部送信した場合は、ライブ映像及び音声データの送信処理を終了する。このとき、編集者の音声をライブ音声データ等に混合する場合は、マイクロフォン47を使用して入力される。これにより、情報収録送出装置#Liでは、図10A及び図10Bに示したように、アーティストMiのライブ映像が自動撮影され、及び、ライブ音声を自動収録することができる。
【0190】
[情報編集時の処理例]
図14は情報編集配信装置1における情報編集時の処理例を示すフローチャートである。
この実施例では、制御装置45によって情報編集エディタ41の入出力が制御され、この制御によって情報編集エディタ41では、各々の情報収録送出装置#Liから映像音楽素材データDinを入力して情報編集処理をするようになされる。もちろん、素材ファイル12には、情報収録送出装置#Liから入力した映像音楽素材データDinが格納されている。
【0191】
これを前提にして、情報編集エディタ41では、図14に示すフローチャートのステップR1で素材ファイル12から映像音楽素材データDinが読み出される。情報編集エディタ41では、ステップR2で素材ファイル12から読み出した映像音楽素材データDinを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音楽素材データDinを編集するようになされる。
【0192】
また、音声編集では情報編集エディタ41によって音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、ライブ音楽に係る音楽素材データDinは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。
【0193】
更に、ライブ映像に係る映像素材データDinも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的にはライブ映像データとライブ音楽データとがタイムコード等により同期が取られる。編集後の映像及び音楽データは、ステップR3で編集済ファイル13に一旦格納される。この例では、24bit、96kHz及び16CHで録音されたライブ音声データが、図示しないデジタルミキサで24bit、96kHz及び8CHにミックスダウンされる。
【0194】
更にまた、情報編集エディタ41ではオーサリング段階で編集済みの映像及び音声データをエンコードして、1つのファイルにまとめ、インターネット20Bで配信できるような各種フォーマットに変換される。例えば、転送レート約25MbpsのDVフォーマットで撮影された4CH分のライブ映像データは、転送レートが低いMPEG2の標準(約4Mbps)又は高画質(約6Mbps)に変換される。編集後の4CH映像データは、ステップR5で8CH音声データのタイムコードに合わせ込まれる。このエンコード後の映像及び音楽データは、ステップR6で完パケファイル14に一旦格納される。
【0195】
高画質4CHのライブ映像データ及び、8CHのライブ音声データの両者を合わせた転送レートは約40Mbpsとなる。この転送レートは、通信事業者(NTT)のBフレッツ、100Mbpsが実際に規格値を満たすようになされる。このタイムコードを合わせた編集後の4CH映像と8CH音声データは送出用の配信サーバ15に転送される。
【0196】
その後、ステップR7に移行して終了判断がなされる。ライブ映像及び音声データを完パケファイル14に全部格納していない場合は、ステップR1に戻って上述した処理を繰り返すようになされる。ライブ映像及び音声データを完パケファイル14に全部格納した場合は、ライブ映像及び音声データの加工・編集処理を終了する。
【0197】
[情報配信時の処理例]
図15は情報編集配信装置1における情報配信時の処理例を示すフローチャートである。この実施例では、情報編集エディタ41によって情報編集処理されたライブ映像及び音楽データDoutに関してアーティストMiの承諾を取得するようになされる。アーティストMiの承諾を取得した後のライブ映像及び音楽データDoutを配信サーバ15からユーザUjへ配信する場合を前提とする。
【0198】
これを処理条件にして、制御装置45ではキーボード43及びマウス46からの操作情報に基づいて配信サーバ15の入出力を制御するようになされる。例えば、図15に示すフローチャートのステップT1で完パケファイル14から情報編集処理後のライブ映像及び音楽データDoutを読み出してアーティストMiの端末装置へ転送する。この際のライブ映像及び音楽データDoutの転送にはインターネットが使用される。
【0199】
次に、情報編集処理後のライブ映像及び音楽データDoutに関してステップT2でアーティストMiの承諾を取得する。ここでアーティストMiの承諾を取得できない場合には、ステップT3に移行して、再加工・編集処理を実行する。再加工編集処理では、図14に示した処理を繰り返すようになされる。この再加工編集結果において、アーティストMiの承諾を取得できた場合は、ステップT4に移行して承諾取得後のライブ映像及び音楽データDoutを完パケファイル14から配信サーバ15へ転送する。このとき、図4に示したアーティスト管理サーバ16にアーティスト確認情報や、利用条件設定電子契約の他にアーティストMiから承諾情報を記憶するようにしてもよい。
【0200】
その後、制御装置45はステップT5で、承諾取得後のライブ映像及び音楽データDoutを配信サーバ15からユーザUjへ配信するようになされる。このとき、制御装置45はライブ映像及び音楽データDoutに複製禁止処理を施すように配信サーバ15を制御する。例えば、配信サーバ15からユーザUjの情報処理装置へ複製困難なデータストリーミング形式によりライブ映像及び音楽データDoutを配信するようになされる。これにより、ライブ映像及び音楽データDoutの不正な複製を防止できるようになる。
【0201】
また、制御装置45は一のライブハウス#iに係る複数のライブ映像及び音楽データDoutを多重処理して配信するように配信サーバ15を制御する。その後、ステップT6に移行して他のライブハウス#iに係るデータ配信処理を終了したかが判断される。他のライブハウス#iに係るデータ配信処理を終了していない場合は、ステップT1に戻って上述した処理を繰り返すようになされる。他のライブハウス#iに係るデータ配信処理を終了した場合は、ライブ映像及び音声データの配信処理を終了する。
【0202】
このようなデータ配信によって、ユーザUjの情報処理装置で任意のライブハウス#iに係るライブ映像及び音楽データDoutを任意に選択可能なようになる。しかも、ユーザUjにおいて、ライブ映像及び音楽データDoutの選別の自由度を拡大することができる。
【0203】
このように、本発明に係る実施例としての情報編集配信装置1によれば、情報収録送出装置#Liから映像音楽素材データDinを入力して編集配信処理する場合に、この情報収録送出装置#Liへ遠隔制御情報D1を送信し、アーティストMiによるライブ映像及び音楽を自動収録するように遠隔制御をする制御装置45が備えられるものである。
【0204】
従って、ライブハウス#1等において、ライブ映像を撮影する4台のカメラ#C1〜#C4の操作、ライブ音楽を収録する16本のマイクロフォン#M1〜#M16の操作及び、これらの撮影・収録レベルの調整等を人手を介さずにコンテンツ配信サイト102で設定できる。しかも、情報収録送出装置#Liでは、図10A,Bに示したように、アーティストMiのライブ映像が自動撮影され、及び、ライブ音声を自動収録することができるので、ライブハウス#1等での収録オペレータの無人化を図ることができる。
【0205】
これにより、世界各地に存在するライブハウス等でライブ演奏され、このライブ演奏によって自動収録される映像音楽素材データDinを一の国で一元編集及びアーティストMiの著作権を一元管理することができ、そのアーティストMiによるライブ映像及び音楽に関するライブ映像及び音楽データDoutを全世界に配信する映像付き高音質音楽ライブ配信システム100の構築に寄与するところが大きい。
【0206】
[情報処理装置]
図16は本発明に係る映像付き高音質音楽ライブ配信システム100における受信側システムの構成例を示すブロック図である。
この実施例で受信側システムには情報処理装置の一例となるインターネットテレビ(通常のテレビを含む)60、ホームサーバ70、AVアンプ80、デスクトップ型やノート型のパーソナルコンピュータ(単にパソコンという)90等が使用され、これらの情報処理装置には、図4に示したインターネット20Bを通じてコンテンツ配信サイト102の配信サーバ15や、図11に示した情報編集配信装置1の配信サーバ15等が接続され、この配信サーバ15からライブ映像及び音楽データDoutを受信して処理するようになされる。
【0207】
この例では、ユーザUjと配信元の関係において、IPS接続業者の配信サーバ15からユーザUjの情報処理装置へ配信されるライブ映像及び音楽データDoutに関する再生方式が、例えば、「スタンダード」や、3つの「オプションA〜C」が利用料金別に分類され準備されている。
【0208】
▲1▼ 「スタンダード」は、ステージ全体を撮影するカメラ#C1により撮影された1CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の2CHのライブ音楽を再生する再生方式である。この「スタンダード」の再生方式は、例えば、パソコン等のGUI(Graphic User Interface)機能を利用して選択される。ユーザUjは、初めにステージ全体を見たり、その演奏を聴く場合に「スタンダード」の再生方式を選択するとよい。
【0209】
▲2▼ 「オプションA」は、2つの例えば、カメラ#C1及び#C2により撮影された2CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の4CHのライブ音楽を再生する再生方式である。この「オプションA」の再生方式は、例えば、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。
【0210】
▲3▼ 「オプションB」は、3つの例えば、カメラ#C1〜#C3により撮影された3CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の8CHのライブ音楽を再生する再生方式である。音声に関して、「オプションA」と同様に編集済みであるが、各CHの音量調整が可能となっている。この「オプションB」の再生方式は、更なる要望として、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。
【0211】
▲4▼ 「オプションC」は、4つのカメラ#C1〜#C4により撮影された4CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の16CHのライブ音楽を再生する再生方式である。音声に関して、「オプションA」と同様に編集済みであるが、各CHの音量調整及び、音質をユーザUjによって調整することが可能となっている。このようなユーザUjの視聴スタイルの一例として「スタンダード」や、3つの「オプションA〜C」等を提示したが、料金もコンテンツ内容量(ボリューム)によって異なるようになされる。
【0212】
上述の配信元とユーザUjの関係において再生方式が分類される受信側システム、つまり、図16に示す視聴者の各家庭Hjには、いわゆるホームシアターシステムとして、通信モデム40、ルータ(ハブ)50及び、インターネットテレビ60、ホームサーバ70、AVアンプ80、ノート型のパソコン90等が使用され、これらは家庭内のLAN30に接続される。
【0213】
通信モデム40は、一方を公衆回線に接続され、他方をルータ50に接続される。通信モデム40には加入者端末(ONU)や、ADSLモデムが使用される。ライブ映像及び音声データ(コンテンツ)Doutは、インターネット配信業者(ISP業者)104から光ファイバ(FTTH)や電話回線(ADSL)等の公衆回線を通して、通信モデム40により家庭内に取り込まれる。通信モデム40により取り込まれたライブ映像及び音声データは、ルータ50を経由して家庭内LAN30に伝送される。
【0214】
このような家庭内LAN30に接続されるホームシアターシステムは、テレビ受像機と音声再生システムから構成される。テレビ受像機には、例えば、大画面を構成するプラズマディスプレイパネル(PDP)装置が使用され、音声再生システムには5.1サラウンド方式の音声再生装置が使用される。
【0215】
図17は、ノート型のパソコン90を使用した受信側システム200の構成例を示す概念図である。図17に示すノート型のパソコン90は、家庭内LAN30に接続され、パソコン本体にはステレオ方式のスピーカ91,92が接続される。パソコン90で配信サーバ15からライブ映像及び音楽データDoutを受信して処理する場合、キーボード94や、マウス95を操作して、再生方式を選択するようになされる。モニタ93には予め選択した再生方式によりライブ映像が表示され、左右のスピーカ91,92からライブ音楽を出力するようになされる。
【0216】
図18は、インターネットテレビ60を使用した受信側システムの構成例を示す概念図である。
図18に示すインターネットテレビ60は家庭内LAN30に接続され、インターネットテレビ60には、予めステレオ方式のスピーカ91’、92’が組み込まれている。インターネットテレビ60で配信サーバ15からライブ映像及び音楽データDoutを受信して処理する場合、インターネットテレビ60の操作パネルに設けられた操作キー94’を操作して、再生方式を選択するようになされる。モニタ93’の表示画面には予め選択した再生方式によりライブ映像が表示され、左右のスピーカ91’、92’からライブ音楽を出力するようになされる。
【0217】
この例では、ホームシアターシステム、パソコンを使用した受信側システム及び、インターネットテレビ60を使用した受信側システムのいずれの場合においても、ライブ映像及び音声データの再生に関して、「CDクオリティ」、「2ch,96k−24Bit」、「サラウンド,96k−24Bit」、「マルチトラック,96k−24Bit,マルチ画面」、[マルチトラック,DSD」などの選択肢から要望する再生方式を選択するようになされる。
【0218】
次に、受信側システムにおける処理例について説明をする。図19Aはメニュー選択画面の表示例、図19Bはリモコン300の操作例を示す図である。
この実施例では、マルチトラック・マルチ画面の場合について説明をする。家庭内LAN30には図16に示したようにテレビ60や、ホームサーバ70、AVアンプ80などの各家庭用(IT)機器が接続される。ここで行われる画像や音声の信号処理は、インテリジェンスを持ったインターネットテレビ60で行われる場合を想定する。もちろん、家庭内サーバや図17に示したパソコン上で信号処理を行い、その結果を通常のテレビ60などのAV機器に転送しても良い。
この例では、音声8トラック+画像4画面の再生方式が選択された場合を例に挙げる。
【0219】
図19Aに示すメニュー選択画面P2は、例えば、インターネットテレビ60において、図示しない前画面で音声8CH(トラック)+96K−24Bit+画像4画面の再生方式を選択し、その画面で確認ボタン「OK」を押下することにより表示される。
【0220】
このメニュー選択画面P2には、「おまかせ」モードMD1及び、「自分で設定」モードMD2が表示される。「おまかせ」モードMD1は情報提供業者4によってライブ収録時に編集された音声及び各チャネル平均音量で再生され、及び1画面のみの映像が表示されるモードである。ユーザUjがこの「おまかせ」モードMD1を選択した場合は、予め定められたパラメータがインターネットテレビ60に送られ、自動的にパラメータが設定される。これにより、ユーザUjは調整無しでライブ映像及び音楽を視聴することができる。
【0221】
なお、図19Aに示したメニュー選択画面P2には、「自分で設定」モードMD2を選択した後のサブメニュー表示画面P21が重ねて表示された例である。これらのメニュー選択画面P2やサブメニュー選択画面P21はインターネットテレビ60のGUI機能を利用して選択操作される。例えば、図19Aに示した「自分で設定」モードMD2を選択すると、このモードの隣りにサブメニュー選択画面P21が展開され、図19Bに示すリモコン300を操作して、このメニュー選択画面P2上で各種設定ができるようになっている。
【0222】
図19Bに示すリモコン300には、メニュー選択用のメニュー(MENU)キーK1と、項目選択用の左右矢印キーK2,K3及び上下矢印キーK4,K5と、項目決定用の決定キーK6と、制御量設定用の「+/−」キーK7,K8とが設けられている。図19Bにおいて、リモコン300のメニューキーK1を押下すると、インターネットテレビの画面上に図19Aに示したメニュー選択画面P2が表示される。
【0223】
サブメニュー選択画面P21には、「画面」タグTG1、「音声入力」タグTG2及び「サラウンド」タグTG3が表示され、各設定が自由にできるようになされる。「おまかせ」モードMD1では満足しないユーザUjは、「自分で設定」モードMD2を選択することにより、コンテンツ配信サイト102で予め準備された配信データの範囲内で、ライブ映像及び音楽を自分の好みに合った状態に設定できるようになる。
【0224】
[音声調整例]
図20はインターネットテレビ60上の音声入力設定画面P3の表示例を示す図である。図20に示す音声入力設定画面P3は、図19Aで「音声入力」タグTG2を選択することにより、メニュー選択画面P2から音声入力設定画面P3へ表示が切り替わったものである。音声入力設定画面P3には、例えば、チャンネル(Channel;調整項目番号)「1」〜「8」を表示するチャンネル領域P31が割り当てられる。チャンネル「1」〜「8」の下方には各楽器名を表示する楽器表示領域P32が割り当てられる。
【0225】
この例でチャンネル「1」の下方には、ギター(Guitar−1)が表示され、チャンネル「2」の下方には、ギター(Guitar−2)が表示され、チャンネル「3」の下方には、ベース(Base)が表示され、チャンネル「4」の下方には、キーボード(KeyBd)が表示され、チャンネル「5」の下方には、ボーカル(Vocal)が表示され、チャンネル「6」の下方には、コーラス(Chorus)が表示され、チャンネル「7」の下方には、ドラムス(Drams)が表示され、チャンネル「8」の下方には、パーカション(Perc.)が各々表示される。いずれもライブハウス#1等で使用される楽器に対応したものである。
【0226】
これらの楽器表示領域P32の下方には、サラウンドパンナ表示領域P33が割り当てられている。サラウンドパンナ表示領域P33には視聴位置を原点にしたスピーカ位置を示す第1象限(R)、第2象限(L)、第3象限(LS)及び第4象限(RS)を有するグラフが表示される。第1〜第4象限のいずれかの中から音像の位置を選択できるようになされている。
【0227】
この例で、チャンネル「1」のギターに対して、第1象限の音像位置が選択され、チャンネル「2」のギターに対して、第2象限の音像位置が選択され、チャンネル「3」のベースに対して、第1象限の音像位置が選択され、チャンネル「4」のキーボードに対して、第2象限の音像位置が選択され、チャンネル「5」のボーカルに対して、第1象限の音像位置が選択され、チャンネル「6」のコーラスに対して、第4象限の音像位置が選択され、チャンネル「7」のドラムスに対して、第2象限の音像位置が選択され、チャンネル「8」のパーカッションに対して、第1象限の音像位置が各々選択されている。
【0228】
このサラウンドパンナ表示領域P33の下方には、音量調整フェーダ(スライドスイッチ)表示領域P34が割り当てられている。音量調整フェーダ表示領域P34には、上述した楽器やボーカル、コーラス毎に、音量調整フェーダ341が上下に移動可能となされ、ライブ音楽の音源毎に音量調整可能なようになされる。これにより、ライブ音楽を構成する各楽器やボーカル、コーラス等の音量バランスを取ることができる。音量調整フェーダ表示領域P34の右側には、マスタボリュームキー342が表示され、ライブ音楽全体の音量を調整できるようになされる。
【0229】
この音量調整フェーダ表示領域P34の下方には、ミュート(Mute)キー表示領域P35が割り当てられ、上述した楽器やボーカル、コーラス毎に、音源をミュート(消音)できるようなキーが配置されている。例えば、ボーカルのトラックをミュートしてマイナスワン(カラオケ)として楽しむことができる。これにより、ユーザUjの好みによる音楽環境を創出できるようになる。
【0230】
更に、ミュートキー表示領域P35の下方には、エフェクタ表示領域P36が割り当てられる。この例で、エフェクタ表示領域P36には、チャンネル「3」のベースに対して、スペシャルキーが表示され、チャンネル「4」のキーボードに対して、スペシャルキーK11,K12、コーラスキーK13及びリバーブキーK14が表示され、チャンネル「5」のボーカルに対して、ブーストキーK15が表示される。これらのキーK11〜K15を選択することで、ライブ音楽の音質を調整できるようになされる。これらの音量調整フェーダ341や、マスタボリューム342、キーK11〜K15はマウス等によるポインタによって移動される。
【0231】
[サラウンド設定例]
図21はインターネットテレビ60上のサラウンド調整画面P4の表示例を示す図である。この例では、図19Bに示したリモコン300の+/−キーK7,K8で選択されたチャンネルのサラウンドパン(音像の位置)を調整できるようにした。これから主流になるであろう、サラウンドの設定を、ユーザUjの好みに応じて行えるようにしたためである。
【0232】
図21に示すサラウンド調整画面P4は、図20に示したサラウンドパンナ表示領域P33で、例えば、チャンネル「5」を選択することにより、音声入力設定画面P3からサラウンド調整画面P4へ表示が切り替わったものである。サラウンド調整画面P4には、例えば、チャンネル「5」のボーカルL#2が表示される。この表示領域に隣接してサラウンドパン(SURROUND PAN;音像位置)表示領域P41が割り当てられる。このサラウンドパン表示領域P41には、視聴位置を原点にしたスピーカ位置を示す第1象限〜第4象限を有するグラフが表示される。
【0233】
このグラフの周辺には、第1象限を選択する「R」タグTG4、第2象限を選択す「L」タグTG5、第3象限を選択する「LS」タグTG6、及び、第4象限を選択する「RS」タグTG7が表示される。この他に、「R」タグTG4と「L」タグTG5の間には、中央位置を示す「C」タグTG8や、重低音用のスピーカを示す「SW」タグTG9が配置されている。「LS」タグTG6と「RS」タグTG7の間には、記録保存を示す「FDディスク」タグTG10が配置されている。
【0234】
また、グラフの右側には、書込み用の「WRITE」タグTG11や、設定用の「SET」タグTG12が配置される。この「WRITE」タグTG11と「SET」タグTG12の間には、センタースピーカの音量を示す領域P42が割り当てられる。この例では、DIV「50%」が表示される。
【0235】
このようなサラウンド調整画面P4において、例えば、図21に示すチャンネル「5」でボーカルを選択すると、図20に示したボーカルの位置は、第1象限(R)に位置している。しかし、ユーザUjの好みとして、ボーカルは、やっぱり、センター(C)を定位として欲しいと思えば、図21に示した「WRITE」タグTG11の選択→「C」タグTG8の選択→「SET」タグTG12の選択を順次実行することにより、センターへの音像位置を変更できるようになされる。
【0236】
[映像選択例]
図22はライブ映像画面P5の表示例、図23A及び図23Bはそのライブ映像選択画面P53及び拡大画面P54を各々示す図である。この例ではライブ映像を表示する画面に関して「オプションC」が選択されると、4つに分割されたライブ映像が一画面中に表示される。この4つに分割されたライブ映像は、ライブハウス#1等で4台のカメラ#C1〜#C4により撮影して得た4CHのライブ映像データに基づくものである。
【0237】
図22において、P51はボーカルを含む全体演奏者のライブ映像画面である。P52はギター「1」及び「2」を演奏するミュージシャンのライブ映像画面である。P53はギター「1」を演奏するミュージシャンのライブ映像画面である。P54はボーカルを担当するミュージシャンのライブ映像画面である。
【0238】
この例では、図19Bに示したリモコン300の矢印キーK2〜K5で見たい画面を選択する、例えば、ライブ映像画面P53を選択すると、図22に示した4つに分割されたライブ映像が、図23Aに示すライブ映像選択画面P53に切り替わるようになされる。この図23Aに示すライブ映像選択画面P53にウインドウ枠を設定し、リモコン300の+/−キーK7,K8を操作して、ウインドウ枠の大きさを可変できるようになされる。この例では、ベースギター奏者の手元付近にウインドウ枠が設定され、このベースギター奏者の手元付近を拡大表示(クローズアップ)するようになされる。
【0239】
これらを前提にして、図19〜図23を参照しながら、受信側システム200におけるGUI操作例について説明をする。図24及び図25は受信側システム200におけるGUI操作例(その1、2)を示すフローチャートである。
【0240】
この実施例では再生方式に関して、先に説明した「スタンダード」、「オプションA」〜「オプションC」が準備されている場合を例に挙げる。これを処理条件にして、まず、図24に示すフローチャートのステップV1でユーザUjは、インターネットテレビ60上で映像付き高音質音楽ライブ配信システム100のWebを立ち上げる。もちろん、ノートパソコン上で当該システム100を立ち上げてもよい。
【0241】
このシステム立ち上げにより、ステップV2でインターネットテレビ60の初期画面には、図示しない「ライブ新着情報」や、「視聴可能なライブ情報」、「ミュージシャン検索情報」等が表示される。その後、ユーザUjは自分が視聴したいと思うライブ情報をステップV3で選択する。ライブ情報を選択しない場合は、ステップV20に移行する。ライブ情報を選択する場合は、ステップV4に移行して、ユーザUjはID/パスワードを入力する。
【0242】
このID/パスワードが入力されると、ステップV5に移行してライブ映像及び音楽データDoutの再生方式が選択される。このとき、インターネットテレビ60のモニタ画面には、図示しない「視聴タイプの選択」→(CDクオリティ)、(2CH、96K−24Bit)〜(マルチトラック、DSD、マルチ画面)の選択項目や、これらの利用料金、「おまかせ」モードMD1、「自分で設定」モードMD2等が表示される。ユーザUjはこの中から希望の再生方式を選択するようになされる。
【0243】
ここでユーザUjが「おまかせ」モードMD1を選択すると、ステップV6に移行して当該モードに係る利用料金が表示される。このとき、タイプ毎の視聴(購入)金額を表示するようにしてもよい。その後、ステップV7に移行して「視聴の金額」の確認がなされる。「おまかせ」モードMD1に係る利用料金を承認「OK」する場合は、ステップV8に移行する。これにより、視聴のタイプが決定される。また、この利用料金を承認「OK」しない場合は、図示しない「キャンセル」キーを押下することにより、「おまかせ」モードMD1の選択を取りやめることができる。その後、ステップV20に移行する。ステップV8では、「スタンダード」を実行するべくパラメータが設定される。
【0244】
この「スタンダード」では、ステージ全体を撮影するカメラ#C1により撮影された1CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の2CHのライブ音楽が再生される。この「スタンダード」の再生方式によれば、初めにステージ全体を見たり、その演奏を聴くことができる。その後、ステップV20に移行する。
【0245】
また、上述のステップV5で「自分で設定」モードMD2を選択すると、ステップV9に移行して「オプションA」、あるいは、それ以外のオプションが選択される。「オプションA」が選択された場合は、ステップV10に移行して当該モードに係る利用料金が表示される。このとき、タイプ毎の視聴(購入)金額が表示される。
【0246】
その後、ステップV11に移行して「視聴の金額」の確認がなされる。「自分で設定」モードMD2に係る利用料金を承認「OK」する場合は、ステップV12に移行する。これにより、視聴のタイプが決定され、「オプションA」が実行される。「オプションA」では、2台のカメラ#C1及び#C2により撮影された2CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の4CHのライブ音楽を再生するようになされる。「オプションA」の再生方式は、例えば、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。なお、この利用料金を承認「OK」しない場合は、「キャンセル」キーを押下することにより、「自分で設定」モードMD2の選択を取りやめることができる。
【0247】
更に、ステップV9で「オプションA」以外のオプションが選択された場合は、例えば、図25に示すフローチャートのステップV13に移行して、「オプションB」が選択されたかをチェックされる。「オプションB」が選択された場合は、ステップV14に移行して当該モードに係る利用料金が表示される。
【0248】
その後、ステップV15に移行して「視聴の金額」の確認がなされる。「自分で設定」モードMD2に係る利用料金を承認「OK」する場合は、ステップV16に移行する。この利用料金を承認「OK」しない場合は、「キャンセル」キーを押下することにより、「自分で設定」モードMD2の選択を取りやめることができる。
【0249】
ステップV16では「オプションB」が実行される。「オプションB」では、3つのカメラ#C1〜#C3等により撮影された3CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の8CHのライブ音楽を再生するようになされる。音声に関しては、「オプションA」と同様に編集済みであるが、各CHの音量調整が可能となっている。この「オプションB」の再生方式は、更なる要望として、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。
【0250】
また、ステップV13で「オプションA、B」以外、すなわち、「オプションC」を選択する場合は、ステップV17に移行して、当該モードに係る利用料金が表示される。その後、ステップV18に移行して「視聴の金額」の確認がなされる。「自分で設定」モードMD2に係る利用料金を承認「OK」する場合は、ステップV19に移行する。この利用料金を承認「OK」しない場合は、「キャンセル」キーを押下することにより、「自分で設定」モードMD2の選択を取りやめることができる。
【0251】
ステップV19では「オプションC」が実行される。「オプションC」では、4つのカメラ#C1〜#C4により撮影された4CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の16CHのライブ音楽を再生するようになされる。音声に関して、「オプションA」と同様に編集済みであるが、各CHの音量調整及び、音質をユーザUjが調整することが可能となる。
【0252】
例えば、図22に示したような4つに分割された画面に表示が切り替わる。ここで、図19Bに示したリモコン300の矢印キーK1等で見たい画面を選択する、例えば、ライブ映像画面P53を選択すると、図22に示した4つに分割されたライブ映像が、図23Aに示すライブ映像選択画面P53の全体表示に切り替わるようになされる。このとき、例えば、図23Aに示したライブ映像選択画面P53にウインドウ枠を設定し、リモコン300の+/−キーK7,K8を操作して、ウインドウ枠の大きさを可変するように操作される。また、ベースギター奏者の手元付近にウインドウ枠を設定し、このベースギター奏者の手元付近を拡大表示することもできる。
【0253】
また、音声調整に関しては、図20に示した音声入力設定画面P3等をインターネットテレビ60上に表示し、この音声入力設定画面P3で各楽器やボーカル、コーラス毎に、音量調整フェーダを上下に移動したり、ライブ音楽の音源毎に音量調整するようになされる。これにより、ライブ音楽を構成する各楽器やボーカル、コーラス等の音量バランスを取ることができる。更に、図21に示したサラウンド調整画面P4をインターネットテレビ60上に表示し、図19Bに示したリモコン300の+/−キーK7,K8を操作してサラウンドパン(音像の位置)を調整するようにしてもよい。
【0254】
このようにして、本発明に係る実施例としての映像付き高音質音楽ライブ配信システムにおける情報処理方法によれば、アーティストMiによるライブに基づくライブ映像及び音楽データDoutを配信して処理する場合に、ライブハウス#1等におけるライブ映像を撮影する4台のカメラ#C1〜#C4の操作、ライブ音楽を収録する16本のマイクロフォン#M1〜#M16の操作及び、これらの撮影・収録レベルの調整等を人手を介さずにコンテンツ配信サイト102において設定できるので、ライブハウス#1等での収録オペレータの無人化を図ることができる。
【0255】
従って、世界各地に存在するライブハウス#1等で実演され、このライブ演奏によって収録される映像音楽素材データDinを一元編集及びアーティストMiの著作権を一元管理することができ、そのアーティストMiによるライブ映像及び音楽に関するライブ映像及び音楽データDoutを全世界に配信可能な新たな映像付き高音質音楽ライブ配信システム100を構築することができる。
【0256】
また、本発明に係る実施例によれば、違法複製(コピー)が困難なデータストリーミング形式によりライブ映像及び音楽データDoutを電子配信するようになされるので、視聴時の情報処理装置#Pjとってデータ処理負担を軽減すること、及び、ユーザUjとって高画質な映像情報及び高音質な音楽情報を得たいとする高度な要求を満足させることができる。
【0257】
この発明は、このような効果に加えて、以下のような効果がある。アーティストMiの中で人気があるアーティスト達の1回限りのライブ演奏等を熱心な音楽ファンに対してネット配信することができる。しかも、既存ソフトとは異なり、インターネットでしか視聴できない貴重なソフトウエアを提供することができる。
【0258】
また、情報提供業者4はライブ映像及び音楽データDoutにより固定ファンを開拓できると共に、多くの新規ユーザUjを獲得できるようになる。しかも、ライブハウス#1等における収録オペレータの無人化が図れることから、低コストにもかかわらず高品質な音楽ソフトを制作することができ、ブロードバンド時代に相応しいソフトウエアを数多く提供できるようになる。
【0259】
本発明の発展形として、コンテンツ配信サイト102におけるオペレートソフトを作成し、収録から編集、配信(送出)に至るまでの全てを無人化及び自動化を図り、高品質音楽ソフトウエアを数多く作成可能な環境を提供できるようになる。本発明を利用することにより、高品質音楽ソフト制作が可能であることから、ジャンルの異なる音楽ソフトウエア(例:ソウル、R&B、クラシック、民族音楽等)への適用ができ、音楽ソフトウエア自体の幅が広がり、種類、数量も増えて多くのユーザUjの興味・要望を受容できるようになる。
【0260】
【発明の効果】
以上説明したように、本発明に係る電子情報配信システム及び情報処理方法によれば、実演家による実演を収録して得た映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を備え、この情報編集配信装置は、その実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御するものである。
【0261】
この構成によって、実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地(ライブハウス)での収録オペレータの無人化を図ることができる。従って、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムを構築することができる。
【0262】
本発明に係る情報収録送出装置によれば、実演家による実演に基づく実演情報及び実演音楽を収録出力制御をする情報出力制御手段を備え、この情報出力制御手段は、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御するものである。
【0263】
この構成によって、撮影手段や収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地での収録オペレータの無人化を図ることができる。従って、実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0264】
本発明に係る情報編集配信装置によれば、実演家による実演に基づく映像音楽素材情報を編集配信制御する編集配信制御手段を備え、この編集配信制御手段は、情報収録送出装置へ遠隔制御情報を送信し、その実演家による実演映像及び実演音楽を自動収録するように情報収録送出装置を遠隔制御するするものである。
【0265】
この構成によって、実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地での収録オペレータの無人化を図ることができる。従って、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一の国で一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0266】
この発明は、ライブハウス等で実演される実演家の実演映像及び実演音楽を配信提供する映像付き高音質音楽ライブ配信ビジネス等に適用して極めて好適である。
【図面の簡単な説明】
【図1】本発明に係る実施形態としての電子情報配信システム10の構成例を示す概念図である。
【図2】電子情報配信システム10における電子情報内容の流れを示す図である。
【図3】電子情報配信システム10における処理例を示すフローチャートである。
【図4】本発明に係る実施例として映像付き高音質音楽ライブ配信システム100の構成例を示す図である。
【図5】当該システム100におけるコンテンツ及び金銭等の流通例を示す図である。
【図6】本発明に係る実施例としての情報収録送出装置#L1等の内部構成例を示すブロック図である。
【図7】ライブ映像及び音楽情報の収録機器等の配置例(前面)を示す立体図である。
【図8】ライブ映像及び音楽情報の収録機器等の配置例(上面)を示す平面図である。
【図9】情報収録送出装置#Liの自動調整例を示すフローチャートである。
【図10】A及びBは情報収録送出装置#Liによる自動収録例を示すフローチャートである。
【図11】本発明に係る実施例としての情報編集配信装置1の構成例を示すブロック図である。
【図12】情報編集配信装置1における遠隔操作例を示す図である。
【図13】情報編集配信装置1における情報収録時の遠隔制御例を示すフローチャートである。
【図14】情報編集配信装置1における情報編集時の処理例を示すフローチャートである。
【図15】情報編集配信装置1における情報配信時の処理例を示すフローチャートである。
【図16】本発明に係る映像付き高音質音楽ライブ配信システム100における受信側システム200の構成例を示すブロック図である。
【図17】ノート型のパソコン90を使用した受信側システム200の構成例を示す概念図である。
【図18】インターネットテレビ60を使用した受信側システムの構成例を示す概念図である。
【図19】A及びBはメニュー選択画面P2の表示例及びリモコン300の操作例を示す図である。
【図20】インターネットテレビ60上の音声入力設定画面P3の表示例を示す図である。
【図21】インターネットテレビ60上のサラウンド調整画面P4の表示例を示す図である。
【図22】ライブ映像画面P5の表示例を示す図である。
【図23】A及びBはそのライブ映像選択画面P53及びその拡大画面P54の表示例を示す図である。
【図24】受信側システム200におけるGUI操作例(その1)を示すフローチャートである。
【図25】受信側システム200におけるGUI操作例(その2)を示すフローチャートである。
【符号の説明】
1・・・情報編集配信装置、2A,2B・・・通信手段、10・・・電子情報配信システム、11・・・編集サイト、12・・・素材ファイル、13・・・編集済みファイル、14・・・完パケファイル、15・・・配信サーバ、16・・・アーチスト管理サーバ、17・・・自動編集加工部、18・・・コンテンツサーバ、20A,20B・・・インターネット(通信手段)、22・・・駆動制御部、23、40・・・通信モデム、50・・・ルータ、60・・・インターネットテレビ、70・・・ホームサーバ、80・・・AVアンプ、90・・・パソコン、#Li(i=1〜n)・・・情報収録送出装置、100・・・映像付き高音質音楽ライブ配信システム(電子情報配信システム)、200・・・受信側システム[0001]
TECHNICAL FIELD OF THE INVENTION
INDUSTRIAL APPLICABILITY The present invention is suitable for an electronic information distribution system, an information recording / sending device, and an information editing device which are suitably applied to a live video distribution business of high-quality music with video, which distributes and provides a performance video and a performance music of a performer performed in a live house or the like. The present invention relates to a distribution device and an information processing method.
[0002]
In detail, a video and music material information obtained by recording a performance by a performer is input, and an information editing and distributing device is provided for distributing electronic information content relating to a performance video and music obtained by performing information editing processing on the information. Each of the information recording and transmitting devices is remotely controlled through communication means so as to automatically record the demonstration video and the demonstration music. It is possible to centrally manage the copyrights of editors and performers, and to construct an electronic information distribution system capable of distributing the electronic information contents of performance videos and music by the performers worldwide.
[0003]
[Prior art]
In recent years, in the era of broadband, a system for distributing digital video and music with a large amount of information has been often used. For example, a video and music providing service system in which a broadcasting station digitally transmits a plurality of videos at the same time as a multiplex number and a video and music (content) of any channel are selected on the receiving side has begun to spread.
[0004]
As described above, the degree of freedom of information selection for information users is increasing. Also, on the information provider side, there is an increasing need to produce and provide contents attractive to users by making use of the features of Internet distribution.
[0005]
On the other hand, enthusiastic music fans tend to go to live houses and enjoy listening to live music (live) by musicians directly. This type of live house has a stage where musicians perform and seats for fans. On this stage, a plurality of fixed or movable microphones for improving a sound effect, and a plurality of speakers for loudspeaking sounds collected by these microphones are installed.
[0006]
In addition, the information provider prepares a plurality of cameras in addition to the microphone in order to create a recording medium such as a CD by recording live performance images and music and to distribute contents. These camera operations, for example, adjustment of the video angle switching, zoom, pan, and tilt functions are performed by a recording operator (stap) on site. Similarly, in microphone operation, confirmation of microphone directivity, zoom function, audio input level, and the like are adjusted.
[0007]
When live video and music recorded in such a live house are provided to information users as software, the contents of the electronic information after recording are edited on the video and audio by an information provider and recorded on a recording medium. Sold. Also, when live broadcasting from a live house to each home, a cameraman moves in front of the audience seats, shoots live video from multiple angles, simultaneously transmits digital images of multiple angles at the multiplex number, and receives Then, a method of selecting a video at any angle is adopted. As a result, the information user can select and view an angle live video taken by the cameraman.
[0008]
Note that
[0009]
With this configuration, it is possible to receive images shot by a plurality of cameras under the shooting conditions set by the information user. And videos of scenes that match the tastes. Therefore, it is possible to virtually enjoy the real pleasure of watching the stand, and to provide an image full of a sense of reality.
[0010]
[Patent Document 1]
JP-A-2002-165200 (
[0011]
[Problems to be solved by the invention]
The video and music providing service system according to the conventional example has the following problems.
[0012]
{Circle around (1)} Since the amount of data that can be transmitted and received in the conventional narrow band is small, the sound quality is generally not good in 2CH stereo with strong compression, and the video is often unnatural. .
[0013]
(2) Many enthusiastic music fans and musicians are dissatisfied with the content of narrow band content.
[0014]
(3) With the current music distribution system that re-distributes existing software (released CDs and DVD music software) over the Internet, it is difficult for information users to become new objects of interest unless they are novel. However, the fact is that it does not easily lead to market expansion and it is not possible to acquire a passionate fan base.
[0015]
{Circle around (4)} In recording at a live house, the operation of the camera, the setting and adjustment of the microphone, and the like require much labor and are troublesome. There are many annoying aspects, such as a photographer moving in front of the audience seats during recording and obstructing the view during live viewing.
[0016]
(5) According to
[0017]
Therefore, the present invention solves such a conventional problem, and enables unified editing of video and music material information obtained by recording a performance by a performer and unified management of the performer's copyright. An object of the present invention is to provide an electronic information distribution system, an information recording and transmitting device, an information editing and distributing device, and an information processing method, which can distribute electronic information content relating to a performance video and a performance music by a performer to the whole world and the like. .
[0018]
[Means for Solving the Problems]
The problem described above is a system for distributing electronic information contents based on a performance by a performer, a plurality of information recording and transmitting devices for outputting video and music material information obtained by recording the performance by the performer, An information editing / distribution device that inputs video and music material information from a recording / sending device and distributes electronic information content relating to a performance video and performance music processed for information editing, and receives and processes the electronic information content from the information editing and distribution device An information processing device, and at least communication means for connecting the information recording and sending device and the information editing and distributing device, wherein the information editing and distributing device is provided with a communication means for automatically recording a demonstration video and a demonstration music by a performer; The problem is solved by an electronic information distribution system wherein each of the information recording and transmitting devices is remotely controlled.
[0019]
According to the electronic information distribution system according to the present invention, when distributing electronic information content based on a performance by a performer, for example, an information editing and distribution device is arranged in one country or country serving as an editing place, and An information recording and transmitting device is arranged in each country or domestic demonstration site. These information recording and transmitting devices and the information editing and distributing device are connected through communication means. On the premise of this, the information editing / distributing device is configured to remotely control each of the information recording / sending devices through communication means so as to automatically record the performance video and the performance music by the performer.
[0020]
For example, the information output control means of the information recording and transmitting device receives remote control information from the information editing and distributing device, and remotely controls the photographing means and the sound collecting means so as to automatically record the performance video and the performance music by the performer. The photographing means is remotely controlled so as to photograph a demonstration video by the performer. The sound collecting means is remotely controlled so as to record the music performed by the performer. The demonstration video captured by the photographing unit and the demonstration music recorded by the sound collection unit are converted into video and music material information by the information output control unit and output to the information editing and distribution device.
[0021]
In the information editing / delivery device, the video / music material information is input from each of the information recording / sending devices, and the electronic information content relating to the performance video and the performance music that has undergone the information editing process is distributed. The information processing device receives and processes the electronic information content from the information editing and distribution device.
[0022]
Therefore, the operation of the photographing means for photographing the demonstration video at the demonstration place, the operation of the sound pickup means for recording the demonstration music, and the adjustment of the photographing / recording level can be set at the editing place without manual operation. It is possible to make the recording operator unmanned in the ground (live house). As a result, it is possible to perform a unified editing of the video and music material information that is performed at live houses and the like that exist around the world, and collectively manage the copyright of the performer. An electronic information distribution system that distributes electronic information contents related to music to the whole world can be constructed.
[0023]
An information recording and transmitting device according to the present invention is a device that is connected to an information editing and distributing device of a system for distributing electronic information content and that performs recording and output processing of performance information and performance music based on a performance by a performer. A plurality of remotely controllable photographing means for photographing a live performance video by the house, a plurality of remotely controllable sound collecting means for recording live music by the performer, and a live performance video and sound collecting means photographed by the photographing means Information output control means for converting the recorded performance music into video and music material information and outputting the converted music, the information output control means receiving remote control information from the information editing and distribution device, It is characterized in that the photographing means and the sound collecting means are remotely controlled so as to automatically record music.
[0024]
ADVANTAGE OF THE INVENTION According to the information recording / sending apparatus which concerns on this invention, when the performance information based on the performance by a performer and the performance music are recorded and output processing, it is connected to the information edit distribution apparatus of the system which distributes electronic information content. On the premise of this, the information output control means receives the remote control information from the information editing and distribution device and remotely controls the photographing means and the sound collecting means so as to automatically record the performance video and the performance music by the performer. The photographing means is remotely controlled so as to photograph a demonstration video by the performer. The sound collecting means is remotely controlled so as to record the music performed by the performer. The demonstration video captured by the photographing unit and the demonstration music recorded by the sound collection unit are converted into video and music material information by the information output control unit and output to the information editing and distribution device.
[0025]
Therefore, since the operation of the photographing means and the sound collecting means and the adjustment of the photographing / recording level can be set without manual operation, the recording operator at the demonstration site can be unmanned. As a result, the present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing electronic information content on performance video and music by a performer to the whole world.
[0026]
An information editing and distributing apparatus according to the present invention is an apparatus for editing and distributing video and music material information from an information recording and transmitting apparatus of a system for distributing electronic information, and for remotely controlling the information recording and transmitting apparatus. Input means for inputting operation information including information, information editing means for inputting video and music material information from each of the information recording and transmitting devices, and performing information editing processing; and a demonstration video and a performance music edited by the information editing means. Information distribution means for distributing such electronic information content, and edit distribution control means for controlling input / output of the information editing means and the information distribution means based on operation information from the input means; Transmitting remote control information to a recording / sending device, and remotely controlling the information recording / sending device so as to automatically record a demonstration video and a performance music by a performer. A.
[0027]
According to the information editing and distributing device of the present invention, when the video and music material information is input from the information recording and transmitting device and the editing and distributing process is performed, for example, the information recording and transmitting device disposed at the demonstration location and the information recording and transmitting device disposed at the editing location are arranged. Is connected to the information editing and distribution device. On this premise, the input means is operated so as to input operation information including information for remotely controlling the information recording / sending device. The editing and distribution control means transmits remote control information to the information recording and transmitting apparatus based on the operation information from the input means, and remotely controls the information recording and transmitting apparatus so as to automatically record the video and music performed by the performer. At the same time, the edit distribution control means controls input / output of the information edit means and the information distribution means. With this control, the information editing means inputs the video and music material information from each information recording and sending device to perform the information editing process. The information distribution means distributes the electronic information content relating to the performance video and the performance music edited by the information editing means to the information user.
[0028]
Therefore, the operation of the photographing means for photographing the demonstration video at the demonstration place, the operation of the sound pickup means for recording the demonstration music, and the adjustment of the photographing / recording level can be set at the editing place without human intervention. It is possible to make the recording operator unmanned on the ground. As a result, it will be possible to perform live music at live houses around the world, collectively edit the video and music material information recorded in this live performance in one country and centrally manage the performer's copyright. The present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing electronic information contents relating to a demonstration video and a demonstration music to the whole world.
[0029]
An information processing method according to the present invention is a method of distributing and processing electronic information content based on a performance by a performer, and information on recording a performance by the performer at each of the performance locations and outputting video and music material information. Information editing and distribution that arranges recording and transmitting devices, inputs video and music material information from each information recording and transmitting device, performs information editing processing, and distributes electronic video contents related to the demonstration video and the performance music after the information editing processing. The device is placed at the editing place, and the information recording and sending device placed at the demonstration place and the information editing and distribution device placed at the editing place are connected via communication means, and the performance video and music by the performer are automatically recorded. Remote control of each of the information recording and transmitting devices through communication means, and the video and music material information obtained from the information recording and transmitting device of the remotely controlled performance site is transmitted to the information editing and distribution device at the editing location. Condensed process is characterized in that where information distribution processing electronic information contents obtained by the information editing process.
[0030]
According to the information processing method according to the present invention, when distributing and processing electronic information content based on a performance by a performer, operation of a photographing means for shooting a performance video at a performance place, a sound collecting means for recording performance music And the adjustment of the photographing / recording level can be set at the editing place without manual operation, so that the recording operator at the demonstration place can be unmanned.
[0031]
Therefore, it is possible to centrally edit video and music material information that is performed at live houses and the like existing in various parts of the world, and to collectively manage the copyright of the performer, and perform live video and live music by the performer. Greatly contributes to the construction of an electronic information distribution system that distributes electronic information contents related to the entire world.
[0032]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment of an electronic information distribution system, an information recording and transmitting device, an information editing and distribution device, and an information processing method according to the present invention will be described with reference to the drawings.
[0033]
(1) Embodiment
FIG. 1 is a conceptual diagram showing a configuration example of an electronic
In this embodiment, there is provided an information editing / distributing device for inputting video / music material information obtained by recording a demonstration performed by a performer and distributing a performance video and an electronic information content related to the performance music, which have been subjected to information editing processing. Remote control each of the information recording and sending devices through communication means so as to automatically record the demonstration video and the demonstration music by, and perform the video and music material information to be performed in live houses and the like existing around the world and recorded by this demonstration. It is possible to centrally manage the copyrights of unified editing and performers, and to construct an electronic information distribution system capable of distributing electronic information contents related to performance videos and music by the performers worldwide. .
[0034]
The electronic
[0035]
The live house is a place where visitors watching the performance can enter, and refers to a theater or the like where the performer Mi performs. A live house is different from the concept of a recording studio for creating a basic master such as a CD. The electronic
[0036]
In this
[0037]
For example, several cameras that can be remotely controlled are arranged in a live house. The camera is arranged at a position where an image of the performer Mi is captured. This is because, at the time of reproduction, it is possible to select and reproduce a video from an angle desired by an information user (hereinafter referred to as a user). With these cameras, live video data for several channels related to live video taken from various angles is obtained.
[0038]
In the live house, dozens of microphones that can be remotely controlled are arranged. Each of the microphones is located near the sound source. This is because, at the time of reproduction, a user's favorite sound source can be selected and reproduced. With these microphones, voice and music data of several tens channels related to the performance music recorded from various sound sources is recorded. The performance video captured by these cameras and the performance music recorded by the microphone are converted into streaming-type video / music material data and transmitted to the editing place.
[0039]
The
[0040]
In this
[0041]
Further, the information editing /
The reason why the electronic information contents are distributed in a multiplex manner is that when the electronic information contents are reproduced at the viewer's home, the electronic information contents can be selected as desired. For example, it is possible to select and reproduce a demonstration video at a desired angle, or to select a desired sound source to reproduce the demonstration music. In this way, the user can enjoy the realism of live houses around the world while staying at home.
[0042]
Further, an information processing device #Pj is prepared for each home of the viewer, that is, for the user Uj (j = 1 to m). The information editing / distributing
As the information processing device #Pj, a desktop or notebook personal computer, a home server, a television, an AV amplifier, an Internet television, or the like is used. The information recording and transmitting device #Li of each live house and the information editing and distributing
[0043]
At least, the information recording and transmitting device #Li and the information editing and distributing
[0044]
Regarding the billing process in the electronic
[0045]
In addition, an information processing apparatus #Pj such as a personal computer or an Internet television is sold from an electronic equipment manufacturer to a user. Alternatively, the software business sells dedicated information processing software to users. These devices and software may take the form provided by lending.
[0046]
Each user Uj pays the usage fee for using the electronic information content to the
It is necessary to pay a line connection fee to the line connection operator. The
[0047]
FIG. 2 is a diagram showing a flow of electronic information contents in the electronic
[0048]
At this time, microphone adjustment such as recording level and compression (compressor) of the performance music and audio in the live house and
[0049]
In addition, electronic information contents to be remotely adjusted and controlled, such as images and music, are transmitted through a route (2). For example, monitor data is sent from the
[0050]
On a monitor screen (not shown) of the
[0051]
Further, a performance video (live video) and a performance music (live audio) in which video and audio are recorded in the route (3) are recorded in the local file F1 or the like. The local file F1 is provided in the
[0052]
For example, in
[0053]
Further, the
[0054]
Further, in the editing stage, the video and music material data received from the information recording and transmitting device #Li via the route (5) is read from the
[0055]
In the audio editing, the sound quality is adjusted, and a normal multi-track source mixdown operation is performed. For example, music material data related to the performance music is mixed down into a stereo format or a 5.1 surround format. Also, video material data relating to the demonstration video is edited using general image editing software or the like, and finally, the video information and the music information are synchronized by a time code or the like.
The edited video and music data are temporarily stored in the edited
[0056]
Further, the video and music data are read from the edited
[0057]
In addition, the encoded video and audio data is transferred to a confirmation process by the performer through path (7). In this example, the musician M1 as a performer can access the
[0058]
At this time, distribution permission or non-permission is given to the editor from the musician M1. As a result of this viewing, the editing can be reprocessed in response to the request of the musician M1. If the distribution is OK, a copyright procedure is performed on the
[0059]
In the
[0060]
In the case of the download format, a copy protection function is added to the file to prevent unauthorized copying. Streaming live video and audio data are distributed from the
[0061]
Subsequently, an information processing method as an embodiment according to the present invention will be described. FIG. 3 is a flowchart illustrating a processing example in the electronic
In this embodiment, information recording and transmitting devices #Li are arranged in live houses # 1 to # 10 of ten countries A to J, for example, which subscribe to the electronic
[0062]
Also, in the information editing and
[0063]
Under these processing conditions, the information recording and transmitting device #Li is arranged in each of the live houses # 1 to # 10 in various countries of the world in step A1 of the flowchart shown in FIG. 3, and the information is edited and distributed to the
[0064]
The information recording and transmitting device #Li of each of the live houses # 1 to # 10 is provided with local files F1 to F10. The local file F1 is provided in the information recording / transmission device # L1, the local file F2 is provided in the information recording / transmission device # L2,..., The local file F10 is provided in the information recording / transmission device # L10.
The local file F1 in the country A stores video (VIDEO) data and audio (AUDIO) data recorded by the musician M1 as a performer.
[0065]
In the local file F2 of country B, live video and audio data demonstrated and recorded by the musician M2, a performer, are stored. In the local file F10 of country J, the live performance is recorded by the musician M10, a performer. The stored live video and audio data are stored. Note that the information editing and
[0066]
Then, in step A2, the information recording and transmitting devices # L1 to # L10 arranged in the respective live houses # 1 to # 10 and the information editing and distributing
[0067]
Thereafter, the process proceeds to step A3, where each of the information recording and transmitting devices # L1 to # L10 is remotely controlled through the
[0068]
In this example, microphone adjustments such as recording levels of live music and audio in the live houses # 1 to # 10 and the like and compression processing thereof, and camera adjustments such as pan, tilt, zoom, and image quality of live video are performed by the
[0069]
In addition, electronic information content to be remotely adjusted and controlled, such as live video and audio, is transmitted via route (2). For example, monitor data is sent from the
[0070]
On a monitor screen (not shown) of the
[0071]
In step A4, the
[0072]
Further, the
[0073]
Also, at the authoring stage at the
[0074]
In step A5, the
[0075]
For example, the encoded video and audio data shown in FIG. 2 is transferred to a confirmation process by the musician M1 through a route (7). Then, the musician M1 can access the
[0076]
The
[0077]
At this time, the
[0078]
Then, the process goes to step A6 to deliver the live video and music data after the information editing process, which is confirmed by the musician M1, to the user Uj. At this time, streaming live video and audio data are distributed from the
[0079]
In addition, the
[0080]
In step A7, it is determined whether or not to end the information processing. The judgment at this time is made by a system business partner such as the live house owner and the
[0081]
As described above, according to the electronic
[0082]
Therefore, the operation of the camera for photographing the live video in the live houses # 1 to # 10, the operation of the microphone for recording the live music, and the adjustment of the photographing / recording level can be set on the
[0083]
(2) Example
FIG. 4 is a diagram showing a configuration example of a high-quality sound live
In this embodiment, a high-quality music-attached live
[0084]
4 is a system that distributes live video and music data Dout based on a live performance by an artist Mi (i = 1 to n). This
[0085]
This
[0086]
In this example, in order to perform high-quality music live distribution, the
[0087]
{Circle around (1)} Regarding live sound recording, for example, 16 microphones # M1 to # M16 are arranged in the live house #i. Editing and processing such as noise removal, volume adjustment, and addition of sound effects are performed on the discrete audio data of the microphone input of the 16 channels (hereinafter referred to as CH). The 16CH audio data is edited and distributed to 2CH, 4CH, 8CH or the like according to the viewing style of the user Uj.
[0088]
{Circle around (2)} For live video recording, for example, four cameras # C1 to # C4 are arranged in the live house #i. When one of the four cameras # C1 to # C4 becomes a performer's solo part, the camera performs zoom shooting of how to handle (play) an instrument. In this example, the
[0089]
In this
[0090]
In this
[0091]
In the live house, 16 microphones # M1 to # M16 that can be remotely controlled are arranged. Each of the microphones # M1 to # M16 is arranged near the sound source. This is to allow the user Uj to select and reproduce a desired sound source during reproduction. With these microphones # M1 to # M16, audio and music data for 16 channels relating to the live music recorded from various sound sources are recorded.
[0092]
The live video captured by these cameras # C1 to # C4 and the live music recorded by the microphones # M1 to # M16 are converted into streaming-type video and music material data Din, and are stored in a large-capacity server for archiving, for example. , Are once taken into the local file F1 shown in FIG. Thereafter, the video and music material data Din is sent to the
[0093]
The distribution source, which is the
[0094]
The above-described information recording and transmitting device # L1 of the
[0095]
In the
[0096]
A
[0097]
The
[0098]
The
[0099]
The
[0100]
In the
[0101]
FIG. 5 is a diagram showing a distribution example of contents, money, and the like in the high-quality music
In the business A shown in FIG. 5, system software for operating the high-quality music
[0102]
The
[0103]
In the
[0104]
In the automatic
[0105]
On the other hand, in the business B shown in FIG. 5, a dedicated device (PC / CE device) such as a personal computer or an Internet television is sold from the electronic device manufacturer to the user Uj through the route (7). Further, the software provider sells dedicated information processing software to the user Uj. The user Uj pays the business B for the route (8). These dedicated devices and software may take the form provided by lending.
[0106]
In the charging process in the high-quality sound live
[0107]
For this service, each user Uj pays a service fee to use the live video and music data Dout to the
[0108]
The
[0109]
In this case, the artist Mi can move from one place to another if only the recording terminals such as the cameras # C1 to # C4 and the microphones # M1 to # M16 are provided in each
[0110]
[Information recording and sending device]
FIG. 6 is a block diagram showing an example of the internal configuration of the information recording and transmitting device # L1 as an embodiment according to the present invention.
The information recording / sending device # L1 shown in FIG. 6 constitutes the high-quality music
[0111]
The information recording and transmitting device # L1 includes a recording device main body 21, a
[0112]
In this example, 16 microphones # M1 to # M16 are connected to the recording device main body 21. For example, the microphone # M1 is an example of a sound collection unit that can be remotely controlled, and is connected to the
[0113]
For example, sound recorded by the microphone # M1 or the like is input to the
[0114]
Also, a MIX signal is created for audio monitoring at the
[0115]
A microphone # M1 is connected to the
[0116]
A
[0117]
An A / D converter 33 is connected to the limiter /
[0118]
The
[0119]
On the other hand, the four cameras # C1 to # C4 are connected to the recording device main body 21. For example, the camera # C1 is an example of a photographing unit that can be remotely controlled, and is connected to the
[0120]
The camera # C1 is connected to the A /
[0121]
The
[0122]
The
[0123]
In the
[0124]
[0125]
The
[0126]
Under the control of the
[0127]
7 and 8 are a three-dimensional view and a plan view, respectively, showing arrangement examples (front and top) of a recording device for live video and music information. In this embodiment, a case where video and audio are recorded in the
[0128]
When the
[0129]
A camera # C2 is provided above the left wall of the
[0130]
As the camera # C4, for example, one having a wireless remote robot function capable of moving and traveling on the
[0131]
Further, 16 microphones # M1 to # M16 are arranged on the ceiling of the
[0132]
Also, four microphones # M9 to # M12 are arranged in the center of the ceiling. Two of # M9 and # M10 are for forward recording, and two of # M11 and # M12 are for rear echo component recording. The # M11 and # M12 can also record the cheers on the seat side shown in FIG. Further, one microphone # M13 for spots is arranged on the left and right sides of the ceiling, and one microphone # M14 is arranged for vocals. One microphone # M15 for recording the left end of the ceiling is arranged near the camera # C2 on the left side wall, and one microphone # M16 for recording the right end of the ceiling is arranged near the camera # C3 on the right side wall. Is done.
[0133]
As such a total of 16 microphones # M1 to # M16, in particular, microphones # M1 to # M6 arranged near each musical instrument are of a fixed or movable type. Directional microphones are used for the two microphones # M15 and # M16 at the left and right ends of the ceiling. These microphones are mounted on a pan tilter so that the microphones can be pointed in the sound pickup direction and the zoom function can be operated.
[0134]
It is preferable that the four microphones # M9 to # M12 at the center of the ceiling can be attached to the pan tilter to change the direction. In this example, if the four microphones # M9 to # M12 are attached to the camera # C1, the microphones are moved together with the camera # C1 by the
[0135]
Subsequently, a processing example of the information recording and transmitting device # L1 in the
In this embodiment, it is assumed that the information recording and transmitting device # L1 is connected to the information editing and distributing
[0136]
FIG. 9 is a flowchart showing an example of automatic adjustment of the information recording and transmitting device. 10A and 10B are flowcharts showing an example of automatic recording by #Li in the information recording and transmitting device. In this example, the rehearsal video is photographed, the rehearsal audio is recorded, the information recording / sending device is adjusted, and then the actual recording is performed.
[0137]
Based on this, for example, in step B1 of the flowchart shown in FIG. 9, the
[0138]
Further, the rehearsal video captured by the camera # C1 is output to the A /
[0139]
Thus, digital rehearsal video data captured by camera # C1 can be output. Similar
[0140]
Further, the 16 microphones # M1 to # M16 remotely record the rehearsal music by the artist Mi by remote control by the
[0141]
Further, a MIX signal is created for audio monitoring at the
[0142]
For example, rehearsal music recorded by the microphone # M1 is input to the
[0143]
The rehearsal music signal whose volume has been adjusted here is output from the
[0144]
The rehearsal music signal after the compression restriction is output from the limiter /
[0145]
At this time, in the monitor MIX 213, the rehearsal music data of 16CH is mixed into 2, 4, 8CH and the like in the
[0146]
The automatically recorded rehearsal video and audio data are read from the
[0147]
The video and music material data Din to which the time code is added is controlled by the
[0148]
Thereafter, the process proceeds to step B5 to determine the end. If not all of the video and music material data Din has been transmitted to the information editing and
[0149]
[Example of recording live video and audio data]
10A and 10B for rehearsal recording will be used again for actual recording. In this example, the actual recording is performed using the information recording and transmitting device #Li adjusted by recording the rehearsal video and the rehearsal audio.
[0150]
Based on this, for example, in step B1 of the flowchart shown in FIG. 9, the
[0151]
At this time, the live video of the artist Mi captured by the camera # C1 is output to the A /
[0152]
From this
[0153]
The 16 microphones # M1 to # M16 remotely record live music by the artist Mi by remote control by the
[0154]
Also, a MIX signal is created for audio monitoring at the
[0155]
For example, live music by the artist Mi recorded by the microphone # M1 is input to the
[0156]
The live music signal whose volume has been adjusted here is output from the
[0157]
The live music signal after the compression restriction is output from the limiter /
[0158]
At this time, in the monitor MIX 213, the live music data of 16CH is mixed into 2, 4, 8CH and the like in the
[0159]
The live video data for 4CH video and the live audio data for 16CH audio are archived in the
[0160]
The automatically recorded live video and audio data are read from the
[0161]
The video and music material data Din to which the time code is added is controlled by the
[0162]
Thereafter, the process proceeds to step B5 to determine the end. If not all of the video and music material data Din has been transmitted to the information editing and
[0163]
As described above, according to the information recording / sending device # L1 according to the present invention, when performing recording and outputting processing of live video data and live audio data based on a live performance by the artist Mi, the information editing /
[0164]
Therefore, the operation of the four cameras # C1 to # C4 and the sixteen microphones # M1 to # M16 and the adjustment of the photographing / recording level can be set without any manual operation. An unmanned recording operator can be achieved. Thereby, it is possible to contribute to the construction of a high-quality music
[0165]
[Information editing and distribution device]
FIG. 11 is a block diagram showing a configuration example of the information editing and
[0166]
In this embodiment, the information editing and distributing
[0167]
The information editing / distributing
[0168]
The personal computer 400 has a
[0169]
The
[0170]
In the microphone adjustment display area P12, the volume adjustment images of the 16 microphones # M1 to # M16 are displayed, and above this area, the input levels of the microphones # M1 to # M16 are displayed. The level display area P13 is assigned. Below this area P13, a
[0171]
As a result, the editor of the
[0172]
The
[0173]
For example, the information editing editor 41 reads from the
[0174]
In the audio editing, the sound quality is adjusted by the information editing editor 41, and a normal mixdown operation of a multi-track source is performed. For example, music material data related to live music is mixed down into a stereo format or a 5.1 surround format. Further, the video material data related to the live video is also edited using general image editing software or the like, and finally the live video data and the live music data are synchronized by a time code or the like. The edited video and music data are temporarily stored in the edited
[0175]
Furthermore, the information editing editor 41 encodes the edited video and audio data at the authoring stage, combines them into one file, and converts them into various formats that can be distributed on the
[0176]
The transfer rate of both the high quality 4CH live video data and the 8CH live audio data is about 40 Mbps. This transfer rate is a capacity that can be sufficiently distributed if the B-FLET'S, 100 Mbps of the telecommunications carrier (NTT) actually meets the standard value. The edited 4CH video and 8CH audio data together with the time code are archived in the
[0177]
The information editing editor 41 is connected to a
[0178]
A
[0179]
In addition, the
[0180]
In this example, the
[0181]
Subsequently, a processing example in the information editing and
[0182]
With regard to the distribution form of this embodiment, it is assumed that downloading to the hard disk of the information processing device of the user Uj is performed, and a streaming distribution form in which the risk of data copying is small is assumed. An example will be given below of a case where an on-demand broadcast is performed.
[0183]
[Example of remote control when recording information]
FIG. 13 is a flowchart showing an example of remote control at the time of recording information in the information editing and
In this embodiment, it is assumed that the information recording and transmitting device #Li disposed in the live house #I or the like and the information editing and distributing
[0184]
With this as a control condition, operation information including information for remotely controlling the information recording and transmitting device #Li by operating the keyboard 43 and the mouse 46 in step Q1 of the flowchart shown in FIG. 13 is input. At this time, a monitor setting screen in which the camera image display area and the microphone adjustment display area are divided as shown in FIG. 12 is displayed on the
[0185]
For example, when the directions of the captured images of the four cameras # C1 to # C4 displayed in the camera image display area are changed in step Q11, zooming, pan / tilt processing, and the like are performed, in step Q12, By moving the mouse pointer on the setting screen and operating the
[0186]
When the volume of the 16 microphones # M1 to # M16 displayed in the microphone adjustment display area is adjusted in step Q21, each microphone is checked in step Q22 while confirming the input level displayed above this area. The gains of # M1 to # M16 are adjusted. For example, when the # M1 slide key 422 displayed below this area is operated, for example, in the upward direction (T direction) by a mouse pointer, the input level of the microphone # M1 is displayed so as to increase. The input level of the microphone # M1 connected to the information recording and transmitting device #Li is increased.
[0187]
Thereafter, the process proceeds to step Q3 to create the remote control information D1. The remote control information D1 is created based on the adjustment values obtained in steps Q11, Q12, Q21 and Q22. Such remote control information D1 is transmitted to the information recording and transmitting device #Li through the
[0188]
As a result, the editor of the
[0189]
Thereafter, the process shifts to step Q5 to determine the end. If all of the remote control information D1 has not been transmitted to the information recording /
[0190]
[Example of processing when editing information]
FIG. 14 is a flowchart illustrating an example of a process at the time of information editing in the information editing and
In this embodiment, the input / output of the information editing editor 41 is controlled by the
[0191]
On the premise of this, the information editing editor 41 reads the video and music material data Din from the
[0192]
In the audio editing, the sound quality is adjusted by the information editing editor 41, and a normal mixdown operation of a multi-track source is performed. For example, music material data Din relating to live music is mixed down to a stereo system or a 5.1 surround system.
[0193]
Further, the video material data Din relating to the live video is also edited using general image editing software or the like, and finally the live video data and the live music data are synchronized by a time code or the like. The edited video and music data are temporarily stored in the edited
[0194]
Furthermore, the information editing editor 41 encodes the edited video and audio data at the authoring stage, combines them into one file, and converts them into various formats that can be distributed on the
[0195]
The transfer rate of both the high quality 4CH live video data and the 8CH live audio data is about 40 Mbps. This transfer rate is set so that B-FLET'S, 100 Mbps of the telecommunications carrier (NTT) actually meets the standard value. The edited 4CH video and 8CH audio data together with the time code are transferred to the
[0196]
Thereafter, the process proceeds to step R7 to determine the end. If all of the live video and audio data are not stored in the
[0197]
[Processing example of information distribution]
FIG. 15 is a flowchart illustrating a processing example at the time of information distribution in the information editing and
[0198]
Using this as a processing condition, the
[0199]
Next, the consent of the artist Mi is acquired in step T2 for the live video and the music data Dout after the information editing process. If the consent of the artist Mi cannot be obtained, the process shifts to step T3 to execute a re-processing / editing process. In the rework editing process, the process shown in FIG. 14 is repeated. If the consent of the artist Mi can be obtained as a result of the re-processing and editing, the process proceeds to step T4 to transfer the live video and music data Dout after obtaining the consent from the
[0200]
After that, in step T5, the
[0201]
Further, the
[0202]
Through such data distribution, the live video and music data Dout relating to any live house #i can be arbitrarily selected by the information processing device of the user Uj. In addition, the user Uj can increase the degree of freedom in selecting live video and music data Dout.
[0203]
As described above, according to the information editing and transmitting
[0204]
Therefore, in the
[0205]
As a result, it is possible to centrally edit the video and music material data Din that is played live in live houses and the like existing in various parts of the world and is automatically recorded by the live performance in one country, and to centrally manage the copyright of the artist Mi. It greatly contributes to the construction of a high-quality music
[0206]
[Information processing device]
FIG. 16 is a block diagram showing a configuration example of a receiving system in the high-quality music live distribution system with
In this embodiment, the receiving side system includes an Internet television (including a normal television) 60, a
[0207]
In this example, in the relationship between the user Uj and the distribution source, the reproduction method for the live video and music data Dout distributed from the
[0208]
{Circle around (1)} “Standard” is a playback method for playing back live video of 1CH captured by camera # C1 that captures the entire stage, and high-quality, edited 2CH live music recorded by left and right microphones. The “standard” reproduction method is selected using, for example, a GUI (Graphic User Interface) function of a personal computer or the like. The user Uj may select the "standard" reproduction method when first looking at the entire stage or listening to the performance.
[0209]
{Circle around (2)} “Option A” is a playback method for playing back live video of 2CH captured by two cameras # C1 and # C2 and high-quality, edited 4CH live music recorded by left and right microphones, for example. It is. The "option A" reproduction method is selected, for example, when it is desired to increase the number of other camera angles or audio channels.
[0210]
{Circle around (3)} “Option B” is a playback method for playing back, for example, 3CH live video captured by cameras # C1 to # C3 and high-quality, edited 8CH live music recorded by left and right microphones. It is. The audio has been edited in the same manner as in "Option A", but the volume of each channel can be adjusted. The “option B” reproduction method is selected as a further request when it is desired to increase the number of other camera angles or audio channels.
[0211]
{Circle around (4)} “Option C” is a playback system that plays back live video of 4CH captured by four cameras # C1 to # C4, and high-quality, edited 16CH live music recorded by the left and right microphones. . The audio has been edited in the same manner as “Option A”, but the volume of each channel and the sound quality can be adjusted by the user Uj. As an example of such a viewing style of the user Uj, “standard”, three “options A to C” and the like are presented, but the fee is also made different depending on the content capacity (volume).
[0212]
The receiving system in which the reproduction method is classified based on the relationship between the distribution source and the user Uj, that is, each home Hj of the viewer shown in FIG. 16 is provided with a
[0213]
One of the communication modems 40 is connected to a public line, and the other is connected to a
[0214]
Such a home theater system connected to the
[0215]
FIG. 17 is a conceptual diagram showing a configuration example of a receiving
[0216]
FIG. 18 is a conceptual diagram showing a configuration example of a receiving side system using the
The
[0219]
In this example, in each of the home theater system, the receiving side system using a personal computer, and the receiving side system using the
[0218]
Next, a processing example in the receiving side system will be described. 19A is a diagram illustrating a display example of a menu selection screen, and FIG. 19B is a diagram illustrating an operation example of the
In this embodiment, a case of a multi-track multi-screen will be described. As shown in FIG. 16, home (IT) devices such as a
In this example, a case where a reproduction method of eight tracks of audio + four screens of images is selected will be described as an example.
[0219]
In the menu selection screen P2 shown in FIG. 19A, for example, in the
[0220]
On the menu selection screen P2, an "automatic" mode MD1 and a "set by yourself" mode MD2 are displayed. The "automatic mode" mode MD1 is a mode in which the
[0221]
Note that, in the menu selection screen P2 shown in FIG. 19A, a submenu display screen P21 after the “set by yourself” mode MD2 has been selected is displayed in an overlapping manner. The menu selection screen P2 and the submenu selection screen P21 are selected and operated using the GUI function of the
[0222]
The
[0223]
The “screen” tag TG1, the “voice input” tag TG2, and the “surround” tag TG3 are displayed on the submenu selection screen P21, and each setting can be freely set. The user Uj who is not satisfied with the “automatic mode” mode MD1 can select the “set by himself” mode MD2 so that the live video and music can be set to his or her preference within the range of the distribution data prepared in advance at the
[0224]
[Example of audio adjustment]
FIG. 20 is a diagram illustrating a display example of a voice input setting screen P3 on the
[0225]
In this example, a guitar (Guitar-1) is displayed below the channel "1", a guitar (Guitar-2) is displayed below the channel "2", and a channel (3) is displayed below the channel "3". A base (Base) is displayed, a keyboard (KeyBd) is displayed below channel “4”, a vocal (Vocal) is displayed below channel “5”, and a vocal (Vocal) is displayed below channel “6”. , Chorus is displayed, Drums is displayed below the channel “7”, and percussion (Perc.) Is displayed below the channel “8”. Each of them corresponds to an instrument used in
[0226]
A surround panner display area P33 is allocated below these musical instrument display areas P32. In the surround panner display area P33, a graph having a first quadrant (R), a second quadrant (L), a third quadrant (LS), and a fourth quadrant (RS) indicating a speaker position whose origin is the viewing position is displayed. You. The position of the sound image can be selected from any of the first to fourth quadrants.
[0227]
In this example, the sound image position of the first quadrant is selected for the guitar of channel “1”, the sound image position of the second quadrant is selected for the guitar of channel “2”, and the bass of the channel “3” is selected. , The sound image position of the first quadrant is selected, the sound image position of the second quadrant is selected for the keyboard of channel “4”, and the sound image position of the first quadrant is selected for the vocal of channel “5”. Is selected, the sound image position of the fourth quadrant is selected for the chorus of channel “6”, the sound image position of the second quadrant is selected for the drums of channel “7”, and the percussion of the channel “8” is selected. , The sound image position in the first quadrant is selected.
[0228]
Below the surround panner display area P33, a volume adjustment fader (slide switch) display area P34 is allocated. In the volume adjustment fader display area P34, a
[0229]
A mute (Mute) key display area P35 is allocated below the volume adjustment fader display area P34, and keys for mute (muting) a sound source are arranged for each of the above-described instruments, vocals, and choruses. For example, a vocal track can be muted and enjoyed as minus one (karaoke). Thereby, a music environment according to the preference of the user Uj can be created.
[0230]
Further, an effector display area P36 is allocated below the mute key display area P35. In this example, in the effector display area P36, a special key is displayed for the base of channel "3", and a special key K11, K12, a Cola key K13, and a reverb key K14 are displayed for the keyboard of channel "4". Is displayed, and a boost key K15 is displayed for the vocals of the channel "5". By selecting these keys K11 to K15, the sound quality of live music can be adjusted. The
[0231]
[Surround setting example]
FIG. 21 is a diagram illustrating a display example of the surround adjustment screen P4 on the
[0232]
The surround adjustment screen P4 shown in FIG. 21 is a screen in which the display is switched from the audio input setting screen P3 to the surround adjustment screen P4 by, for example, selecting the channel “5” in the surround panner display area P33 shown in FIG. It is. On the surround adjustment screen P4, for example,
[0233]
Around this graph, an “R” tag TG4 for selecting the first quadrant, an “L” tag TG5 for selecting the second quadrant, an “LS” tag TG6 for selecting the third quadrant, and a fourth quadrant are selected. The “RS” tag TG7 to be displayed is displayed. In addition, between the "R" tag TG4 and the "L" tag TG5, a "C" tag TG8 indicating a center position and a "SW" tag TG9 indicating a speaker for heavy bass are arranged. Between the “LS” tag TG6 and the “RS” tag TG7, a “FD disk” tag TG10 indicating recording and storage is arranged.
[0234]
On the right side of the graph, a “WRITE” tag TG11 for writing and a “SET” tag TG12 for setting are arranged. An area P42 indicating the volume of the center speaker is allocated between the “WRITE” tag TG11 and the “SET” tag TG12. In this example, DIV “50%” is displayed.
[0235]
In the surround adjustment screen P4, for example, when a vocal is selected on the channel “5” shown in FIG. 21, the vocal position shown in FIG. 20 is located in the first quadrant (R). However, as a preference of the user Uj, if the vocal still wants the center (C) to be localized, then the selection of the “WRITE” tag TG11 shown in FIG. 21 → the selection of the “C” tag TG8 → the “SET” tag By sequentially executing the selection of the
[0236]
[Example of video selection]
FIG. 22 is a diagram illustrating a display example of the live video screen P5, and FIGS. 23A and 23B are diagrams illustrating the live video selection screen P53 and the enlarged screen P54, respectively. In this example, when “option C” is selected for the screen displaying the live video, the live video divided into four is displayed on one screen. The four divided live video images are based on 4CH live video data obtained by photographing with four cameras # C1 to # C4 in a
[0237]
In FIG. 22, P51 is a live video screen of the entire performer including vocals. P52 is a live video screen of a musician playing the guitars "1" and "2". P53 is a live video screen of a musician playing the guitar “1”. P54 is a live video screen of a musician in charge of vocals.
[0238]
In this example, when the screen to be viewed is selected with the arrow keys K2 to K5 of the
[0239]
Based on these, an example of a GUI operation in the receiving-
[0240]
In this embodiment, a case where the above-described “standard” and “option A” to “option C” are prepared is described as an example. With this as a processing condition, first, in step V1 of the flowchart shown in FIG. 24, the user Uj starts up the Web of the high-quality music live distribution system with
[0241]
With this system start-up, “live new arrival information”, “viewable live information”, and “musician search information” (not shown) are displayed on the initial screen of the
[0242]
When the ID / password is input, the process proceeds to step V5, where a reproduction method of live video and music data Dout is selected. At this time, on the monitor screen of the
[0243]
Here, when the user Uj selects the “automatic mode” mode MD1, the process proceeds to step V6, and the usage fee for the mode is displayed. At this time, the viewing (purchase) amount for each type may be displayed. Thereafter, the process proceeds to step V7, where the "viewing amount" is confirmed. If the user is to approve the usage fee pertaining to the "automatic mode" mode MD1 "OK", the process proceeds to step V8. Thereby, the type of viewing is determined. If the user does not approve the use fee, the user can press the "cancel" key (not shown) to cancel the selection of the "autonomous" mode MD1. After that, the routine goes to Step V20. In step V8, parameters are set to execute “standard”.
[0244]
In the “standard”, a live video of 1CH captured by the camera # C1 that captures the entire stage, and live music of 2CH edited and recorded with high sound quality recorded by the left and right microphones are reproduced. According to the "standard" reproduction method, first, the entire stage can be viewed and its performance can be heard. After that, the routine goes to Step V20.
[0245]
When the "set by yourself" mode MD2 is selected in step V5 described above, the flow shifts to step V9 where "option A" or another option is selected. If "option A" is selected, the process moves to step V10, where the usage fee for the mode is displayed. At this time, the viewing (purchase) amount for each type is displayed.
[0246]
Thereafter, the process shifts to step V11, where the "viewing amount" is confirmed. In the case of approving "OK" for the usage fee related to the "set by yourself" mode MD2, the process proceeds to step V12. Thus, the type of viewing is determined, and “option A” is executed. In the “option A”, live video of 2CH captured by the two cameras # C1 and # C2 and live music of edited 4CH with high sound quality recorded by the left and right microphones are reproduced. The reproduction method of “option A” is selected, for example, when it is desired to increase the number of other camera angles or audio channels. If the user does not approve the usage fee "OK", the user can cancel the selection of the "set by himself" mode MD2 by pressing the "cancel" key.
[0247]
Further, when an option other than “option A” is selected in step V9, for example, the process shifts to step V13 in the flowchart shown in FIG. 25 to check whether “option B” is selected. If "option B" is selected, the process moves to step V14, where the usage fee for the mode is displayed.
[0248]
Thereafter, the process shifts to step V15, where the "viewing amount" is confirmed. When approving "OK" for the usage fee related to the "set by yourself" mode MD2, the process shifts to step V16. If the user fee is not approved "OK", the user can cancel the selection of the "set by himself" mode MD2 by pressing the "cancel" key.
[0249]
In step V16, "option B" is executed. In the "option B", live video of 3CH captured by three cameras # C1 to # C3 and the like, and live music of 8CH, which has been edited with high sound quality and recorded by the left and right microphones, are reproduced. The audio has been edited in the same manner as “Option A”, but the volume of each channel can be adjusted. The “option B” reproduction method is selected as a further request when it is desired to increase the number of other camera angles or audio channels.
[0250]
In addition, when other than "options A and B", that is, "option C" is selected in step V13, the process shifts to step V17 to display the usage fee for the mode. Thereafter, the flow shifts to step V18, where the "viewing amount" is confirmed. In the case of approving "OK" for the usage fee related to the "set by yourself" mode MD2, the process proceeds to step V19. If the user does not approve the use fee, the user can cancel the selection of the “set by yourself” mode MD2 by pressing the “cancel” key.
[0251]
In step V19, "option C" is executed. In the “option C”, the live video of 4CH captured by the four cameras # C1 to # C4 and the live music of 16CH edited with high sound quality recorded by the left and right microphones are reproduced. The audio has been edited in the same manner as in “Option A”, but the user Uj can adjust the volume and sound quality of each channel.
[0252]
For example, the display is switched to a screen divided into four as shown in FIG. Here, when a screen to be viewed is selected with the arrow key K1 or the like of the
[0253]
For audio adjustment, the audio input setting screen P3 shown in FIG. 20 and the like are displayed on the
[0254]
In this manner, according to the information processing method in the high-quality music live distribution system with video as an embodiment according to the present invention, when the live video and the music data Dout based on the live by the artist Mi are distributed and processed, Operation of four cameras # C1 to # C4 for shooting live images in
[0255]
Accordingly, it is possible to centrally edit the video and music material data Din, which is performed in live houses # 1 and the like existing in various parts of the world, and to collectively manage the copyright of the artist Mi, and perform live performance by the artist Mi. A new high-quality music live distribution system with
[0256]
According to the embodiment of the present invention, live video and music data Dout are electronically distributed in a data streaming format in which illegal duplication (copying) is difficult. It is possible to reduce the data processing load and satisfy a high demand for the user Uj to obtain high image quality video information and high sound quality music information.
[0257]
The present invention has the following effects in addition to the above effects. One-time live performances of artists who are popular among the artists Mi can be distributed to enthusiastic music fans via the Internet. In addition, unlike existing software, valuable software that can be viewed only on the Internet can be provided.
[0258]
In addition, the
[0259]
As an advanced form of the present invention, an environment in which operation software for the
[0260]
【The invention's effect】
As described above, according to the electronic information distribution system and the information processing method according to the present invention, the video and music information obtained by inputting the video and music material information obtained by recording the performance by the performer and editing the information is processed into the performance video and the performance music. An information editing and distributing device for distributing the electronic information content, wherein the information editing and distributing device remotely controls each of the information recording and transmitting devices through communication means so as to automatically record the performance video and the performance music by the performer. It is.
[0261]
With this configuration, the operation of the photographing means for photographing the demonstration video, the operation of the sound pickup means for recording the demonstration music, and the adjustment of the photographing / recording level can be set without manual intervention. ) Can make the recording operator unmanned. Therefore, it is possible to centrally edit the video and music material information that is performed in live houses and the like existing in various parts of the world, and to collectively manage the copyright of the performer. An electronic information distribution system that distributes electronic information contents related to the entire world can be constructed.
[0262]
According to the information recording and transmitting apparatus according to the present invention, the information recording and transmitting apparatus includes information output control means for recording and controlling performance information and performance music based on the performance by the performer, and the information output control means is remotely controlled from the information editing and distribution apparatus. It receives information and remotely controls a photographing means and a sound collecting means so as to automatically record a performance video and a performance music by a performer.
[0263]
With this configuration, the operation of the photographing means and the sound collecting means and the adjustment of the photographing / recording levels can be set without any manual operation, so that the recording operator at the demonstration site can be unmanned. Therefore, the present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing the electronic information content on the performance video and the performance music by the performer to the whole world.
[0264]
According to the information editing and distributing apparatus of the present invention, the information editing and distributing apparatus includes editing and distribution controlling means for editing and distributing video and music material information based on a performance by a performer, and the editing and distribution controlling means transmits remote control information to the information recording and transmitting apparatus. It transmits and remotely controls the information recording / sending device so as to automatically record the performance video and the performance music by the performer.
[0265]
With this configuration, the operation of the shooting means for shooting the demonstration video, the operation of the sound collection means for recording the demonstration music, and the adjustment of the shooting / recording level can be set without manual intervention. The operator can be unmanned. Therefore, it can be performed in live houses, etc. located all over the world, and the video and music material information recorded by this performance can be centrally edited in one country and the copyright of the performer can be centrally managed, and the performer can perform the performance. The present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing electronic information contents regarding video and performance music to the whole world.
[0266]
INDUSTRIAL APPLICABILITY The present invention is extremely suitable when applied to a live music distribution business with high-quality music with video, which distributes and provides live video and live music of a live performer performed at a live house or the like.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing a configuration example of an electronic
FIG. 2 is a diagram showing a flow of electronic information contents in the electronic
FIG. 3 is a flowchart illustrating a processing example in the electronic
FIG. 4 is a diagram showing a configuration example of a high-quality audio live
FIG. 5 is a diagram showing a distribution example of contents, money, and the like in the
FIG. 6 is a block diagram showing an example of an internal configuration of an information recording and transmitting device # L1 and the like as an embodiment according to the present invention.
FIG. 7 is a three-dimensional diagram showing an example of arrangement (front side) of recording devices and the like for live video and music information.
FIG. 8 is a plan view showing an arrangement example (upper surface) of devices for recording live video and music information.
FIG. 9 is a flowchart illustrating an example of automatic adjustment of the information recording and transmitting device #Li.
FIGS. 10A and 10B are flowcharts showing an example of automatic recording by the information recording and transmitting device #Li.
FIG. 11 is a block diagram showing a configuration example of an information editing and
FIG. 12 is a diagram showing an example of a remote operation in the information editing and
FIG. 13 is a flowchart illustrating an example of remote control when recording information in the information editing and
FIG. 14 is a flowchart showing a processing example at the time of information editing in the information editing and
FIG. 15 is a flowchart illustrating a processing example at the time of information distribution in the information editing and
FIG. 16 is a block diagram showing a configuration example of a receiving
FIG. 17 is a conceptual diagram showing a configuration example of a receiving
FIG. 18 is a conceptual diagram showing a configuration example of a receiving side system using the
19A and 19B are diagrams showing a display example of a menu selection screen P2 and an operation example of the
20 is a diagram illustrating a display example of a voice input setting screen P3 on the
21 is a diagram illustrating a display example of a surround adjustment screen P4 on the
FIG. 22 is a diagram illustrating a display example of a live video screen P5.
23A and 23B are diagrams showing display examples of a live video selection screen P53 and an enlarged screen P54 thereof.
FIG. 24 is a flowchart illustrating a GUI operation example (part 1) in the receiving-
FIG. 25 is a flowchart illustrating a GUI operation example (part 2) in the receiving-
[Explanation of symbols]
DESCRIPTION OF
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003120172AJP4513274B2 (en) | 2003-04-24 | 2003-04-24 | Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003120172AJP4513274B2 (en) | 2003-04-24 | 2003-04-24 | Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method |
| Publication Number | Publication Date |
|---|---|
| JP2004328377Atrue JP2004328377A (en) | 2004-11-18 |
| JP2004328377A5 JP2004328377A5 (en) | 2006-06-08 |
| JP4513274B2 JP4513274B2 (en) | 2010-07-28 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003120172AExpired - Fee RelatedJP4513274B2 (en) | 2003-04-24 | 2003-04-24 | Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method |
| Country | Link |
|---|---|
| JP (1) | JP4513274B2 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007201806A (en)* | 2006-01-26 | 2007-08-09 | Kobe Nomado:Kk | Creation method of moving picture data with sound |
| US7956900B2 (en) | 2005-06-01 | 2011-06-07 | Pioneer Corporation | Video delivery device, video delivery method, video delivery program and recording medium |
| JP2014086861A (en)* | 2012-10-23 | 2014-05-12 | Needs Co Ltd | Data distribution system and data distribution method |
| JP2017069848A (en)* | 2015-09-30 | 2017-04-06 | ヤマハ株式会社 | Acoustic processing apparatus |
| JP2018128518A (en)* | 2017-02-07 | 2018-08-16 | 株式会社エムアイセブンジャパン | Music management system and music management method |
| CN109478400A (en)* | 2016-07-22 | 2019-03-15 | 杜比实验室特许公司 | Network-based processing and distribution of multimedia content for live music performance |
| CN116343722A (en)* | 2021-12-23 | 2023-06-27 | 广州市拿火信息科技有限公司 | Musical instrument recording device and method |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001204003A (en)* | 2000-01-20 | 2001-07-27 | Perseus Co Ltd | How to broadcast entertainment |
| WO2002091267A1 (en)* | 2001-05-07 | 2002-11-14 | Dai-San Intelligence Ltd. | Method and system for distributing intelligent content |
| JP2003015988A (en)* | 2001-07-05 | 2003-01-17 | Mitsubishi Electric Corp | TERMINAL COMMUNICATION DEVICE, SERVER DEVICE, CONTENT DELIVERY SYSTEM, CONTENT DELIVERY METHOD, PROGRAM FOR EXECUTED BY COMPUTER, AND COMPUTER-READABLE RECORDING MEDIUM ON WHICH COMPUTER PROGRAM IS RECORDED |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001204003A (en)* | 2000-01-20 | 2001-07-27 | Perseus Co Ltd | How to broadcast entertainment |
| WO2002091267A1 (en)* | 2001-05-07 | 2002-11-14 | Dai-San Intelligence Ltd. | Method and system for distributing intelligent content |
| JP2003015988A (en)* | 2001-07-05 | 2003-01-17 | Mitsubishi Electric Corp | TERMINAL COMMUNICATION DEVICE, SERVER DEVICE, CONTENT DELIVERY SYSTEM, CONTENT DELIVERY METHOD, PROGRAM FOR EXECUTED BY COMPUTER, AND COMPUTER-READABLE RECORDING MEDIUM ON WHICH COMPUTER PROGRAM IS RECORDED |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7956900B2 (en) | 2005-06-01 | 2011-06-07 | Pioneer Corporation | Video delivery device, video delivery method, video delivery program and recording medium |
| JP2007201806A (en)* | 2006-01-26 | 2007-08-09 | Kobe Nomado:Kk | Creation method of moving picture data with sound |
| JP2014086861A (en)* | 2012-10-23 | 2014-05-12 | Needs Co Ltd | Data distribution system and data distribution method |
| JP2017069848A (en)* | 2015-09-30 | 2017-04-06 | ヤマハ株式会社 | Acoustic processing apparatus |
| WO2017057530A1 (en)* | 2015-09-30 | 2017-04-06 | ヤマハ株式会社 | Audio processing device and audio processing method |
| US10243680B2 (en) | 2015-09-30 | 2019-03-26 | Yamaha Corporation | Audio processing device and audio processing method |
| CN109478400A (en)* | 2016-07-22 | 2019-03-15 | 杜比实验室特许公司 | Network-based processing and distribution of multimedia content for live music performance |
| CN109478400B (en)* | 2016-07-22 | 2023-07-07 | 杜比实验室特许公司 | Web-based processing and distribution of multimedia content for live music performances |
| US11749243B2 (en) | 2016-07-22 | 2023-09-05 | Dolby Laboratories Licensing Corporation | Network-based processing and distribution of multimedia content of a live musical performance |
| JP2018128518A (en)* | 2017-02-07 | 2018-08-16 | 株式会社エムアイセブンジャパン | Music management system and music management method |
| CN116343722A (en)* | 2021-12-23 | 2023-06-27 | 广州市拿火信息科技有限公司 | Musical instrument recording device and method |
| Publication number | Publication date |
|---|---|
| JP4513274B2 (en) | 2010-07-28 |
| Publication | Publication Date | Title |
|---|---|---|
| JP5331494B2 (en) | Karaoke service system, terminal device | |
| KR101551868B1 (en) | Method, system and apparatus for delivering media layers | |
| KR101851089B1 (en) | Digital jukebox device with karaoke and/or photo booth features, and associated methods | |
| US20080172704A1 (en) | Interactive audiovisual editing system | |
| WO2002052897A1 (en) | Virtual sound image localizing device, virtual sound image localizing method, and storage medium | |
| WO2006011398A1 (en) | Information processing device and method, recording medium, and program | |
| US20070044137A1 (en) | Audio-video systems supporting merged audio streams | |
| US20080134866A1 (en) | Filter for dynamic creation and use of instrumental musical tracks | |
| Holman et al. | Sound for digital video | |
| JP4513274B2 (en) | Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method | |
| US20210247953A1 (en) | System and Method for Manipulating and Transmitting Live Media | |
| JP2002259381A (en) | Content distribution system and device | |
| JP7503257B2 (en) | Content collection and distribution system | |
| Baxter | A practical guide to television sound engineering | |
| JP6227456B2 (en) | Music performance apparatus and program | |
| JP2012145643A (en) | Audio data recording device and audio data recording/utilization system | |
| US20230262271A1 (en) | System and method for remotely creating an audio/video mix and master of live audio and video | |
| US20230269435A1 (en) | System and method for the creation and management of virtually enabled studio | |
| JP2004240070A (en) | On line moving image and audio signal distribution system | |
| JP4387543B2 (en) | MOVING IMAGE CREATION DEVICE, ITS CONTROL METHOD, AND STORAGE MEDIUM | |
| TWI530175B (en) | Immediately singing video production device | |
| JP5224508B2 (en) | Karaoke recorder | |
| KR102013054B1 (en) | Method and system for performing performance output and performance content creation | |
| KR100616102B1 (en) | Self-acting music file production system and method | |
| KR20180090977A (en) | Distributed Multimedia editing System and Method |
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20060417 | |
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20060417 | |
| RD04 | Notification of resignation of power of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7424 Effective date:20060417 | |
| A977 | Report on retrieval | Free format text:JAPANESE INTERMEDIATE CODE: A971007 Effective date:20090522 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20090609 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20090730 | |
| RD03 | Notification of appointment of power of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7423 Effective date:20090916 | |
| RD04 | Notification of resignation of power of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7424 Effective date:20091102 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20100202 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20100329 | |
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20100420 | |
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20100503 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20130521 Year of fee payment:3 | |
| LAPS | Cancellation because of no payment of annual fees |