Movatterモバイル変換


[0]ホーム

URL:


JP2004328377A - Electronic information distribution system, information recording transmitter, information editing distribution device, and information processing method - Google Patents

Electronic information distribution system, information recording transmitter, information editing distribution device, and information processing method
Download PDF

Info

Publication number
JP2004328377A
JP2004328377AJP2003120172AJP2003120172AJP2004328377AJP 2004328377 AJP2004328377 AJP 2004328377AJP 2003120172 AJP2003120172 AJP 2003120172AJP 2003120172 AJP2003120172 AJP 2003120172AJP 2004328377 AJP2004328377 AJP 2004328377A
Authority
JP
Japan
Prior art keywords
information
video
editing
music
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003120172A
Other languages
Japanese (ja)
Other versions
JP4513274B2 (en
JP2004328377A5 (en
Inventor
Katsuaki Ikema
克明 池間
Kazutoshi Nomoto
和利 野本
Takao Fukui
隆郎 福井
Takao Sasamura
崇雄 笹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony CorpfiledCriticalSony Corp
Priority to JP2003120172ApriorityCriticalpatent/JP4513274B2/en
Publication of JP2004328377ApublicationCriticalpatent/JP2004328377A/en
Publication of JP2004328377A5publicationCriticalpatent/JP2004328377A5/ja
Application grantedgrantedCritical
Publication of JP4513274B2publicationCriticalpatent/JP4513274B2/en
Anticipated expirationlegal-statusCritical
Expired - Fee Relatedlegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To unitarily edit the electronic information contents obtained by recording demonstration by a demonstrator, to unitarily manage a copyright of the demonstrator and to distribute demonstration video and music data regarding a demonstration video image and demonstration music by the demonstrator to the whole world, etc. <P>SOLUTION: This electronic information distribution system is provided with a plurality of information recording transmitters #Li which output the electronic information contents obtained by recording the demonstration by the demonstrator, an information editing distribution device 1 which inputs the electronic information contents from the respective information recording transmitters #Li and distributes the demonstration video and demonstration music data to which information editing processing is performed, an information processor #Pj which receives and processes the demonstration video and music data from the information editing distribution device 1 and communication means 2A, 2B which connect at least the information recording transmitters #Li with the information editing distribution device 1 and the information editing distribution device 1 performs remote control of each of the information recording transmitters #Li through the communication means so that the demonstration video and demonstration music by the demonstrator are automatically recorded. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

Translated fromJapanese

【0001】
【発明の属する技術分野】
本発明は、ライブハウス等で実演される実演家の実演映像及び実演音楽を配信提供する映像付き高音質音楽ライブ配信ビジネス等に適用して好適な電子情報配信システム、情報収録送出装置、情報編集配信装置及び情報処理方法に関する。
【0002】
詳しくは、実演家による実演を収録して得た映像音楽素材情報を入力し、これらを情報編集処理した実演映像及び音楽に係る電子情報内容を配信する情報編集配信装置を備え、その実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御して、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理できるようにすると共に、その実演家による実演映像及び音楽に関する電子情報内容を全世界に配信可能な電子情報配信システムを構築できるようにしたものである。
【0003】
【従来の技術】
近年、ブロードバンド時代に移行し、情報量の多いデジタル映像及び音楽を配信するシステムが利用される場合が多くなってきた。例えば、放送局が複数の映像を同時に多重数デジタル送信し、受信側ではいずれかのチャンネルの映像及び音楽(コンテンツ)等を選択するようにした映像及び音楽提供サービスシステムが普及し始めている。
【0004】
このように、情報利用者にとって、コンテンツの選択の自由度が拡大する方向にある。また、情報提供業者側ではインターネット配信の特長を生かし、ユーザにとって魅力的なコンテンツを制作及び提供する必要性が益々増加している。
【0005】
一方、熱心な音楽ファンは、ライブハウスに行って、ミュージシャンの生演奏(ライブ)を直に聞いて楽しむ傾向にある。この種のライブハウスには、ミュージシャンが演奏を行うステージや、ファンのための客席が設けられる。このステージには、音響効果を上げるために複数の固定又は移動可能なマイクロフォン及び、これらのマイクロフォンで収音した音声等を拡声する複数のスピーカが設置される。
【0006】
また、情報提供業者側では生演奏の映像及び音楽を収録してCD等の記録媒体を作成したり、コンテンツ配信を行うために、マイクロフォンの他に複数のカメラが準備される。これらのカメラ操作、例えば、映像のアングル切換え・ズーム・パン・チルト機能の調整は、現場の収録オペレータ(スタップ)によってなされる。マイクロフォン操作においても、同様にして、マイクの指向性確認・ズーム機能・音声入力レベル等が調整される。
【0007】
このようなライブハウスで収録されたライブ映像及び音楽をソフトウエアにして情報利用者に提供する場合、収録後の電子情報内容を情報提供業者で映像・音声を編集して記録媒体に記録して販売される。また、ライブハウスから各家庭へ生中継する場合は、客席の前をカメラマンが移動して、複数のアングルからライブ映像を撮影し、この複数のアングルの映像を同時に多重数デジタル送信し、受信側ではいずれかのアングルの映像を選択する方法が採られる。これにより、情報利用者側ではカメラマンが撮影したアングルのライブ映像を選んで見ることができる。
【0008】
なお、特許文献1には遠隔観戦サービスシステムが開示されている。この遠隔観戦サービスシステムによれば、競技場に設置された撮影システムと、情報提供業者に配置されたサーバと、情報利用者に設置された情報処理装置とがネットワークにより接続される。また、この撮影システムにおいて、競技場には複数のカメラが備えられ、予め情報利用者の情報処理装置に備えられた操作装置を操作して、競技場に備えられた複数のカメラの撮影条件を変えるように撮影制御装置を制御するようになされる。これらのカメラで撮影された映像は、サーバを通じて利用者の情報処理装置に配信するようになされる。
【0009】
このように構成すると、情報利用者が設定した撮影条件で複数のカメラが撮影した映像を受信することができ、競技場外の各家庭や、集会所等の遠隔地において、情報利用者それぞれの希望や嗜好に合わせた場面の映像を視ることができる。従って、仮想的にスタンド観戦の醍醐味を味合うことができ、臨場感あふれた映像を提供できる。
【0010】
【特許文献1】
特開2002−165200号公報(第4頁,右欄 図1)
【0011】
【発明が解決しようとする課題】
ところで、従来例に係る映像及び音楽提供サービスシステムによれば、次のような問題がある。
【0012】
▲1▼ 従来からのナローバンドでは送受信できるデータ量が少ないため、一般的には音声は強力な圧縮をかけた2CHステレオで音質は良いとは言えず、映像も動きが不自然なものが多かった。
【0013】
▲2▼ 熱心な音楽ファンや、ミュージシャンにとって、ナローバンドでのコンテンツ内容に不満を持っている場合が多い。
【0014】
▲3▼ 既存のソフトウエア(発売済CDやDVD音楽ソフト)等を改めてネット配信している現状の音楽配信システムでは、情報利用者にとって新規性も無ければ新たな興味の対象にも成りにくいので、なかなか市場拡大に結びつかないし、熱烈なファン層も獲得できないのが実情である。
【0015】
▲4▼ また、ライブハウスでの収録においてもカメラ操作、マイクロフォンのセッティング及び調整等に人手がかかり面倒な部分が多い。収録時に客席の前をカメラマンが動いたりするとライブ鑑賞時には視界を遮ったりと迷惑な面も多々ある。
【0016】
▲5▼ 特許文献1によれば、情報利用者の情報処理装置から撮影システムの撮影制御装置を制御する形態が採られるので、不特定多数の情報利用者がカメラの撮影条件を変える範囲が限られてしまう。
【0017】
そこで、この発明はこのような従来の課題を解決したものであって、実演家による実演を収録して得た映像音楽素材情報を一元編集及び実演家の著作権を一元管理できるようにすると共に、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界等に配信できるようにした電子情報配信システム、情報収録送出装置、情報編集配信装置及び情報処理方法を提供することを目的とする。
【0018】
【課題を解決するための手段】
上述した課題は、実演家による実演に基づく電子情報内容を配信するシステムであって、実演家による実演を収録して得た映像音楽素材情報を出力する複数の情報収録送出装置と、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置と、この情報編集配信装置から電子情報内容を受信して処理する情報処理装置と、少なくとも、情報収録送出装置と情報編集配信装置とを接続する通信手段とを備え、この情報編集配信装置は、実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御することを特徴とする電子情報配信システムによって解決される。
【0019】
本発明に係る電子情報配信システムによれば、実演家による実演に基づく電子情報内容を配信する場合に、例えば、編集地となる一の国又は国内に情報編集配信装置が配置されると共に、世界各国又は国内の実演地に情報収録送出装置が配置される。これらの情報収録送出装置と情報編集配信装置とが通信手段を通じて接続される。これを前提にして、情報編集配信装置は実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御するようになされる。
【0020】
例えば、情報収録送出装置の情報出力制御手段では、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御する。撮影手段では、実演家による実演映像を撮影するように遠隔制御される。収音手段では実演家による実演音楽を収録するように遠隔制御される。撮影手段により撮影された実演映像及び収音手段により収録された実演音楽は情報出力制御手段により映像音楽素材情報に変換されて情報編集配信装置へ出力するようになされる。
【0021】
情報編集配信装置では、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容が配信される。情報処理装置では情報編集配信装置から電子情報内容を受信して処理するようになされる。
【0022】
従って、実演地における実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集地において設定できるので、実演地(ライブハウス)での収録オペレータの無人化を図ることができる。これにより、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムを構築することができる。
【0023】
本発明に係る情報収録送出装置は、電子情報内容を配信するシステムの情報編集配信装置に接続されると共に、実演家による実演に基づく実演情報及び実演音楽を収録出力処理する装置であって、実演家による実演映像を撮影する遠隔制御可能な複数の撮影手段と、この実演家による実演音楽を収録する遠隔制御可能な複数の収音手段と、撮影手段により撮影された実演映像及び収音手段により収録された実演音楽を映像音楽素材情報に変換して出力する情報出力制御手段とを備え、この情報出力制御手段は、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御することを特徴とするものである。
【0024】
本発明に係る情報収録送出装置によれば、実演家による実演に基づく実演情報及び実演音楽を収録出力処理する場合に、電子情報内容を配信するシステムの情報編集配信装置に接続される。これを前提にして、情報出力制御手段では、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御する。撮影手段では、実演家による実演映像を撮影するように遠隔制御される。収音手段では実演家による実演音楽を収録するように遠隔制御される。撮影手段により撮影された実演映像及び収音手段により収録された実演音楽は情報出力制御手段により映像音楽素材情報に変換されて情報編集配信装置へ出力するようになされる。
【0025】
従って、撮影手段や収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地での収録オペレータの無人化を図ることができる。これにより、実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0026】
本発明に係る情報編集配信装置は、電子情報内容を配信するシステムの情報収録送出装置から映像音楽素材情報を入力して編集配信処理する装置であって、情報収録送出装置を遠隔制御するための情報を含む操作情報を入力する入力手段と、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理する情報編集手段と、この情報編集手段により編集された実演映像及び実演音楽に係る電子情報内容を配信する情報配信手段と、入力手段からの操作情報に基づいて情報編集手段及び情報配信手段の入出力を制御する編集配信制御手段とを備え、この編集配信制御手段は、情報収録送出装置へ遠隔制御情報を送信し、実演家による実演映像及び実演音楽を自動収録するように情報収録送出装置を遠隔制御することを特徴とするものである。
【0027】
本発明に係る情報編集配信装置によれば、情報収録送出装置から映像音楽素材情報を入力して編集配信処理する場合に、例えば、実演地に配置された情報収録送出装置と編集地に配置された情報編集配信装置とが接続される。これを前提にして、入力手段は情報収録送出装置を遠隔制御するための情報を含む操作情報を入力するように操作される。編集配信制御手段では入力手段からの操作情報に基づいて情報収録送出装置へ遠隔制御情報を送信し、実演家による実演映像及び実演音楽を自動収録するように情報収録送出装置を遠隔制御する。これと共に、編集配信制御手段は情報編集手段及び情報配信手段の入出力を制御する。この制御によって情報編集手段では、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理がなされる。情報配信手段では、この情報編集手段により編集された実演映像及び実演音楽に係る電子情報内容を情報利用者へ配信するようになされる。
【0028】
従って、実演地における実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集地で設定できるので、実演地での収録オペレータの無人化を図ることができる。これにより、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一の国で一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0029】
本発明に係る情報処理方法は、実演家による実演に基づく電子情報内容を配信して処理する方法であって、実演地の各々に実演家による実演を収録して映像音楽素材情報を出力する情報収録送出装置を配置し、各々の情報収録送出装置から映像音楽素材情報を入力して情報編集処理をし、当該情報編集処理後の実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を編集地に配置し、実演地に配置された情報収録送出装置と編集地に配置された情報編集配信装置とを通信手段を介して接続し、実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御し、ここで遠隔制御される実演地の情報収録送出装置から得られる映像音楽素材情報を編集地の情報編集配信装置で情報編集処理し、ここで情報編集処理により得られた電子情報内容を情報配信処理することを特徴とするものである。
【0030】
本発明に係る情報処理方法によれば、実演家による実演に基づく電子情報内容を配信して処理する場合に、実演地における実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集地において設定できるので、実演地での収録オペレータの無人化を図ることができる。
【0031】
従って、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に寄与するところが大きい。
【0032】
【発明の実施の形態】
続いて、この発明に係る電子情報配信システム、情報収録送出装置、情報編集配信装置及び情報処理方法の一実施の形態について、図面を参照しながら説明をする。
【0033】
(1)実施形態
図1は、本発明に係る実施形態としての電子情報配信システム10の構成例を示す概念図である。
この実施形態では、実演家による実演を収録して得た映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を備え、その実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御して、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理できるようにすると共に、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信可能な電子情報配信システムを構築できるようにしたものである。
【0034】
図1に示す電子情報配信システム10は、実演家Mi(i=1〜n)による実演に基づく電子情報内容を配信する上位概念としてのシステムである。このシステム10は実演地(以下ライブハウスという)等で実演される実演家Miの実演映像及び実演音楽を配信提供する映像付き高音質音楽ライブ配信ビジネス等に適用して好適である。ここに実演家Miとは、俳優、舞踊家、演奏家、歌手、その他実演を行う者、実演を指揮する者、又は演出する者をいう。また、実演とは、著作物を演劇的に演じ、舞い、演奏し、口演し、朗詠し、又はその他の方法により演ずること(これらに類する行為で著作物を演じないが芸能的な性質を有するものを含む)をいう。
【0035】
ライブハウスとは、実演を観る客の入場が可能な場所であって、実演家Miが実演する演劇場等をいう。ライブハウスはCD等の基礎となる原盤を作成するための収録スタジオという概念とは異なっている。電子情報配信システム10はライブハウスに限られることはなく収録スタジオについても適用できる。
【0036】
このシステム10には、複数の情報収録送出装置#Li(i=1〜n)が準備され、各々の情報収録送出装置#Liは、例えば世界各国又は国内の各地のライブハウスに配置される。このシステム10ではライブハウスにおけるオペレータの無人化を想定している。各々の情報収録送出装置#Liでは実演家Miによる実演を収録して得た映像音楽素材データを出力するようになされる。
【0037】
例えば、ライブハウス内には遠隔制御可能な数台のカメラが配置される。カメラは実演家Miの映像を撮影する位置に配置される。再生時に、情報利用者(以下ユーザという)の好みの角度からの映像を選択して再生できるようにするためである。これらのカメラにより種々の角度から撮影した実演映像に係る数チャンネル分のライブ映像データが取得される。
【0038】
また、ライブハウス内には遠隔制御可能な数十台のマイクロフォンが配置される。マイクロフォンの各々は音源の近くに配置される。再生時に、ユーザの好みの音源を選択して再生できるようにするためである。これらのマイクロフォンにより種々の音源から収録したその実演音楽に係る数十チャネル分の音声・音楽データが収録される。これらのカメラにより撮影された実演映像及びマイクロフォンにより収録された実演音楽は、ストリーミング形式の映像音楽素材データに変換して編集地に送出するようになされる。
【0039】
このシステム10には情報収録送出装置#Liの他に情報編集配信装置1が準備され、例えば、情報編集配信装置1は編集地(以下編集サイトともいう)となる一の国又は国内に配置される。この例では、情報編集配信装置1は情報提供業者4のビジネス地である我が国に配置することを想定している。各々のライブハウスの情報収録送出装置#Liと編集サイトの情報編集配信装置1とは通信手段2Aを通じて接続される。情報編集配信装置1では各々の情報収録送出装置#Liから映像音楽素材データを入力して情報編集処理し、編集処理後の実演映像及び実演音楽に係る電子情報内容を配信するようになされる。
【0040】
このシステム10では、情報編集配信装置1によって情報編集処理された電子情報内容に関しては、実演家Miの承諾が取得され、実演家Miの承諾を得た後の電子情報内容をユーザへ配信するようになされる。この情報編集配信装置1では、実演映像及び実演音楽に係る電子情報内容の不正な複製を防止するために、これらの電子情報内容に複製禁止処理を施すようになされる。例えば、電子情報内容は複製困難なスクランブル処理が施され、スクランブル処理後のデータをストリーミング形式により情報編集配信装置1からユーザへ配信するようになされる。
【0041】
また、情報編集配信装置1では、一のライブハウスで収録された複数の実演映像及び実演音楽に関する電子情報内容を多重処理して配信するようになされる。
この電子情報内容を多重配信するようにしたのは、視聴者家庭でこれらの電子情報内容を再生するときに、その電子情報内容を好みに応じて選択できるようにしたためである。例えば、好みの角度の実演映像を選択して再生したり、好みの音源を選択して実演音楽を再生できるようになる。このようにすると、ユーザは、世界各国のライブハウスの臨場感を家に居ながらにして楽しむことができる。
【0042】
更に、視聴者の各家庭、つまり、ユーザUj(j=1〜m)には情報処理装置#Pjが各々準備される。編集サイトの情報編集配信装置1と各家庭の情報処理装置#Pjとは通信手段2Bを通じて接続される。各々の情報処理装置#Pjでは、情報編集配信装置1から電子情報内容を受信して処理するようになされる。
情報処理装置#Pjにはデスクトップ型やノート型のパーソナルコンピュータ、ホームサーバ、テレビ、AVアンプ、インターネットテレビ等が使用される。各々のライブハウスの情報収録送出装置#Liと編集サイトの情報編集配信装置1とは通信手段2Aを通じて接続される。
【0043】
少なくとも、情報収録送出装置#Liと情報編集配信装置1とは通信手段2Aにより接続される。このシステム10で情報編集配信装置1は、実演家Miによる実演映像及び実演音楽を自動収録するように通信手段2Aを通じて情報収録送出装置#Liの各々を遠隔制御するようになされる。通信手段2A,2Bにはインターネットが使用される。インターネットは衛星通信回線や、海底通信ケーブル、公衆電話回線等を組み合わせて構成される。もちろん、情報編集配信装置1とユーザの情報処理装置#Pjとは通信手段2Bを通じて接続される。
【0044】
当該電子情報配信システム10における課金処理については、まず、電子機器製造事業者はライブハウスへ情報収録送出装置#Liを販売する。もちろん、これに限られることはなく、当該情報収録送出装置#Liを貸与により提供するようにしてもよい。また、電子機器製造事業者は編集サイトへ情報編集配信装置1を販売する。もちろん、これに限られることはなく、当該情報編集配信装置1を貸与により提供するようにしてもよい。
【0045】
また、電子機器製造事業者からユーザへパソコンやインターネットテレビ等の情報処理装置#Pjを販売する。又は、ソフトウエア事業者は専用の情報処理ソフトウエアをユーザへ販売する。これらの装置やソフトウエアは貸与により提供する形式を採ってもよい。
【0046】
各ユーザUjは電子情報内容を利用する利用料金を情報提供業者4へ支払う。
回線接続事業者には回線接続料を支払うようになされる。情報提供業者4はユーザから収入した利用料金を実演家Mi及びライブハウス所有者との間で利益分配するようになされる。例えば、実演家Miに対しては出演料を支払い、ライブハウス所有者には借室料等を支払う。
【0047】
図2は電子情報配信システム10における電子情報内容の流れを示す図である。このシステム10ではn=10の場合を例に挙げている。図2に示す電子情報配信システム10によれば、経路▲1▼で映像(VIDEO)及び音楽(AUDIO)の調整を遠隔制御するための電子情報内容が送信される。例えば、編集サイト11に居るオペレータが、実演(ライブ)のリハーサル、または本番中にインターネット経由で映像(VIDEO)及び音楽(AUDIO)の調整を遠隔制御(リモートコントロール)する。
【0048】
このとき、ライブハウス、スタジオ#1〜#10等における実演音楽・音声等の収録レベル及びその圧縮(コンプレッサ)などのマイクロフォン調整や、実演映像のパン、チルト、ズーム及び画質などのカメラ調整が、編集サイト11、すなわち、図1に示した情報編集配信装置1から遠く離れた国(場所)のライブハウス#1等にある情報収録送出装置#Liに対してインターネット経由で遠隔制御するようになされる。
【0049】
また、経路▲2▼で映像及び音楽等の遠隔調整制御対象となる電子情報内容が送信される。例えば、ライブハウス#1等から編集サイト11にはモニタデータが送出される。このモニタデータは、編集サイト11で実演音楽・音声等の収録レベル及びその圧縮(コンプレッサ)などのマイクロフォン調整や、実演映像のパン、チルト、ズーム及び画質などのカメラ調整をするために使用される。
【0050】
編集サイト11の図示しないモニタ画面には、ライブハウス#1等から送られてきたモニタデータに基づく、カメラ調整及びマイクロフォン調整画面が表示される。オペレータは、このモニタ画面を視聴しながら、ライブハウスにおける映像及び音声の調整を遠隔制御するようになされる。
【0051】
更に、経路▲3▼で映像及び音声を収録した実演映像(ライブ映像)及び実演音楽(ライブ音声)がローカルファイルF1等に記録される。ローカルファイルF1はライブハウス#1に設けられ、ローカルファイルF2はライブハウス#2に設けられ、・・・・ローカルファイルF10はライブハウス#10に各々設けられる。以下でローカルファイルをFi(i=1〜10)と記述する。
【0052】
例えば、ライブハウス#1等では実演家Miによるライブ映像及びライブ音声がデジタルの映像音楽素材データとして収録され、一旦、ライブハウス(現場)に配置されている情報収録送出装置#Li内のローカルファイルF1に記録される。なお、ライブ映像及びライブ音声は、当該ライブハウス#1等と編集サイト11との間の接続回線の容量や、情報収録送出装置#Liや、情報編集配信装置1等の送受信機能の速度が確実に保持できる場合には、直接編集サイト11のストレージに映像音楽素材データとして記録するようにしても良い。
【0053】
また、経路▲4▼で各ライブハウスハウス等から送出された電子情報内容を編集サイト11で受信する。例えば、編集サイト11ではインターネット20Aに接続されている複数のライブハウス#1〜#10等の情報収録送出装置#Liのローカルファイルから、インターネット経由で、収録された映像音楽素材データを素材ファイル12に受信する(吸い上げる)ようになされる。
【0054】
更に編集段階では、経路▲5▼で情報収録送出装置#Liから受信した映像音楽素材データを素材ファイル12から読み出される。例えば、編集サイト11では、素材ファイル12から読み出した映像音楽素材データを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音楽素材データを編集するようになされる。
【0055】
また、音声編集では、音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、実演音楽に係る音楽素材データは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。また、実演映像に係る映像素材データも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的には映像情報と音楽情報とがタイムコード等により同期が取られる。
編集後の映像及び音楽データは編集済ファイル13に一旦格納される。
【0056】
更に、経路▲6▼で編集済ファイル13から映像及び音楽データが読み出され、エンコード処理される。例えば、編集サイト11におけるオーサリング段階で、編集済みの映像及び音声データをエンコードして、1つのファイルにまとめ、インターネット20Bで配信できる(流せる)ような各種フォーマットに変換される。このエンコード後の映像及び音楽データは、完成パケットファイル(以下完パケファイルともいう)14に一旦格納される。
【0057】
また、エンコード後の映像及び音声データは、経路▲7▼で実演家による確認処理に移行される。この例で、実演家であるミュージシャンM1は、編集サイト11にある完パケファイル14をインターネット経由でアクセスすることができ、エンコード済みのファイルを確認できるようになされている。例えば、ミュージシャンM1の自宅などで、エンコード後のライブ映像及び音声データを再生し、視聴チェックを行う。
【0058】
このとき、ミュージシャンM1から編集者に対して配信許可又は不許可が与えられる。この視聴の結果、ミュージシャンM1の要望を入れて編集を再加工することもできる。ここで配信OKならば、同時に、インターネット20A上で著作権の手続きを行う。このとき、情報提供業者4とミュージシャンM1との間で報酬の契約を交わすようにしてもよい。
【0059】
この配信OKを得た編集サイト11では、経路▲8▼で実演家から配信許可を得た電子情報内容を完パケファイル14から読み出して配信サーバ15へ転送する。例えば、情報提供業者4の業務を一部実行するインターネット配信業者の配信サーバ15へエンコード後のライブ映像及び音声データがゆだねられる。インターネット配信業者104における電子情報内容の配信は、ストリーミング形式でも、ダウンロード形式でも対応できるようになされる。
【0060】
ダウンロード形式の場合は、ファイルにコピープロテクション機能が付加されており、不正コピーができないようになされている。インターネット配信業者104から視聴者家庭Hj(j=1〜m)には経路▲9▼でインターネット20Bを経由してストリーミング形式のライブ映像及び音声データが配信される。
【0061】
続いて、本発明に係る実施形態としての情報処理方法について説明をする。図3は電子情報配信システム10における処理例を示すフローチャートである。
この実施形態では、当該電子情報配信システム10に加入する、例えば、A国〜J国の10か国のライブハウス#1〜#10に各々情報収録送出装置#Liを配置すると共に、編集サイト11となる我が国に情報編集配信装置1を配置する場合を例に挙げる。もちろん、ミュージシャンMiによる実演に基づく電子情報内容をユーザUjへ配信して処理する場合を前提とする。図2に示した視聴者家庭Hjには情報処理装置#Pjが予め準備される。
【0062】
また、情報編集配信装置1においては、各々のライブハウス#1〜#10に配置された情報収録送出装置#L1〜#L10によって収録された映像音楽素材データを一元編集及びミュージシャンM1〜M10の著作権を一元管理すると共に、ミュージシャンM1〜M10によるライブ映像及び音楽データに関する電子情報内容を全世界又は国内の視聴者家庭に配信する場合を例に採る。
【0063】
これらを処理条件にして、図3に示すフローチャートのステップA1で世界各国のライブハウス#1〜#10の各々に情報収録送出装置#Liを配置すると共に、我が国の編集サイト11には情報編集配信装置1を配置する。例えば、図2に示したA国のライブハウス又はスタジオ#1には、図1に示した情報収録送出装置#L1が配置される。B国のライブハウス又はスタジオ#2にも、情報収録送出装置#L2が配置され、・・・・同様にして、J国のライブハウス又はスタジオ#10には、図1に示した情報収録送出装置#L10が配置される。
【0064】
各々のライブハウス#1〜#10の情報収録送出装置#LiにはローカルファイルF1〜F10が備えられる。ローカルファイルF1は情報収録送出装置#L1に設けられ、ローカルファイルF2は情報収録送出装置#L2に設けられ、・・・・ローカルファイルF10は情報収録送出装置#L10に各々設けられる。
A国のローカルファイルF1には実演家であるミュージシャンM1により実演され収録された映像(VIDEO)データ及び音声(AUDIO)データが格納される。
【0065】
B国のローカルファイルF2には実演家であるミュージシャンM2により実演され収録されたライブ映像及び音声データが格納され、・・・J国のローカルファイルF10には実演家であるミュージシャンM10により実演され収録されたライブ映像及び音声データが各々格納される。なお、図2に示した編集サイト11には、図1に示した情報編集配信装置1が配置される。この情報編集配信装置1には、図2に示した素材ファイル12、編集済ファイル13及び完パケファイル14が備えられる。
【0066】
そして、各々のライブハウス#1〜#10に配置された情報収録送出装置#L1〜#L10と編集サイト11に配置された情報編集配信装置1とをステップA2でインターネット20A、20B等の通信手段を使用して接続する。また、情報編集配信装置1は、インターネット配信事業者の配信サーバ15に接続される。これは配信業務を委託するためである。
【0067】
その後、ステップA3に移行して、インターネット20Aを通じて情報収録送出装置#L1〜#L10の各々を遠隔制御する。この遠隔制御は、ミュージシャンMiによるライブ映像及び音楽を自動収録するためである。例えば、図2に示した経路▲1▼で映像及び音声の調整を遠隔制御するための電子情報内容が送信される。このとき、編集サイト11に居るオペレータが、ライブのリハーサル、または本番中にインターネット経由で映像及び音声の調整を遠隔制御する。
【0068】
この例では、ライブハウス#1〜#10等におけるライブ音楽・音声等の収録レベル及びその圧縮処理などのマイクロフォン調整や、ライブ映像のパン、チルト、ズーム及び画質などのカメラ調整が、編集サイト11、すなわち、図1に示した情報編集配信装置1から遠く離れた国のライブハウス#1等にある情報収録送出装置#L1に対してインターネット経由で遠隔制御するようになされる。
【0069】
また、経路▲2▼でライブ映像及び音声等の遠隔調整制御対象となる電子情報内容が送信される。例えば、ライブハウス#1等から編集サイト11にはモニタデータが送出される。このモニタデータは、編集サイト11で実演音楽・音声等の収録レベル及びその圧縮などのマイクロフォン調整や、実演映像のパン、チルト、ズーム及び画質などのカメラ調整をするために使用される。
【0070】
編集サイト11の図示しないモニタ画面には、ライブハウス#1等から送られてきたモニタデータに基づく、カメラ調整及びマイクロフォン調整画面が表示される。オペレータは、このモニタ画面を視聴しながら、ライブハウスにおける映像及び音声の調整を遠隔制御するようになされる。このようような調整が済むと、ライブ本番となって、A国のライブハウス#1に配置された情報収録送出装置#L1では、ミュージシャンM1による実演を収録して映像音楽素材データを送出するようになされる。
【0071】
また、ステップA4で我が国の編集サイト11では各々のライブハウス#1〜#10の情報収録送出装置#L1〜#L10等から送出されてくる映像音楽素材データを入力して情報編集処理をするようになされる。例えば、図2に示した経路▲4▼で各ライブハウス#1等から送出された映像音楽素材データを編集サイト11の情報編集配信装置1で受信する。このとき、編集サイト11ではインターネット20Aに接続されている複数のライブハウス#1〜#10等の情報収録送出装置#Liのローカルファイルから、インターネット経由で、収録された映像音楽素材データを素材ファイル12に受信する(吸い上げる)。
【0072】
更に図2に示した経路▲5▼で編集サイト11では、素材ファイル12から読み出した映像音声素材データを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音声素材データを編集するようになされる。また、音声編集では、音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、実演音楽に係る音楽素材データは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。更に、実演映像に係る映像素材データも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的には映像情報と音楽情報とがタイムコード等により同期が取られる。編集後の映像及び音楽データは編集済ファイル13に一旦格納される。
【0073】
また、図2に示した経路▲6▼で編集サイト11におけるオーサリング段階で、編集済ファイル13から編集済みの映像及び音声データを読み出してエンコードし、1つのファイルにまとめ、インターネット20Bで配信できるような各種フォーマットに変換される。このエンコード後の映像及び音声データは、完パケファイル14に一旦格納される。
【0074】
ステップA5で情報提供業者4はミュージシャンMiに編集内容の確認を取るようになされる。このとき、情報編集配信装置1からミュージシャンMiの所持する情報処理装置に対して、インターネット20Aを利用して、情報編集処理された電子情報内容が配信され、この電子情報内容に関してミュージシャンMiの承諾を取得するようなされる。
【0075】
例えば、図2に示したエンコード後の映像及び音声データは、経路▲7▼でミュージシャンM1による確認処理に移行される。そして、ミュージシャンM1は、編集サイト11にある完パケファイル14をインターネット経由でアクセスすることができ、エンコード済みのファイルを確認するようになされる。例えば、ミュージシャンM1の自宅などで、エンコード済みのライブ映像及び音声データを再生装置でデコードし、デコード後のライブ映像及び音声データを再生し、ミュージシャンM1は視聴チェックを行う。このとき、ミュージシャンM1から編集者に対して、視聴の結果、配信OKならば、同時に、インターネット20A上で著作権の手続きが行われる。このとき、情報提供業者4とミュージシャンM1との間で報酬の契約を交わすようになされる。
【0076】
この配信OKを得た編集サイト11では、経路▲8▼でミュージシャンM1から配信許可を得たライブ映像及び音楽データを完パケファイル14から読み出して、情報提供業者4の業務を一部実行するインターネット配信業者の配信サーバ15へこのライブ映像及び音楽データが転送される。インターネット配信業者においては、ライブ映像及び音楽データの配信に関して、ストリーミング形式でも、ダウンロード形式でも対応できるようになされる。
【0077】
このとき、インターネット配信業者104では、電子情報内容に複製禁止処理が施される。例えば、完パケファイル14に基づくライブ映像及び音声データは、インターネット配信業者の配信サーバ15から視聴者家庭Hjの情報処理装置#Pjへ、複製困難なデータストリーミング形式により配信される。不正な複製を防止するためである。
【0078】
そして、ステップA6に移行して、当該情報編集処理後のライブ映像及び音楽であって、ミュージシャンM1の確認後のライブ映像及び音楽データをユーザUjへ配信する。このとき、インターネット配信業者104から視聴者家庭Hj(j=1〜m)には図2に示した経路▲9▼でインターネット20Bを経由してストリーミング形式のライブ映像及び音声データが配信される。
【0079】
また、インターネット配信業者104では、一のライブハウス#1に係る複数のライブ映像及び音楽データに関する電子情報内容を多重処理して、視聴者家庭Hjの情報処理装置#Pjへ配信するようになされる。ユーザUj側では一のライブハウス#iに係る電子情報内容を任意に選択可能なようになされる。これと共に、ユーザUjに対して課金処理が施される。
【0080】
なお、ステップA7で情報処理を終了するかを否かを判断する。この際の判断は、ライブハウスオーナ及び情報提供業者4等のシステム業務提携関係者である。ライブ映像及び音楽情報配信処理を終了しない場合は、例えば、ステップA3に戻ってインターネット20Aを通じてA国〜J国の情報収録送出装置#L1〜#L10の各々を遠隔制御する処理を継続する。もちろん、ステップA1に戻って、世界各国の他のライブハウスに情報収録送出装置#Liを配置するような業務を遂行するようにしてもよい。ライブ映像及び音楽情報配信処理を終了する場合は、システム業務提携関係者の協議の下に終了する。
【0081】
このように、本発明に係る実施形態としての電子情報配信システム10及び情報処理方法によれば、ミュージシャンMiによる実演に基づくライブ映像及び音声データを配信する場合に、情報編集配信装置1ではミュージシャンMiによるライブ映像及び音楽を自動収録するようにインターネット20Aを通じて情報収録送出装置#L1〜#L10等の各々を遠隔制御するようになされる。
【0082】
従って、ライブハウス#1〜#10におけるライブ映像を撮影するカメラの操作、ライブ音楽を収録するマイクロフォンの操作及び、これらの撮影・収録レベルの調整等を人手を介さずに編集サイト11において設定できるので、ライブハウス#1〜#10での収録オペレータの無人化を図ることができる。これにより、世界各地に存在するライブハウス#1〜#10等で実演され、この実演によって収録される映像音楽素材データを一元編集及びミュージシャンMiの著作権を一元管理することができ、そのミュージシャンMiによるライブ映像及び音楽に関する電子情報内容を全世界に配信する電子情報配信システム10を構築することができる。
【0083】
(2)実施例
図4は本発明に係る実施例として映像付き高音質音楽ライブ配信システム100の構成例を示す図である。
この実施例では、電子情報配信システムの一例となる映像付き高音質音楽ライブ配信システム100を構築し、任意の国に存在するライブハウス#1等で実演され、この実演によって収録される映像音楽素材データをコンテンツ配信サイト102で自動編集及びアーティストコミュニティ101のアーティスト(ミュージシャン)Mi等の著作権を一元管理できるようにしたものである。
【0084】
図4に示す映像付き高音質音楽ライブ配信システム100は、アーティストMi(i=1〜n)によるライブ演奏に基づくライブ映像及び音楽データDoutを配信するシステムである。このシステム100は、従来方式の配信システムと異なり、基本的に音楽性(芸術性)の高いソフトウエアを配信するところにある。ユーザコミュニティ103には、NTSC方式のテレビを含むインターネットTVや、ホームサーバ、AVアンプ、パーソナルコンピュータ等の情報処理装置が準備され、コンテンツ配信サイト102で予め編集され準備されたライブ映像及び音楽データDoutを選択して再生可能なようになされる。
【0085】
このシステム100では、ライブハウス#1等の情報収録送出装置#L1に対して、直接操作できない(又はさせない)ことが前提となる。このことで、従来方式の配信システムのように、ユーザUjがカメラ等を遠隔操作して好みの映像を鑑賞する方法とは異なる。
【0086】
この例で、高音質音楽ライブ配信を行うために、ライブハウス#iで収録するマルチチャンネルのライブ映像及び音声データについて、配信元である情報提供業者4は、次のような対応が採られる。
【0087】
▲1▼ ライブ音声収録に関して、例えば、16本のマイクロフォン#M1〜#M16をライブハウス#i内に配置する。この16チャンネル(以下CHと記す)のマイク入力のバラバラな音声データに対して、ノイズ除去、音量合わせ、効果音の付加等の編集及び加工を施す。この16CHの音声データを、ユーザUjの視聴スタイルに合わせて2CHや、4CH、8CH等に編集して配信する。
【0088】
▲2▼ ライブ映像収録に関して、例えば、4台のカメラ#C1〜#C4をライブハウス#i内に配置する。この4台のカメラ#C1〜#C4のうち、1台は演奏者のソロパートになったとき、楽器の扱い方(弾き方)等をズーム撮影するようになされる。この例では、ある程度音楽に精通する者(例えば専門のミキサー)の指示に基づいてコンテンツ配信サイト102からライブハウス#1の情報収録送出装置#L1を遠隔制御するようになされる。これにより、良質なソフトウエアを自動編集制作することができるようになる。
【0089】
このシステム100で、ライブハウス#1には情報収録送出装置#L1が準備され、アーティストMiによるライブを収録して得た映像音楽素材データDinを出力するようになされる。この例では、ライブハウス#1におけるオペレータの無人化を想定している。このライブハウス#1の情報収録送出装置#L1はオンサイト無人コントローラを構成し、インターネット20A等のブロードバンド回線に接続されている。情報収録送出装置#L1はマイクロフォン及びカメラを遠隔制御するように動作する。
【0090】
このライブハウス#1内には遠隔制御可能な4台のカメラ#C1〜#C4が配置される。カメラ#C1〜#C4はアーティストMiの映像を撮影する位置に配置される。再生時に、ユーザUjの好みの角度からの映像を選択して再生できるようにするためである。これらのカメラ#C1〜#C4により種々の角度から撮影したライブ映像に係る4CH分のライブ映像データが取得される。
【0091】
また、ライブハウス内には遠隔制御可能な16台のマイクロフォン#M1〜#M16が配置される。マイクロフォン#M1〜#M16の各々は音源の近くに配置される。再生時に、ユーザUjの好みの音源を選択して再生できるようにするためである。これらのマイクロフォン#M1〜#M16により種々の音源から収録したそのライブ音楽に係る16CH分の音声・音楽データが収録される。
【0092】
これらのカメラ#C1〜#C4により撮影されたライブ映像及びマイクロフォン#M1〜#M16により収録されたライブ音楽は、ストリーミング形式の映像音楽素材データDinに変換して、アーカイブ用の大容量サーバ、例えば、図2に示したローカルファイルF1に一旦、取り込まれる。その後、映像音楽素材データDinは編集地のコンデンサ配信サイト102に送出するようになされる。
【0093】
情報提供業者4である配信元はコンテンツ配信サイト102を構成する。このコンテンツ配信サイト102には情報編集配信装置1を構成する配信サーバ15、アーティスト管理サーバ16、自動編集加工部17及びコンテンツサーバ18が備えられる。このコンテンツ配信サイト102は情報提供業者4のビジネス地である我が国に配置することを想定している。
【0094】
上述したライブハウス#1の情報収録送出装置#L1とコンテンツ配信サイト102の自動編集加工部17とはインターネット20Aを通じて接続される。情報提供業者4である配信元では、ライブハウス#1に設置された4台のカメラ#C1〜#C4及び、16本のマイクロフォン#M1〜#M16をアーティストMiの要望により遠隔操作して収録が行われる。このシステム100では、ライブハウス#1におけるライブ映像等の収録時に、アーティスト側から配信元へ希望の映像アングルや音声編集等の要望を受け付けるようになされる。
【0095】
また、コンテンツ配信サイト102では、情報収録送出装置#L1から自動編集加工部17に映像音楽素材データDinが入力される。自動編集加工部17では、ローカルファイルF1から読み出された映像音楽素材データDinを情報編集処理する。もちろん、パソコン(PC)等を利用してオぺレータにより、アーティストMi及びユーザUjを満足するような配信ソフトを編集・制作するようにしてもよい。
【0096】
自動編集加工部17にはコンテンツサーバ18が接続され、編集処理後のライブ映像及び音楽データ(映像及び音楽ソフト)Doutが格納される。このシステム100では、情報編集処理されたライブ映像及び音楽データDoutに関して、アーティストMiの承諾が取得され、このアーティスト側の承認を以てユーザUjへの配信がOKとなる。アーティストMiの承諾を得た後のライブ映像及び音楽データDoutをユーザUjへ配信するようになされる。
【0097】
このコンテンツ配信サイト102にはアーティスト管理サーバ16が設けられ、アーティストMiの確認や、利用条件設定電子契約等を管理するようになされる。アーティスト管理サーバ16で管理されるアーティスト情報は、必要に応じてユーザUjへ配信するようになされる。
【0098】
また、コンテンツサーバ18には配信サーバ15が接続され、アーティストMiから配信許可が出されたライブ映像及び音楽データDoutが格納される。配信サーバ15はインターネット20Bを通してユーザUjコミュニティ103の情報処理装置に接続され、配信許可後のライブ映像及び音楽データDoutを配信するようになされる。
【0099】
この配信サーバ15では、ライブ映像及び音楽データDoutの不正な複製を防止するために、これらのライブ映像及び音楽データDoutに複製禁止処理を施すようになされる。例えば、ライブ映像及び音楽データDoutは複製困難なスクランブル処理が施され、スクランブル処理後のデータをストリーミング形式により配信サーバ15からユーザUjの情報処理装置へ配信するようになされる。
【0100】
また、配信サーバ15では、一のライブハウス#1で収録された複数のライブ映像及び音楽データDoutを多重処理して配信するようになされる。このライブ映像及び音楽データDoutを多重配信するようにしたのは、視聴者家庭でこれらのライブ映像及び音楽データDoutを再生するときに、そのライブ映像及び音楽データDoutを好みに応じ選択できるようにしたためである。例えば、好みの角度のライブ映像を選択して再生したり、好みの音源を選択してライブ音楽を再生できるようになる。このようにすると、ユーザUjは、ライブハウス#1の臨場感を家に居ながらにして楽しむことができる。
【0101】
図5は映像付き高音質音楽ライブ配信システム100におけるコンテンツ及び金銭等の流通例を示す図である。
図5に示すビジネスAでは業務用の映像音声編集機器(プロAV機器)201等を使用して当該高音質音楽ライブ配信システム100を稼働するためのシステムソフトウエアを作成する。このシステムソフトウエアを図5に示す実線の経路(1)で情報提供業者4へ納入し、ビジネスAは情報提供業者4から点線で示す経路(12)で代金を徴収する。
【0102】
この情報提供業者4には、アーティスト用のWEB5、ユーザUj用のWEB6、サーバ15’、自動編集加工部17及び、システムメンテナンス部(以下システムメンテ部という)19が備えられる。上述のシステムソフトウエアはシステムメンテ部19で管理される。この例で情報提供業者4は経路(2)でライブハウス#1へ情報収録送出装置#Liやその他付属システムを販売する。もちろん、これに限られることはなく、当該情報収録送出装置#Li等を貸与により提供するようにしてもよい。このとき、機器セット及び、無人化可能となるまで収録人員を派遣するようになされる。
【0103】
ライブハウス#1ではアーティストMiによってライブを催す毎に、実演家の権利である「著作権」が発生する。このライブハウス#1で開催されたアーティストMiによるライブ映像及び音楽に係る映像音楽素材データDinは収録コンテンツとなって、経路(3)で情報収録送出装置#L1から情報提供業者4のサーバ15’へ転送される。情報提供業者4では経路(4)で収録コンテンツがサーバ15’から自動編集加工部17へ転送される。
【0104】
自動編集加工部17では、収録コンテンツが情報編集及び加工される。この情報編集及び加工後の収録コンテンツは完パケコンテンツとなって、経路(5)でサーバ15’へ転送される。完パケコンテンツは経路(15)、WEB5及び経路(16)を通じてアーティストMiによって確認される。この確認後のアーティスト情報は、経路(16)、WEB5及び経路(15)を通じて情報提供業者4へ返信される。完パケコンテンツが配信可能な状態になされる。
【0105】
一方、図5に示すビジネスBでは電子機器製造事業者からユーザUjへ、経路(7)でパソコンやインターネットテレビ等の専用機器(PC/CE device)を販売する。また、ソフトウエア事業者は専用の情報処理ソフトウエアをユーザUjへ販売する。ユーザUjは経路(8)でビジネスBに対して代金を支払う。これらの専用機器やソフトウエアは貸与により提供する形式を採ってもよい。
【0106】
この映像付き高音質音楽ライブ配信システム100における課金処理については、まず、情報提供業者4のユーザUj用のWEB6から、経路(9)のインターネット20Bを通じて完パケコンテンツが配信される。ユーザUjの利益としては、無名の自分の好みに合ったアーティストMiを探し出すことができる。ライブ映像・音楽配信ソフトには編集及び加工がなされているので、最適な環境で簡便にライブ映像等を楽しむことができる。
【0107】
このサービスに対して、各ユーザUjはライブ映像及び音楽データDoutを利用するためのサービス料金を情報提供業者4へ支払う。例えば、ユーザUjは経路(10)でISP(インターネットサービス接続)事業者104に対してサービス料を支払う。このサービス料には完パケコンテンツの利用料が含まれている。ISP事業者104は、回線接続料を差し引いたコンテンツ提供料を経路(11)で情報提供業者4へ支払うようになされる。この配信元としての利益については、アーティストMiやユーザUjの負担により、最高の編集機材、大容量のサーバおよび優秀なオペレータ、ミキサー等を揃えることができる。また、配信元が世界中のアーティストMiを発掘できるようになる。
【0108】
情報提供業者4では、ユーザUjから収入したコンテンツ提供料をアーティストMi及びライブハウス所有者との間で利益分配するようになされる。例えば、アーティストMiに対しては出演料を支払い、ライブハウス所有者には借室料等を支払う。つまり、コンテンツ提供料からシステムソフトウエアの代金を除いた余剰金を、経路(13)でライブハウス#1のオーナーに利益配分するようになされる。ライブハウス#1のオーナーは、アーティストMiに対して借室料等を引いた残金を利益配分するようになされる。
【0109】
この際のアーティストMiの利益としては、各々のライブハウス#1に、カメラ#C1〜#C4、マイクロフォン#M1〜#M16等の収録端末機器だけを揃えておけば、アーティストMiは各地を移動することがなく、自分のホームグランドで演奏できるようになる。従って、時間的及び、空間的な制約がなく、編集設備に対するコスト負担が軽くなる。また、アーティストMiは複数の配信元(情報提供業者4)のうちから気に入ったコンテンツ配信サイト102等を選択可能できるようになる。このシステム100で配信元と会話をしながら、ライブ映像・音声データ編集に自分の意見を提言できるようになる。
【0110】
[情報収録送出装置]
図6は本発明に係る実施例としての情報収録送出装置#L1の内部構成例を示すブロック図である。
図6に示す情報収録送出装置#L1は、映像付き高音質音楽ライブ配信システム100を構成するものであり、アーティストMiによるライブ演奏に基づくライブ映像及び音楽データDoutを収録出力処理する装置である。情報収録送出装置#L1は情報編集配信装置1に接続して使用される。
【0111】
この情報収録送出装置#L1は収録装置本体21、駆動制御部22、通信モデム(ルータ)23及びLAN(Local Area Network)24等から構成される。収録装置本体21内には、モニタ混合器(MIX)213、コントロールポート214、中央演算装置(以下CPUという)215、ハードディスク(以下HDDという)216、データストリーマ217、LANコントローラ(LANC)218、モニタスイッチ(SW)220、16個の音声処理部211、2個のバスブリッジ212,219及び4個の映像処理部221を有している。
【0112】
この例で16本のマイクロフォン#M1〜#M16は収録装置本体21に接続される。例えば、マイクロフォン#M1は遠隔制御可能な収音手段の一例であり、#M1用の音声処理部211に接続される。マイクロフォン#M1はアーティストMiによるライブ音楽を収録するようになされる。音声処理部211はアンプ31、リミッタ/コンプレッサ(L/C)32、アナログ・デジタル変換器(ADC;以下A/D変換器という)33及びボリューム34から構成される。
【0113】
例えば、マイクロフォン#M1等で収録した音声は、アンプ31に入力される。この例では、コンテンツ配信サイト(編集室)102からの指令により、インターネット20A→コントロールポート経由でアンプのゲイン情報、リミッタコンプレッサ32のパラメータが受信されそれぞれ反映される。
【0114】
また、コンテンツ配信サイト102における音声モニタのために、MIX信号を作成し、リアルタイムにコンテンツ配信サイト102に送信する。どのチャンネルをモニタとして混合するかといった情報はコンテンツ配信サイト102のオペレータが指令を出し、これに基づいて混合を行なう。
【0115】
アンプ31にはマイクロフォン#M1が接続され、収録されたライブ音楽信号を増幅出力するようになされる。アンプ31の利得はボリューム34によって調整され、ライブ音楽信号出力を可変するようになされる。アンプ31にはリミッタ/コンプレッサ32が接続され、ライブ音楽信号出力を制限すると共に圧縮するようになされる。
【0116】
上述のリミッタ/コンプレッサ32及びボリューム34にはコントロールポート214が接続され、ボリューム34の移動量を制御してアンプ31のゲイン(Gain)を調整するようになされる。また、コントロールポート214はリミッタ/コンプレッサ32にパラメータを設定してライブ音楽信号出力を制限すると共に圧縮するようになされる。
【0117】
リミッタ/コンプレッサ32にはA/D変換器33が接続され、制限及び圧縮後のライブ音楽信号をアナログ・デジタル変換するようになされる。これにより、マイクロフォン#M1により収録されるデジタルのライブ音楽データを出力することができる。他のマイクロフォン#M2〜#M16についても、同様な音声処理部211が準備され、各々のマイクロフォン#M2〜#M16により収録されるデジタルのライブ音楽データを得ることができる。
【0118】
上述の16個の音声処理部211にはバスブリッジ212及びモニタMIX213が接続される。モニタMIX213では、バスブリッジ212において、16CHのライブ音楽データを2,4,8CH等に混合するようになされる。例えば、モニタMIX213には上述したコントロールポート214から混合制御信号が出力され、この混合制御信号に基づいて16CHのライブ音楽データを混合するようになされる。
【0119】
一方、4個のカメラ#C1〜#C4は収録装置本体21に接続される。例えば、カメラ#C1は遠隔制御可能な撮影手段の一例であり、#C1用の映像処理部221に接続される。カメラ#C1はアーティストMiによるライブ映像を収録するようになされる。映像処理部221はA/D変換器35、フレーム同期回路36及び圧縮回路37から構成される。
【0120】
A/D変換器35にはカメラ#C1が接続され、撮影されたライブ映像信号(Video)をアナログ/デジタル変換するようになされる。A/D変換器35にはフレーム同期回路36が接続され、ライブ映像信号のフレーム同期処理をするようになされる。フレーム同期回路36には圧縮回路37が接続され、フレーム同期処理後のライブ映像信号が圧縮される。圧縮後のライブ映像信号はライブ映像データとなる。これにより、カメラ#C1により撮影されたデジタルのライブ映像データを出力することができる。他のカメラ#C2〜#C4についても、同様な映像処理部221が準備され、各々のカメラ#C2〜#C4により撮影されたデジタルのライブ映像データを得ることができる。
【0121】
上述の4個の映像処理部221にはバスブリッジ219及びモニタスイッチ220が接続される。モニタスイッチ220では、バスブリッジ219において、4CHのライブ映像データを切換えるようになされる。このバスブリッジ219には内部バス222が接続されている。内部バス222には、CPU215、HDD216、データストリーマ217、LANコントローラ218、I/Oポート223及び上述のコントロールポート214等が接続される。
【0122】
HDD216はローカルファイルF1等を構成するものであり、HDD216にはバスブリッジ219を通じて転送されるライブ映像データが格納される。音声データは圧縮されずに全チャンネルがHDD216に記録されるが何らかのフォーマットで圧縮してもよい。音声及び映像データには、タイムコードが付随しており、コンテンツ配信サイト102における編集時に画像と音声の同期が取られる。
【0123】
データストリーマ217ではライブ映像データ及びライブ音声データがストリーミング形式の映像音楽素材データDinに変換される。LANコントローラ218はLAN24に接続される。LANコントローラ218ではLAN24から遠隔制御情報D1を取り込んだり、映像音楽素材データDinをLAN24へ送出するようになされる。
【0124】
LAN24は通信モデム23に接続される。通信モデム23はインターネット20A等に接続され、コンテンツ配信サイト102からの遠隔制御情報D1を受信したり、モニタ映像データをリアルタイムにコンテンツ配信サイト102に送信したり、データストリーマ217によって変換されたストリーミング形式の映像音楽素材データDinをコンテンツ配信サイト102へ送信するようになされる。モニタ映像データはコンテンツ配信サイト102で映像をモニタするためのものである。
【0125】
また、上述のI/Oポート223には駆動制御部22が接続される。駆動制御部22及び上述のCPU215は、情報出力制御手段を構成するものである。CPU215は4台のカメラ#C1〜#C4により撮影されたライブ映像データ及び16本のマイクロフォン#M1〜#M16により収録されたライブ音楽データを映像音楽素材データDinに変換し、インターネット20A等を通じてコンテンツ配信サイト102へ出力するように、HDD216やデータストリーマ217等を制御するものである。
【0126】
駆動制御部22ではCPU215の制御を受けて、図1に示した情報編集配信装置1から、図6に示す通信モデム23及びLANコントローラ218を経由して遠隔制御情報D1を受信する。そして、駆動制御部22は、例えば、コンテンツ配信サイト102からの指令を受けて、カメラLAN経由で4台のカメラ#C1〜C4のパン、チィルト、ズーム処理等の遠隔制御を行い、アーティストMiによるライブ映像及び音楽を自動収録するようになされる。この駆動制御部22ではカメラ#C1〜#C4の他に16本のマイクロフォン#M1〜#M16を遠隔制御するようになされる。
【0127】
図7及び図8はライブ映像及び音楽情報の収録機器等の配置例(前面、上面)をそれぞれ示す立体図及び平面図である。この実施例では、ライブハウス#1における映像・音声の収録する場合であって、4台のカメラ#C1〜#C4、16本のマイクロフォン#M1〜#M16を使用する場合を例に挙げる。
【0128】
図7に示すライブハウス#1のステージ105を立体視した場合に、そのステージ105上の天井部分にはレール106が設けられている。このレール106には、移動可能な1台のズーム・パンチルター付きカメラ#C1が取付けられる。カメラ#C1は、例えば、レール16に規制されて左右に移動でき、ボーカルやソロ演奏するアーティストを撮影するようになされる。
【0129】
また、ステージ105に向かって左側の壁上方にはカメラ#C2が備えられ、また、その右側の壁上方にはカメラ#C3が備えられる。いずれのカメラ#C2,#C3も、ズーム・パンチルター付きであり、例えば、客席よりやや高い位置の左右の壁に固定される。カメラ#C2,#C3は、ライブ演奏するアーティストの様子を左右から色々と撮影することが可能となされる。
【0130】
カメラ#C4は例えば、ステージ105上を移動走行可能な無線遠隔ロボット機能を有したものが使用される。カメラ#C4は演奏者のソロパートになったとき、楽器の扱い方(弾き方)等をズーム撮影するようになされる。もちろん、他のカメラ#C1〜#C3によってカメラ#C4が撮影されない位置を移動するようになされる。このように配置された移動用のカメラ及び固定カメラの計4台のカメラ操作は、インターネット20Aを通して配信元の情報編集配信装置1で行なわれる。従って、ライブハウス#1でのオペレータが不要となる。
【0131】
更に、16本のマイクロフォン#M1〜#M16がライブハウス#1の天井部やステージ105等に配置される。例えば、ステージ105上には、ピアノの音収録用に1本のマイクロフォン#M1が配置され、キーボードの音収録用に1本のマイクロフォン#M2が配置され、ベースアンプの音収録用に1本のマイクロフォン#M3が配置され、ドラムスの音収録用に4本のマイクロフォン#M4〜#M7(キック;#M4,スネアー・ハイハット;#M5,シンバル(トップ・クラッシュ);#M6,フロアータム;#M7)が配置され、ギターアンプの音収録用に1本のマイクロフォン#M8が配置され、管楽器の音収録用に1本のマイクロフォン#M9が配置される。
【0132】
また、天井中央部には、4本のマイクロフォン#M9〜#M12が配置される。#M9,#M10の2本は前方収録用であり、#M11,#M12の2本は、後方エコー成分収録用に割り当てられる。#M11,#M12の2本は図8に示す客席側の歓声等も収録可能となる。更に、天井部左右には、スポット用の1本のマイクロフォン#M13が配置され、ボーカル用に1本のマイクロフォン#M14が配置される。また、左側壁のカメラ#C2付近には、天井左端収録用の1本のマイクロフォン#M15が配置され、右側壁のカメラ#C3付近には、天井右端収録用の1本のマイクロフォン#M16が配置される。
【0133】
このような計16本のマイクロフォン#M1〜#M16は、特に、各楽器近くに配置されたマイクロフォン#M1〜#M6は、固定乃至移動可能なタイプのものが使用される。天井左右端の2本のマイクロフォン#M15、#M16には、指向性マイクが使用され、これをパンチルターに取り付け、収音方向にマイク先を向けたり、ズーム機能を動作させるようになされる。
【0134】
天井中央部の4本のマイクロフォン#M9〜#M12もできれば、パンチルターに取り付け、方向変更ができれば好ましい。この例では、カメラ#C1に4本のマイクロフォン#M9〜#M12を取付ければ、天井部の左右方向に設けたレール106でカメラ#C1と共に移動され、収録の幅が広がるようになる。このように配置された計16本のマイクロフォン#M1〜#M16の操作は、インターネット20Aを通して配信元の情報編集配信装置1で行なわれる。従って、ライブハウス#1でのオペレータが不要となる。
【0135】
続いて、ライブハウス#1における情報収録送出装置#L1の処理例について説明をする。
この実施例で情報収録送出装置#L1がライブ映像及び音楽データDoutを配信するシステム100の情報編集配信装置1に接続されることを前提とする。この例で、4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16は、図7及び図8に説明した通りに配置される。この例では、情報収録送出装置#L1における調整時及び、ライブ映像及び音声データ収録時の2つに分けて説明をする。
【0136】
図9は情報収録送出装置の自動調整例を示すフローチャートである。図10A及び図10Bは情報収録送出装置に#Liによる自動収録例を示すフローチャートである。この例では、リハーサル映像を撮影し、及び、リハーサル音声を収録して情報収録送出装置を調整し、その後、本番収録とするようになされる。
【0137】
これを前提にして、例えば、図9に示すフローチャートのステップB1で駆動制御部22では、コンテンツ配信サイトの情報編集配信装置1から遠隔制御情報D1を受信し、ステップB2で4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する。このとき、4台のカメラ#C1〜#C4は、駆動制御部22による遠隔制御によって、リハーサルに係る映像を遠隔撮影するようになされる。リハーサル映像は、例えば、転送レート約25MbpsのDVフォーマットで撮影される。
【0138】
また、カメラ#C1で撮影されたリハーサル映像は、例えば、図10Bに示すフローチャートのステップE1で映像処理部221のA/D変換器35に出力される。A/D変換器35では、カメラ#C1により撮影されたリハーサル映像信号(Video)をアナログ/デジタル変換するようになされる。A/D変換後のリハーサル映像信号はA/D変換器35からフレーム同期回路36へ出力される。フレーム同期回路36ではステップE2でリハーサル映像信号のフレーム同期処理をするようになされる。フレーム同期処理後のリハーサル映像信号は、フレーム同期回路36から圧縮回路37へ出力される。圧縮回路37では、ステップE3でフレーム同期処理後のリハーサル映像信号が圧縮される。圧縮後のリハーサル映像信号はリハーサル映像データとなる。
【0139】
これにより、カメラ#C1により撮影されたデジタルのリハーサル映像データを出力することができる。他のカメラ#C2〜#C4についても、同様な映像処理部221が準備され、各々のカメラ#C2〜#C4により撮影されたデジタルのリハーサル映像データを得ることができる。リハーサル映像データはステップE4でバスブリッジ219を通じてローカルファイルF1を構成するHDD216に格納される。これにより、リハーサル映像を自動収録することができる。
【0140】
また、16本のマイクロフォン#M1〜#M16では、図10Aに示したフローチャートのステップB2で駆動制御部22による遠隔制御によって、アーティストMiによるリハーサル音楽を遠隔収録するようになされる。このとき、コンテンツ配信サイト(編集室)102からの指令により、インターネット20A→コントロールポート経由でアンプのゲイン情報、リミッタコンプレッサ32のパラメータが受信されそれぞれ反映される。例えば、リハーサル音楽は24bit、96kHzにより16CHで録音される。
【0141】
更に、コンテンツ配信サイト102における音声モニタのために、MIX信号を作成し、リアルタイムにコンテンツ配信サイト102に送信する。どのチャンネルをモニタとして混合するかといった情報はコンテンツ配信サイト102のオペレータが指令を出し、これに基づいて混合を行なう。
【0142】
例えば、マイクロフォン#M1で収録されたリハーサル音楽は、図10Bに示すフローチャートのステップG1で音声処理部211に入力される。#M1用の音声処理部211のアンプ31では、収録されたリハーサル音楽信号を増幅出力するようになされる。アンプ31の利得はボリューム34によって調整され、リハーサル音楽信号出力を可変するようになされる。このとき、コントロールポート214は、ボリューム34の移動量を制御してアンプ31のゲイン(Gain)を調整するようになされる。
【0143】
ここにボリューム調整されたリハーサル音楽信号はアンプ31からリミッタ/コンプレッサ32へ出力される。リミッタ/コンプレッサ32ではステップG2でリハーサル音楽信号出力を制限すると共に圧縮するようになされる。このとき、コントロールポート214はリミッタ/コンプレッサ32にパラメータを設定してリハーサル音楽信号出力を制限すると共に圧縮するようになされる。
【0144】
圧縮制限後のリハーサル音楽信号はステップG3でリミッタ/コンプレッサ32からA/D変換器33へ出力され、A/D変換器33でアナログ・デジタル変換するようになされる。このA/D変換により、マイクロフォン#M1により収録されるデジタルのリハーサル音楽データを出力することができる。他のマイクロフォン#M2〜#M16についても、同様な音声処理部211が準備され、各々のマイクロフォン#M2〜#M16により収録されるデジタルのリハーサル音楽データを得ることができる。
【0145】
このとき、モニタMIX213では、バスブリッジ212において、16CHのリハーサル音楽データを2,4,8CH等に混合するようになされる。例えば、モニタMIX213には上述したコントロールポート214から混合制御信号が出力され、この混合制御信号に基づいて16CHのリハーサル音楽データを混合するようになされる。この映像4CH分のリハーサル映像データ及び、音声16CH分のリハーサル音声データは、ステップG4で一旦大容量のローカルファイルF1を構成するHDD216に格納される。これにより、リハーサル音楽を自動収録することができる。
【0146】
自動収録されたリハーサル映像及び音声データは、図9に示したフローチャートのステップB3でHDD216から読み出されてデータストリーマ217に出力される。データストリーマ217では、CPU215の制御受けて、リハーサル映像データ及びリハーサル音声データがストリーミング形式の映像音楽素材データDinに変換され、更に、タイムコードが付加される。
【0147】
このタイムコードが付加された映像音楽素材データDinはLANコントローラ218の制御受けて、LAN24を通じて通信モデム23に出力される。通信モデム23では、ステップB4でデータストリーマ217によって変換されたリハーサル映像音楽素材データDinをインターネット20A等を通じてコンテンツ配信サイト102の情報編集配信装置1へ送信するようになされる。
【0148】
その後、ステップB5に移行して終了判断がなされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信していない場合は、ステップB1に戻って上述した処理を繰り返すようになされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信した場合は、リハーサル映像及び音声データの送信処理を終了する。
【0149】
[ライブ映像及び音声データの収録例]
なお、本番収録に関して、リハーサル収録時の図10A及び図10Bのフローチャートを再度使用する。この例では、リハーサル映像及び、リハーサル音声の収録によって調整された情報収録送出装置#Liを使用して本番収録がなされる。
【0150】
これを前提にして、例えば、図9に示したフローチャートのステップB1で駆動制御部22では、コンテンツ配信サイトの情報編集配信装置1から遠隔制御情報D1を受信し、ステップB2で4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する。例えば、4台のカメラ#C1〜#C4は、駆動制御部22による遠隔制御によって、アーティストMiによるライブ映像を遠隔撮影するようになされる。ライブ映像は、例えば、転送レート約25MbpsのDVフォーマットで撮影される。
【0151】
このとき、カメラ#C1で撮影されたアーティストMiによるライブ映像は、図10Bに示すフローチャートのステップE1で映像処理部221のA/D変換器35に出力される。A/D変換器35では、カメラ#C1により撮影されたライブ映像信号(Video)をアナログ/デジタル変換するようになされる。A/D変換後のライブ映像信号はA/D変換器35からフレーム同期回路36へ出力される。フレーム同期回路36では、ステップE2でライブ映像信号のフレーム同期処理をするようになされる。フレーム同期処理後のライブ映像信号は、フレーム同期回路36から圧縮回路37へ出力される。圧縮回路37では、ステップE3でフレーム同期処理後のライブ映像信号が圧縮される。圧縮後のライブ映像信号はライブ映像データとなる。
【0152】
この圧縮回路37から、カメラ#C1により撮影されたデジタルのライブ映像データを出力することができる。他のカメラ#C2〜#C4についても、同様な映像処理部221が準備され、各々のカメラ#C2〜#C4により撮影されたデジタルのライブ映像データを得ることができる。ライブ映像データは、ステップE4でバスブリッジ219を通じてHDD216に格納される。これにより、アーティストMiによるライブ映像を自動収録することができる。
【0153】
また、16本のマイクロフォン#M1〜#M16では、図10Aに示したフローチャートのステップB2で駆動制御部22による遠隔制御によって、アーティストMiによるライブ音楽を遠隔収録するようになされる。このとき、コンテンツ配信サイト(編集室)102からの指令により、インターネット20A→コントロールポート経由でアンプのゲイン情報、リミッタコンプレッサ32のパラメータが受信されそれぞれ反映される。例えば、ライブ音楽は24bit、96kHzにより16CHで録音される。
【0154】
また、コンテンツ配信サイト102における音声モニタのために、MIX信号を作成し、リアルタイムにコンテンツ配信サイト102に送信する。どのチャンネルをモニタとして混合するかといった情報はコンテンツ配信サイト102のオペレータが指令を出し、これに基づいて混合を行なう。
【0155】
例えば、マイクロフォン#M1で収録されたアーティストMiによるライブ音楽は、図10Bに示すフローチャートのステップG1で音声処理部211に入力される。#M1用の音声処理部211のアンプ31では、収録されたライブ音楽信号を増幅出力するようになされる。アンプ31の利得はボリューム34によって調整され、ライブ音楽信号出力を可変するようになされる。このとき、コントロールポート214は、ボリューム34の移動量を制御してアンプ31のゲイン(Gain)を調整するようになされる。
【0156】
ここにボリューム調整されたライブ音楽信号はアンプ31からリミッタ/コンプレッサ32へ出力される。リミッタ/コンプレッサ32ではステップG2でライブ音楽信号出力を制限すると共に圧縮するようになされる。このとき、コントロールポート214はリミッタ/コンプレッサ32にパラメータを設定してライブ音楽信号出力を制限すると共に圧縮するようになされる。
【0157】
圧縮制限後のライブ音楽信号はステップG3でリミッタ/コンプレッサ32からA/D変換器33へ出力され、A/D変換器33でアナログ・デジタル変換するようになされる。このA/D変換により、マイクロフォン#M1により収録されるデジタルのライブ音楽データを出力することができる。他のマイクロフォン#M2〜#M16についても、同様な音声処理部211が準備され、各々のマイクロフォン#M2〜#M16により収録されるデジタルのライブ音楽データを得ることができる。
【0158】
このとき、モニタMIX213では、バスブリッジ212において、16CHのライブ音楽データを2,4,8CH等に混合するようになされる。例えば、モニタMIX213には上述したコントロールポート214から混合制御信号が出力され、この混合制御信号に基づいて16CHのライブ音楽データを混合するようになされる。
【0159】
この映像4CH分のライブ映像データ及び、音声16CH分のライブ音声データはHDD216にアーカイブされる。このライブ音声データは圧縮させずに全チャンネルがHDD216に記録されるが、何らかのフォーマットで圧縮してもよい。これにより、アーティストMiによるライブ音楽を自動収録することができる。
【0160】
自動収録されたライブ映像及び音声データは、図9に示したフローチャートのステップB3でHDD216から読み出されてデータストリーマ217に出力される。データストリーマ217では、CPU215の制御受けて、ライブ映像データ及びライブ音声データがストリーミング形式の映像音楽素材データDinに変換され、更に、タイムコードが付加される。これはコンテンツ配信サイト102において編集時に画像と音声の同期を取るためである。
【0161】
このタイムコードが付加された映像音楽素材データDinはLANコントローラ218の制御受けて、LAN24を通じて通信モデム23に出力される。通信モデム23では、ステップB4でデータストリーマ217によって変換された映像音楽素材データDinをインターネット20A等を通じてコンテンツ配信サイト102の情報編集配信装置1へ送信するようになされる。
【0162】
その後、ステップB5に移行して終了判断がなされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信していない場合は、ステップB1に戻って上述した処理を繰り返すようになされる。映像音楽素材データDinを全部、情報編集配信装置1へ送信した場合は、ライブ映像及び音声データの送信処理を終了する。
【0163】
このように、本発明に係る情報収録送出装置#L1によれば、アーティストMiによるライブに基づくライブ映像データ及びライブ音声データを収録出力処理する場合に、コンテンツ配信サイト102の情報編集配信装置1から遠隔制御情報D1を受信し、4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する駆動制御部22が備えられるものである。
【0164】
従って、4台のカメラ#C1〜#C4や16本のマイクロフォン#M1〜#M16の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、ライブハウス#1での収録オペレータの無人化を図ることができる。これにより、アーティストMiによるライブ映像及び音声データを全世界に配信する映像付き高音質音楽ライブ配信システム100の構築に寄与することができる。
【0165】
[情報編集配信装置]
図11は本発明に係る実施例としての情報編集配信装置1の構成例を示すブロック図である。図12は情報編集配信装置1における遠隔操作例を示す図である。
【0166】
この実施例で情報編集配信装置1は、情報収録送出装置#Liによって収録される映像音楽素材データDinを一元編集及びアーティストMiの著作権を一元管理すると共に、アーティストMiによるライブ映像及び音楽データDoutを全世界又は国内に配信するようになされる。
【0167】
図11に示す情報編集配信装置1は、映像付き高音質音楽ライブ配信システム100の各々の情報収録送出装置#Liからタイムコード付きの映像音楽素材データDinを入力して情報編集処理したライブ映像及び音楽データDoutをユーザUjに配信するものである。情報編集配信装置1はコンテンツ配信サイト102となる一の国又は国内に配置される。情報編集配信装置1は、パーソナルコンピュータ400及び配信サーバ15から構成される。
【0168】
パーソナルコンピュータ400は、素材ファイル12、情報編集エディタ41、モニタ42、キーボード43、遠隔操作用のデータ送出部44、制御装置45、マウス46及び、マイクロフォン47を有している。キーボード43及びマウス46は入力手段の一例であり、情報収録送出装置#Liを遠隔制御するための情報を含む操作情報を入力するように操作される。マイクロフォン47は編集者の音声をライブ音声データ等に混合する際に使用される。
【0169】
モニタ42は情報収録送出装置#Liを遠隔制御するための設定画面を表示するものである。例えば、図12に示すように、モニタ設定画面P1はカメラ映像表示領域P11と、マイク調整表示領域P12とに分割される。カメラ映像表示領域P11には、4台のカメラ#C1〜#C4の撮影映像が表示されると共に、各々のカメラ#C1〜#C4の向きを変更したり、ズーム、パン・チルト処理等するジョイスティックキー421が表示される。ジョイスティックキー421は例えば、マウスポインタにより上下・左右(T−W)に操作するようになされる。
【0170】
また、マイク調整表示領域P12には、16本のマイクロフォン#M1〜#M16のボリューム調整映像が表示されると共に、この領域の上方には、各々のマイクロフォン#M1〜#M16の入力レベルを表示するレベル表示領域P13が割り当てられる。また、この領域P13の下方には、マイクロフォン#M1〜#M16の各々について、ボリューム調整用のスライドキー422が表示される。この16本のマイクロフォン#M13〜#M16については、収録方向を調整するジョイスティックキー423が表示される。スライドキー422は、例えば、マウスポインタにより上下(T−W)に操作するようになされ、ジョイスティックキー423は、マウスポインタにより上下及び左右に操作するようになされる。
【0171】
これにより、コンテンツ配信サイト102の編集者は、モニタ42の表示画面を見ながら、キーボード43及びマウス46を操作することにより、遠隔地のライブハウス#1の情報収録送出装置#Liに接続された、4台のカメラ#C1〜#C4及び、16本のマイクロフォン#M1〜#M16を調整することができる。
【0172】
また、図11に示す素材ファイル12は、情報収録送出装置#Liから入力した映像音楽素材データDinを格納するメモリである。素材ファイル12は映像用素材ファイル12A及び、音声用素材ファイルを有している。いずれも、ハードディスク(HDD)等から構成される。素材ファイル12に格納された映像音楽素材データDinは、情報編集手段の一例となる情報編集エディタ41に出力される。情報編集エディタ41は編集済みファイル13及び、完パケファイル14を有している。情報編集エディタ41では、各々の情報収録送出装置#Liから映像音楽素材データDinを入力して情報編集処理するようになされる。
【0173】
例えば、情報編集エディタ41では情報収録送出装置#Liから転送されてきた映像音楽素材データDinを素材ファイル12から読み出す。情報編集エディタ41では、素材ファイル12から読み出した映像音楽素材データDinを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音楽素材データDinを編集するようになされる。
【0174】
また、音声編集では情報編集エディタ41によって音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、ライブ音楽に係る音楽素材データは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。更に、ライブ映像に係る映像素材データも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的にはライブ映像データとライブ音楽データとがタイムコード等により同期が取られる。編集後の映像及び音楽データは編集済ファイル13に一旦格納される。この例では、24bit、96kHz及び16CHで録音されたライブ音声データが、図示しないデジタルミキサで24bit、96kHz及び8CHにミックスダウンされる。
【0175】
更にまた、情報編集エディタ41ではオーサリング段階で編集済みの映像及び音声データをエンコードして、1つのファイルにまとめ、インターネット20Bで配信できるような各種フォーマットに変換される。例えば、転送レート約25MbpsのDVフォーマットで撮影された4CH分のライブ映像データは、転送レートが低いMPEG2の標準(約4Mbps)又は高画質(約6Mbps)に変換される。編集後の4CH映像データと8CH音声データのタイムコードが合わせられる。このエンコード後の映像及び音楽データは、完パケファイル14に一旦格納される。
【0176】
高画質4CHのライブ映像データ及び、8CHのライブ音声データの両者を合わせた転送レートは約40Mbpsとなる。この転送レートは、通信事業者(NTT)のBフレッツ、100Mbpsが実際に規格値を満たすようになれば、充分配信可能な容量である。タイムコードを合わせた編集後の4CH映像と8CH音声データは送出用の配信サーバ15にアーカイブするようになされる。
【0177】
上述の情報編集エディタ41には、編集配信制御手段の一例となる制御装置45が接続され、この制御装置45には配信サーバ15が接続される。制御装置45では、キーボード43及びマウス46からの操作情報に基づいて情報編集エディタ及び配信サーバ15の入出力を制御するようになされる。配信サーバ15では情報編集エディタ41により編集されたライブ映像及び音楽データDoutをユーザUjに配信するようになされる。
【0178】
この制御装置45には通信モデム等により構成されるデータ送出部44が接続される。制御装置45はデータ送出部44を通じて、情報収録送出装置#Liへ遠隔制御情報D1を送信し、アーティストMiによるライブ映像及び音楽を自動収録するように情報収録送出装置#Liを遠隔制御するようになされる。例えば、制御装置45は情報収録送出装置#Liへ遠隔制御情報D1を送信し、アーティストMiによるライブ映像及び音楽を自動収録するように4台のカメラ#C1〜#C4及び16本のマイクロフォン#M1〜#M16を遠隔制御する。
【0179】
この他に、制御装置45は情報編集エディタ41によって情報編集処理されたライブ映像及び音楽データDoutに関してアーティストMiの承諾を取得し、アーティストMiの承諾を取得した後のライブ映像及び音楽データDoutを配信サーバ15からユーザUjへ配信するように制御する。例えば、制御装置45はライブ映像及び音楽データDoutに複製禁止処理を施すように配信サーバ15を制御する。例えば、配信サーバ15からユーザUjの情報処理装置#Pjへ複製困難なデータストリーミング形式によりライブ映像及び音楽データDoutを配信するようになされる。これにより、ライブ映像及び音楽データDoutの不正な複製を防止できるようになる。
【0180】
この例で制御装置45は、配信サーバ15を制御して、一のライブハウス#iに係る複数のライブ映像及び音楽データDoutを多重処理して配信するように配信サーバ15を制御する。このデータ配信によって、ユーザUjの情報処理装置で一のライブハウス#iに係るライブ映像及び音楽データDoutを任意に選択可能なようになる。しかも、ユーザUjにおいて、ライブ映像及び音楽データDoutの選別の自由度を拡大することができる。
【0181】
続いて、情報編集配信装置1における処理例について説明をする。この例では情報編集配信装置1における情報収録時の遠隔制御例、情報編集時の処理例及び情報配信時の処理例の3つに分けて説明をする。
【0182】
この実施例の配信形態に関しては、ユーザUjの情報処理装置のハードディスクへダウンロードする場合を想定し、また、データ複写の危険性が少ないストリーミング配信形式を前提とし、更に、ユーザUjの利便性を考慮してオンデマンド放送をする場合について例を挙げる。
【0183】
[情報収録時の遠隔制御例]
図13は情報編集配信装置1における情報収録時の遠隔制御例を示すフローチャートである。
この実施例では、ライブハウス#I等に配置された情報収録送出装置#Liとコンテンツ配信サイト102に配置された情報編集配信装置1とがインターネット20Aを通じて接続される場合を前提とする。
【0184】
これを制御条件にして、図13に示すフローチャートのステップQ1でキーボード43及びマウス46を操作して情報収録送出装置#Liを遠隔制御するための情報を含む操作情報を入力する。このとき、図11に示したモニタ42には、図12に示したようなカメラ映像表示領域と、マイク調整表示領域とが分割されたモニタ設定画面が表示される。
【0185】
このカメラ映像表示領域に表示された4台のカメラ#C1〜#C4の撮影映像の向きを例えば、ステップQ11で変更したり、ズーム、パン・チルト処理等する場合に、ステップQ12では、このモニタ設定画面上でマウスポインタを移動してジョイスティックキー421を操作しカメラ#C1を調整するようになされる。例えば、#C1用のジョイスティックキー421を上下・左右(T−W)に操作すると、カメラ#C1によりズーム処理された撮影が表示される。
【0186】
また、マイク調整表示領域に表示された16本のマイクロフォン#M1〜#M16のボリュームをステップQ21で調整する場合に、この領域上方に表示された入力レベルを確認しながら、ステップQ22で各々のマイクロフォン#M1〜#M16のゲインを調整する。例えば、この領域下方に表示された#M1のスライドキー422を例えば、マウスポインタにより上方向(T方向)に操作すると、マイクロフォン#M1の入力レベルが増加するように表示され、実際に、遠隔地の情報収録送出装置#Liに接続されたマイクロフォン#M1の入力レベルが高くなるようになされる。
【0187】
その後、ステップQ3に移行して遠隔制御情報D1を作成する。遠隔制御情報D1はステップQ11,Q12、Q21及びQ22により得られた調整値に基づいて作成される。このような遠隔制御情報D1は、ステップQ4で制御装置45の制御を受けて、データ送出部44を通じて情報収録送出装置#Liへ送信され、アーティストMiによるライブ映像及び音楽を自動収録するように情報収録送出装置#Liを遠隔制御するようになされる。
【0188】
これにより、コンテンツ配信サイト102の編集者は、モニタ42の表示画面を見ながら、キーボード43及びマウス46を操作することにより、遠隔地のライブハウス#1の情報収録送出装置#Liに接続された、4台のカメラ#C1〜#C4及び、16本のマイクロフォン#M1〜#M16を調整することができる。
【0189】
その後、ステップQ5に移行して終了判断がなされる。遠隔制御情報D1を全部、情報収録出力装置#1へ送信していない場合は、ステップQ1に戻って上述した処理を繰り返すようになされる。遠隔制御情報D1を全部送信した場合は、ライブ映像及び音声データの送信処理を終了する。このとき、編集者の音声をライブ音声データ等に混合する場合は、マイクロフォン47を使用して入力される。これにより、情報収録送出装置#Liでは、図10A及び図10Bに示したように、アーティストMiのライブ映像が自動撮影され、及び、ライブ音声を自動収録することができる。
【0190】
[情報編集時の処理例]
図14は情報編集配信装置1における情報編集時の処理例を示すフローチャートである。
この実施例では、制御装置45によって情報編集エディタ41の入出力が制御され、この制御によって情報編集エディタ41では、各々の情報収録送出装置#Liから映像音楽素材データDinを入力して情報編集処理をするようになされる。もちろん、素材ファイル12には、情報収録送出装置#Liから入力した映像音楽素材データDinが格納されている。
【0191】
これを前提にして、情報編集エディタ41では、図14に示すフローチャートのステップR1で素材ファイル12から映像音楽素材データDinが読み出される。情報編集エディタ41では、ステップR2で素材ファイル12から読み出した映像音楽素材データDinを加工して、ユーザUjへ配信されるオプション形態によって決まるチャンネル数やカメラアングル数になるように映像音楽素材データDinを編集するようになされる。
【0192】
また、音声編集では情報編集エディタ41によって音質の調整も行われる他、通常のマルチトラックソースのミックスダウン作業が行われる。例えば、ライブ音楽に係る音楽素材データDinは、ステレオ方式や5.1サラウンド方式にミックスダウンされる。
【0193】
更に、ライブ映像に係る映像素材データDinも一般的な画像編集ソフトウエアなどを用いて編集が行われ、最終的にはライブ映像データとライブ音楽データとがタイムコード等により同期が取られる。編集後の映像及び音楽データは、ステップR3で編集済ファイル13に一旦格納される。この例では、24bit、96kHz及び16CHで録音されたライブ音声データが、図示しないデジタルミキサで24bit、96kHz及び8CHにミックスダウンされる。
【0194】
更にまた、情報編集エディタ41ではオーサリング段階で編集済みの映像及び音声データをエンコードして、1つのファイルにまとめ、インターネット20Bで配信できるような各種フォーマットに変換される。例えば、転送レート約25MbpsのDVフォーマットで撮影された4CH分のライブ映像データは、転送レートが低いMPEG2の標準(約4Mbps)又は高画質(約6Mbps)に変換される。編集後の4CH映像データは、ステップR5で8CH音声データのタイムコードに合わせ込まれる。このエンコード後の映像及び音楽データは、ステップR6で完パケファイル14に一旦格納される。
【0195】
高画質4CHのライブ映像データ及び、8CHのライブ音声データの両者を合わせた転送レートは約40Mbpsとなる。この転送レートは、通信事業者(NTT)のBフレッツ、100Mbpsが実際に規格値を満たすようになされる。このタイムコードを合わせた編集後の4CH映像と8CH音声データは送出用の配信サーバ15に転送される。
【0196】
その後、ステップR7に移行して終了判断がなされる。ライブ映像及び音声データを完パケファイル14に全部格納していない場合は、ステップR1に戻って上述した処理を繰り返すようになされる。ライブ映像及び音声データを完パケファイル14に全部格納した場合は、ライブ映像及び音声データの加工・編集処理を終了する。
【0197】
[情報配信時の処理例]
図15は情報編集配信装置1における情報配信時の処理例を示すフローチャートである。この実施例では、情報編集エディタ41によって情報編集処理されたライブ映像及び音楽データDoutに関してアーティストMiの承諾を取得するようになされる。アーティストMiの承諾を取得した後のライブ映像及び音楽データDoutを配信サーバ15からユーザUjへ配信する場合を前提とする。
【0198】
これを処理条件にして、制御装置45ではキーボード43及びマウス46からの操作情報に基づいて配信サーバ15の入出力を制御するようになされる。例えば、図15に示すフローチャートのステップT1で完パケファイル14から情報編集処理後のライブ映像及び音楽データDoutを読み出してアーティストMiの端末装置へ転送する。この際のライブ映像及び音楽データDoutの転送にはインターネットが使用される。
【0199】
次に、情報編集処理後のライブ映像及び音楽データDoutに関してステップT2でアーティストMiの承諾を取得する。ここでアーティストMiの承諾を取得できない場合には、ステップT3に移行して、再加工・編集処理を実行する。再加工編集処理では、図14に示した処理を繰り返すようになされる。この再加工編集結果において、アーティストMiの承諾を取得できた場合は、ステップT4に移行して承諾取得後のライブ映像及び音楽データDoutを完パケファイル14から配信サーバ15へ転送する。このとき、図4に示したアーティスト管理サーバ16にアーティスト確認情報や、利用条件設定電子契約の他にアーティストMiから承諾情報を記憶するようにしてもよい。
【0200】
その後、制御装置45はステップT5で、承諾取得後のライブ映像及び音楽データDoutを配信サーバ15からユーザUjへ配信するようになされる。このとき、制御装置45はライブ映像及び音楽データDoutに複製禁止処理を施すように配信サーバ15を制御する。例えば、配信サーバ15からユーザUjの情報処理装置へ複製困難なデータストリーミング形式によりライブ映像及び音楽データDoutを配信するようになされる。これにより、ライブ映像及び音楽データDoutの不正な複製を防止できるようになる。
【0201】
また、制御装置45は一のライブハウス#iに係る複数のライブ映像及び音楽データDoutを多重処理して配信するように配信サーバ15を制御する。その後、ステップT6に移行して他のライブハウス#iに係るデータ配信処理を終了したかが判断される。他のライブハウス#iに係るデータ配信処理を終了していない場合は、ステップT1に戻って上述した処理を繰り返すようになされる。他のライブハウス#iに係るデータ配信処理を終了した場合は、ライブ映像及び音声データの配信処理を終了する。
【0202】
このようなデータ配信によって、ユーザUjの情報処理装置で任意のライブハウス#iに係るライブ映像及び音楽データDoutを任意に選択可能なようになる。しかも、ユーザUjにおいて、ライブ映像及び音楽データDoutの選別の自由度を拡大することができる。
【0203】
このように、本発明に係る実施例としての情報編集配信装置1によれば、情報収録送出装置#Liから映像音楽素材データDinを入力して編集配信処理する場合に、この情報収録送出装置#Liへ遠隔制御情報D1を送信し、アーティストMiによるライブ映像及び音楽を自動収録するように遠隔制御をする制御装置45が備えられるものである。
【0204】
従って、ライブハウス#1等において、ライブ映像を撮影する4台のカメラ#C1〜#C4の操作、ライブ音楽を収録する16本のマイクロフォン#M1〜#M16の操作及び、これらの撮影・収録レベルの調整等を人手を介さずにコンテンツ配信サイト102で設定できる。しかも、情報収録送出装置#Liでは、図10A,Bに示したように、アーティストMiのライブ映像が自動撮影され、及び、ライブ音声を自動収録することができるので、ライブハウス#1等での収録オペレータの無人化を図ることができる。
【0205】
これにより、世界各地に存在するライブハウス等でライブ演奏され、このライブ演奏によって自動収録される映像音楽素材データDinを一の国で一元編集及びアーティストMiの著作権を一元管理することができ、そのアーティストMiによるライブ映像及び音楽に関するライブ映像及び音楽データDoutを全世界に配信する映像付き高音質音楽ライブ配信システム100の構築に寄与するところが大きい。
【0206】
[情報処理装置]
図16は本発明に係る映像付き高音質音楽ライブ配信システム100における受信側システムの構成例を示すブロック図である。
この実施例で受信側システムには情報処理装置の一例となるインターネットテレビ(通常のテレビを含む)60、ホームサーバ70、AVアンプ80、デスクトップ型やノート型のパーソナルコンピュータ(単にパソコンという)90等が使用され、これらの情報処理装置には、図4に示したインターネット20Bを通じてコンテンツ配信サイト102の配信サーバ15や、図11に示した情報編集配信装置1の配信サーバ15等が接続され、この配信サーバ15からライブ映像及び音楽データDoutを受信して処理するようになされる。
【0207】
この例では、ユーザUjと配信元の関係において、IPS接続業者の配信サーバ15からユーザUjの情報処理装置へ配信されるライブ映像及び音楽データDoutに関する再生方式が、例えば、「スタンダード」や、3つの「オプションA〜C」が利用料金別に分類され準備されている。
【0208】
▲1▼ 「スタンダード」は、ステージ全体を撮影するカメラ#C1により撮影された1CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の2CHのライブ音楽を再生する再生方式である。この「スタンダード」の再生方式は、例えば、パソコン等のGUI(Graphic User Interface)機能を利用して選択される。ユーザUjは、初めにステージ全体を見たり、その演奏を聴く場合に「スタンダード」の再生方式を選択するとよい。
【0209】
▲2▼ 「オプションA」は、2つの例えば、カメラ#C1及び#C2により撮影された2CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の4CHのライブ音楽を再生する再生方式である。この「オプションA」の再生方式は、例えば、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。
【0210】
▲3▼ 「オプションB」は、3つの例えば、カメラ#C1〜#C3により撮影された3CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の8CHのライブ音楽を再生する再生方式である。音声に関して、「オプションA」と同様に編集済みであるが、各CHの音量調整が可能となっている。この「オプションB」の再生方式は、更なる要望として、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。
【0211】
▲4▼ 「オプションC」は、4つのカメラ#C1〜#C4により撮影された4CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の16CHのライブ音楽を再生する再生方式である。音声に関して、「オプションA」と同様に編集済みであるが、各CHの音量調整及び、音質をユーザUjによって調整することが可能となっている。このようなユーザUjの視聴スタイルの一例として「スタンダード」や、3つの「オプションA〜C」等を提示したが、料金もコンテンツ内容量(ボリューム)によって異なるようになされる。
【0212】
上述の配信元とユーザUjの関係において再生方式が分類される受信側システム、つまり、図16に示す視聴者の各家庭Hjには、いわゆるホームシアターシステムとして、通信モデム40、ルータ(ハブ)50及び、インターネットテレビ60、ホームサーバ70、AVアンプ80、ノート型のパソコン90等が使用され、これらは家庭内のLAN30に接続される。
【0213】
通信モデム40は、一方を公衆回線に接続され、他方をルータ50に接続される。通信モデム40には加入者端末(ONU)や、ADSLモデムが使用される。ライブ映像及び音声データ(コンテンツ)Doutは、インターネット配信業者(ISP業者)104から光ファイバ(FTTH)や電話回線(ADSL)等の公衆回線を通して、通信モデム40により家庭内に取り込まれる。通信モデム40により取り込まれたライブ映像及び音声データは、ルータ50を経由して家庭内LAN30に伝送される。
【0214】
このような家庭内LAN30に接続されるホームシアターシステムは、テレビ受像機と音声再生システムから構成される。テレビ受像機には、例えば、大画面を構成するプラズマディスプレイパネル(PDP)装置が使用され、音声再生システムには5.1サラウンド方式の音声再生装置が使用される。
【0215】
図17は、ノート型のパソコン90を使用した受信側システム200の構成例を示す概念図である。図17に示すノート型のパソコン90は、家庭内LAN30に接続され、パソコン本体にはステレオ方式のスピーカ91,92が接続される。パソコン90で配信サーバ15からライブ映像及び音楽データDoutを受信して処理する場合、キーボード94や、マウス95を操作して、再生方式を選択するようになされる。モニタ93には予め選択した再生方式によりライブ映像が表示され、左右のスピーカ91,92からライブ音楽を出力するようになされる。
【0216】
図18は、インターネットテレビ60を使用した受信側システムの構成例を示す概念図である。
図18に示すインターネットテレビ60は家庭内LAN30に接続され、インターネットテレビ60には、予めステレオ方式のスピーカ91’、92’が組み込まれている。インターネットテレビ60で配信サーバ15からライブ映像及び音楽データDoutを受信して処理する場合、インターネットテレビ60の操作パネルに設けられた操作キー94’を操作して、再生方式を選択するようになされる。モニタ93’の表示画面には予め選択した再生方式によりライブ映像が表示され、左右のスピーカ91’、92’からライブ音楽を出力するようになされる。
【0217】
この例では、ホームシアターシステム、パソコンを使用した受信側システム及び、インターネットテレビ60を使用した受信側システムのいずれの場合においても、ライブ映像及び音声データの再生に関して、「CDクオリティ」、「2ch,96k−24Bit」、「サラウンド,96k−24Bit」、「マルチトラック,96k−24Bit,マルチ画面」、[マルチトラック,DSD」などの選択肢から要望する再生方式を選択するようになされる。
【0218】
次に、受信側システムにおける処理例について説明をする。図19Aはメニュー選択画面の表示例、図19Bはリモコン300の操作例を示す図である。
この実施例では、マルチトラック・マルチ画面の場合について説明をする。家庭内LAN30には図16に示したようにテレビ60や、ホームサーバ70、AVアンプ80などの各家庭用(IT)機器が接続される。ここで行われる画像や音声の信号処理は、インテリジェンスを持ったインターネットテレビ60で行われる場合を想定する。もちろん、家庭内サーバや図17に示したパソコン上で信号処理を行い、その結果を通常のテレビ60などのAV機器に転送しても良い。
この例では、音声8トラック+画像4画面の再生方式が選択された場合を例に挙げる。
【0219】
図19Aに示すメニュー選択画面P2は、例えば、インターネットテレビ60において、図示しない前画面で音声8CH(トラック)+96K−24Bit+画像4画面の再生方式を選択し、その画面で確認ボタン「OK」を押下することにより表示される。
【0220】
このメニュー選択画面P2には、「おまかせ」モードMD1及び、「自分で設定」モードMD2が表示される。「おまかせ」モードMD1は情報提供業者4によってライブ収録時に編集された音声及び各チャネル平均音量で再生され、及び1画面のみの映像が表示されるモードである。ユーザUjがこの「おまかせ」モードMD1を選択した場合は、予め定められたパラメータがインターネットテレビ60に送られ、自動的にパラメータが設定される。これにより、ユーザUjは調整無しでライブ映像及び音楽を視聴することができる。
【0221】
なお、図19Aに示したメニュー選択画面P2には、「自分で設定」モードMD2を選択した後のサブメニュー表示画面P21が重ねて表示された例である。これらのメニュー選択画面P2やサブメニュー選択画面P21はインターネットテレビ60のGUI機能を利用して選択操作される。例えば、図19Aに示した「自分で設定」モードMD2を選択すると、このモードの隣りにサブメニュー選択画面P21が展開され、図19Bに示すリモコン300を操作して、このメニュー選択画面P2上で各種設定ができるようになっている。
【0222】
図19Bに示すリモコン300には、メニュー選択用のメニュー(MENU)キーK1と、項目選択用の左右矢印キーK2,K3及び上下矢印キーK4,K5と、項目決定用の決定キーK6と、制御量設定用の「+/−」キーK7,K8とが設けられている。図19Bにおいて、リモコン300のメニューキーK1を押下すると、インターネットテレビの画面上に図19Aに示したメニュー選択画面P2が表示される。
【0223】
サブメニュー選択画面P21には、「画面」タグTG1、「音声入力」タグTG2及び「サラウンド」タグTG3が表示され、各設定が自由にできるようになされる。「おまかせ」モードMD1では満足しないユーザUjは、「自分で設定」モードMD2を選択することにより、コンテンツ配信サイト102で予め準備された配信データの範囲内で、ライブ映像及び音楽を自分の好みに合った状態に設定できるようになる。
【0224】
[音声調整例]
図20はインターネットテレビ60上の音声入力設定画面P3の表示例を示す図である。図20に示す音声入力設定画面P3は、図19Aで「音声入力」タグTG2を選択することにより、メニュー選択画面P2から音声入力設定画面P3へ表示が切り替わったものである。音声入力設定画面P3には、例えば、チャンネル(Channel;調整項目番号)「1」〜「8」を表示するチャンネル領域P31が割り当てられる。チャンネル「1」〜「8」の下方には各楽器名を表示する楽器表示領域P32が割り当てられる。
【0225】
この例でチャンネル「1」の下方には、ギター(Guitar−1)が表示され、チャンネル「2」の下方には、ギター(Guitar−2)が表示され、チャンネル「3」の下方には、ベース(Base)が表示され、チャンネル「4」の下方には、キーボード(KeyBd)が表示され、チャンネル「5」の下方には、ボーカル(Vocal)が表示され、チャンネル「6」の下方には、コーラス(Chorus)が表示され、チャンネル「7」の下方には、ドラムス(Drams)が表示され、チャンネル「8」の下方には、パーカション(Perc.)が各々表示される。いずれもライブハウス#1等で使用される楽器に対応したものである。
【0226】
これらの楽器表示領域P32の下方には、サラウンドパンナ表示領域P33が割り当てられている。サラウンドパンナ表示領域P33には視聴位置を原点にしたスピーカ位置を示す第1象限(R)、第2象限(L)、第3象限(LS)及び第4象限(RS)を有するグラフが表示される。第1〜第4象限のいずれかの中から音像の位置を選択できるようになされている。
【0227】
この例で、チャンネル「1」のギターに対して、第1象限の音像位置が選択され、チャンネル「2」のギターに対して、第2象限の音像位置が選択され、チャンネル「3」のベースに対して、第1象限の音像位置が選択され、チャンネル「4」のキーボードに対して、第2象限の音像位置が選択され、チャンネル「5」のボーカルに対して、第1象限の音像位置が選択され、チャンネル「6」のコーラスに対して、第4象限の音像位置が選択され、チャンネル「7」のドラムスに対して、第2象限の音像位置が選択され、チャンネル「8」のパーカッションに対して、第1象限の音像位置が各々選択されている。
【0228】
このサラウンドパンナ表示領域P33の下方には、音量調整フェーダ(スライドスイッチ)表示領域P34が割り当てられている。音量調整フェーダ表示領域P34には、上述した楽器やボーカル、コーラス毎に、音量調整フェーダ341が上下に移動可能となされ、ライブ音楽の音源毎に音量調整可能なようになされる。これにより、ライブ音楽を構成する各楽器やボーカル、コーラス等の音量バランスを取ることができる。音量調整フェーダ表示領域P34の右側には、マスタボリュームキー342が表示され、ライブ音楽全体の音量を調整できるようになされる。
【0229】
この音量調整フェーダ表示領域P34の下方には、ミュート(Mute)キー表示領域P35が割り当てられ、上述した楽器やボーカル、コーラス毎に、音源をミュート(消音)できるようなキーが配置されている。例えば、ボーカルのトラックをミュートしてマイナスワン(カラオケ)として楽しむことができる。これにより、ユーザUjの好みによる音楽環境を創出できるようになる。
【0230】
更に、ミュートキー表示領域P35の下方には、エフェクタ表示領域P36が割り当てられる。この例で、エフェクタ表示領域P36には、チャンネル「3」のベースに対して、スペシャルキーが表示され、チャンネル「4」のキーボードに対して、スペシャルキーK11,K12、コーラスキーK13及びリバーブキーK14が表示され、チャンネル「5」のボーカルに対して、ブーストキーK15が表示される。これらのキーK11〜K15を選択することで、ライブ音楽の音質を調整できるようになされる。これらの音量調整フェーダ341や、マスタボリューム342、キーK11〜K15はマウス等によるポインタによって移動される。
【0231】
[サラウンド設定例]
図21はインターネットテレビ60上のサラウンド調整画面P4の表示例を示す図である。この例では、図19Bに示したリモコン300の+/−キーK7,K8で選択されたチャンネルのサラウンドパン(音像の位置)を調整できるようにした。これから主流になるであろう、サラウンドの設定を、ユーザUjの好みに応じて行えるようにしたためである。
【0232】
図21に示すサラウンド調整画面P4は、図20に示したサラウンドパンナ表示領域P33で、例えば、チャンネル「5」を選択することにより、音声入力設定画面P3からサラウンド調整画面P4へ表示が切り替わったものである。サラウンド調整画面P4には、例えば、チャンネル「5」のボーカルL#2が表示される。この表示領域に隣接してサラウンドパン(SURROUND PAN;音像位置)表示領域P41が割り当てられる。このサラウンドパン表示領域P41には、視聴位置を原点にしたスピーカ位置を示す第1象限〜第4象限を有するグラフが表示される。
【0233】
このグラフの周辺には、第1象限を選択する「R」タグTG4、第2象限を選択す「L」タグTG5、第3象限を選択する「LS」タグTG6、及び、第4象限を選択する「RS」タグTG7が表示される。この他に、「R」タグTG4と「L」タグTG5の間には、中央位置を示す「C」タグTG8や、重低音用のスピーカを示す「SW」タグTG9が配置されている。「LS」タグTG6と「RS」タグTG7の間には、記録保存を示す「FDディスク」タグTG10が配置されている。
【0234】
また、グラフの右側には、書込み用の「WRITE」タグTG11や、設定用の「SET」タグTG12が配置される。この「WRITE」タグTG11と「SET」タグTG12の間には、センタースピーカの音量を示す領域P42が割り当てられる。この例では、DIV「50%」が表示される。
【0235】
このようなサラウンド調整画面P4において、例えば、図21に示すチャンネル「5」でボーカルを選択すると、図20に示したボーカルの位置は、第1象限(R)に位置している。しかし、ユーザUjの好みとして、ボーカルは、やっぱり、センター(C)を定位として欲しいと思えば、図21に示した「WRITE」タグTG11の選択→「C」タグTG8の選択→「SET」タグTG12の選択を順次実行することにより、センターへの音像位置を変更できるようになされる。
【0236】
[映像選択例]
図22はライブ映像画面P5の表示例、図23A及び図23Bはそのライブ映像選択画面P53及び拡大画面P54を各々示す図である。この例ではライブ映像を表示する画面に関して「オプションC」が選択されると、4つに分割されたライブ映像が一画面中に表示される。この4つに分割されたライブ映像は、ライブハウス#1等で4台のカメラ#C1〜#C4により撮影して得た4CHのライブ映像データに基づくものである。
【0237】
図22において、P51はボーカルを含む全体演奏者のライブ映像画面である。P52はギター「1」及び「2」を演奏するミュージシャンのライブ映像画面である。P53はギター「1」を演奏するミュージシャンのライブ映像画面である。P54はボーカルを担当するミュージシャンのライブ映像画面である。
【0238】
この例では、図19Bに示したリモコン300の矢印キーK2〜K5で見たい画面を選択する、例えば、ライブ映像画面P53を選択すると、図22に示した4つに分割されたライブ映像が、図23Aに示すライブ映像選択画面P53に切り替わるようになされる。この図23Aに示すライブ映像選択画面P53にウインドウ枠を設定し、リモコン300の+/−キーK7,K8を操作して、ウインドウ枠の大きさを可変できるようになされる。この例では、ベースギター奏者の手元付近にウインドウ枠が設定され、このベースギター奏者の手元付近を拡大表示(クローズアップ)するようになされる。
【0239】
これらを前提にして、図19〜図23を参照しながら、受信側システム200におけるGUI操作例について説明をする。図24及び図25は受信側システム200におけるGUI操作例(その1、2)を示すフローチャートである。
【0240】
この実施例では再生方式に関して、先に説明した「スタンダード」、「オプションA」〜「オプションC」が準備されている場合を例に挙げる。これを処理条件にして、まず、図24に示すフローチャートのステップV1でユーザUjは、インターネットテレビ60上で映像付き高音質音楽ライブ配信システム100のWebを立ち上げる。もちろん、ノートパソコン上で当該システム100を立ち上げてもよい。
【0241】
このシステム立ち上げにより、ステップV2でインターネットテレビ60の初期画面には、図示しない「ライブ新着情報」や、「視聴可能なライブ情報」、「ミュージシャン検索情報」等が表示される。その後、ユーザUjは自分が視聴したいと思うライブ情報をステップV3で選択する。ライブ情報を選択しない場合は、ステップV20に移行する。ライブ情報を選択する場合は、ステップV4に移行して、ユーザUjはID/パスワードを入力する。
【0242】
このID/パスワードが入力されると、ステップV5に移行してライブ映像及び音楽データDoutの再生方式が選択される。このとき、インターネットテレビ60のモニタ画面には、図示しない「視聴タイプの選択」→(CDクオリティ)、(2CH、96K−24Bit)〜(マルチトラック、DSD、マルチ画面)の選択項目や、これらの利用料金、「おまかせ」モードMD1、「自分で設定」モードMD2等が表示される。ユーザUjはこの中から希望の再生方式を選択するようになされる。
【0243】
ここでユーザUjが「おまかせ」モードMD1を選択すると、ステップV6に移行して当該モードに係る利用料金が表示される。このとき、タイプ毎の視聴(購入)金額を表示するようにしてもよい。その後、ステップV7に移行して「視聴の金額」の確認がなされる。「おまかせ」モードMD1に係る利用料金を承認「OK」する場合は、ステップV8に移行する。これにより、視聴のタイプが決定される。また、この利用料金を承認「OK」しない場合は、図示しない「キャンセル」キーを押下することにより、「おまかせ」モードMD1の選択を取りやめることができる。その後、ステップV20に移行する。ステップV8では、「スタンダード」を実行するべくパラメータが設定される。
【0244】
この「スタンダード」では、ステージ全体を撮影するカメラ#C1により撮影された1CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の2CHのライブ音楽が再生される。この「スタンダード」の再生方式によれば、初めにステージ全体を見たり、その演奏を聴くことができる。その後、ステップV20に移行する。
【0245】
また、上述のステップV5で「自分で設定」モードMD2を選択すると、ステップV9に移行して「オプションA」、あるいは、それ以外のオプションが選択される。「オプションA」が選択された場合は、ステップV10に移行して当該モードに係る利用料金が表示される。このとき、タイプ毎の視聴(購入)金額が表示される。
【0246】
その後、ステップV11に移行して「視聴の金額」の確認がなされる。「自分で設定」モードMD2に係る利用料金を承認「OK」する場合は、ステップV12に移行する。これにより、視聴のタイプが決定され、「オプションA」が実行される。「オプションA」では、2台のカメラ#C1及び#C2により撮影された2CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の4CHのライブ音楽を再生するようになされる。「オプションA」の再生方式は、例えば、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。なお、この利用料金を承認「OK」しない場合は、「キャンセル」キーを押下することにより、「自分で設定」モードMD2の選択を取りやめることができる。
【0247】
更に、ステップV9で「オプションA」以外のオプションが選択された場合は、例えば、図25に示すフローチャートのステップV13に移行して、「オプションB」が選択されたかをチェックされる。「オプションB」が選択された場合は、ステップV14に移行して当該モードに係る利用料金が表示される。
【0248】
その後、ステップV15に移行して「視聴の金額」の確認がなされる。「自分で設定」モードMD2に係る利用料金を承認「OK」する場合は、ステップV16に移行する。この利用料金を承認「OK」しない場合は、「キャンセル」キーを押下することにより、「自分で設定」モードMD2の選択を取りやめることができる。
【0249】
ステップV16では「オプションB」が実行される。「オプションB」では、3つのカメラ#C1〜#C3等により撮影された3CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の8CHのライブ音楽を再生するようになされる。音声に関しては、「オプションA」と同様に編集済みであるが、各CHの音量調整が可能となっている。この「オプションB」の再生方式は、更なる要望として、他のカメラアングルや音声のチャンネル数を増やしたい場合に選択される。
【0250】
また、ステップV13で「オプションA、B」以外、すなわち、「オプションC」を選択する場合は、ステップV17に移行して、当該モードに係る利用料金が表示される。その後、ステップV18に移行して「視聴の金額」の確認がなされる。「自分で設定」モードMD2に係る利用料金を承認「OK」する場合は、ステップV19に移行する。この利用料金を承認「OK」しない場合は、「キャンセル」キーを押下することにより、「自分で設定」モードMD2の選択を取りやめることができる。
【0251】
ステップV19では「オプションC」が実行される。「オプションC」では、4つのカメラ#C1〜#C4により撮影された4CHのライブ映像及び、左右のマイクロフォンにより収録した高音質、編集済の16CHのライブ音楽を再生するようになされる。音声に関して、「オプションA」と同様に編集済みであるが、各CHの音量調整及び、音質をユーザUjが調整することが可能となる。
【0252】
例えば、図22に示したような4つに分割された画面に表示が切り替わる。ここで、図19Bに示したリモコン300の矢印キーK1等で見たい画面を選択する、例えば、ライブ映像画面P53を選択すると、図22に示した4つに分割されたライブ映像が、図23Aに示すライブ映像選択画面P53の全体表示に切り替わるようになされる。このとき、例えば、図23Aに示したライブ映像選択画面P53にウインドウ枠を設定し、リモコン300の+/−キーK7,K8を操作して、ウインドウ枠の大きさを可変するように操作される。また、ベースギター奏者の手元付近にウインドウ枠を設定し、このベースギター奏者の手元付近を拡大表示することもできる。
【0253】
また、音声調整に関しては、図20に示した音声入力設定画面P3等をインターネットテレビ60上に表示し、この音声入力設定画面P3で各楽器やボーカル、コーラス毎に、音量調整フェーダを上下に移動したり、ライブ音楽の音源毎に音量調整するようになされる。これにより、ライブ音楽を構成する各楽器やボーカル、コーラス等の音量バランスを取ることができる。更に、図21に示したサラウンド調整画面P4をインターネットテレビ60上に表示し、図19Bに示したリモコン300の+/−キーK7,K8を操作してサラウンドパン(音像の位置)を調整するようにしてもよい。
【0254】
このようにして、本発明に係る実施例としての映像付き高音質音楽ライブ配信システムにおける情報処理方法によれば、アーティストMiによるライブに基づくライブ映像及び音楽データDoutを配信して処理する場合に、ライブハウス#1等におけるライブ映像を撮影する4台のカメラ#C1〜#C4の操作、ライブ音楽を収録する16本のマイクロフォン#M1〜#M16の操作及び、これらの撮影・収録レベルの調整等を人手を介さずにコンテンツ配信サイト102において設定できるので、ライブハウス#1等での収録オペレータの無人化を図ることができる。
【0255】
従って、世界各地に存在するライブハウス#1等で実演され、このライブ演奏によって収録される映像音楽素材データDinを一元編集及びアーティストMiの著作権を一元管理することができ、そのアーティストMiによるライブ映像及び音楽に関するライブ映像及び音楽データDoutを全世界に配信可能な新たな映像付き高音質音楽ライブ配信システム100を構築することができる。
【0256】
また、本発明に係る実施例によれば、違法複製(コピー)が困難なデータストリーミング形式によりライブ映像及び音楽データDoutを電子配信するようになされるので、視聴時の情報処理装置#Pjとってデータ処理負担を軽減すること、及び、ユーザUjとって高画質な映像情報及び高音質な音楽情報を得たいとする高度な要求を満足させることができる。
【0257】
この発明は、このような効果に加えて、以下のような効果がある。アーティストMiの中で人気があるアーティスト達の1回限りのライブ演奏等を熱心な音楽ファンに対してネット配信することができる。しかも、既存ソフトとは異なり、インターネットでしか視聴できない貴重なソフトウエアを提供することができる。
【0258】
また、情報提供業者4はライブ映像及び音楽データDoutにより固定ファンを開拓できると共に、多くの新規ユーザUjを獲得できるようになる。しかも、ライブハウス#1等における収録オペレータの無人化が図れることから、低コストにもかかわらず高品質な音楽ソフトを制作することができ、ブロードバンド時代に相応しいソフトウエアを数多く提供できるようになる。
【0259】
本発明の発展形として、コンテンツ配信サイト102におけるオペレートソフトを作成し、収録から編集、配信(送出)に至るまでの全てを無人化及び自動化を図り、高品質音楽ソフトウエアを数多く作成可能な環境を提供できるようになる。本発明を利用することにより、高品質音楽ソフト制作が可能であることから、ジャンルの異なる音楽ソフトウエア(例:ソウル、R&B、クラシック、民族音楽等)への適用ができ、音楽ソフトウエア自体の幅が広がり、種類、数量も増えて多くのユーザUjの興味・要望を受容できるようになる。
【0260】
【発明の効果】
以上説明したように、本発明に係る電子情報配信システム及び情報処理方法によれば、実演家による実演を収録して得た映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を備え、この情報編集配信装置は、その実演家による実演映像及び実演音楽を自動収録するように通信手段を通じて情報収録送出装置の各々を遠隔制御するものである。
【0261】
この構成によって、実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地(ライブハウス)での収録オペレータの無人化を図ることができる。従って、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムを構築することができる。
【0262】
本発明に係る情報収録送出装置によれば、実演家による実演に基づく実演情報及び実演音楽を収録出力制御をする情報出力制御手段を備え、この情報出力制御手段は、情報編集配信装置から遠隔制御情報を受信し、実演家による実演映像及び実演音楽を自動収録するように撮影手段及び収音手段を遠隔制御するものである。
【0263】
この構成によって、撮影手段や収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地での収録オペレータの無人化を図ることができる。従って、実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0264】
本発明に係る情報編集配信装置によれば、実演家による実演に基づく映像音楽素材情報を編集配信制御する編集配信制御手段を備え、この編集配信制御手段は、情報収録送出装置へ遠隔制御情報を送信し、その実演家による実演映像及び実演音楽を自動収録するように情報収録送出装置を遠隔制御するするものである。
【0265】
この構成によって、実演映像を撮影する撮影手段の操作、実演音楽を収録する収音手段の操作及び、これらの撮影・収録レベルの調整等を人手を介さずに設定できるので、実演地での収録オペレータの無人化を図ることができる。従って、世界各地に存在するライブハウス等で実演され、この実演によって収録される映像音楽素材情報を一の国で一元編集及び実演家の著作権を一元管理することができ、その実演家による実演映像及び実演音楽に関する電子情報内容を全世界に配信する電子情報配信システムの構築に十分応用することができる。
【0266】
この発明は、ライブハウス等で実演される実演家の実演映像及び実演音楽を配信提供する映像付き高音質音楽ライブ配信ビジネス等に適用して極めて好適である。
【図面の簡単な説明】
【図1】本発明に係る実施形態としての電子情報配信システム10の構成例を示す概念図である。
【図2】電子情報配信システム10における電子情報内容の流れを示す図である。
【図3】電子情報配信システム10における処理例を示すフローチャートである。
【図4】本発明に係る実施例として映像付き高音質音楽ライブ配信システム100の構成例を示す図である。
【図5】当該システム100におけるコンテンツ及び金銭等の流通例を示す図である。
【図6】本発明に係る実施例としての情報収録送出装置#L1等の内部構成例を示すブロック図である。
【図7】ライブ映像及び音楽情報の収録機器等の配置例(前面)を示す立体図である。
【図8】ライブ映像及び音楽情報の収録機器等の配置例(上面)を示す平面図である。
【図9】情報収録送出装置#Liの自動調整例を示すフローチャートである。
【図10】A及びBは情報収録送出装置#Liによる自動収録例を示すフローチャートである。
【図11】本発明に係る実施例としての情報編集配信装置1の構成例を示すブロック図である。
【図12】情報編集配信装置1における遠隔操作例を示す図である。
【図13】情報編集配信装置1における情報収録時の遠隔制御例を示すフローチャートである。
【図14】情報編集配信装置1における情報編集時の処理例を示すフローチャートである。
【図15】情報編集配信装置1における情報配信時の処理例を示すフローチャートである。
【図16】本発明に係る映像付き高音質音楽ライブ配信システム100における受信側システム200の構成例を示すブロック図である。
【図17】ノート型のパソコン90を使用した受信側システム200の構成例を示す概念図である。
【図18】インターネットテレビ60を使用した受信側システムの構成例を示す概念図である。
【図19】A及びBはメニュー選択画面P2の表示例及びリモコン300の操作例を示す図である。
【図20】インターネットテレビ60上の音声入力設定画面P3の表示例を示す図である。
【図21】インターネットテレビ60上のサラウンド調整画面P4の表示例を示す図である。
【図22】ライブ映像画面P5の表示例を示す図である。
【図23】A及びBはそのライブ映像選択画面P53及びその拡大画面P54の表示例を示す図である。
【図24】受信側システム200におけるGUI操作例(その1)を示すフローチャートである。
【図25】受信側システム200におけるGUI操作例(その2)を示すフローチャートである。
【符号の説明】
1・・・情報編集配信装置、2A,2B・・・通信手段、10・・・電子情報配信システム、11・・・編集サイト、12・・・素材ファイル、13・・・編集済みファイル、14・・・完パケファイル、15・・・配信サーバ、16・・・アーチスト管理サーバ、17・・・自動編集加工部、18・・・コンテンツサーバ、20A,20B・・・インターネット(通信手段)、22・・・駆動制御部、23、40・・・通信モデム、50・・・ルータ、60・・・インターネットテレビ、70・・・ホームサーバ、80・・・AVアンプ、90・・・パソコン、#Li(i=1〜n)・・・情報収録送出装置、100・・・映像付き高音質音楽ライブ配信システム(電子情報配信システム)、200・・・受信側システム
[0001]
TECHNICAL FIELD OF THE INVENTION
INDUSTRIAL APPLICABILITY The present invention is suitable for an electronic information distribution system, an information recording / sending device, and an information editing device which are suitably applied to a live video distribution business of high-quality music with video, which distributes and provides a performance video and a performance music of a performer performed in a live house or the like. The present invention relates to a distribution device and an information processing method.
[0002]
In detail, a video and music material information obtained by recording a performance by a performer is input, and an information editing and distributing device is provided for distributing electronic information content relating to a performance video and music obtained by performing information editing processing on the information. Each of the information recording and transmitting devices is remotely controlled through communication means so as to automatically record the demonstration video and the demonstration music. It is possible to centrally manage the copyrights of editors and performers, and to construct an electronic information distribution system capable of distributing the electronic information contents of performance videos and music by the performers worldwide.
[0003]
[Prior art]
In recent years, in the era of broadband, a system for distributing digital video and music with a large amount of information has been often used. For example, a video and music providing service system in which a broadcasting station digitally transmits a plurality of videos at the same time as a multiplex number and a video and music (content) of any channel are selected on the receiving side has begun to spread.
[0004]
As described above, the degree of freedom of information selection for information users is increasing. Also, on the information provider side, there is an increasing need to produce and provide contents attractive to users by making use of the features of Internet distribution.
[0005]
On the other hand, enthusiastic music fans tend to go to live houses and enjoy listening to live music (live) by musicians directly. This type of live house has a stage where musicians perform and seats for fans. On this stage, a plurality of fixed or movable microphones for improving a sound effect, and a plurality of speakers for loudspeaking sounds collected by these microphones are installed.
[0006]
In addition, the information provider prepares a plurality of cameras in addition to the microphone in order to create a recording medium such as a CD by recording live performance images and music and to distribute contents. These camera operations, for example, adjustment of the video angle switching, zoom, pan, and tilt functions are performed by a recording operator (stap) on site. Similarly, in microphone operation, confirmation of microphone directivity, zoom function, audio input level, and the like are adjusted.
[0007]
When live video and music recorded in such a live house are provided to information users as software, the contents of the electronic information after recording are edited on the video and audio by an information provider and recorded on a recording medium. Sold. Also, when live broadcasting from a live house to each home, a cameraman moves in front of the audience seats, shoots live video from multiple angles, simultaneously transmits digital images of multiple angles at the multiplex number, and receives Then, a method of selecting a video at any angle is adopted. As a result, the information user can select and view an angle live video taken by the cameraman.
[0008]
Note thatPatent Literature 1 discloses a remote watching service system. According to this remote watching service system, an imaging system installed in a stadium, a server installed in an information provider, and an information processing apparatus installed in an information user are connected by a network. Further, in this photographing system, the stadium is provided with a plurality of cameras, and the operating device provided in advance in the information processing device of the information user is operated to change the photographing conditions of the plurality of cameras provided in the stadium. The photographing control device is controlled so as to be changed. Images taken by these cameras are distributed to a user's information processing device through a server.
[0009]
With this configuration, it is possible to receive images shot by a plurality of cameras under the shooting conditions set by the information user. And videos of scenes that match the tastes. Therefore, it is possible to virtually enjoy the real pleasure of watching the stand, and to provide an image full of a sense of reality.
[0010]
[Patent Document 1]
JP-A-2002-165200 (page 4, right column, FIG. 1)
[0011]
[Problems to be solved by the invention]
The video and music providing service system according to the conventional example has the following problems.
[0012]
{Circle around (1)} Since the amount of data that can be transmitted and received in the conventional narrow band is small, the sound quality is generally not good in 2CH stereo with strong compression, and the video is often unnatural. .
[0013]
(2) Many enthusiastic music fans and musicians are dissatisfied with the content of narrow band content.
[0014]
(3) With the current music distribution system that re-distributes existing software (released CDs and DVD music software) over the Internet, it is difficult for information users to become new objects of interest unless they are novel. However, the fact is that it does not easily lead to market expansion and it is not possible to acquire a passionate fan base.
[0015]
{Circle around (4)} In recording at a live house, the operation of the camera, the setting and adjustment of the microphone, and the like require much labor and are troublesome. There are many annoying aspects, such as a photographer moving in front of the audience seats during recording and obstructing the view during live viewing.
[0016]
(5) According toPatent Literature 1, a mode in which the information processing device of the information user controls the image capturing control device of the image capturing system is adopted, so that the range in which an unspecified number of information users can change the image capturing conditions of the camera is limited. Will be done.
[0017]
Therefore, the present invention solves such a conventional problem, and enables unified editing of video and music material information obtained by recording a performance by a performer and unified management of the performer's copyright. An object of the present invention is to provide an electronic information distribution system, an information recording and transmitting device, an information editing and distributing device, and an information processing method, which can distribute electronic information content relating to a performance video and a performance music by a performer to the whole world and the like. .
[0018]
[Means for Solving the Problems]
The problem described above is a system for distributing electronic information contents based on a performance by a performer, a plurality of information recording and transmitting devices for outputting video and music material information obtained by recording the performance by the performer, An information editing / distribution device that inputs video and music material information from a recording / sending device and distributes electronic information content relating to a performance video and performance music processed for information editing, and receives and processes the electronic information content from the information editing and distribution device An information processing device, and at least communication means for connecting the information recording and sending device and the information editing and distributing device, wherein the information editing and distributing device is provided with a communication means for automatically recording a demonstration video and a demonstration music by a performer; The problem is solved by an electronic information distribution system wherein each of the information recording and transmitting devices is remotely controlled.
[0019]
According to the electronic information distribution system according to the present invention, when distributing electronic information content based on a performance by a performer, for example, an information editing and distribution device is arranged in one country or country serving as an editing place, and An information recording and transmitting device is arranged in each country or domestic demonstration site. These information recording and transmitting devices and the information editing and distributing device are connected through communication means. On the premise of this, the information editing / distributing device is configured to remotely control each of the information recording / sending devices through communication means so as to automatically record the performance video and the performance music by the performer.
[0020]
For example, the information output control means of the information recording and transmitting device receives remote control information from the information editing and distributing device, and remotely controls the photographing means and the sound collecting means so as to automatically record the performance video and the performance music by the performer. The photographing means is remotely controlled so as to photograph a demonstration video by the performer. The sound collecting means is remotely controlled so as to record the music performed by the performer. The demonstration video captured by the photographing unit and the demonstration music recorded by the sound collection unit are converted into video and music material information by the information output control unit and output to the information editing and distribution device.
[0021]
In the information editing / delivery device, the video / music material information is input from each of the information recording / sending devices, and the electronic information content relating to the performance video and the performance music that has undergone the information editing process is distributed. The information processing device receives and processes the electronic information content from the information editing and distribution device.
[0022]
Therefore, the operation of the photographing means for photographing the demonstration video at the demonstration place, the operation of the sound pickup means for recording the demonstration music, and the adjustment of the photographing / recording level can be set at the editing place without manual operation. It is possible to make the recording operator unmanned in the ground (live house). As a result, it is possible to perform a unified editing of the video and music material information that is performed at live houses and the like that exist around the world, and collectively manage the copyright of the performer. An electronic information distribution system that distributes electronic information contents related to music to the whole world can be constructed.
[0023]
An information recording and transmitting device according to the present invention is a device that is connected to an information editing and distributing device of a system for distributing electronic information content and that performs recording and output processing of performance information and performance music based on a performance by a performer. A plurality of remotely controllable photographing means for photographing a live performance video by the house, a plurality of remotely controllable sound collecting means for recording live music by the performer, and a live performance video and sound collecting means photographed by the photographing means Information output control means for converting the recorded performance music into video and music material information and outputting the converted music, the information output control means receiving remote control information from the information editing and distribution device, It is characterized in that the photographing means and the sound collecting means are remotely controlled so as to automatically record music.
[0024]
ADVANTAGE OF THE INVENTION According to the information recording / sending apparatus which concerns on this invention, when the performance information based on the performance by a performer and the performance music are recorded and output processing, it is connected to the information edit distribution apparatus of the system which distributes electronic information content. On the premise of this, the information output control means receives the remote control information from the information editing and distribution device and remotely controls the photographing means and the sound collecting means so as to automatically record the performance video and the performance music by the performer. The photographing means is remotely controlled so as to photograph a demonstration video by the performer. The sound collecting means is remotely controlled so as to record the music performed by the performer. The demonstration video captured by the photographing unit and the demonstration music recorded by the sound collection unit are converted into video and music material information by the information output control unit and output to the information editing and distribution device.
[0025]
Therefore, since the operation of the photographing means and the sound collecting means and the adjustment of the photographing / recording level can be set without manual operation, the recording operator at the demonstration site can be unmanned. As a result, the present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing electronic information content on performance video and music by a performer to the whole world.
[0026]
An information editing and distributing apparatus according to the present invention is an apparatus for editing and distributing video and music material information from an information recording and transmitting apparatus of a system for distributing electronic information, and for remotely controlling the information recording and transmitting apparatus. Input means for inputting operation information including information, information editing means for inputting video and music material information from each of the information recording and transmitting devices, and performing information editing processing; and a demonstration video and a performance music edited by the information editing means. Information distribution means for distributing such electronic information content, and edit distribution control means for controlling input / output of the information editing means and the information distribution means based on operation information from the input means; Transmitting remote control information to a recording / sending device, and remotely controlling the information recording / sending device so as to automatically record a demonstration video and a performance music by a performer. A.
[0027]
According to the information editing and distributing device of the present invention, when the video and music material information is input from the information recording and transmitting device and the editing and distributing process is performed, for example, the information recording and transmitting device disposed at the demonstration location and the information recording and transmitting device disposed at the editing location are arranged. Is connected to the information editing and distribution device. On this premise, the input means is operated so as to input operation information including information for remotely controlling the information recording / sending device. The editing and distribution control means transmits remote control information to the information recording and transmitting apparatus based on the operation information from the input means, and remotely controls the information recording and transmitting apparatus so as to automatically record the video and music performed by the performer. At the same time, the edit distribution control means controls input / output of the information edit means and the information distribution means. With this control, the information editing means inputs the video and music material information from each information recording and sending device to perform the information editing process. The information distribution means distributes the electronic information content relating to the performance video and the performance music edited by the information editing means to the information user.
[0028]
Therefore, the operation of the photographing means for photographing the demonstration video at the demonstration place, the operation of the sound pickup means for recording the demonstration music, and the adjustment of the photographing / recording level can be set at the editing place without human intervention. It is possible to make the recording operator unmanned on the ground. As a result, it will be possible to perform live music at live houses around the world, collectively edit the video and music material information recorded in this live performance in one country and centrally manage the performer's copyright. The present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing electronic information contents relating to a demonstration video and a demonstration music to the whole world.
[0029]
An information processing method according to the present invention is a method of distributing and processing electronic information content based on a performance by a performer, and information on recording a performance by the performer at each of the performance locations and outputting video and music material information. Information editing and distribution that arranges recording and transmitting devices, inputs video and music material information from each information recording and transmitting device, performs information editing processing, and distributes electronic video contents related to the demonstration video and the performance music after the information editing processing. The device is placed at the editing place, and the information recording and sending device placed at the demonstration place and the information editing and distribution device placed at the editing place are connected via communication means, and the performance video and music by the performer are automatically recorded. Remote control of each of the information recording and transmitting devices through communication means, and the video and music material information obtained from the information recording and transmitting device of the remotely controlled performance site is transmitted to the information editing and distribution device at the editing location. Condensed process is characterized in that where information distribution processing electronic information contents obtained by the information editing process.
[0030]
According to the information processing method according to the present invention, when distributing and processing electronic information content based on a performance by a performer, operation of a photographing means for shooting a performance video at a performance place, a sound collecting means for recording performance music And the adjustment of the photographing / recording level can be set at the editing place without manual operation, so that the recording operator at the demonstration place can be unmanned.
[0031]
Therefore, it is possible to centrally edit video and music material information that is performed at live houses and the like existing in various parts of the world, and to collectively manage the copyright of the performer, and perform live video and live music by the performer. Greatly contributes to the construction of an electronic information distribution system that distributes electronic information contents related to the entire world.
[0032]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment of an electronic information distribution system, an information recording and transmitting device, an information editing and distribution device, and an information processing method according to the present invention will be described with reference to the drawings.
[0033]
(1) Embodiment
FIG. 1 is a conceptual diagram showing a configuration example of an electronicinformation distribution system 10 as an embodiment according to the present invention.
In this embodiment, there is provided an information editing / distributing device for inputting video / music material information obtained by recording a demonstration performed by a performer and distributing a performance video and an electronic information content related to the performance music, which have been subjected to information editing processing. Remote control each of the information recording and sending devices through communication means so as to automatically record the demonstration video and the demonstration music by, and perform the video and music material information to be performed in live houses and the like existing around the world and recorded by this demonstration. It is possible to centrally manage the copyrights of unified editing and performers, and to construct an electronic information distribution system capable of distributing electronic information contents related to performance videos and music by the performers worldwide. .
[0034]
The electronicinformation distribution system 10 shown in FIG. 1 is a system as a general concept that distributes electronic information contents based on a performance by a performer Mi (i = 1 to n). Thissystem 10 is suitable for application to a live music distribution business with high-quality music with video, which distributes and provides live video and live music of the performer Mi performed in a live performance place (hereinafter referred to as a live house). Here, the performer Mi refers to an actor, a dancer, a performer, a singer, a person who performs a performance, a person who conducts a performance, or a person who produces a performance. Also, a performance is to play, dance, play, orally, dictate, or otherwise perform the work in a dramatic manner (does not perform the work in an act similar to these, but has an entertaining character). Things).
[0035]
The live house is a place where visitors watching the performance can enter, and refers to a theater or the like where the performer Mi performs. A live house is different from the concept of a recording studio for creating a basic master such as a CD. The electronicinformation distribution system 10 is not limited to a live house but can be applied to a recording studio.
[0036]
In thissystem 10, a plurality of information recording and transmitting devices #Li (i = 1 to n) are prepared, and each of the information recording and transmitting devices #Li is arranged in, for example, a live house in each country of the world or in various places in Japan. Thissystem 10 assumes that an operator in a live house is unmanned. Each of the information recording and transmitting devices #Li outputs video and music material data obtained by recording a performance by the performer Mi.
[0037]
For example, several cameras that can be remotely controlled are arranged in a live house. The camera is arranged at a position where an image of the performer Mi is captured. This is because, at the time of reproduction, it is possible to select and reproduce a video from an angle desired by an information user (hereinafter referred to as a user). With these cameras, live video data for several channels related to live video taken from various angles is obtained.
[0038]
In the live house, dozens of microphones that can be remotely controlled are arranged. Each of the microphones is located near the sound source. This is because, at the time of reproduction, a user's favorite sound source can be selected and reproduced. With these microphones, voice and music data of several tens channels related to the performance music recorded from various sound sources is recorded. The performance video captured by these cameras and the performance music recorded by the microphone are converted into streaming-type video / music material data and transmitted to the editing place.
[0039]
Thesystem 10 is provided with an information editing / distributingdevice 1 in addition to the information recording / sending device #Li. For example, the information editing / distributingdevice 1 is located in one country or country that is an editing place (hereinafter also referred to as an editing site). You. In this example, it is assumed that the information editing and distributingapparatus 1 is located in Japan, which is the business place of theinformation provider 4. The information recording and transmitting device #Li of each live house and the information editing and distributingdevice 1 of the editing site are connected through the communication means 2A. The information editing anddistribution device 1 receives video and music material data from each of the information recording and transmitting devices #Li, performs information editing processing, and distributes the edited video and electronic information content relating to the performance music.
[0040]
In thissystem 10, with respect to the electronic information content processed by the information editing anddistribution device 1, the consent of the performer Mi is obtained, and the electronic information content after obtaining the consent of the performer Mi is distributed to the user. Is made. In the information editing /delivery apparatus 1, in order to prevent unauthorized duplication of the electronic information content relating to the performance video and the performance music, the electronic information content is subjected to copy prohibition processing. For example, the electronic information content is subjected to scramble processing that is difficult to copy, and the scrambled data is distributed from the information editing anddistribution device 1 to the user in a streaming format.
[0041]
Further, the information editing /delivery apparatus 1 is configured to multiplex-process and distribute electronic information contents relating to a plurality of performance videos and performance music recorded in one live house.
The reason why the electronic information contents are distributed in a multiplex manner is that when the electronic information contents are reproduced at the viewer's home, the electronic information contents can be selected as desired. For example, it is possible to select and reproduce a demonstration video at a desired angle, or to select a desired sound source to reproduce the demonstration music. In this way, the user can enjoy the realism of live houses around the world while staying at home.
[0042]
Further, an information processing device #Pj is prepared for each home of the viewer, that is, for the user Uj (j = 1 to m). The information editing / distributingdevice 1 of the editing site and the information processing device #Pj of each home are connected via the communication means 2B. Each information processing device #Pj receives and processes the electronic information content from the information editing anddistribution device 1.
As the information processing device #Pj, a desktop or notebook personal computer, a home server, a television, an AV amplifier, an Internet television, or the like is used. The information recording and transmitting device #Li of each live house and the information editing and distributingdevice 1 of the editing site are connected through the communication means 2A.
[0043]
At least, the information recording and transmitting device #Li and the information editing and distributingdevice 1 are connected by thecommunication unit 2A. In thissystem 10, the information editing /delivery device 1 remotely controls each of the information recording / sending devices #Li via the communication means 2A so as to automatically record the performance video and the performance music by the performer Mi. The Internet is used for the communication means 2A and 2B. The Internet is configured by combining satellite communication lines, submarine communication cables, public telephone lines, and the like. Of course, the information editing anddistribution device 1 and the information processing device #Pj of the user are connected via the communication unit 2B.
[0044]
Regarding the billing process in the electronicinformation distribution system 10, first, an electronic equipment manufacturer sells the information recording and transmitting device #Li to a live house. Of course, the present invention is not limited to this, and the information recording / sending device #Li may be provided by lending. Further, the electronic device manufacturer sells the information editing anddistribution device 1 to an editing site. Of course, the present invention is not limited to this, and the information editing anddistribution device 1 may be provided by lending.
[0045]
In addition, an information processing apparatus #Pj such as a personal computer or an Internet television is sold from an electronic equipment manufacturer to a user. Alternatively, the software business sells dedicated information processing software to users. These devices and software may take the form provided by lending.
[0046]
Each user Uj pays the usage fee for using the electronic information content to theinformation provider 4.
It is necessary to pay a line connection fee to the line connection operator. Theinformation provider 4 distributes the usage fee earned from the user to the performer Mi and the live house owner. For example, the performer Mi is paid a performance fee, and the live house owner is paid a rental fee.
[0047]
FIG. 2 is a diagram showing a flow of electronic information contents in the electronicinformation distribution system 10. In thissystem 10, a case where n = 10 is taken as an example. According to the electronicinformation distribution system 10 shown in FIG. 2, the electronic information content for remotely controlling the adjustment of the video (VIDEO) and the music (AUDIO) is transmitted through the route (1). For example, an operator at theediting site 11 performs remote control of video (VIDEO) and music (AUDIO) adjustment via the Internet during a rehearsal of a demonstration (live) or during a live performance.
[0048]
At this time, microphone adjustment such as recording level and compression (compressor) of the performance music and audio in the live house andstudios # 1 to # 10, and camera adjustment such as pan, tilt, zoom and image quality of the performance video, Theediting site 11, that is, the information recording and transmitting device #Li in thelive house # 1 or the like in a country (place) far away from the information editing and distributingdevice 1 shown in FIG. 1 is remotely controlled via the Internet. You.
[0049]
In addition, electronic information contents to be remotely adjusted and controlled, such as images and music, are transmitted through a route (2). For example, monitor data is sent from thelive house # 1 to theediting site 11. The monitor data is used by theediting site 11 to adjust microphones such as recording levels of performance music and audio and compression (compressor) thereof, and camera adjustments such as pan, tilt, zoom, and image quality of the performance video. .
[0050]
On a monitor screen (not shown) of theediting site 11, a camera adjustment and microphone adjustment screen based on monitor data sent from thelive house # 1 or the like is displayed. The operator remotely controls the adjustment of video and audio in the live house while watching the monitor screen.
[0051]
Further, a performance video (live video) and a performance music (live audio) in which video and audio are recorded in the route (3) are recorded in the local file F1 or the like. The local file F1 is provided in thelive house # 1, the local file F2 is provided in thelive house # 2,..., The local file F10 is provided in thelive house # 10. Hereinafter, the local file is described as Fi (i = 1 to 10).
[0052]
For example, inlive house # 1 and the like, live video and live audio by the performer Mi are recorded as digital video and music material data, and the local file in the information recording and transmitting device #Li once disposed in the live house (site) Recorded in F1. Note that the live video and the live audio have a reliable connection line capacity between thelive house # 1 and theediting site 11 and the speed of the transmission / reception function of the information recording and transmitting device #Li and the information editing and distributingdevice 1 and the like. If the data can be stored in the storage of theediting site 11, the data may be recorded directly as video and music material data.
[0053]
Further, theediting site 11 receives the contents of the electronic information transmitted from each live house or the like in the route (4). For example, theediting site 11 converts the recorded video and music material data from the local file of the information recording and transmitting device #Li such as a plurality of live houses # 1 to # 10 connected to theInternet 20A via the Internet to thematerial file 12. To be received (sucked up).
[0054]
Further, in the editing stage, the video and music material data received from the information recording and transmitting device #Li via the route (5) is read from thematerial file 12. For example, theediting site 11 processes the video and music material data read from thematerial file 12 and edits the video and music material data so that the number of channels and the number of camera angles are determined by the option form distributed to the user Uj. Made.
[0055]
In the audio editing, the sound quality is adjusted, and a normal multi-track source mixdown operation is performed. For example, music material data related to the performance music is mixed down into a stereo format or a 5.1 surround format. Also, video material data relating to the demonstration video is edited using general image editing software or the like, and finally, the video information and the music information are synchronized by a time code or the like.
The edited video and music data are temporarily stored in the editedfile 13.
[0056]
Further, the video and music data are read from the editedfile 13 through the route (6), and are encoded. For example, in the authoring stage at theediting site 11, the edited video and audio data are encoded, collected into one file, and converted into various formats that can be distributed (flowable) on theInternet 20B. The encoded video and music data are temporarily stored in a completed packet file (hereinafter, also referred to as a completed packet file) 14.
[0057]
In addition, the encoded video and audio data is transferred to a confirmation process by the performer through path (7). In this example, the musician M1 as a performer can access thecomplete package file 14 on theediting site 11 via the Internet, and can confirm the encoded file. For example, the encoded live video and audio data are reproduced at the home of the musician M1 and the viewing check is performed.
[0058]
At this time, distribution permission or non-permission is given to the editor from the musician M1. As a result of this viewing, the editing can be reprocessed in response to the request of the musician M1. If the distribution is OK, a copyright procedure is performed on theInternet 20A at the same time. At this time, a contract for reward may be made between theinformation provider 4 and the musician M1.
[0059]
In theediting site 11 which has obtained the distribution OK, the electronic information contents for which the distribution permission has been obtained from the performer through the route (8) are read from thecomplete package file 14 and transferred to thedistribution server 15. For example, the encoded live video and audio data are sent to thedistribution server 15 of the Internet distributor that partially executes the business of theinformation provider 4. The distribution of electronic information by theInternet distributor 104 can be performed in a streaming format or a download format.
[0060]
In the case of the download format, a copy protection function is added to the file to prevent unauthorized copying. Streaming live video and audio data are distributed from theInternet distributor 104 to the viewer homes Hj (j = 1 to m) via theInternet 20B via route (9).
[0061]
Subsequently, an information processing method as an embodiment according to the present invention will be described. FIG. 3 is a flowchart illustrating a processing example in the electronicinformation distribution system 10.
In this embodiment, information recording and transmitting devices #Li are arranged in live houses # 1 to # 10 of ten countries A to J, for example, which subscribe to the electronicinformation distribution system 10, and theediting site 11 An example in which the information editing anddistribution device 1 is arranged in Japan. Of course, it is assumed that the electronic information content based on the performance by the musician Mi is distributed to the user Uj and processed. An information processing device #Pj is prepared in advance in the viewer home Hj shown in FIG.
[0062]
Also, in the information editing anddistribution device 1, the video and music material data recorded by the information recording and transmitting devices # L1 to # L10 arranged in the respective live houses # 1 to # 10 are unitarily edited and written by the musicians M1 to M10. In this example, the rights are centrally managed and the contents of electronic information related to live video and music data by the musicians M1 to M10 are distributed to viewer homes worldwide or in Japan.
[0063]
Under these processing conditions, the information recording and transmitting device #Li is arranged in each of the live houses # 1 to # 10 in various countries of the world in step A1 of the flowchart shown in FIG. 3, and the information is edited and distributed to theediting site 11 in Japan. Thedevice 1 is arranged. For example, the information recording and transmitting device # L1 shown in FIG. 1 is arranged in the live house orstudio # 1 in the country A shown in FIG. An information recording and transmitting device # L2 is also arranged at the live house orstudio # 2 in Country B. Similarly, the information recording and transmitting device shown in FIG. Apparatus # L10 is arranged.
[0064]
The information recording and transmitting device #Li of each of the live houses # 1 to # 10 is provided with local files F1 to F10. The local file F1 is provided in the information recording / transmission device # L1, the local file F2 is provided in the information recording / transmission device # L2,..., The local file F10 is provided in the information recording / transmission device # L10.
The local file F1 in the country A stores video (VIDEO) data and audio (AUDIO) data recorded by the musician M1 as a performer.
[0065]
In the local file F2 of country B, live video and audio data demonstrated and recorded by the musician M2, a performer, are stored. In the local file F10 of country J, the live performance is recorded by the musician M10, a performer. The stored live video and audio data are stored. Note that the information editing anddistribution device 1 shown in FIG. 1 is arranged at theediting site 11 shown in FIG. The information editing anddistribution device 1 includes thematerial file 12, the editedfile 13, and thecomplete packet file 14 shown in FIG.
[0066]
Then, in step A2, the information recording and transmitting devices # L1 to # L10 arranged in the respective live houses # 1 to # 10 and the information editing and distributingdevice 1 arranged in theediting site 11 are communicated in communication means such as theInternet 20A and 20B. Use to connect. Further, the information editing anddistribution device 1 is connected to adistribution server 15 of an Internet distribution company. This is for outsourcing the distribution work.
[0067]
Thereafter, the process proceeds to step A3, where each of the information recording and transmitting devices # L1 to # L10 is remotely controlled through theInternet 20A. This remote control is for automatically recording live video and music by the musician Mi. For example, electronic information content for remotely controlling the adjustment of video and audio is transmitted through the route (1) shown in FIG. At this time, an operator at theediting site 11 remotely controls adjustment of video and audio via the Internet during a live rehearsal or during a live performance.
[0068]
In this example, microphone adjustments such as recording levels of live music and audio in the live houses # 1 to # 10 and the like and compression processing thereof, and camera adjustments such as pan, tilt, zoom, and image quality of live video are performed by theediting site 11. That is, the information recording and transmitting device # L1 in thelive house # 1 or the like in a country far away from the information editing and distributingdevice 1 shown in FIG. 1 is remotely controlled via the Internet.
[0069]
In addition, electronic information content to be remotely adjusted and controlled, such as live video and audio, is transmitted via route (2). For example, monitor data is sent from thelive house # 1 to theediting site 11. The monitor data is used by theediting site 11 for microphone adjustment such as recording level and compression of demonstration music and audio, and camera adjustment such as pan, tilt, zoom and image quality of the demonstration video.
[0070]
On a monitor screen (not shown) of theediting site 11, a camera adjustment and microphone adjustment screen based on monitor data sent from thelive house # 1 or the like is displayed. The operator remotely controls the adjustment of video and audio in the live house while watching the monitor screen. After such adjustment, the live performance is performed, and the information recording and transmitting device # L1 arranged in thelive house # 1 in the country A records the performance by the musician M1 and transmits the video and music material data. Is made.
[0071]
In step A4, theediting site 11 in Japan inputs video and music material data transmitted from the information recording and transmitting devices # L1 to # L10 of the live houses # 1 to # 10 and performs information editing processing. Is made. For example, the information editing anddistribution device 1 of theediting site 11 receives the video and music material data transmitted from eachlive house # 1 and the like along the route (4) shown in FIG. At this time, theediting site 11 reads the recorded video and music material data from the local file of the information recording and transmitting device #Li such as a plurality of live houses # 1 to # 10 connected to theInternet 20A via the Internet. 12 (receive).
[0072]
Further, theediting site 11 processes the video / audio material data read from thematerial file 12 along the route (5) shown in FIG. 2 so that the number of channels and the number of camera angles are determined by the option form distributed to the user Uj. The video and audio material data is edited first. In the audio editing, the sound quality is adjusted, and a normal multi-track source mixdown operation is performed. For example, music material data related to the performance music is mixed down into a stereo format or a 5.1 surround format. Further, the video material data relating to the demonstration video is also edited using general image editing software or the like, and finally, the video information and the music information are synchronized by a time code or the like. The edited video and music data are temporarily stored in the editedfile 13.
[0073]
Also, at the authoring stage at theediting site 11 along the route (6) shown in FIG. 2, the edited video and audio data are read from the editedfile 13 and encoded, collected into one file, and distributed on theInternet 20B. Are converted to various formats. The encoded video and audio data are temporarily stored in thecomplete packet file 14.
[0074]
In step A5, theinformation provider 4 asks the musician Mi to confirm the edited contents. At this time, the electronic information content that has been subjected to the information editing process is distributed from the information editing anddistribution device 1 to the information processing device possessed by the musician Mi using theInternet 20A, and the musician Mi consents to the electronic information content. Being like getting.
[0075]
For example, the encoded video and audio data shown in FIG. 2 is transferred to a confirmation process by the musician M1 through a route (7). Then, the musician M1 can access thecomplete package file 14 on theediting site 11 via the Internet, and confirms the encoded file. For example, the encoded live video and audio data are decoded by a playback device at the home of the musician M1 or the like, and the decoded live video and audio data are played back. The musician M1 performs a viewing check. At this time, if the distribution is OK as a result of viewing from the musician M1 to the editor, a copyright procedure is simultaneously performed on theInternet 20A. At this time, a contract for a reward is made between theinformation provider 4 and the musician M1.
[0076]
Theediting site 11 that has obtained the distribution OK reads the live video and music data from the musician M1 for which the distribution has been permitted from thecomplete package file 14 through the route (8), and executes the business of theinformation provider 4 partially. The live video and music data are transferred to thedistribution server 15 of the distributor. Internet distributors are capable of handling live video and music data in both streaming and download formats.
[0077]
At this time, theInternet distributor 104 performs a copy prohibition process on the electronic information contents. For example, live video and audio data based on thecomplete packet file 14 are distributed from thedistribution server 15 of the Internet distributor to the information processing device #Pj of the viewer home Hj in a data streaming format that is difficult to copy. This is to prevent unauthorized duplication.
[0078]
Then, the process goes to step A6 to deliver the live video and music data after the information editing process, which is confirmed by the musician M1, to the user Uj. At this time, streaming live video and audio data are distributed from theInternet distributor 104 to the viewer home Hj (j = 1 to m) via theInternet 20B via the route (9) shown in FIG.
[0079]
In addition, theInternet distributor 104 multiplexes the electronic information contents related to a plurality of live video and music data related to onelive house # 1 and distributes it to the information processing device #Pj of the viewer home Hj. . The user Uj side can arbitrarily select the electronic information content relating to one live house #i. At the same time, a charging process is performed on the user Uj.
[0080]
In step A7, it is determined whether or not to end the information processing. The judgment at this time is made by a system business partner such as the live house owner and theinformation provider 4. If the live video and music information distribution processing is not terminated, for example, the processing returns to step A3 to continue the processing for remotely controlling each of the information recording and transmitting devices # L1 to # L10 in countries A to J through theInternet 20A. Of course, it is also possible to return to step A1 and perform a task of arranging the information recording and transmitting device #Li in another live house in the world. When ending the live video and music information distribution process, the process ends after consultation with a system business partner.
[0081]
As described above, according to the electronicinformation distribution system 10 and the information processing method according to the embodiment of the present invention, when distributing live video and audio data based on a performance by a musician Mi, the information editing anddistribution device 1 uses the musician Mi. , So that each of the information recording and transmitting devices # L1 to # L10 is remotely controlled through theInternet 20A so as to automatically record live video and music.
[0082]
Therefore, the operation of the camera for photographing the live video in the live houses # 1 to # 10, the operation of the microphone for recording the live music, and the adjustment of the photographing / recording level can be set on theediting site 11 without manual operation. Therefore, the recording operators at the live houses # 1 to # 10 can be unmanned. As a result, it is possible to perform unified editing of video and music material data recorded in live houses # 1 to # 10 and the like existing in various parts of the world and collectively manage the copyrights of musicians Mi. , An electronicinformation distribution system 10 that distributes electronic information contents related to live video and music to the entire world can be constructed.
[0083]
(2) Example
FIG. 4 is a diagram showing a configuration example of a high-quality sound livemusic distribution system 100 with video as an embodiment according to the present invention.
In this embodiment, a high-quality music-attached livemusic distribution system 100 as an example of an electronic information distribution system is constructed, and it is demonstrated in alive house # 1 or the like existing in an arbitrary country, and the video and music material recorded by this demonstration. The data is automatically edited by thecontent distribution site 102, and the copyright of the artist (musician) Mi of theartist community 101 can be centrally managed.
[0084]
4 is a system that distributes live video and music data Dout based on a live performance by an artist Mi (i = 1 to n). Thissystem 100 is different from the conventional distribution system in that it basically distributes software with high musicality (artistic). In theuser community 103, an Internet TV including an NTSC television, an information processing device such as a home server, an AV amplifier, and a personal computer are prepared, and live video and music data Dout edited and prepared in advance at thecontent distribution site 102 are provided. Is selected so that reproduction is possible.
[0085]
Thissystem 100 is based on the premise that the information recording / sending device # L1 such as thelive house # 1 cannot be directly operated (or not operated). This is different from a method in which the user Uj remotely controls a camera or the like to view a favorite image as in a conventional distribution system.
[0086]
In this example, in order to perform high-quality music live distribution, theinformation provider 4 as the distribution source takes the following measures for multi-channel live video and audio data recorded in the live house #i.
[0087]
{Circle around (1)} Regarding live sound recording, for example, 16 microphones # M1 to # M16 are arranged in the live house #i. Editing and processing such as noise removal, volume adjustment, and addition of sound effects are performed on the discrete audio data of the microphone input of the 16 channels (hereinafter referred to as CH). The 16CH audio data is edited and distributed to 2CH, 4CH, 8CH or the like according to the viewing style of the user Uj.
[0088]
{Circle around (2)} For live video recording, for example, four cameras # C1 to # C4 are arranged in the live house #i. When one of the four cameras # C1 to # C4 becomes a performer's solo part, the camera performs zoom shooting of how to handle (play) an instrument. In this example, thecontent distribution site 102 remotely controls the information recording and transmitting device # L1 of thelive house # 1 based on an instruction of a person who is familiar with music to some extent (for example, a specialized mixer). As a result, high-quality software can be automatically edited and produced.
[0089]
In thissystem 100, an information recording / sending device # L1 is prepared in alive house # 1, and outputs video and music material data Din obtained by recording a live by an artist Mi. In this example, it is assumed that the operator inLive House # 1 is unmanned. The information recording and transmitting device # L1 of thelive house # 1 constitutes an on-site unmanned controller, and is connected to a broadband line such as theInternet 20A. The information recording and transmitting device # L1 operates to remotely control the microphone and the camera.
[0090]
In thislive house # 1, four remotely controllable cameras # C1 to # C4 are arranged. The cameras # C1 to # C4 are arranged at positions where an image of the artist Mi is captured. This is to allow the user Uj to select and reproduce a video from a desired angle at the time of reproduction. These cameras # C1 to # C4 acquire live video data for 4CHs related to live video captured from various angles.
[0091]
In the live house, 16 microphones # M1 to # M16 that can be remotely controlled are arranged. Each of the microphones # M1 to # M16 is arranged near the sound source. This is to allow the user Uj to select and reproduce a desired sound source during reproduction. With these microphones # M1 to # M16, audio and music data for 16 channels relating to the live music recorded from various sound sources are recorded.
[0092]
The live video captured by these cameras # C1 to # C4 and the live music recorded by the microphones # M1 to # M16 are converted into streaming-type video and music material data Din, and are stored in a large-capacity server for archiving, for example. , Are once taken into the local file F1 shown in FIG. Thereafter, the video and music material data Din is sent to thecapacitor distribution site 102 at the editing location.
[0093]
The distribution source, which is theinformation provider 4, forms thecontent distribution site 102. Thecontent distribution site 102 includes adistribution server 15, anartist management server 16, an automatic editing andprocessing unit 17, and acontent server 18 that constitute the information editing anddistribution device 1. Thiscontent distribution site 102 is assumed to be located in Japan, which is the business place of theinformation provider 4.
[0094]
The above-described information recording and transmitting device # L1 of thelive house # 1 and the automaticediting processing unit 17 of thecontent distribution site 102 are connected via theInternet 20A. Theinformation provider 4 distributes four cameras # C1 to # C4 installed in thelive house # 1 and 16 microphones # M1 to # M16 by remote control at the request of the artist Mi. Done. In thesystem 100, when recording live video or the like in thelive house # 1, the artist receives a request for a desired video angle, audio editing, or the like from the artist to the distribution source.
[0095]
In thecontent distribution site 102, the video and music material data Din is input to the automatic editing andprocessing unit 17 from the information recording and transmitting device # L1. The automaticediting processing section 17 performs information editing processing on the video and music material data Din read from the local file F1. Of course, distribution software that satisfies the artist Mi and the user Uj may be edited and produced by an operator using a personal computer (PC) or the like.
[0096]
Acontent server 18 is connected to the automaticediting processing section 17 and stores live video and music data (video and music software) Dout after the editing processing. In thesystem 100, the consent of the artist Mi is acquired for the live video and music data Dout that have undergone the information editing process, and the distribution to the user Uj is OK with the approval of the artist. The live video and music data Dout after obtaining the consent of the artist Mi are distributed to the user Uj.
[0097]
Thecontent distribution site 102 is provided with anartist management server 16 for managing an artist Mi, managing a use condition setting electronic contract, and the like. The artist information managed by theartist management server 16 is distributed to the user Uj as needed.
[0098]
Thedistribution server 15 is connected to thecontent server 18 and stores live video and music data Dout for which distribution permission has been issued by the artist Mi. Thedistribution server 15 is connected to the information processing device of theuser Uj community 103 through theInternet 20B, and distributes live video and music data Dout after distribution is permitted.
[0099]
Thedistribution server 15 performs a copy prohibition process on the live video and music data Dout in order to prevent unauthorized duplication of the live video and music data Dout. For example, the live video and music data Dout are subjected to scramble processing that is difficult to copy, and the data after the scramble processing is distributed from thedistribution server 15 to the information processing device of the user Uj in a streaming format.
[0100]
In thedistribution server 15, a plurality of live video and music data Dout recorded in onelive house # 1 are multiplexed and distributed. The live video and music data Dout are multiplexed and distributed so that the live video and music data Dout can be selected as desired when the live video and music data Dout are reproduced at the viewer's home. That's because For example, it becomes possible to select and play back a live video at a desired angle, or to play back live music by selecting a desired sound source. In this way, the user Uj can enjoy the realism of thelive house # 1 while staying at home.
[0101]
FIG. 5 is a diagram showing a distribution example of contents, money, and the like in the high-quality musiclive distribution system 100 with video.
In the business A shown in FIG. 5, system software for operating the high-quality musiclive distribution system 100 is created by using a business audiovisual editing device (pro AV device) 201 or the like. This system software is delivered to theinformation provider 4 along a solid line path (1) shown in FIG. 5, and the business A collects the payment from theinformation provider 4 along a dotted line (12).
[0102]
Theinformation provider 4 includes aweb 5 for artists, aweb 6 for users Uj, aserver 15 ′, an automatic editing andprocessing unit 17, and a system maintenance unit (hereinafter referred to as a system maintenance unit) 19. The above system software is managed by thesystem maintenance unit 19. In this example, theinformation provider 4 sells the information recording and transmitting device #Li and other attached systems to thelive house # 1 through the route (2). Of course, the present invention is not limited to this, and the information recording and transmitting device #Li and the like may be provided by lending. At this time, a recording set is dispatched until the equipment set and the unmanned operation become possible.
[0103]
In thelive house # 1, "copyright", which is the right of the performer, is generated each time the artist Mi performs a live. The video and music material data Din relating to live video and music by the artist Mi held at thelive house # 1 becomes recorded content, and is routed (3) from the information recording and transmitting device # L1 to the server 15 'of theinformation provider 4. Transferred to In theinformation provider 4, the recorded content is transferred from the server 15 'to the automatic editing /processing unit 17 via the route (4).
[0104]
In the automaticediting processing section 17, the recorded contents are edited and processed for information. The recorded content after the information editing and processing is converted into a complete packet content and transferred to the server 15 'via the path (5). The complete package content is confirmed by the artist Mi through the path (15), theWEB 5, and the path (16). The artist information after the confirmation is returned to theinformation provider 4 through the route (16), theWEB 5, and the route (15). The complete package content is made ready for distribution.
[0105]
On the other hand, in the business B shown in FIG. 5, a dedicated device (PC / CE device) such as a personal computer or an Internet television is sold from the electronic device manufacturer to the user Uj through the route (7). Further, the software provider sells dedicated information processing software to the user Uj. The user Uj pays the business B for the route (8). These dedicated devices and software may take the form provided by lending.
[0106]
In the charging process in the high-quality sound livemusic distribution system 100 with video, first, complete package content is distributed from theWEB 6 for the user Uj of theinformation provider 4 through theInternet 20B of the route (9). As a benefit of the user Uj, an unknown artist Mi that suits his / her preference can be found. Since live video / music distribution software is edited and processed, live video and the like can be easily enjoyed in an optimal environment.
[0107]
For this service, each user Uj pays a service fee to use the live video and music data Dout to theinformation provider 4. For example, the user Uj pays a service fee to the ISP (Internet service connection)operator 104 via the route (10). This service fee includes a usage fee for the complete package content. TheISP company 104 pays the content providing fee after deducting the line connection fee to theinformation provider 4 through the route (11). With regard to the profit as the distribution source, the best editing equipment, a large-capacity server, excellent operators, mixers, and the like can be provided under the burden of the artist Mi and the user Uj. Also, the distribution source can find artists Mi around the world.
[0108]
Theinformation provider 4 distributes profits from the content providing fee earned from the user Uj to the artist Mi and the live house owner. For example, the artist Mi is paid a performance fee, and the live house owner is paid a rental fee. That is, the surplus obtained by removing the system software price from the content providing fee is distributed to the owner of thelive house # 1 via the route (13). The owner of thelive house # 1 distributes the profit after subtracting the rent and the like to the artist Mi.
[0109]
In this case, the artist Mi can move from one place to another if only the recording terminals such as the cameras # C1 to # C4 and the microphones # M1 to # M16 are provided in eachlive house # 1. Without having to, you can play on your home ground. Therefore, there is no time and space restriction, and the cost burden on the editing equipment is reduced. Further, the artist Mi can select a favoritecontent distribution site 102 or the like from a plurality of distribution sources (information providers 4). With thissystem 100, it is possible to propose one's opinion for editing live video / audio data while having a conversation with a distributor.
[0110]
[Information recording and sending device]
FIG. 6 is a block diagram showing an example of the internal configuration of the information recording and transmitting device # L1 as an embodiment according to the present invention.
The information recording / sending device # L1 shown in FIG. 6 constitutes the high-quality musiclive distribution system 100 with video, and is a device that records and outputs live video and music data Dout based on a live performance by the artist Mi. The information recording and transmitting device # L1 is used by connecting to the information editing and distributingdevice 1.
[0111]
The information recording and transmitting device # L1 includes a recording device main body 21, adrive control unit 22, a communication modem (router) 23, a LAN (Local Area Network) 24, and the like. In the recording device main body 21, a monitor mixer (MIX) 213, acontrol port 214, a central processing unit (hereinafter, referred to as CPU) 215, a hard disk (hereinafter, referred to as HDD) 216, adata streamer 217, a LAN controller (LANC) 218, a monitor It has a switch (SW) 220, 16audio processing units 211, twobus bridges 212 and 219, and fourvideo processing units 221.
[0112]
In this example, 16 microphones # M1 to # M16 are connected to the recording device main body 21. For example, the microphone # M1 is an example of a sound collection unit that can be remotely controlled, and is connected to theaudio processing unit 211 for # M1. The microphone # M1 is adapted to record live music by the artist Mi. Theaudio processing unit 211 includes anamplifier 31, a limiter / compressor (L / C) 32, an analog / digital converter (ADC; hereinafter, referred to as an A / D converter) 33, and a volume.
[0113]
For example, sound recorded by the microphone # M1 or the like is input to theamplifier 31. In this example, the gain information of the amplifier and the parameter of thelimiter compressor 32 are received and reflected by the command from the content distribution site (editing room) 102 via theInternet 20A → the control port.
[0114]
Also, a MIX signal is created for audio monitoring at thecontent distribution site 102 and transmitted to thecontent distribution site 102 in real time. Information on which channel is to be mixed as a monitor is issued by the operator of thecontent distribution site 102, and mixing is performed based on the instruction.
[0115]
A microphone # M1 is connected to theamplifier 31 to amplify and output the recorded live music signal. The gain of theamplifier 31 is adjusted by the volume 34 so as to vary the live music signal output. A limiter /compressor 32 is connected to theamplifier 31 to limit and compress the live music signal output.
[0116]
Acontrol port 214 is connected to the limiter /compressor 32 and the volume 34 so as to adjust the gain (Gain) of theamplifier 31 by controlling the amount of movement of the volume 34. Thecontrol port 214 sets parameters for the limiter /compressor 32 to limit the output of the live music signal and to compress the output.
[0117]
An A / D converter 33 is connected to the limiter /compressor 32 to convert the limited and compressed live music signal from analog to digital. Thereby, digital live music data recorded by the microphone # M1 can be output. Similaraudio processing units 211 are provided for the other microphones # M2 to # M16, and digital live music data recorded by the microphones # M2 to # M16 can be obtained.
[0118]
Thebus bridge 212 and the monitor MIX 213 are connected to the 16audio processing units 211 described above. In the monitor MIX 213, the live music data of 16CH is mixed into 2, 4, 8CH and the like in thebus bridge 212. For example, a mixing control signal is output from thecontrol port 214 to the monitor MIX 213, and 16CH live music data is mixed based on the mixing control signal.
[0119]
On the other hand, the four cameras # C1 to # C4 are connected to the recording device main body 21. For example, the camera # C1 is an example of a photographing unit that can be remotely controlled, and is connected to thevideo processing unit 221 for # C1. The camera # C1 is adapted to record live video by the artist Mi. Thevideo processing unit 221 includes an A /D converter 35, aframe synchronization circuit 36, and acompression circuit 37.
[0120]
The camera # C1 is connected to the A /D converter 35, and performs analog / digital conversion of a captured live video signal (Video). Aframe synchronization circuit 36 is connected to the A /D converter 35, and performs frame synchronization processing of a live video signal. Acompression circuit 37 is connected to theframe synchronization circuit 36, and the live video signal after the frame synchronization processing is compressed. The live video signal after compression becomes live video data. Thus, digital live video data captured by camera # C1 can be output. Similarvideo processing units 221 are prepared for the other cameras # C2 to # C4, and digital live video data captured by the cameras # C2 to # C4 can be obtained.
[0121]
Thebus bridge 219 and themonitor switch 220 are connected to the fourvideo processing units 221 described above. In themonitor switch 220, live video data of 4CH is switched in thebus bridge 219. Theinternal bus 222 is connected to thebus bridge 219. TheCPU 215, theHDD 216, thedata streamer 217, theLAN controller 218, the I /O port 223, thecontrol port 214, and the like are connected to theinternal bus 222.
[0122]
TheHDD 216 constitutes the local file F1 and the like, and theHDD 216 stores live video data transferred through thebus bridge 219. All the channels are recorded in theHDD 216 without compressing the audio data, but may be compressed in any format. The time code is attached to the audio and video data, and the image and the audio are synchronized at the time of editing at thecontent distribution site 102.
[0123]
In thedata streamer 217, live video data and live audio data are converted into streaming music data Din. TheLAN controller 218 is connected to theLAN 24. TheLAN controller 218 takes in the remote control information D1 from theLAN 24 and sends out the video / music material data Din to theLAN 24.
[0124]
LAN 24 is connected tocommunication modem 23. Thecommunication modem 23 is connected to theInternet 20A or the like, receives the remote control information D1 from thecontent distribution site 102, transmits monitor video data to thecontent distribution site 102 in real time, or converts the streaming format converted by thedata streamer 217. Is transmitted to thecontent distribution site 102. The monitor video data is for monitoring a video at thecontent distribution site 102.
[0125]
Thedrive control unit 22 is connected to the I /O port 223 described above. Thedrive control unit 22 and theCPU 215 constitute an information output control unit. TheCPU 215 converts the live video data captured by the four cameras # C1 to # C4 and the live music data recorded by the 16 microphones # M1 to # M16 into video and music material data Din, and converts the content through theInternet 20A or the like. TheHDD 216 and thedata streamer 217 are controlled so as to output to thedistribution site 102.
[0126]
Under the control of theCPU 215, thedrive control unit 22 receives the remote control information D1 from the information editing anddistribution device 1 shown in FIG. 1 via thecommunication modem 23 and theLAN controller 218 shown in FIG. Then, for example, upon receiving a command from thecontent distribution site 102, thedrive control unit 22 performs remote control such as pan, tilt, and zoom processing of the four cameras # C1 to C4 via the camera LAN, and performs control by the artist Mi. Live video and music are automatically recorded. Thedrive control unit 22 remotely controls 16 microphones # M1 to # M16 in addition to the cameras # C1 to # C4.
[0127]
7 and 8 are a three-dimensional view and a plan view, respectively, showing arrangement examples (front and top) of a recording device for live video and music information. In this embodiment, a case where video and audio are recorded in thelive house # 1 and a case where four cameras # C1 to # C4 and 16 microphones # M1 to # M16 are used will be described as an example.
[0128]
When thestage 105 of thelive house # 1 shown in FIG. 7 is stereoscopically viewed, arail 106 is provided on a ceiling portion on thestage 105. One movable camera # C1 with a zoom / pan tilter is attached to therail 106. The camera # C1, for example, can move left and right under the control of therail 16, and shoots an artist performing vocals or performing solo.
[0129]
A camera # C2 is provided above the left wall of thestage 105, and a camera # C3 is provided above the right wall thereof. Each of the cameras # C2 and # C3 has a zoom / pan tilter, and is fixed to, for example, left and right walls slightly higher than the customer seat. The cameras # C2 and # C3 are capable of shooting various aspects of the artist performing live performance from the left and right.
[0130]
As the camera # C4, for example, one having a wireless remote robot function capable of moving and traveling on thestage 105 is used. When the player becomes the solo part of the player, the camera # C4 zooms in on how to handle (play) the instrument. Of course, the camera # C4 is moved to a position where no image is taken by the other cameras # C1 to # C3. The operation of the four cameras, the mobile camera and the fixed camera arranged in this manner, is performed by the information editing / distributingapparatus 1 of the distribution source through theInternet 20A. Therefore, an operator in thelive house # 1 becomes unnecessary.
[0131]
Further, 16 microphones # M1 to # M16 are arranged on the ceiling of thelive house # 1, on thestage 105, or the like. For example, on thestage 105, one microphone # M1 is arranged for recording sound of a piano, one microphone # M2 is arranged for recording sound of a keyboard, and one microphone # M2 is arranged for recording sound of a bass amplifier. Microphone # M3 is arranged, and four microphones # M4 to # M7 (kick; # M4, snare hi-hat; # M5, cymbal (top crash); # M6, floor tom; # M7 for recording drums sound ) Are arranged, one microphone # M8 is arranged for recording sound of a guitar amplifier, and one microphone # M9 is arranged for recording sound of a wind instrument.
[0132]
Also, four microphones # M9 to # M12 are arranged in the center of the ceiling. Two of # M9 and # M10 are for forward recording, and two of # M11 and # M12 are for rear echo component recording. The # M11 and # M12 can also record the cheers on the seat side shown in FIG. Further, one microphone # M13 for spots is arranged on the left and right sides of the ceiling, and one microphone # M14 is arranged for vocals. One microphone # M15 for recording the left end of the ceiling is arranged near the camera # C2 on the left side wall, and one microphone # M16 for recording the right end of the ceiling is arranged near the camera # C3 on the right side wall. Is done.
[0133]
As such a total of 16 microphones # M1 to # M16, in particular, microphones # M1 to # M6 arranged near each musical instrument are of a fixed or movable type. Directional microphones are used for the two microphones # M15 and # M16 at the left and right ends of the ceiling. These microphones are mounted on a pan tilter so that the microphones can be pointed in the sound pickup direction and the zoom function can be operated.
[0134]
It is preferable that the four microphones # M9 to # M12 at the center of the ceiling can be attached to the pan tilter to change the direction. In this example, if the four microphones # M9 to # M12 are attached to the camera # C1, the microphones are moved together with the camera # C1 by therails 106 provided on the ceiling in the left-right direction, so that the recording width is increased. The operation of the 16 microphones # M1 to # M16 arranged in this way is performed by the information editing / distributingapparatus 1 of the distribution source through theInternet 20A. Therefore, an operator in thelive house # 1 becomes unnecessary.
[0135]
Subsequently, a processing example of the information recording and transmitting device # L1 in thelive house # 1 will be described.
In this embodiment, it is assumed that the information recording and transmitting device # L1 is connected to the information editing and distributingdevice 1 of thesystem 100 for distributing live video and music data Dout. In this example, four cameras # C1 to # C4 and sixteen microphones # M1 to # M16 are arranged as described with reference to FIGS. In this example, the description will be made separately for the case of adjustment in the information recording and transmitting apparatus # L1 and the case of recording live video and audio data.
[0136]
FIG. 9 is a flowchart showing an example of automatic adjustment of the information recording and transmitting device. 10A and 10B are flowcharts showing an example of automatic recording by #Li in the information recording and transmitting device. In this example, the rehearsal video is photographed, the rehearsal audio is recorded, the information recording / sending device is adjusted, and then the actual recording is performed.
[0137]
Based on this, for example, in step B1 of the flowchart shown in FIG. 9, thedrive control unit 22 receives the remote control information D1 from the information editing / distributingdevice 1 of the content distribution site, and in step B2, the four cameras # C1 To # C4 and 16 microphones # M1 to # M16 are remotely controlled. At this time, the four cameras # C1 to # C4 are configured to remotely capture an image relating to rehearsal by remote control by thedrive control unit 22. The rehearsal video is shot, for example, in a DV format having a transfer rate of about 25 Mbps.
[0138]
Further, the rehearsal video captured by the camera # C1 is output to the A /D converter 35 of thevideo processing unit 221 in step E1 of the flowchart shown in FIG. 10B, for example. The A /D converter 35 converts the rehearsal video signal (Video) captured by the camera # C1 from analog to digital. The rehearsal video signal after the A / D conversion is output from the A /D converter 35 to theframe synchronization circuit 36. Theframe synchronization circuit 36 performs a frame synchronization process on the rehearsal video signal in step E2. The rehearsal video signal after the frame synchronization processing is output from theframe synchronization circuit 36 to thecompression circuit 37. Thecompression circuit 37 compresses the rehearsal video signal after the frame synchronization processing in step E3. The rehearsal video signal after compression becomes rehearsal video data.
[0139]
Thus, digital rehearsal video data captured by camera # C1 can be output. Similarvideo processing units 221 are prepared for the other cameras # C2 to # C4, and digital rehearsal video data captured by the cameras # C2 to # C4 can be obtained. The rehearsal video data is stored in theHDD 216 constituting the local file F1 through thebus bridge 219 in step E4. Thereby, the rehearsal video can be automatically recorded.
[0140]
Further, the 16 microphones # M1 to # M16 remotely record the rehearsal music by the artist Mi by remote control by thedrive control unit 22 in step B2 of the flowchart shown in FIG. 10A. At this time, according to a command from the content distribution site (editing room) 102, the gain information of the amplifier and the parameter of thelimiter compressor 32 are received and reflected via theInternet 20A → the control port. For example, rehearsal music is recorded on 16 channels at 24 bits and 96 kHz.
[0141]
Further, a MIX signal is created for audio monitoring at thecontent distribution site 102 and transmitted to thecontent distribution site 102 in real time. Information on which channel is to be mixed as a monitor is issued by the operator of thecontent distribution site 102, and mixing is performed based on the instruction.
[0142]
For example, rehearsal music recorded by the microphone # M1 is input to theaudio processing unit 211 in step G1 of the flowchart shown in FIG. 10B. Theamplifier 31 of theaudio processing unit 211 for # M1 amplifies and outputs the recorded rehearsal music signal. The gain of theamplifier 31 is adjusted by the volume 34 so as to vary the output of the rehearsal music signal. At this time, thecontrol port 214 controls the amount of movement of the volume 34 to adjust the gain (Gain) of theamplifier 31.
[0143]
The rehearsal music signal whose volume has been adjusted here is output from theamplifier 31 to the limiter /compressor 32. In step G2, the limiter /compressor 32 limits and compresses the rehearsal music signal output. At this time, thecontrol port 214 sets parameters in the limiter /compressor 32 to limit the output of the rehearsal music signal and to compress the output.
[0144]
The rehearsal music signal after the compression restriction is output from the limiter /compressor 32 to the A / D converter 33 in step G3, and the A / D converter 33 performs analog / digital conversion. By this A / D conversion, digital rehearsal music data recorded by the microphone # M1 can be output. A similarsound processing unit 211 is prepared for the other microphones # M2 to # M16, and digital rehearsal music data recorded by the microphones # M2 to # M16 can be obtained.
[0145]
At this time, in the monitor MIX 213, the rehearsal music data of 16CH is mixed into 2, 4, 8CH and the like in thebus bridge 212. For example, a mixing control signal is output from thecontrol port 214 to the monitor MIX 213, and rehearsal music data of 16CH is mixed based on the mixing control signal. The rehearsal video data for 4 video images and the rehearsal audio data for 16 audio channels are temporarily stored in theHDD 216 constituting the large-capacity local file F1 in step G4. Thereby, rehearsal music can be automatically recorded.
[0146]
The automatically recorded rehearsal video and audio data are read from theHDD 216 and output to thedata streamer 217 in step B3 of the flowchart shown in FIG. In thedata streamer 217, under the control of theCPU 215, the rehearsal video data and the rehearsal audio data are converted into streaming-type video / music material data Din, and a time code is further added.
[0147]
The video and music material data Din to which the time code is added is controlled by theLAN controller 218 and output to thecommunication modem 23 through theLAN 24. Thecommunication modem 23 transmits the rehearsal video / music material data Din converted by thedata streamer 217 in step B4 to the information editing / distributingapparatus 1 of thecontent distribution site 102 via theInternet 20A or the like.
[0148]
Thereafter, the process proceeds to step B5 to determine the end. If not all of the video and music material data Din has been transmitted to the information editing anddistribution device 1, the process returns to step B1 to repeat the above-described processing. When the entire video and music material data Din has been transmitted to the information editing anddistribution device 1, the transmission process of the rehearsal video and audio data is terminated.
[0149]
[Example of recording live video and audio data]
10A and 10B for rehearsal recording will be used again for actual recording. In this example, the actual recording is performed using the information recording and transmitting device #Li adjusted by recording the rehearsal video and the rehearsal audio.
[0150]
Based on this, for example, in step B1 of the flowchart shown in FIG. 9, thedrive control unit 22 receives the remote control information D1 from the information editing anddistribution device 1 of the content distribution site, and in step B2, the four cameras # C1 to # C4 and 16 microphones # M1 to # M16 are remotely controlled. For example, the four cameras # C1 to # C4 are configured to remotely shoot a live video image of the artist Mi by remote control by thedrive control unit 22. The live video is shot, for example, in a DV format having a transfer rate of about 25 Mbps.
[0151]
At this time, the live video of the artist Mi captured by the camera # C1 is output to the A /D converter 35 of thevideo processing unit 221 in step E1 of the flowchart shown in FIG. 10B. The A /D converter 35 performs analog / digital conversion of a live video signal (Video) captured by the camera # C1. The live video signal after the A / D conversion is output from the A /D converter 35 to theframe synchronization circuit 36. Theframe synchronization circuit 36 performs a frame synchronization process on the live video signal in step E2. The live video signal after the frame synchronization processing is output from theframe synchronization circuit 36 to thecompression circuit 37. Thecompression circuit 37 compresses the live video signal after the frame synchronization processing in step E3. The live video signal after compression becomes live video data.
[0152]
From thiscompression circuit 37, digital live video data captured by the camera # C1 can be output. Similarvideo processing units 221 are prepared for the other cameras # C2 to # C4, and digital live video data captured by the cameras # C2 to # C4 can be obtained. The live video data is stored in theHDD 216 through thebus bridge 219 in step E4. Thereby, it is possible to automatically record the live video by the artist Mi.
[0153]
The 16 microphones # M1 to # M16 remotely record live music by the artist Mi by remote control by thedrive control unit 22 in step B2 of the flowchart shown in FIG. 10A. At this time, according to a command from the content distribution site (editing room) 102, the gain information of the amplifier and the parameter of thelimiter compressor 32 are received and reflected via theInternet 20A → the control port. For example, live music is recorded on 16 channels at 24 bits and 96 kHz.
[0154]
Also, a MIX signal is created for audio monitoring at thecontent distribution site 102 and transmitted to thecontent distribution site 102 in real time. Information on which channel is to be mixed as a monitor is issued by the operator of thecontent distribution site 102, and mixing is performed based on the instruction.
[0155]
For example, live music by the artist Mi recorded by the microphone # M1 is input to theaudio processing unit 211 in step G1 of the flowchart shown in FIG. 10B. Theamplifier 31 of theaudio processing unit 211 for # M1 amplifies and outputs the recorded live music signal. The gain of theamplifier 31 is adjusted by the volume 34 so as to vary the live music signal output. At this time, thecontrol port 214 controls the amount of movement of the volume 34 to adjust the gain (Gain) of theamplifier 31.
[0156]
The live music signal whose volume has been adjusted here is output from theamplifier 31 to the limiter /compressor 32. In step G2, the limiter /compressor 32 limits and compresses the live music signal output. At this time, thecontrol port 214 sets the parameters of the limiter /compressor 32 to limit the output of the live music signal and to compress it.
[0157]
The live music signal after the compression restriction is output from the limiter /compressor 32 to the A / D converter 33 in step G3, and the A / D converter 33 performs analog / digital conversion. By this A / D conversion, digital live music data recorded by the microphone # M1 can be output. Similaraudio processing units 211 are provided for the other microphones # M2 to # M16, and digital live music data recorded by the microphones # M2 to # M16 can be obtained.
[0158]
At this time, in the monitor MIX 213, the live music data of 16CH is mixed into 2, 4, 8CH and the like in thebus bridge 212. For example, a mixing control signal is output from thecontrol port 214 to the monitor MIX 213, and 16CH live music data is mixed based on the mixing control signal.
[0159]
The live video data for 4CH video and the live audio data for 16CH audio are archived in theHDD 216. This live audio data is recorded on theHDD 216 without compression, but may be compressed in any format. Thus, live music by the artist Mi can be automatically recorded.
[0160]
The automatically recorded live video and audio data are read from theHDD 216 and output to thedata streamer 217 in step B3 of the flowchart shown in FIG. In thedata streamer 217, under the control of theCPU 215, the live video data and the live audio data are converted into streaming music data Din, and a time code is further added. This is to synchronize the image and the audio at the time of editing in thecontent distribution site 102.
[0161]
The video and music material data Din to which the time code is added is controlled by theLAN controller 218 and output to thecommunication modem 23 through theLAN 24. Thecommunication modem 23 transmits the video and music material data Din converted by thedata streamer 217 in step B4 to the information editing anddistribution device 1 of thecontent distribution site 102 via theInternet 20A or the like.
[0162]
Thereafter, the process proceeds to step B5 to determine the end. If not all of the video and music material data Din has been transmitted to the information editing anddistribution device 1, the process returns to step B1 to repeat the above-described processing. When all of the video and music material data Din has been transmitted to the information editing anddistribution device 1, the transmission processing of the live video and audio data ends.
[0163]
As described above, according to the information recording / sending device # L1 according to the present invention, when performing recording and outputting processing of live video data and live audio data based on a live performance by the artist Mi, the information editing /delivery device 1 of the content distribution site 102 Adrive control unit 22 that receives the remote control information D1 and remotely controls the four cameras # C1 to # C4 and the sixteen microphones # M1 to # M16 is provided.
[0164]
Therefore, the operation of the four cameras # C1 to # C4 and the sixteen microphones # M1 to # M16 and the adjustment of the photographing / recording level can be set without any manual operation. An unmanned recording operator can be achieved. Thereby, it is possible to contribute to the construction of a high-quality musiclive distribution system 100 with video that distributes live video and audio data by the artist Mi to the whole world.
[0165]
[Information editing and distribution device]
FIG. 11 is a block diagram showing a configuration example of the information editing anddistribution device 1 as an embodiment according to the present invention. FIG. 12 is a diagram showing an example of a remote operation in the information editing anddistribution device 1.
[0166]
In this embodiment, the information editing and distributingapparatus 1 unifies the video and music material data Din recorded by the information recording and transmitting apparatus #Li and centrally manages the copyright of the artist Mi, and also performs live video and music data Dout by the artist Mi. Is distributed worldwide or in Japan.
[0167]
The information editing / distributingapparatus 1 shown in FIG. 11 includes a video image material data Din with a time code input from each of the information recording / sending apparatuses #Li of the video-equipped high-sound-quality musiclive distribution system 100, and a live video and an information editing process. The music data Dout is distributed to the user Uj. The information editing and distributingapparatus 1 is located in one country or country that becomes thecontent distribution site 102. The information editing anddistribution device 1 includes a personal computer 400 and adistribution server 15.
[0168]
The personal computer 400 has amaterial file 12, an information editing editor 41, amonitor 42, a keyboard 43, adata transmission unit 44 for remote operation, acontrol device 45, a mouse 46, and a microphone 47. The keyboard 43 and the mouse 46 are examples of input means, and are operated so as to input operation information including information for remotely controlling the information recording and transmitting device #Li. The microphone 47 is used when mixing the voice of the editor with live voice data or the like.
[0169]
Themonitor 42 displays a setting screen for remotely controlling the information recording and transmitting device #Li. For example, as shown in FIG. 12, the monitor setting screen P1 is divided into a camera video display area P11 and a microphone adjustment display area P12. In the camera image display area P11, the photographic images of the four cameras # C1 to # C4 are displayed, and the joysticks for changing the directions of the cameras # C1 to # C4 and performing zoom, pan / tilt processing, and the like. A key 421 is displayed. Thejoystick key 421 is operated, for example, up, down, left and right (T-W) by a mouse pointer.
[0170]
In the microphone adjustment display area P12, the volume adjustment images of the 16 microphones # M1 to # M16 are displayed, and above this area, the input levels of the microphones # M1 to # M16 are displayed. The level display area P13 is assigned. Below this area P13, aslide key 422 for volume adjustment is displayed for each of the microphones # M1 to # M16. For these 16 microphones # M13 to # M16,joystick keys 423 for adjusting the recording direction are displayed. Theslide key 422 is operated up and down (T-W) by a mouse pointer, for example, and thejoystick key 423 is operated up and down and left and right by a mouse pointer.
[0171]
As a result, the editor of thecontent distribution site 102 operates the keyboard 43 and the mouse 46 while viewing the display screen of themonitor 42 to connect to the information recording and transmitting device #Li of the remotelive house # 1. , Four cameras # C1 to # C4 and 16 microphones # M1 to # M16.
[0172]
Thematerial file 12 shown in FIG. 11 is a memory for storing the video and music material data Din input from the information recording and transmitting device #Li. Thematerial file 12 includes avideo material file 12A and an audio material file. Each is composed of a hard disk (HDD) or the like. The video and music material data Din stored in thematerial file 12 is output to an information editing editor 41 which is an example of information editing means. The information editing editor 41 has an editedfile 13 and acomplete packet file 14. In the information editing editor 41, the video and music material data Din is input from each of the information recording and transmitting devices #Li, and the information is edited.
[0173]
For example, the information editing editor 41 reads from thematerial file 12 the video and music material data Din transferred from the information recording and transmitting device #Li. The information editing editor 41 processes the video and music material data Din read from thematerial file 12, and edits the video and music material data Din so as to have the number of channels and the number of camera angles determined by the option form distributed to the user Uj. It is done as follows.
[0174]
In the audio editing, the sound quality is adjusted by the information editing editor 41, and a normal mixdown operation of a multi-track source is performed. For example, music material data related to live music is mixed down into a stereo format or a 5.1 surround format. Further, the video material data related to the live video is also edited using general image editing software or the like, and finally the live video data and the live music data are synchronized by a time code or the like. The edited video and music data are temporarily stored in the editedfile 13. In this example, live audio data recorded at 24 bits, 96 kHz, and 16 channels are mixed down to 24 bits, 96 kHz, and 8 channels by a digital mixer (not shown).
[0175]
Furthermore, the information editing editor 41 encodes the edited video and audio data at the authoring stage, combines them into one file, and converts them into various formats that can be distributed on theInternet 20B. For example, live video data for 4 channels captured in a DV format with a transfer rate of about 25 Mbps is converted to an MPEG2 standard (about 4 Mbps) or a high image quality (about 6 Mbps) with a low transfer rate. The time codes of the edited 4CH video data and 8CH audio data are matched. The encoded video and music data are temporarily stored in thecomplete packet file 14.
[0176]
The transfer rate of both the high quality 4CH live video data and the 8CH live audio data is about 40 Mbps. This transfer rate is a capacity that can be sufficiently distributed if the B-FLET'S, 100 Mbps of the telecommunications carrier (NTT) actually meets the standard value. The edited 4CH video and 8CH audio data together with the time code are archived in thedelivery server 15 for transmission.
[0177]
The information editing editor 41 is connected to acontrol device 45, which is an example of an edit distribution control unit. Thecontrol device 45 is connected to thedistribution server 15. Thecontrol device 45 controls input and output of the information editing editor and thedistribution server 15 based on operation information from the keyboard 43 and the mouse 46. Thedistribution server 15 distributes the live video and music data Dout edited by the information editing editor 41 to the user Uj.
[0178]
Adata transmission unit 44 including a communication modem or the like is connected to thecontrol device 45. Thecontrol device 45 transmits the remote control information D1 to the information recording and transmitting device #Li through thedata transmitting unit 44, and remotely controls the information recording and transmitting device #Li so as to automatically record live video and music by the artist Mi. Done. For example, thecontrol device 45 transmits the remote control information D1 to the information recording / sending device #Li, and four cameras # C1 to # C4 and 16 microphones # M1 so as to automatically record live video and music by the artist Mi. # M16 is remotely controlled.
[0179]
In addition, thecontrol device 45 obtains the consent of the artist Mi with respect to the live video and the music data Dout processed by the information editing editor 41, and distributes the live video and the music data Dout after obtaining the consent of the artist Mi. Control is performed so as to be delivered from theserver 15 to the user Uj. For example, thecontrol device 45 controls thedistribution server 15 to perform the copy prohibition process on the live video and music data Dout. For example, live video and music data Dout are distributed from thedistribution server 15 to the information processing device #Pj of the user Uj in a data streaming format that is difficult to copy. This makes it possible to prevent illegal duplication of live video and music data Dout.
[0180]
In this example, thecontrol device 45 controls thedistribution server 15 to multiplex and distribute a plurality of live video and music data Dout related to one live house #i. By this data distribution, the live video and music data Dout related to one live house #i can be arbitrarily selected by the information processing device of the user Uj. In addition, the user Uj can increase the degree of freedom in selecting live video and music data Dout.
[0181]
Subsequently, a processing example in the information editing anddistribution device 1 will be described. In this example, the information editing anddistribution apparatus 1 will be described by dividing into three examples: a remote control example when recording information, a processing example when editing information, and a processing example when distributing information.
[0182]
With regard to the distribution form of this embodiment, it is assumed that downloading to the hard disk of the information processing device of the user Uj is performed, and a streaming distribution form in which the risk of data copying is small is assumed. An example will be given below of a case where an on-demand broadcast is performed.
[0183]
[Example of remote control when recording information]
FIG. 13 is a flowchart showing an example of remote control at the time of recording information in the information editing anddistribution device 1.
In this embodiment, it is assumed that the information recording and transmitting device #Li disposed in the live house #I or the like and the information editing and distributingdevice 1 disposed in thecontent distribution site 102 are connected via theInternet 20A.
[0184]
With this as a control condition, operation information including information for remotely controlling the information recording and transmitting device #Li by operating the keyboard 43 and the mouse 46 in step Q1 of the flowchart shown in FIG. 13 is input. At this time, a monitor setting screen in which the camera image display area and the microphone adjustment display area are divided as shown in FIG. 12 is displayed on themonitor 42 shown in FIG.
[0185]
For example, when the directions of the captured images of the four cameras # C1 to # C4 displayed in the camera image display area are changed in step Q11, zooming, pan / tilt processing, and the like are performed, in step Q12, By moving the mouse pointer on the setting screen and operating thejoystick key 421, the camera # C1 is adjusted. For example, when thejoystick key 421 for # C1 is operated up, down, left, and right (TW), the image that has been zoomed by the camera # C1 is displayed.
[0186]
When the volume of the 16 microphones # M1 to # M16 displayed in the microphone adjustment display area is adjusted in step Q21, each microphone is checked in step Q22 while confirming the input level displayed above this area. The gains of # M1 to # M16 are adjusted. For example, when the # M1 slide key 422 displayed below this area is operated, for example, in the upward direction (T direction) by a mouse pointer, the input level of the microphone # M1 is displayed so as to increase. The input level of the microphone # M1 connected to the information recording and transmitting device #Li is increased.
[0187]
Thereafter, the process proceeds to step Q3 to create the remote control information D1. The remote control information D1 is created based on the adjustment values obtained in steps Q11, Q12, Q21 and Q22. Such remote control information D1 is transmitted to the information recording and transmitting device #Li through thedata transmitting unit 44 under the control of thecontrol device 45 in step Q4, and is recorded in such a manner that the live video and music by the artist Mi are automatically recorded. The recording / sending device #Li is remotely controlled.
[0188]
As a result, the editor of thecontent distribution site 102 operates the keyboard 43 and the mouse 46 while viewing the display screen of themonitor 42 to connect to the information recording and transmitting device #Li of the remotelive house # 1. , Four cameras # C1 to # C4 and 16 microphones # M1 to # M16.
[0189]
Thereafter, the process shifts to step Q5 to determine the end. If all of the remote control information D1 has not been transmitted to the information recording /output device # 1, the process returns to step Q1 to repeat the above-described processing. When all the remote control information D1 has been transmitted, the transmission processing of the live video and audio data ends. At this time, when the voice of the editor is mixed with the live voice data or the like, the voice is input using the microphone 47. As a result, in the information recording and transmitting device #Li, as shown in FIGS. 10A and 10B, a live video of the artist Mi can be automatically captured, and a live audio can be automatically recorded.
[0190]
[Example of processing when editing information]
FIG. 14 is a flowchart illustrating an example of a process at the time of information editing in the information editing anddistribution device 1.
In this embodiment, the input / output of the information editing editor 41 is controlled by thecontrol device 45. Under this control, the information editing editor 41 inputs the video / music material data Din from each of the information recording / sending devices #Li and performs the information editing process. It is made to do. Of course, thematerial file 12 stores the video and music material data Din input from the information recording and transmitting device #Li.
[0191]
On the premise of this, the information editing editor 41 reads the video and music material data Din from thematerial file 12 in step R1 of the flowchart shown in FIG. The information editing editor 41 processes the video and music material data Din read from thematerial file 12 in step R2, and adjusts the video and music material data Din so that the number of channels and the number of camera angles are determined by the option form distributed to the user Uj. Is made to be edited.
[0192]
In the audio editing, the sound quality is adjusted by the information editing editor 41, and a normal mixdown operation of a multi-track source is performed. For example, music material data Din relating to live music is mixed down to a stereo system or a 5.1 surround system.
[0193]
Further, the video material data Din relating to the live video is also edited using general image editing software or the like, and finally the live video data and the live music data are synchronized by a time code or the like. The edited video and music data are temporarily stored in the editedfile 13 in step R3. In this example, live audio data recorded at 24 bits, 96 kHz, and 16 channels are mixed down to 24 bits, 96 kHz, and 8 channels by a digital mixer (not shown).
[0194]
Furthermore, the information editing editor 41 encodes the edited video and audio data at the authoring stage, combines them into one file, and converts them into various formats that can be distributed on theInternet 20B. For example, live video data for 4 channels captured in a DV format with a transfer rate of about 25 Mbps is converted to an MPEG2 standard (about 4 Mbps) or a high image quality (about 6 Mbps) with a low transfer rate. The edited 4CH video data is adjusted to the time code of the 8CH audio data in step R5. The encoded video and music data are temporarily stored in thecomplete packet file 14 in step R6.
[0195]
The transfer rate of both the high quality 4CH live video data and the 8CH live audio data is about 40 Mbps. This transfer rate is set so that B-FLET'S, 100 Mbps of the telecommunications carrier (NTT) actually meets the standard value. The edited 4CH video and 8CH audio data together with the time code are transferred to thedelivery server 15 for transmission.
[0196]
Thereafter, the process proceeds to step R7 to determine the end. If all of the live video and audio data are not stored in thecomplete packet file 14, the process returns to step R1 to repeat the above-described processing. When the live video and audio data are all stored in thecomplete packet file 14, the processing and editing of the live video and audio data is completed.
[0197]
[Processing example of information distribution]
FIG. 15 is a flowchart illustrating a processing example at the time of information distribution in the information editing anddistribution device 1. In this embodiment, the consent of the artist Mi is obtained for the live video and the music data Dout that have undergone information editing processing by the information editing editor 41. It is assumed that the live video and music data Dout after obtaining the consent of the artist Mi are distributed from thedistribution server 15 to the user Uj.
[0198]
Using this as a processing condition, thecontrol device 45 controls input / output of thedistribution server 15 based on operation information from the keyboard 43 and the mouse 46. For example, in step T1 of the flowchart shown in FIG. 15, the live video and the music data Dout after the information editing processing are read from thecomplete packet file 14 and transferred to the terminal device of the artist Mi. The Internet is used to transfer the live video and music data Dout at this time.
[0199]
Next, the consent of the artist Mi is acquired in step T2 for the live video and the music data Dout after the information editing process. If the consent of the artist Mi cannot be obtained, the process shifts to step T3 to execute a re-processing / editing process. In the rework editing process, the process shown in FIG. 14 is repeated. If the consent of the artist Mi can be obtained as a result of the re-processing and editing, the process proceeds to step T4 to transfer the live video and music data Dout after obtaining the consent from thecomplete packet file 14 to thedistribution server 15. At this time, in addition to the artist confirmation information and the use condition setting electronic contract, consent information from the artist Mi may be stored in theartist management server 16 shown in FIG.
[0200]
After that, in step T5, thecontrol device 45 distributes the live video and music data Dout after obtaining the consent from thedistribution server 15 to the user Uj. At this time, thecontrol device 45 controls thedistribution server 15 so as to perform the copy prohibition process on the live video and music data Dout. For example, live video and music data Dout are distributed from thedistribution server 15 to the information processing device of the user Uj in a data streaming format that is difficult to copy. This makes it possible to prevent illegal duplication of live video and music data Dout.
[0201]
Further, thecontrol device 45 controls thedistribution server 15 so as to multiplex and distribute a plurality of live video and music data Dout related to one live house #i. Thereafter, the process proceeds to step T6, where it is determined whether the data distribution process for another live house #i has been completed. If the data distribution process for another live house #i has not been completed, the process returns to step T1 to repeat the above process. When the data distribution processing for the other live house #i has been completed, the distribution processing of the live video and audio data ends.
[0202]
Through such data distribution, the live video and music data Dout relating to any live house #i can be arbitrarily selected by the information processing device of the user Uj. In addition, the user Uj can increase the degree of freedom in selecting live video and music data Dout.
[0203]
As described above, according to the information editing and transmittingapparatus 1 according to the embodiment of the present invention, when the video and music material data Din is input from the information recording and transmitting apparatus #Li to perform the editing and transmitting process, the information recording and transmitting apparatus #Li Acontrol device 45 for transmitting remote control information D1 to Li and performing remote control to automatically record live video and music by the artist Mi is provided.
[0204]
Therefore, in thelive house # 1 or the like, the operation of the four cameras # C1 to # C4 for photographing live video, the operation of the 16 microphones # M1 to # M16 for recording live music, and the photographing / recording levels thereof Can be set at thecontent distribution site 102 without manual intervention. Moreover, in the information recording and transmitting device #Li, as shown in FIGS. 10A and 10B, a live video of the artist Mi can be automatically photographed and a live audio can be automatically recorded. An unmanned recording operator can be achieved.
[0205]
As a result, it is possible to centrally edit the video and music material data Din that is played live in live houses and the like existing in various parts of the world and is automatically recorded by the live performance in one country, and to centrally manage the copyright of the artist Mi. It greatly contributes to the construction of a high-quality musiclive distribution system 100 with video that distributes live video and music data Dout related to live video and music by the artist Mi to the whole world.
[0206]
[Information processing device]
FIG. 16 is a block diagram showing a configuration example of a receiving system in the high-quality music live distribution system withvideo 100 according to the present invention.
In this embodiment, the receiving side system includes an Internet television (including a normal television) 60, ahome server 70, anAV amplifier 80, a desktop or notebook personal computer (hereinafter simply referred to as a personal computer) 90, which is an example of an information processing apparatus. These information processing devices are connected to thedistribution server 15 of thecontent distribution site 102 and thedistribution server 15 of the information editing anddistribution device 1 shown in FIG. 11 through theInternet 20B shown in FIG. The live video and music data Dout are received from thedistribution server 15 and processed.
[0207]
In this example, in the relationship between the user Uj and the distribution source, the reproduction method for the live video and music data Dout distributed from thedistribution server 15 of the IPS connection provider to the information processing device of the user Uj is, for example, “Standard” or 3 Two “options A to C” are classified and prepared according to the usage fee.
[0208]
{Circle around (1)} “Standard” is a playback method for playing back live video of 1CH captured by camera # C1 that captures the entire stage, and high-quality, edited 2CH live music recorded by left and right microphones. The “standard” reproduction method is selected using, for example, a GUI (Graphic User Interface) function of a personal computer or the like. The user Uj may select the "standard" reproduction method when first looking at the entire stage or listening to the performance.
[0209]
{Circle around (2)} “Option A” is a playback method for playing back live video of 2CH captured by two cameras # C1 and # C2 and high-quality, edited 4CH live music recorded by left and right microphones, for example. It is. The "option A" reproduction method is selected, for example, when it is desired to increase the number of other camera angles or audio channels.
[0210]
{Circle around (3)} “Option B” is a playback method for playing back, for example, 3CH live video captured by cameras # C1 to # C3 and high-quality, edited 8CH live music recorded by left and right microphones. It is. The audio has been edited in the same manner as in "Option A", but the volume of each channel can be adjusted. The “option B” reproduction method is selected as a further request when it is desired to increase the number of other camera angles or audio channels.
[0211]
{Circle around (4)} “Option C” is a playback system that plays back live video of 4CH captured by four cameras # C1 to # C4, and high-quality, edited 16CH live music recorded by the left and right microphones. . The audio has been edited in the same manner as “Option A”, but the volume of each channel and the sound quality can be adjusted by the user Uj. As an example of such a viewing style of the user Uj, “standard”, three “options A to C” and the like are presented, but the fee is also made different depending on the content capacity (volume).
[0212]
The receiving system in which the reproduction method is classified based on the relationship between the distribution source and the user Uj, that is, each home Hj of the viewer shown in FIG. 16 is provided with acommunication modem 40, a router (hub) 50, and a so-called home theater system. , AnInternet television 60, ahome server 70, anAV amplifier 80, a notebookpersonal computer 90, and the like, which are connected to theLAN 30 in the home.
[0213]
One of the communication modems 40 is connected to a public line, and the other is connected to arouter 50. As thecommunication modem 40, a subscriber terminal (ONU) or an ADSL modem is used. Live video and audio data (contents) Dout are taken into the home by acommunication modem 40 from an Internet distributor (ISP company) 104 through a public line such as an optical fiber (FTTH) or a telephone line (ADSL). The live video and audio data captured by thecommunication modem 40 is transmitted to thehome LAN 30 via therouter 50.
[0214]
Such a home theater system connected to thehome LAN 30 includes a television receiver and an audio reproduction system. For example, a plasma display panel (PDP) device having a large screen is used for a television receiver, and a 5.1 surround sound reproduction device is used for a sound reproduction system.
[0215]
FIG. 17 is a conceptual diagram showing a configuration example of a receivingside system 200 using a notebookpersonal computer 90. The notebookpersonal computer 90 shown in FIG. 17 is connected to thehome LAN 30, andstereo speakers 91 and 92 are connected to the personal computer main body. When thepersonal computer 90 receives and processes the live video and music data Dout from thedistribution server 15, thekeyboard 94 and the mouse 95 are operated to select a reproduction method. Live video is displayed on themonitor 93 according to a playback method selected in advance, and live music is output from the left andright speakers 91 and 92.
[0216]
FIG. 18 is a conceptual diagram showing a configuration example of a receiving side system using theInternet television 60.
TheInternet television 60 shown in FIG. 18 is connected to thehome LAN 30, and stereo television speakers 91 'and 92' are incorporated in theInternet television 60 in advance. When theInternet TV 60 receives and processes live video and music data Dout from thedistribution server 15, an operation key 94 ′ provided on an operation panel of theInternet TV 60 is operated to select a reproduction method. . Live video is displayed on the display screen of the monitor 93 'according to a playback method selected in advance, and live music is output from the left and right speakers 91' and 92 '.
[0219]
In this example, in each of the home theater system, the receiving side system using a personal computer, and the receiving side system using theInternet TV 60, regarding the reproduction of live video and audio data, “CD quality”, “2ch, 96k” A desired reproduction method is selected from options such as “−24 bits”, “surround, 96 k−24 bits”, “multitrack, 96 k−24 bits, multiscreen”, and “multitrack, DSD”.
[0218]
Next, a processing example in the receiving side system will be described. 19A is a diagram illustrating a display example of a menu selection screen, and FIG. 19B is a diagram illustrating an operation example of theremote controller 300.
In this embodiment, a case of a multi-track multi-screen will be described. As shown in FIG. 16, home (IT) devices such as atelevision 60, ahome server 70, and anAV amplifier 80 are connected to thehome LAN 30. It is assumed that the image and audio signal processing performed here is performed by theInternet television 60 having intelligence. Of course, the signal processing may be performed on a home server or the personal computer shown in FIG. 17, and the result may be transferred to an ordinary AV device such as thetelevision 60.
In this example, a case where a reproduction method of eight tracks of audio + four screens of images is selected will be described as an example.
[0219]
In the menu selection screen P2 shown in FIG. 19A, for example, in theInternet TV 60, a reproduction method of 8CH (track) + 96K-24Bit + 4 images is selected on a previous screen (not shown), and a confirmation button "OK" is pressed on the screen. Is displayed.
[0220]
On the menu selection screen P2, an "automatic" mode MD1 and a "set by yourself" mode MD2 are displayed. The "automatic mode" mode MD1 is a mode in which theinformation provider 4 reproduces the sound edited at the time of live recording and the average volume of each channel, and displays only one screen of video. When the user Uj selects the "automatic mode" mode MD1, predetermined parameters are sent to theInternet television 60, and the parameters are automatically set. As a result, the user Uj can view live video and music without adjustment.
[0221]
Note that, in the menu selection screen P2 shown in FIG. 19A, a submenu display screen P21 after the “set by yourself” mode MD2 has been selected is displayed in an overlapping manner. The menu selection screen P2 and the submenu selection screen P21 are selected and operated using the GUI function of theInternet television 60. For example, when the “set by yourself” mode MD2 shown in FIG. 19A is selected, a submenu selection screen P21 is developed next to this mode, and theremote controller 300 shown in FIG. 19B is operated to display the submenu selection screen P2 on this menu selection screen P2. Various settings can be made.
[0222]
Theremote controller 300 shown in FIG. 19B has a menu (MENU) key K1, a left / right arrow key K2, K3 and an up / down arrow key K4, K5 for item selection, an enter key K6 for item selection, and a control key. "+/-" keys K7 and K8 for setting the amount are provided. In FIG. 19B, when menu key K1 onremote controller 300 is pressed, menu selection screen P2 shown in FIG. 19A is displayed on the screen of the Internet television.
[0223]
The “screen” tag TG1, the “voice input” tag TG2, and the “surround” tag TG3 are displayed on the submenu selection screen P21, and each setting can be freely set. The user Uj who is not satisfied with the “automatic mode” mode MD1 can select the “set by himself” mode MD2 so that the live video and music can be set to his or her preference within the range of the distribution data prepared in advance at thecontent distribution site 102. It can be set to a state that matches.
[0224]
[Example of audio adjustment]
FIG. 20 is a diagram illustrating a display example of a voice input setting screen P3 on theInternet television 60. In the voice input setting screen P3 shown in FIG. 20, the display is switched from the menu selection screen P2 to the voice input setting screen P3 by selecting the “voice input” tag TG2 in FIG. 19A. For example, a channel area P31 displaying channels (Channel; adjustment item number) "1" to "8" is assigned to the voice input setting screen P3. Below the channels "1" to "8", an instrument display area P32 for displaying each instrument name is assigned.
[0225]
In this example, a guitar (Guitar-1) is displayed below the channel "1", a guitar (Guitar-2) is displayed below the channel "2", and a channel (3) is displayed below the channel "3". A base (Base) is displayed, a keyboard (KeyBd) is displayed below channel “4”, a vocal (Vocal) is displayed below channel “5”, and a vocal (Vocal) is displayed below channel “6”. , Chorus is displayed, Drums is displayed below the channel “7”, and percussion (Perc.) Is displayed below the channel “8”. Each of them corresponds to an instrument used inlive house # 1 or the like.
[0226]
A surround panner display area P33 is allocated below these musical instrument display areas P32. In the surround panner display area P33, a graph having a first quadrant (R), a second quadrant (L), a third quadrant (LS), and a fourth quadrant (RS) indicating a speaker position whose origin is the viewing position is displayed. You. The position of the sound image can be selected from any of the first to fourth quadrants.
[0227]
In this example, the sound image position of the first quadrant is selected for the guitar of channel “1”, the sound image position of the second quadrant is selected for the guitar of channel “2”, and the bass of the channel “3” is selected. , The sound image position of the first quadrant is selected, the sound image position of the second quadrant is selected for the keyboard of channel “4”, and the sound image position of the first quadrant is selected for the vocal of channel “5”. Is selected, the sound image position of the fourth quadrant is selected for the chorus of channel “6”, the sound image position of the second quadrant is selected for the drums of channel “7”, and the percussion of the channel “8” is selected. , The sound image position in the first quadrant is selected.
[0228]
Below the surround panner display area P33, a volume adjustment fader (slide switch) display area P34 is allocated. In the volume adjustment fader display area P34, avolume adjustment fader 341 can be moved up and down for each of the above-described instruments, vocals, and chorus, so that the volume can be adjusted for each sound source of live music. This makes it possible to balance the volume of each instrument, vocal, chorus, and the like that make up the live music. Amaster volume key 342 is displayed on the right side of the volume adjustment fader display area P34, so that the volume of the entire live music can be adjusted.
[0229]
A mute (Mute) key display area P35 is allocated below the volume adjustment fader display area P34, and keys for mute (muting) a sound source are arranged for each of the above-described instruments, vocals, and choruses. For example, a vocal track can be muted and enjoyed as minus one (karaoke). Thereby, a music environment according to the preference of the user Uj can be created.
[0230]
Further, an effector display area P36 is allocated below the mute key display area P35. In this example, in the effector display area P36, a special key is displayed for the base of channel "3", and a special key K11, K12, a Cola key K13, and a reverb key K14 are displayed for the keyboard of channel "4". Is displayed, and a boost key K15 is displayed for the vocals of the channel "5". By selecting these keys K11 to K15, the sound quality of live music can be adjusted. Thevolume control fader 341, themaster volume 342, and the keys K11 to K15 are moved by a pointer such as a mouse.
[0231]
[Surround setting example]
FIG. 21 is a diagram illustrating a display example of the surround adjustment screen P4 on theInternet television 60. In this example, the surround pan (position of the sound image) of the channel selected by the +/- keys K7 and K8 of theremote controller 300 shown in FIG. 19B can be adjusted. This is because surround settings, which will become mainstream in the future, can be performed according to the preference of the user Uj.
[0232]
The surround adjustment screen P4 shown in FIG. 21 is a screen in which the display is switched from the audio input setting screen P3 to the surround adjustment screen P4 by, for example, selecting the channel “5” in the surround panner display area P33 shown in FIG. It is. On the surround adjustment screen P4, for example,vocal L # 2 of channel "5" is displayed. A surround pan (SURROUND PAN; sound image position) display area P41 is allocated adjacent to this display area. In the surround pan display area P41, a graph having first to fourth quadrants indicating speaker positions with the viewing position as the origin is displayed.
[0233]
Around this graph, an “R” tag TG4 for selecting the first quadrant, an “L” tag TG5 for selecting the second quadrant, an “LS” tag TG6 for selecting the third quadrant, and a fourth quadrant are selected. The “RS” tag TG7 to be displayed is displayed. In addition, between the "R" tag TG4 and the "L" tag TG5, a "C" tag TG8 indicating a center position and a "SW" tag TG9 indicating a speaker for heavy bass are arranged. Between the “LS” tag TG6 and the “RS” tag TG7, a “FD disk” tag TG10 indicating recording and storage is arranged.
[0234]
On the right side of the graph, a “WRITE” tag TG11 for writing and a “SET” tag TG12 for setting are arranged. An area P42 indicating the volume of the center speaker is allocated between the “WRITE” tag TG11 and the “SET” tag TG12. In this example, DIV “50%” is displayed.
[0235]
In the surround adjustment screen P4, for example, when a vocal is selected on the channel “5” shown in FIG. 21, the vocal position shown in FIG. 20 is located in the first quadrant (R). However, as a preference of the user Uj, if the vocal still wants the center (C) to be localized, then the selection of the “WRITE” tag TG11 shown in FIG. 21 → the selection of the “C” tag TG8 → the “SET” tag By sequentially executing the selection of theTG 12, the position of the sound image to the center can be changed.
[0236]
[Example of video selection]
FIG. 22 is a diagram illustrating a display example of the live video screen P5, and FIGS. 23A and 23B are diagrams illustrating the live video selection screen P53 and the enlarged screen P54, respectively. In this example, when “option C” is selected for the screen displaying the live video, the live video divided into four is displayed on one screen. The four divided live video images are based on 4CH live video data obtained by photographing with four cameras # C1 to # C4 in alive house # 1 or the like.
[0237]
In FIG. 22, P51 is a live video screen of the entire performer including vocals. P52 is a live video screen of a musician playing the guitars "1" and "2". P53 is a live video screen of a musician playing the guitar “1”. P54 is a live video screen of a musician in charge of vocals.
[0238]
In this example, when the screen to be viewed is selected with the arrow keys K2 to K5 of theremote controller 300 shown in FIG. 19B, for example, when the live video screen P53 is selected, the live video divided into four shown in FIG. The screen is switched to the live video selection screen P53 shown in FIG. 23A. A window frame is set on the live video selection screen P53 shown in FIG. 23A, and the size of the window frame can be changed by operating +/- keys K7 and K8 of theremote controller 300. In this example, a window frame is set near the hand of the bass guitar player, and the vicinity of the hand of the bass guitar player is enlarged (close-up).
[0239]
Based on these, an example of a GUI operation in the receiving-side system 200 will be described with reference to FIGS. FIGS. 24 and 25 are flowcharts showing GUI operation examples (parts 1 and 2) in the receiving-side system 200.
[0240]
In this embodiment, a case where the above-described “standard” and “option A” to “option C” are prepared is described as an example. With this as a processing condition, first, in step V1 of the flowchart shown in FIG. 24, the user Uj starts up the Web of the high-quality music live distribution system withvideo 100 on theInternet television 60. Of course, thesystem 100 may be started on a notebook computer.
[0241]
With this system start-up, “live new arrival information”, “viewable live information”, and “musician search information” (not shown) are displayed on the initial screen of theInternet television 60 in step V2. Thereafter, the user Uj selects live information that he or she wants to view in step V3. If no live information is selected, the process moves to step V20. When selecting live information, the process proceeds to step V4, where the user Uj inputs an ID / password.
[0242]
When the ID / password is input, the process proceeds to step V5, where a reproduction method of live video and music data Dout is selected. At this time, on the monitor screen of theInternet television 60, “selection of viewing type” (not shown) → (CD quality), (2CH, 96K-24Bit) to (multitrack, DSD, multiscreen) selection items, The usage fee, the "automatic selection" mode MD1, the "set by yourself" mode MD2, and the like are displayed. The user Uj selects a desired reproduction method from these.
[0243]
Here, when the user Uj selects the “automatic mode” mode MD1, the process proceeds to step V6, and the usage fee for the mode is displayed. At this time, the viewing (purchase) amount for each type may be displayed. Thereafter, the process proceeds to step V7, where the "viewing amount" is confirmed. If the user is to approve the usage fee pertaining to the "automatic mode" mode MD1 "OK", the process proceeds to step V8. Thereby, the type of viewing is determined. If the user does not approve the use fee, the user can press the "cancel" key (not shown) to cancel the selection of the "autonomous" mode MD1. After that, the routine goes to Step V20. In step V8, parameters are set to execute “standard”.
[0244]
In the “standard”, a live video of 1CH captured by the camera # C1 that captures the entire stage, and live music of 2CH edited and recorded with high sound quality recorded by the left and right microphones are reproduced. According to the "standard" reproduction method, first, the entire stage can be viewed and its performance can be heard. After that, the routine goes to Step V20.
[0245]
When the "set by yourself" mode MD2 is selected in step V5 described above, the flow shifts to step V9 where "option A" or another option is selected. If "option A" is selected, the process moves to step V10, where the usage fee for the mode is displayed. At this time, the viewing (purchase) amount for each type is displayed.
[0246]
Thereafter, the process shifts to step V11, where the "viewing amount" is confirmed. In the case of approving "OK" for the usage fee related to the "set by yourself" mode MD2, the process proceeds to step V12. Thus, the type of viewing is determined, and “option A” is executed. In the “option A”, live video of 2CH captured by the two cameras # C1 and # C2 and live music of edited 4CH with high sound quality recorded by the left and right microphones are reproduced. The reproduction method of “option A” is selected, for example, when it is desired to increase the number of other camera angles or audio channels. If the user does not approve the usage fee "OK", the user can cancel the selection of the "set by himself" mode MD2 by pressing the "cancel" key.
[0247]
Further, when an option other than “option A” is selected in step V9, for example, the process shifts to step V13 in the flowchart shown in FIG. 25 to check whether “option B” is selected. If "option B" is selected, the process moves to step V14, where the usage fee for the mode is displayed.
[0248]
Thereafter, the process shifts to step V15, where the "viewing amount" is confirmed. When approving "OK" for the usage fee related to the "set by yourself" mode MD2, the process shifts to step V16. If the user fee is not approved "OK", the user can cancel the selection of the "set by himself" mode MD2 by pressing the "cancel" key.
[0249]
In step V16, "option B" is executed. In the "option B", live video of 3CH captured by three cameras # C1 to # C3 and the like, and live music of 8CH, which has been edited with high sound quality and recorded by the left and right microphones, are reproduced. The audio has been edited in the same manner as “Option A”, but the volume of each channel can be adjusted. The “option B” reproduction method is selected as a further request when it is desired to increase the number of other camera angles or audio channels.
[0250]
In addition, when other than "options A and B", that is, "option C" is selected in step V13, the process shifts to step V17 to display the usage fee for the mode. Thereafter, the flow shifts to step V18, where the "viewing amount" is confirmed. In the case of approving "OK" for the usage fee related to the "set by yourself" mode MD2, the process proceeds to step V19. If the user does not approve the use fee, the user can cancel the selection of the “set by yourself” mode MD2 by pressing the “cancel” key.
[0251]
In step V19, "option C" is executed. In the “option C”, the live video of 4CH captured by the four cameras # C1 to # C4 and the live music of 16CH edited with high sound quality recorded by the left and right microphones are reproduced. The audio has been edited in the same manner as in “Option A”, but the user Uj can adjust the volume and sound quality of each channel.
[0252]
For example, the display is switched to a screen divided into four as shown in FIG. Here, when a screen to be viewed is selected with the arrow key K1 or the like of theremote controller 300 shown in FIG. 19B, for example, when the live video screen P53 is selected, the live video divided into four shown in FIG. Is switched to the whole display of the live video selection screen P53 shown in FIG. At this time, for example, a window frame is set on the live video selection screen P53 shown in FIG. 23A, and the +/− keys K7 and K8 of theremote controller 300 are operated to change the size of the window frame. . Further, a window frame can be set near the hand of the bass guitar player, and the vicinity of the hand of the bass guitar player can be enlarged and displayed.
[0253]
For audio adjustment, the audio input setting screen P3 shown in FIG. 20 and the like are displayed on theInternet TV 60, and the volume adjustment fader is moved up and down for each instrument, vocal, and chorus on the audio input setting screen P3. Or adjust the volume for each live music source. This makes it possible to balance the volume of each instrument, vocal, chorus, and the like that make up the live music. Further, the surround adjustment screen P4 shown in FIG. 21 is displayed on theInternet television 60, and the surround pan (position of the sound image) is adjusted by operating the +/- keys K7 and K8 of theremote controller 300 shown in FIG. 19B. It may be.
[0254]
In this manner, according to the information processing method in the high-quality music live distribution system with video as an embodiment according to the present invention, when the live video and the music data Dout based on the live by the artist Mi are distributed and processed, Operation of four cameras # C1 to # C4 for shooting live images inlive house # 1 and the like, operation of 16 microphones # M1 to # M16 for recording live music, and adjustment of the shooting and recording levels thereof Can be set at thecontent distribution site 102 without manual intervention, so that the recording operator at thelive house # 1 or the like can be unmanned.
[0255]
Accordingly, it is possible to centrally edit the video and music material data Din, which is performed in live houses # 1 and the like existing in various parts of the world, and to collectively manage the copyright of the artist Mi, and perform live performance by the artist Mi. A new high-quality music live distribution system withvideo 100 capable of distributing live video and music data Dout related to video and music to the whole world can be constructed.
[0256]
According to the embodiment of the present invention, live video and music data Dout are electronically distributed in a data streaming format in which illegal duplication (copying) is difficult. It is possible to reduce the data processing load and satisfy a high demand for the user Uj to obtain high image quality video information and high sound quality music information.
[0257]
The present invention has the following effects in addition to the above effects. One-time live performances of artists who are popular among the artists Mi can be distributed to enthusiastic music fans via the Internet. In addition, unlike existing software, valuable software that can be viewed only on the Internet can be provided.
[0258]
In addition, theinformation provider 4 can develop a fixed fan with live video and music data Dout, and can acquire many new users Uj. Moreover, since the recording operator in thelive house # 1 and the like can be unmanned, high-quality music software can be produced in spite of low cost, and a lot of software suitable for the broadband era can be provided.
[0259]
As an advanced form of the present invention, an environment in which operation software for thecontent distribution site 102 is created, all processes from recording to editing and distribution (transmission) are unmanned and automated, and many high-quality music software can be created. Can be provided. By using the present invention, high quality music software can be produced, so that it can be applied to music software of different genres (eg, soul, R & B, classical music, folk music, etc.), and the music software itself can be used. The breadth, type, and quantity increase, and the interests and demands of many users Uj can be accepted.
[0260]
【The invention's effect】
As described above, according to the electronic information distribution system and the information processing method according to the present invention, the video and music information obtained by inputting the video and music material information obtained by recording the performance by the performer and editing the information is processed into the performance video and the performance music. An information editing and distributing device for distributing the electronic information content, wherein the information editing and distributing device remotely controls each of the information recording and transmitting devices through communication means so as to automatically record the performance video and the performance music by the performer. It is.
[0261]
With this configuration, the operation of the photographing means for photographing the demonstration video, the operation of the sound pickup means for recording the demonstration music, and the adjustment of the photographing / recording level can be set without manual intervention. ) Can make the recording operator unmanned. Therefore, it is possible to centrally edit the video and music material information that is performed in live houses and the like existing in various parts of the world, and to collectively manage the copyright of the performer. An electronic information distribution system that distributes electronic information contents related to the entire world can be constructed.
[0262]
According to the information recording and transmitting apparatus according to the present invention, the information recording and transmitting apparatus includes information output control means for recording and controlling performance information and performance music based on the performance by the performer, and the information output control means is remotely controlled from the information editing and distribution apparatus. It receives information and remotely controls a photographing means and a sound collecting means so as to automatically record a performance video and a performance music by a performer.
[0263]
With this configuration, the operation of the photographing means and the sound collecting means and the adjustment of the photographing / recording levels can be set without any manual operation, so that the recording operator at the demonstration site can be unmanned. Therefore, the present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing the electronic information content on the performance video and the performance music by the performer to the whole world.
[0264]
According to the information editing and distributing apparatus of the present invention, the information editing and distributing apparatus includes editing and distribution controlling means for editing and distributing video and music material information based on a performance by a performer, and the editing and distribution controlling means transmits remote control information to the information recording and transmitting apparatus. It transmits and remotely controls the information recording / sending device so as to automatically record the performance video and the performance music by the performer.
[0265]
With this configuration, the operation of the shooting means for shooting the demonstration video, the operation of the sound collection means for recording the demonstration music, and the adjustment of the shooting / recording level can be set without manual intervention. The operator can be unmanned. Therefore, it can be performed in live houses, etc. located all over the world, and the video and music material information recorded by this performance can be centrally edited in one country and the copyright of the performer can be centrally managed, and the performer can perform the performance. The present invention can be sufficiently applied to the construction of an electronic information distribution system for distributing electronic information contents regarding video and performance music to the whole world.
[0266]
INDUSTRIAL APPLICABILITY The present invention is extremely suitable when applied to a live music distribution business with high-quality music with video, which distributes and provides live video and live music of a live performer performed at a live house or the like.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing a configuration example of an electronicinformation distribution system 10 as an embodiment according to the present invention.
FIG. 2 is a diagram showing a flow of electronic information contents in the electronicinformation distribution system 10.
FIG. 3 is a flowchart illustrating a processing example in the electronicinformation distribution system 10.
FIG. 4 is a diagram showing a configuration example of a high-quality audio livemusic distribution system 100 with video as an embodiment according to the present invention.
FIG. 5 is a diagram showing a distribution example of contents, money, and the like in thesystem 100.
FIG. 6 is a block diagram showing an example of an internal configuration of an information recording and transmitting device # L1 and the like as an embodiment according to the present invention.
FIG. 7 is a three-dimensional diagram showing an example of arrangement (front side) of recording devices and the like for live video and music information.
FIG. 8 is a plan view showing an arrangement example (upper surface) of devices for recording live video and music information.
FIG. 9 is a flowchart illustrating an example of automatic adjustment of the information recording and transmitting device #Li.
FIGS. 10A and 10B are flowcharts showing an example of automatic recording by the information recording and transmitting device #Li.
FIG. 11 is a block diagram showing a configuration example of an information editing anddistribution device 1 as an embodiment according to the present invention.
FIG. 12 is a diagram showing an example of a remote operation in the information editing anddistribution device 1.
FIG. 13 is a flowchart illustrating an example of remote control when recording information in the information editing anddistribution device 1.
FIG. 14 is a flowchart showing a processing example at the time of information editing in the information editing anddistribution device 1.
FIG. 15 is a flowchart illustrating a processing example at the time of information distribution in the information editing anddistribution apparatus 1.
FIG. 16 is a block diagram showing a configuration example of a receivingside system 200 in the high-quality live music distribution system withvideo 100 according to the present invention.
FIG. 17 is a conceptual diagram showing a configuration example of a receivingside system 200 using a notebookpersonal computer 90.
FIG. 18 is a conceptual diagram showing a configuration example of a receiving side system using theInternet television 60.
19A and 19B are diagrams showing a display example of a menu selection screen P2 and an operation example of theremote controller 300.
20 is a diagram illustrating a display example of a voice input setting screen P3 on theInternet television 60. FIG.
21 is a diagram illustrating a display example of a surround adjustment screen P4 on theInternet television 60. FIG.
FIG. 22 is a diagram illustrating a display example of a live video screen P5.
23A and 23B are diagrams showing display examples of a live video selection screen P53 and an enlarged screen P54 thereof.
FIG. 24 is a flowchart illustrating a GUI operation example (part 1) in the receiving-side system 200.
FIG. 25 is a flowchart illustrating a GUI operation example (part 2) in the receiving-side system 200.
[Explanation of symbols]
DESCRIPTION OFSYMBOLS 1 ... Information edit distribution apparatus, 2A, 2B ... Communication means, 10 ... Electronic information distribution system, 11 ... Editing site, 12 ... Material file, 13 ... Edited file, 14 ... complete package file, 15 ... distribution server, 16 ... artist management server, 17 ... automatic editing and processing unit, 18 ... content server, 20A, 20B ... Internet (communication means), Reference numeral 22: drive control unit, 23, 40: communication modem, 50: router, 60: Internet television, 70: home server, 80: AV amplifier, 90: personal computer, #Li (i = 1 to n): information recording and sending device; 100: high-quality music live distribution system with video (electronic information distribution system); 200: receiving system

Claims (19)

Translated fromJapanese
実演家による実演に基づく電子情報内容を配信するシステムであって、
前記実演家による実演を収録して得た映像音楽素材情報を出力する複数の情報収録送出装置と、
各々の前記情報収録送出装置から映像音楽素材情報を入力して情報編集処理した実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置と、
前記情報編集配信装置から電子情報内容を受信して処理する情報処理装置と、
少なくとも、前記情報収録送出装置と情報編集配信装置とを接続する通信手段とを備え、
前記情報編集配信装置は、
前記実演家による実演映像及び実演音楽を自動収録するように前記通信手段を通じて前記情報収録送出装置の各々を遠隔制御することを特徴とする電子情報配信システム。
A system for distributing electronic information content based on a performance by a performer,
A plurality of information recording and sending devices for outputting video and music material information obtained by recording a demonstration by the performer,
An information editing and distribution device that inputs video and music material information from each of the information recording and transmitting devices and distributes electronic information content relating to a performance video and performance music processed for information editing;
An information processing device that receives and processes electronic information content from the information editing and distribution device,
At least, a communication unit for connecting the information recording and sending device and the information editing and distributing device,
The information editing and distribution device,
An electronic information distribution system, wherein each of the information recording and transmitting devices is remotely controlled through the communication means so as to automatically record a performance video and a performance music by the performer.
前記情報収録送出装置は、
前記実演家による実演映像を撮影する遠隔制御可能な複数の撮影手段と、
前記実演家による実演音楽を収録する遠隔制御可能な複数の収音手段と、
前記撮影手段により撮影された実演映像及び収音手段により収録された実演音楽を映像音楽素材情報に変換して出力する情報出力制御手段とを備え、
前記情報通信制御手段は、
前記情報編集配信装置から遠隔制御情報を受信し、前記実演家による実演映像及び実演音楽を自動収録するように当該遠隔制御情報に基づいて前記撮影手段及び収音手段を遠隔制御することを特徴とする請求項1に記載の電子情報配信システム。
The information recording and sending device,
A plurality of remotely controllable photographing means for photographing a demonstration video by the performer,
A plurality of remotely controllable sound collecting means for recording performance music by the performer,
Information output control means for converting the demonstration video captured by the imaging means and the demonstration music recorded by the sound collection means into video and music material information and outputting the information,
The information communication control means,
Receiving remote control information from the information editing and distributing device, and remotely controlling the photographing means and the sound collecting means based on the remote control information so as to automatically record a performance video and a performance music by the performer. The electronic information distribution system according to claim 1, wherein:
前記情報編集配信装置は、
前記情報収録送出装置を遠隔制御する情報を含む操作情報を入力する入力手段と、
各々の前記情報収録送出装置から映像音楽素材情報を入力して情報編集処理する情報編集手段と、
前記情報編集手段により編集された実演映像及び実演音楽に係る電子情報内容を配信する情報配信手段と、
前記入力手段からの操作情報に基づいて情報編集手段及び情報配信手段の入出力を制御する編集配信制御手段とを備え、
前記編集配信制御手段は、
前記情報収録送出装置へ遠隔制御情報を送信し、前記実演家による実演映像及び実演音楽を自動収録するように前記撮影手段及び収音手段を遠隔制御することを特徴とする請求項1に記載の電子情報配信システム。
The information editing and distribution device,
Input means for inputting operation information including information for remotely controlling the information recording and transmitting device,
Information editing means for inputting video and music material information from each of the information recording and transmitting devices and performing information editing processing;
Information distribution means for distributing electronic information content related to the performance video and the performance music edited by the information editing means,
An edit distribution control unit that controls input and output of the information editing unit and the information distribution unit based on operation information from the input unit,
The edit distribution control means,
The remote control information is transmitted to the information recording / sending device, and the photographing unit and the sound collecting unit are remotely controlled so as to automatically record a performance video and a performance music by the performer. Electronic information distribution system.
前記情報収録送出装置を世界各国又は国内の実演地に配置すると共に、前記情報編集配信装置を編集地となる一の国又は国内に配置し、
前記編集地の情報編集配信装置において、
前記情報収録送出装置によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理すると共に、前記実演家による実演映像及び実演音楽に関する電子情報内容を全世界又は国内に配信することを特徴とする請求項1に記載の電子情報配信システム。
Along with placing the information recording and sending device in a demonstration place in each country or country in the world, placing the information editing and distribution device in one country or country to be an editing place,
In the information editing distribution device of the editing place,
Centrally editing the video and music material information recorded by the information recording and transmitting device and centrally managing the copyright of the performer, and distributing the electronic information content on the live performance video and live music by the performer worldwide or in Japan The electronic information distribution system according to claim 1, wherein:
前記情報編集配信装置によって情報編集処理された電子情報内容に関して前記実演家の承諾を取得し、
前記実演家の承諾を取得した後の前記電子情報内容を前記情報処理装置へ配信することを特徴とする請求項1に記載の電子情報配信システム。
Acquiring the performer's consent for the electronic information content that has been information edited by the information editing and distribution device,
The electronic information distribution system according to claim 1, wherein the electronic information content after obtaining the consent of the performer is distributed to the information processing device.
前記情報編集配信装置において、
前記電子情報内容に複製禁止処理を施すことを特徴とする請求項1に記載の電子情報配信システム。
In the information editing and distribution device,
2. The electronic information distribution system according to claim 1, wherein a copy prohibition process is performed on the electronic information content.
前記情報編集配信装置において、
前記一の実演地に係る複数の実演映像及び実演音楽に関する電子情報内容を多重処理して配信し、前記情報処理装置で前記一の実演地に係る電子情報内容を任意に選択可能なようにしたことを特徴とする請求項1に記載の電子情報配信システム。
In the information editing and distribution device,
The electronic information contents relating to the plurality of demonstration videos and music relating to the one performance place are multiplexed and distributed, and the electronic information content relating to the one performance place can be arbitrarily selected by the information processing device. The electronic information distribution system according to claim 1, wherein:
前記情報編集配信装置から情報処理装置へ複製困難なデータストリーミング形式により実演映像及び実演音楽に係る電子情報内容を配信することを特徴とする請求項1に記載の電子情報配信システム。2. The electronic information distribution system according to claim 1, wherein the electronic information content relating to the demonstration video and the demonstration music is distributed from the information editing and distribution device to the information processing device in a data streaming format that is difficult to copy.電子情報内容を配信するシステムの情報編集配信装置に接続されると共に、実演家による実演に基づく実演情報及び実演音楽を収録出力処理する装置であって、
前記実演家による実演映像を撮影する遠隔制御可能な複数の撮影手段と、
前記実演家による実演音楽を収録する遠隔制御可能な複数の収音手段と、
前記撮影手段により撮影された実演映像及び収音手段により収録された実演音楽を映像音楽素材情報に変換して出力する情報出力制御手段とを備え、
前記情報出力制御手段は、
前記情報編集配信装置から遠隔制御情報を受信し、前記実演家による実演映像及び実演音楽を自動収録するように前記撮影手段及び収音手段を遠隔制御することを特徴とする情報収録送出装置。
A device that is connected to an information editing and distributing device of a system that distributes electronic information content, and performs recording output processing of performance information and performance music based on a performance by a performer,
A plurality of remotely controllable photographing means for photographing a demonstration video by the performer,
A plurality of remotely controllable sound collecting means for recording performance music by the performer,
Information output control means for converting the demonstration video captured by the imaging means and the demonstration music recorded by the sound collection means into video and music material information and outputting the information,
The information output control means,
An information recording and transmitting device, comprising: receiving remote control information from the information editing and distributing device; and remotely controlling the photographing unit and the sound collecting unit so as to automatically record a performance video and a performance music by the performer.
電子情報内容を配信するシステムの情報収録送出装置から映像音楽素材情報を入力して編集配信処理する装置であって、
前記情報収録送出装置を遠隔制御するための情報を含む操作情報を入力する入力手段と、
各々の前記情報収録送出装置から映像音楽素材情報を入力して情報編集処理する情報編集手段と、
前記情報編集手段により編集された実演映像及び実演音楽に係る電子情報内容を配信する情報配信手段と、
前記入力手段からの操作情報に基づいて情報編集手段及び情報配信手段の入出力を制御する編集配信制御手段とを備え、
前記編集配信制御手段は、
前記情報収録送出装置へ遠隔制御情報を送信し、前記実演家による実演映像及び実演音楽を自動収録するように前記情報収録送出装置を遠隔制御することを特徴とする情報編集配信装置。
A device for inputting video and music material information from an information recording and transmitting device of a system for distributing electronic information content and performing editing and distribution processing,
Input means for inputting operation information including information for remotely controlling the information recording and transmitting device,
Information editing means for inputting video and music material information from each of the information recording and transmitting devices and performing information editing processing;
Information distribution means for distributing electronic information content related to the performance video and the performance music edited by the information editing means,
An edit distribution control unit that controls input and output of the information editing unit and the information distribution unit based on operation information from the input unit,
The edit distribution control means,
An information editing and distribution device, wherein remote control information is transmitted to the information recording and transmitting device, and the information recording and transmitting device is remotely controlled so as to automatically record a demonstration video and a performance music by the performer.
前記編集配信制御手段は、
前記情報編集手段によって情報編集処理された電子情報内容に関して前記実演家の承諾を取得し、
前記実演家の承諾を取得した後の前記電子情報内容を前記情報配信手段から情報利用者へ配信するように制御することを特徴とする請求項10に記載の情報編集配信装置。
The edit distribution control means,
Acquiring the performer's consent for the electronic information content that has been information edited by the information editing means,
The information editing / distributing apparatus according to claim 10, wherein control is performed such that the electronic information content after obtaining the consent of the performer is distributed from the information distribution means to an information user.
前記編集配信制御手段は、
前記電子情報内容に複製禁止処理を施すように前記情報配信手段を制御することを特徴とする請求項10に記載の情報編集配信装置。
The edit distribution control means,
The information editing / distributing apparatus according to claim 10, wherein the information distributing unit is controlled so as to perform a copy prohibition process on the electronic information content.
前記編集配信制御手段は、
一の実演地に係る複数の前記実演映像及び実演音楽に関する電子情報内容を多重処理して配信し、前記情報利用者の側で前記一の実演地に係る電子情報内容を任意に選択可能なように前記情報編集手段を制御することを特徴とする請求項10に記載の情報編集配信装置。
The edit distribution control means,
A plurality of electronic information contents relating to the demonstration video and the demonstration music related to one demonstration place are multiplexed and distributed, and the information user can arbitrarily select the electronic information contents related to the one demonstration place. The information editing / distributing apparatus according to claim 10, wherein the information editing unit is controlled.
実演家による実演に基づく電子情報内容を配信して処理する方法であって、
実演地の各々に前記実演家による実演を収録して映像音楽素材情報を出力する情報収録送出装置を配置し、
各々の前記情報収録送出装置から映像音楽素材情報を入力して情報編集処理をし、当該情報編集処理後の実演映像及び実演音楽に係る電子情報内容を配信する情報編集配信装置を編集地に配置し、
前記実演地に配置された情報収録送出装置と前記編集地に配置された情報編集配信装置とを通信手段を介して接続し、
前記実演家による実演映像及び実演音楽を自動収録するように前記通信手段を通じて前記情報収録送出装置の各々を遠隔制御し、
遠隔制御される前記実演地の情報収録送出装置から得られる映像音楽素材情報を前記編集地の情報編集配信装置で情報編集処理し、
前記情報編集処理により得られた電子情報内容を情報配信処理することを特徴とする情報処理方法。
A method of delivering and processing electronic information content based on a performance by a performer,
Arrange an information recording and sending device that outputs a video and music material information by recording a demonstration by the performer at each of the performance locations,
An information editing / distributing device for inputting video / music material information from each of the information recording / sending devices and performing information editing processing, and distributing electronic information content relating to the performance video and the performance music after the information editing processing is arranged at the editing location. And
The information recording and transmitting device arranged at the demonstration place and the information editing and distributing device arranged at the editing place are connected via communication means,
Remotely controlling each of the information recording and transmitting devices through the communication means so as to automatically record a demonstration video and a demonstration music by the performer,
The video and music material information obtained from the information recording and sending device of the remotely controlled performance location is processed by the information editing and distribution device of the editing location for information editing processing.
An information processing method, wherein information distribution processing is performed on the electronic information content obtained by the information editing processing.
前記情報収録送出装置を世界各国又は国内の実演地に配置すると共に、前記情報編集配信装置を編集地となる一の国又は国内に配置し、
前記編集地の情報編集配信装置において、
前記情報収録送出装置によって収録される映像音楽素材情報を一元編集及び実演家の著作権を一元管理すると共に、前記実演家による実演映像及び実演音楽に関する電子情報内容を全世界又は国内に配信することを特徴とする請求項14に記載の情報処理方法。
Along with placing the information recording and sending device in a demonstration place in each country or country in the world, placing the information editing and distribution device in one country or country to be an editing place,
In the information editing distribution device of the editing place,
Centrally editing the video and music material information recorded by the information recording and transmitting device and centrally managing the copyright of the performer, and distributing the electronic information content of the demonstration video and the performer's music by the performer worldwide or in Japan. The information processing method according to claim 14, wherein:
前記情報編集配信装置によって情報編集処理された電子情報内容に関して前記実演家の承諾を取得し、
前記実演家の承諾を取得した後の前記電子情報内容を情報利用者へ配信することを特徴とする請求項14に記載の情報処理方法。
Acquiring the performer's consent for the electronic information content that has been information edited by the information editing and distribution device,
15. The information processing method according to claim 14, wherein the content of the electronic information after obtaining the consent of the performer is delivered to an information user.
前記情報編集配信装置において、
前記電子情報内容に複製禁止処理を施すことを特徴とする請求項14に記載の情報処理方法。
In the information editing and distribution device,
15. The information processing method according to claim 14, wherein a copy prohibition process is performed on the electronic information content.
前記情報編集配信装置において、
前記一の実演地に係る複数の実演映像及び実演音楽に関する電子情報内容を多重処理して配信し、前記情報利用者の側で前記一の実演地に係る電子情報内容を任意に選択可能なようにしたことを特徴とする請求項14に記載の情報処理方法。
In the information editing and distribution device,
The electronic information contents relating to the plurality of demonstration videos and the demonstration music relating to the one demonstration place are multiplex-processed and distributed, so that the information user can arbitrarily select the electronic information contents relating to the one demonstration place. The information processing method according to claim 14, wherein:
前記情報編集配信装置から情報利用者へ複製困難なデータストリーミング形式により実演映像及び実演音楽に係る電子情報内容を配信することを特徴とする請求項14に記載の情報処理方法。15. The information processing method according to claim 14, wherein the information editing / distributing device distributes the electronic information content relating to the demonstration video and the demonstration music to the information user in a data streaming format that is difficult to copy.
JP2003120172A2003-04-242003-04-24 Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing methodExpired - Fee RelatedJP4513274B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2003120172AJP4513274B2 (en)2003-04-242003-04-24 Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2003120172AJP4513274B2 (en)2003-04-242003-04-24 Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method

Publications (3)

Publication NumberPublication Date
JP2004328377Atrue JP2004328377A (en)2004-11-18
JP2004328377A5 JP2004328377A5 (en)2006-06-08
JP4513274B2 JP4513274B2 (en)2010-07-28

Family

ID=33499179

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2003120172AExpired - Fee RelatedJP4513274B2 (en)2003-04-242003-04-24 Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method

Country Status (1)

CountryLink
JP (1)JP4513274B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2007201806A (en)*2006-01-262007-08-09Kobe Nomado:KkCreation method of moving picture data with sound
US7956900B2 (en)2005-06-012011-06-07Pioneer CorporationVideo delivery device, video delivery method, video delivery program and recording medium
JP2014086861A (en)*2012-10-232014-05-12Needs Co LtdData distribution system and data distribution method
JP2017069848A (en)*2015-09-302017-04-06ヤマハ株式会社Acoustic processing apparatus
JP2018128518A (en)*2017-02-072018-08-16株式会社エムアイセブンジャパン Music management system and music management method
CN109478400A (en)*2016-07-222019-03-15杜比实验室特许公司Network-based processing and distribution of multimedia content for live music performance
CN116343722A (en)*2021-12-232023-06-27广州市拿火信息科技有限公司 Musical instrument recording device and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2001204003A (en)*2000-01-202001-07-27Perseus Co Ltd How to broadcast entertainment
WO2002091267A1 (en)*2001-05-072002-11-14Dai-San Intelligence Ltd.Method and system for distributing intelligent content
JP2003015988A (en)*2001-07-052003-01-17Mitsubishi Electric Corp TERMINAL COMMUNICATION DEVICE, SERVER DEVICE, CONTENT DELIVERY SYSTEM, CONTENT DELIVERY METHOD, PROGRAM FOR EXECUTED BY COMPUTER, AND COMPUTER-READABLE RECORDING MEDIUM ON WHICH COMPUTER PROGRAM IS RECORDED

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2001204003A (en)*2000-01-202001-07-27Perseus Co Ltd How to broadcast entertainment
WO2002091267A1 (en)*2001-05-072002-11-14Dai-San Intelligence Ltd.Method and system for distributing intelligent content
JP2003015988A (en)*2001-07-052003-01-17Mitsubishi Electric Corp TERMINAL COMMUNICATION DEVICE, SERVER DEVICE, CONTENT DELIVERY SYSTEM, CONTENT DELIVERY METHOD, PROGRAM FOR EXECUTED BY COMPUTER, AND COMPUTER-READABLE RECORDING MEDIUM ON WHICH COMPUTER PROGRAM IS RECORDED

Cited By (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US7956900B2 (en)2005-06-012011-06-07Pioneer CorporationVideo delivery device, video delivery method, video delivery program and recording medium
JP2007201806A (en)*2006-01-262007-08-09Kobe Nomado:KkCreation method of moving picture data with sound
JP2014086861A (en)*2012-10-232014-05-12Needs Co LtdData distribution system and data distribution method
JP2017069848A (en)*2015-09-302017-04-06ヤマハ株式会社Acoustic processing apparatus
WO2017057530A1 (en)*2015-09-302017-04-06ヤマハ株式会社Audio processing device and audio processing method
US10243680B2 (en)2015-09-302019-03-26Yamaha CorporationAudio processing device and audio processing method
CN109478400A (en)*2016-07-222019-03-15杜比实验室特许公司Network-based processing and distribution of multimedia content for live music performance
CN109478400B (en)*2016-07-222023-07-07杜比实验室特许公司 Web-based processing and distribution of multimedia content for live music performances
US11749243B2 (en)2016-07-222023-09-05Dolby Laboratories Licensing CorporationNetwork-based processing and distribution of multimedia content of a live musical performance
JP2018128518A (en)*2017-02-072018-08-16株式会社エムアイセブンジャパン Music management system and music management method
CN116343722A (en)*2021-12-232023-06-27广州市拿火信息科技有限公司 Musical instrument recording device and method

Also Published As

Publication numberPublication date
JP4513274B2 (en)2010-07-28

Similar Documents

PublicationPublication DateTitle
JP5331494B2 (en) Karaoke service system, terminal device
KR101551868B1 (en) Method, system and apparatus for delivering media layers
KR101851089B1 (en)Digital jukebox device with karaoke and/or photo booth features, and associated methods
US20080172704A1 (en)Interactive audiovisual editing system
WO2002052897A1 (en)Virtual sound image localizing device, virtual sound image localizing method, and storage medium
WO2006011398A1 (en)Information processing device and method, recording medium, and program
US20070044137A1 (en)Audio-video systems supporting merged audio streams
US20080134866A1 (en)Filter for dynamic creation and use of instrumental musical tracks
Holman et al.Sound for digital video
JP4513274B2 (en) Electronic information distribution system, information recording / transmission apparatus, information editing / distribution apparatus, and information processing method
US20210247953A1 (en)System and Method for Manipulating and Transmitting Live Media
JP2002259381A (en) Content distribution system and device
JP7503257B2 (en) Content collection and distribution system
BaxterA practical guide to television sound engineering
JP6227456B2 (en) Music performance apparatus and program
JP2012145643A (en)Audio data recording device and audio data recording/utilization system
US20230262271A1 (en)System and method for remotely creating an audio/video mix and master of live audio and video
US20230269435A1 (en)System and method for the creation and management of virtually enabled studio
JP2004240070A (en)On line moving image and audio signal distribution system
JP4387543B2 (en) MOVING IMAGE CREATION DEVICE, ITS CONTROL METHOD, AND STORAGE MEDIUM
TWI530175B (en) Immediately singing video production device
JP5224508B2 (en) Karaoke recorder
KR102013054B1 (en) Method and system for performing performance output and performance content creation
KR100616102B1 (en) Self-acting music file production system and method
KR20180090977A (en)Distributed Multimedia editing System and Method

Legal Events

DateCodeTitleDescription
A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20060417

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20060417

RD04Notification of resignation of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7424

Effective date:20060417

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20090522

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20090609

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20090730

RD03Notification of appointment of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7423

Effective date:20090916

RD04Notification of resignation of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7424

Effective date:20091102

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20100202

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20100329

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20100420

A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20100503

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20130521

Year of fee payment:3

LAPSCancellation because of no payment of annual fees

[8]ページ先頭

©2009-2025 Movatter.jp