Movatterモバイル変換


[0]ホーム

URL:


JP6503457B2 - Audio processing algorithm and database - Google Patents

Audio processing algorithm and database
Download PDF

Info

Publication number
JP6503457B2
JP6503457B2JP2017513241AJP2017513241AJP6503457B2JP 6503457 B2JP6503457 B2JP 6503457B2JP 2017513241 AJP2017513241 AJP 2017513241AJP 2017513241 AJP2017513241 AJP 2017513241AJP 6503457 B2JP6503457 B2JP 6503457B2
Authority
JP
Japan
Prior art keywords
playback
zone
audio
audio signal
processing algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017513241A
Other languages
Japanese (ja)
Other versions
JP2017528083A (en
Inventor
ティモシー・シーン
サイモン・ジャービス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonos Inc
Original Assignee
Sonos Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/481,505external-prioritypatent/US9952825B2/en
Priority claimed from US14/481,514external-prioritypatent/US9891881B2/en
Application filed by Sonos IncfiledCriticalSonos Inc
Publication of JP2017528083ApublicationCriticalpatent/JP2017528083A/en
Application grantedgrantedCritical
Publication of JP6503457B2publicationCriticalpatent/JP6503457B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Classifications

Landscapes

Description

Translated fromJapanese
関連出願の相互参照Cross-reference to related applications

本願は、2014年9月9日に出願された米国特許出願第14/481,505号及び2014年9月9日に出願された米国特許出願第14/481,514号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。  The present application claims priority to US Patent Application Nos. 14 / 481,505 filed on September 9, 2014 and US Patent Application No. 14 / 481,514 filed on September 9, 2014 And is incorporated herein by reference in its entirety.

本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。  The present application relates to consumer products, and more particularly to methods, systems, products, features, services and other elements directed to media playback, and some aspects thereof.

2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介して多数のソースから音楽を体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。  In 2003, Sonoz Inc. filed a patent application entitled "How to synchronize audio playback between multiple network devices", which is one of the first patent applications, and in 2005 sold a media playback system Until then, the options for accessing and listening to digital audio in out-loud settings were limited. People are able to experience music from multiple sources via one or more network playback devices with the Sonoz Wireless HiFi system. Through a software control application installed on a smartphone, tablet or computer, people can play the music they want in any room equipped with a network playback device. Also, for example, the controller can be used to stream different songs to each room with playback devices, or multiple rooms can be grouped for synchronized playback, or synchronized in all rooms You can listen to the same song.

これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。  Given the growing interest in digital media so far, there is a need to further develop consumer accessible technologies that can further enhance the listening experience.

本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。  The features, aspects and advantages of the technology disclosed herein are better understood with reference to the following description, the appended claims and the accompanying drawings.

ある実施形態で実施可能な例示的なメデイア再生システムの構成を示す図Diagram showing the configuration of an exemplary media playback system that can be implemented in an embodiment例示的な再生デバイスの機能ブロック図Functional block diagram of an exemplary playback device例示的な制御デバイスの機能ブロック図Functional block diagram of an exemplary control device例示的なコントローラインタフェースを示す図Diagram showing an example controller interfaceオーディオ処理アルゴリズムのデータベースを保守する第1の方法の例示的なフロー図Exemplary flow diagram of a first method of maintaining a database of audio processing algorithmsオーディオ処理アルゴリズムの第1のデータベースの例示的な部分を示す図Figure showing an exemplary portion of the first database of the audio processing algorithmオーディオ処理アルゴリズムの第2のデータベースの例示的な部分を示す図Diagram showing an exemplary portion of the second database of the audio processing algorithmオーディオ処理アルゴリズムのデータベースを保守する第2の方法の例示的なフロー図Exemplary flow diagram of a second method of maintaining a database of audio processing algorithms再生デバイスが校正されうる例示的な再生ゾーンを示す図Figure showing an exemplary playback zone where the playback device may be calibrated1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する第1の方法の例示的なフロー図An exemplary flow diagram of a first method of determining an audio processing algorithm based on one or more playback zone characteristics1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する第2の方法の例示的なフロー図Exemplary flow diagram of a second method of determining an audio processing algorithm based on one or more playback zone characteristicsオーディオ処理アルゴリズムのデータベースからオーディオ処理アルゴリズムを特定する例示的なフロー図Example flow diagram for identifying an audio processing algorithm from a database of audio processing algorithms

図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。  While the drawings are intended to illustrate some exemplary embodiments, it is understood that the invention is not limited to the arrangements and instrumentality shown in the drawings.

I.概要
再生デバイスが再生ゾーンにおいてオーディオコンテンツを再生するとき、再生の品質は、再生ゾーンの音響特性に依存することがある。本明細書の説明において、再生ゾーンは、1つ又は複数の再生デバイス又は再生デバイスのグループを含むことができる。再生ゾーンの音響特性は、再生ゾーンの寸法、再生ゾーン内の家具の種類、及び再生ゾーン内の家具の配置などに依存することがある。そのため、異なる再生ゾーンは、異なる音響特性を有する場合がある。再生デバイスの所定のモデルは、異なる音響特性を有する様々な異なる再生ゾーンにおいて使用されうるため、単一のオーディオ処理アルゴリズムは、異なる再生ゾーンのそれぞれにおける再生デバイスによる一貫したオーディオ再生品質を提供しないことがある。
I. Overview When a playback device plays audio content in a playback zone, the quality of playback may depend on the acoustic characteristics of the playback zone. In the description herein, a playback zone may include one or more playback devices or groups of playback devices. The acoustic characteristics of the playback zone may depend on the dimensions of the playback zone, the type of furniture in the playback zone, and the placement of the furniture in the playback zone. As such, different playback zones may have different acoustic characteristics. A single audio processing algorithm does not provide consistent audio playback quality by the playback device in each of the different playback zones, as a given model of the playback device may be used in various different playback zones with different acoustic characteristics There is.

本明細書において記載される例は、再生ゾーン内に再生デバイスが存在するような再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することに関する。再生ゾーンにおいてオーディオコンテンツを再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。ある場合では、オーディオ処理アルゴリズムの適用は、オーディオコンテンツの1つ又は複数のオーディオ周波数におけるオーディオ増幅を変更することである。他の例もまた可能である。  The examples described herein relate to determining an audio processing algorithm to be applied by the playback device based on the acoustic characteristics of the playback zone such that the playback device is within the playback zone. The application by the playback device of the determined audio processing algorithm when playing back the audio content in the playback zone may allow the audio content rendered by the playback device in the playback zone to have at least some predetermined audio characteristics. In some cases, the application of the audio processing algorithm is to change the audio amplification at one or more audio frequencies of the audio content. Other examples are also possible.

ある例では、オーディオ処理アルゴリズムのデータベースは保守されてもよく、データベース内のオーディオ処理アルゴリズムは、再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性、及び/又は再生ゾーンの寸法、再生ゾーンの床材及び/又は壁材、並びに再生ゾーン内の家具の数及び/又は種類などのうちの1つ又は複数を含んでもよい。  In one example, a database of audio processing algorithms may be maintained, and the audio processing algorithms in the database may be identified based on one or more characteristics of the playback zone. One or more properties of the regeneration zone may be the acoustic characteristics of the regeneration zone, and / or the dimensions of the regeneration zone, the flooring and / or walling of the regeneration zone, and the number and / or type of furniture in the regeneration zone One or more of them may be included.

オーディオ処理アルゴリズムのデータベースを保守することは、再生ゾーンの1つ又は複数の特性に対応する少なくとも1つのオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムをデータベースに追加することを含んでもよい。ある例では、データベースは、データベースを保守する1つ又は複数のデバイス又は1つ又は複数の他のデバイスに格納されうる。本明細書における説明において、別段の記載がない限り、データベースを保守するための機能は、とりわけ、1つ又は複数のコンピューティングデバイス(すなわち、サーバ)、1つ又は複数の再生デバイス、又は1つ又は複数のコントローラデバイスによって実行されうる。しかしながら、単純化のために、機能を実行する1つ又は複数のデバイスは、一般に、コンピューティングデバイスと称されてもよい。  Maintaining a database of audio processing algorithms may include determining at least one audio processing algorithm corresponding to one or more characteristics of the playback zone, and adding the determined audio processing algorithm to the database . In one example, the database may be stored on one or more devices or one or more other devices that maintain the database. In the description herein, unless otherwise stated, the function for maintaining the database is, inter alia, one or more computing devices (ie servers), one or more playback devices or one Or may be performed by multiple controller devices. However, for the sake of simplicity, one or more devices that perform a function may generally be referred to as computing devices.

ある例では、そのようなオーディオ処理アルゴリズムを決定することは、コンピューティングデバイスが再生ゾーンの音響特性を決定することを含んでもよい。ある場合では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができる再生ゾーンをシミュレートするために使用されるモデルルームであってもよい。そのような場合、モデルルームの1つ又は複数の物理的特性(すなわち、寸法、床材及び壁材など)が予め決定されてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの自宅内の部屋であってもよい。そのような場合、再生ゾーンの物理的特性は、ユーザによって提供されてもよく又は未知であってもよい。  In one example, determining such an audio processing algorithm may include the computing device determining an acoustic characteristic of the playback zone. In some cases, the playback zone may be a model room used to simulate a playback zone where the playback device can play audio content. In such cases, one or more physical characteristics of the model room (i.e., dimensions, flooring, wall materials, etc.) may be predetermined. In another case, the playback zone may be a room in the user's home of the playback device. In such cases, the physical characteristics of the regeneration zone may be provided by the user or may be unknown.

ある例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスにオーディオ信号を再生させてもよい。ある場合では、再生されたオーディオ信号は、再生デバイスによってレンダリング可能な全周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。その後、再生デバイスは、再生デバイスのマイクロホンを使用してオーディオ信号を検出してもよい。再生デバイスのマイクロホンは、再生デバイスの内蔵マイクロホンであってもよい。ある場合では、検出されたオーディオ信号は、再生されたオーディオ信号に対応する部分を含んでもよい。例えば、検出されたオーディオ信号は、再生ゾーン内で反射された再生されたオーディオ信号の成分を含んでもよい。コンピューティングデバイスは、検出されたオーディオ信号を再生デバイスから受信し、検出されたオーディオ信号に基づいて再生ゾーンの音響応答を決定してもよい。  In one example, the computing device may cause the playback device in the playback zone to play back the audio signal. In some cases, the reproduced audio signal may include audio content having a frequency that substantially covers the full frequency range that can be rendered by the reproduction device. The playback device may then detect the audio signal using the playback device's microphone. The microphone of the playback device may be the built-in microphone of the playback device. In some cases, the detected audio signal may include a portion corresponding to the reproduced audio signal. For example, the detected audio signal may comprise a component of the reproduced audio signal reflected within the reproduction zone. The computing device may receive the detected audio signal from the playback device and determine an acoustic response of the playback zone based on the detected audio signal.

そして、コンピューティングデバイスは、再生ゾーンの音響応答から再生デバイスの音響特性を除去することによって再生ゾーンの音響特性を決定してもよい。再生デバイスの音響特性は、再生デバイスのモデルに対応する音響特性であってもよい。ある場合では、再生デバイスのモデルに対応する音響特性は、無響室におけるモデルの代表的な再生デバイスによって再生されて検出されたオーディオ信号に基づいて決定されてもよい。  The computing device may then determine the acoustic characteristics of the reproduction zone by removing the acoustic characteristics of the reproduction device from the acoustic response of the reproduction zone. The acoustic properties of the playback device may be acoustic properties corresponding to a model of the playback device. In some cases, the acoustic characteristics corresponding to the model of the playback device may be determined based on the audio signal played back and detected by a representative playback device of the model in the anechoic chamber.

そして、コンピューティングデバイスは、決定した再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、対応するオーディオ処理アルゴリズムを決定してもよい。所定のオーディオ特性は、良好なサウンディングとみなされる特定の周波数等化を含んでもよい。対応するオーディオ処理アルゴリズムが決定されて、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせてもよい。例えば、再生ゾーンの音響特性が特定のオーディオ周波数が他の周波数よりも減衰されたものである場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数の強めた増幅を含んでもよい。他の例もまた可能である。  The computing device may then determine a corresponding audio processing algorithm based on the determined audio characteristics of the playback zone and the predetermined audio characteristics. The predetermined audio characteristics may include specific frequency equalization that is considered good sounding. The corresponding audio processing algorithm is determined, and the application of the corresponding audio processing algorithm by the playback device when playing audio content in the playback zone is at least partially predetermined to the audio content rendered by the playback device in the playback zone It may have audio characteristics. For example, if the acoustic characteristics of the playback zone are such that a particular audio frequency is attenuated relative to other frequencies, the corresponding audio processing algorithm may include a stronger amplification of the particular audio frequency. Other examples are also possible.

そして、決定されたオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けは、データベース内のエントリとして記憶されてもよい。幾つかの場合では、オーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の他の特性との関連付けが追加的に又は代替的にデータベースに記憶されてもよい。例えば、再生ゾーンが特定の寸法からなる場合、オーディオ処理アルゴリズムと特定の部屋寸法との関連付けがデータベースに記憶されてもよい。他の例もまた可能である。  Then, the association between the determined audio processing algorithm and the acoustic characteristics of the playback zone may be stored as an entry in the database. In some cases, the association of the audio processing algorithm with one or more other characteristics of the playback zone may additionally or alternatively be stored in a database. For example, if the playback zone is of a particular size, the association between the audio processing algorithm and the particular room size may be stored in the database. Other examples are also possible.

ある例では、データベースが、コンピューティングデバイスによってアクセスされることによって、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムが特定されてもよい。ある例では、データベースにアクセスしてオーディオ処理アルゴリズムを特定するコンピューティングデバイスは、上述したように、データベースを保守する同一のコンピューティングデバイスであってもよい。別の例では、コンピューティングデバイスは、異なるコンピューティングデバイスであってもよい。  In an example, the database may be accessed by the computing device to specify an audio processing algorithm for the playback device to apply to the playback zone. In one example, the computing devices that access the database to identify the audio processing algorithm may be the same computing device that maintains the database, as described above. In another example, the computing devices may be different computing devices.

幾つかの場合では、データベースにアクセスして、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムを特定することは、再生デバイスの校正の一部であってもよい。そのような再生デバイスの校正は、再生デバイス自体によって、再生デバイスと通信するサーバによって、又はコントローラデバイスによって開始されてもよい。ある場合では、再生デバイスが新規であり且つ校正が再生デバイスの初期設定の一部であるため、校正が開始されてもよい。別の場合では、再生デバイスは、同一の再生ゾーン内に又はある再生ゾーンから別の再生ゾーンに再配置されてもよい。さらなる場合では、校正は、コントローラデバイスを介してなど、再生デバイスのユーザによって開始されてもよい。  In some cases, accessing the database to identify the audio processing algorithm for the playback device to apply to the playback zone may be part of the playback device's calibration. Such calibration of the playback device may be initiated by the playback device itself, by a server in communication with the playback device, or by the controller device. In some cases, calibration may be initiated as the playback device is new and calibration is part of the playback device's initialization. In other cases, the playback devices may be relocated to within the same playback zone or from one playback zone to another. In further cases, the calibration may be initiated by the user of the playback device, such as via the controller device.

ある例では、再生デバイスの校正は、他の可能性の中でも特に、コンピューティングデバイスが、再生デバイスのユーザに、再生ゾーンの近似寸法、床材又は壁材、家具の量などの再生ゾーンの1つ又は複数の特性を示すように促すことを含んでもよい。コンピューティングデバイスは、コントローラデバイス上のユーザインタフェースを介してユーザに促すことができる。ユーザによって提供される再生ゾーンの1つ又は複数の特性に基づいて、再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムがデータベースにおいて特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに特定されたオーディオ処理アルゴリズムを適用してもよい。  In one example, calibration of the playback device may, among other possibilities, allow the computing device to tell the user of the playback device one of the approximate dimensions of the playback zone, the floor material or wall material, the amount of furniture, etc. Prompting to indicate one or more characteristics may be included. The computing device can prompt the user via a user interface on the controller device. Based on one or more characteristics of the playback zone provided by the user, an audio processing algorithm corresponding to the one or more characteristics of the playback zone may be identified in the database, thus the playback device may The audio processing algorithm specified when playing back the audio content may be applied.

別の例では、再生デバイスの校正は、再生ゾーンの音響特性を決定すること、及び再生ゾーンの音響特性に基づいて対応するオーディオ処理アルゴリズムを特定することを含んでもよい。再生ゾーンの音響特性の決定は、上述したものと同様であってもよい。例えば、再生デバイスが校正されている再生ゾーン内の再生デバイスは、第1のオーディオ信号を再生した後に、再生デバイスのマイクロホンを使用して第2のオーディオ信号を検出してもよい。そして、第2のオーディオ信号は、再生ゾーンの音響特性を決定することに基づいてもよい。決定された音響特性に基づいて、対応するオーディオ処理アルゴリズムがデータベース内で特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。上述したように、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。  In another example, calibration of the playback device may include determining acoustic characteristics of the playback zone and identifying corresponding audio processing algorithms based on the acoustic characteristics of the playback zone. The determination of the acoustic properties of the reproduction zone may be similar to those described above. For example, the playback device in the playback zone where the playback device is calibrated may use the microphone of the playback device to detect the second audio signal after playing the first audio signal. The second audio signal may then be based on determining the acoustic characteristics of the playback zone. Based on the determined audio characteristics, a corresponding audio processing algorithm may be identified in the database, so the playback device applies the identified audio processing algorithm when playing back the audio content in the playback zone. May be As mentioned above, the application of the corresponding audio processing algorithm by the playback device when playing back audio content in the playback zone causes the audio content rendered by the playback device in the playback zone to have at least some predetermined audio characteristics be able to.

上述した再生デバイスの校正についての説明は、一般に、オーディオ処理アルゴリズムのデータベースを含むが、当業者は、コンピューティングデバイスがデータベースにアクセスすることなく再生ゾーンについてのオーディオ処理アルゴリズムを決定することができることを理解するであろう。例えば、データベース内の対応するオーディオ処理アルゴリズムを特定する代わりに、コンピューティングデバイスは、(検出されたオーディオ信号からの)再生ゾーンの音響特性と、データベースについてのオーディオ処理アルゴリズムエントリの保守及び生成に関連して上述したものと同様の所定のオーディオ特性とに基づいて、オーディオ処理アルゴリズムを計算することによってオーディオ処理アルゴリズムを決定することができる。他の例もまた可能である。  While the above description of playback device calibration generally includes a database of audio processing algorithms, one skilled in the art can determine that the audio processing algorithm for the playback zone can be determined without the computing device accessing the database. You will understand. For example, instead of identifying the corresponding audio processing algorithm in the database, the computing device is associated with the acoustic characteristics of the playback zone (from the detected audio signal) and the maintenance and generation of audio processing algorithm entries for the database The audio processing algorithm may be determined by computing an audio processing algorithm based on the same predetermined audio characteristics as those described above. Other examples are also possible.

ある場合では、校正されるべき再生デバイスは、再生ゾーンにおいてオーディオコンテンツを同期して再生するように構成された複数の再生デバイスのうちの1つであってもよい。そのような場合、再生ゾーンの音響特性の決定は、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号を含むこともできる。ある例では、オーディオ処理アルゴリズムを決定している間、再生ゾーンにおける複数の再生デバイスのそれぞれは、同時にオーディオ信号を再生することができ、再生デバイスのマイクロホンによって検出されたオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分とともに、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号の部分を含んでもよい。検出されたオーディオ信号に基づいて、再生ゾーンの音響応答を決定することができ、再生ゾーンの音響応答から校正されている再生デバイスの音響特性を除去することによって、他の再生デバイスを含む再生ゾーンの音響特性を決定することができる。そして、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に基づいてデータベース内で計算又は特定され、再生デバイスによって適用されうる。  In some cases, the playback device to be calibrated may be one of a plurality of playback devices configured to synchronously play audio content in a playback zone. In such cases, the determination of the acoustic characteristics of the playback zone may also include audio signals played back by other playback devices within the playback zone. In one example, while determining the audio processing algorithm, each of the plurality of playback devices in the playback zone can simultaneously play the audio signal, and the audio signal detected by the playback device's microphone is detected by the playback device It may include portions corresponding to the reproduced audio signal as well as portions of the audio signal reproduced by other reproduction devices in the reproduction zone. The acoustic response of the playback zone can be determined based on the detected audio signal, and the playback zone includes other playback devices by removing the acoustic characteristics of the playback device being calibrated from the acoustic response of the playback zone The acoustic characteristics of the can be determined. The audio processing algorithm may then be calculated or identified in the database based on the acoustic characteristics of the playback zone and applied by the playback device.

別の場合では、再生ゾーン内の複数の再生デバイスにおける2つ以上の再生デバイスは、各内蔵マイクロホンをそれぞれ有することができ、上記記載にしたがってそれぞれ個別に校正されうる。1つの例において、2つ以上の再生デバイスのそれぞれのマイクロホンによって検出されたオーディオ信号の集合に基づいて、再生ゾーンの音響特性が決定されてもよく、音響特性に対応するオーディオ処理アルゴリズムは、2つ以上の再生デバイスのそれぞれについて特定されてもよい。他の例もまた可能である。  In another case, the two or more reproduction devices in the plurality of reproduction devices in the reproduction zone may each have their own built-in microphones and may be individually calibrated according to the above description. In one example, the acoustic properties of the playback zone may be determined based on the set of audio signals detected by the microphones of the two or more playback devices, and the audio processing algorithm corresponding to the acoustic properties is 2 It may be identified for each of the one or more playback devices. Other examples are also possible.

上述したように、本開示は、再生デバイスを含む特定の再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含む。1つの態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。本機能は、さらに、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。  As mentioned above, the present disclosure includes determining the audio processing algorithm that the playback device applies based on the acoustic characteristics of the particular playback zone that includes the playback device. In one aspect, a computing device is provided. The computing device includes a processor and a memory that is executable by the processor and stores instructions that cause the computing device to perform the function. The function includes causing the playback device in the playback zone to play the first audio signal, and receiving data from the playback device indicative of the second audio signal detected by the playback device's microphone. The second audio signal includes a portion corresponding to the first audio signal. The function further includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and transmitting data indicative of the determined audio processing algorithm to the playback device.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、第1の再生デバイスに再生ゾーンにおいて第1のオーディオ信号を再生させること、第2の再生デバイスに再生ゾーンにおいて第2のオーディオ信号を再生させること、及び第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを第1の再生デバイスから受信することを含む。第3のオーディオ信号は、(i)第1のオーディオ信号に対応する部分と、(ii)第2の再生デバイスによって再生された第2のオーディオ信号に対応する部分とを含む。また、本機能は、第3のオーディオ信号及び第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを第1の再生デバイスに送信することを含む。  In another aspect, a computing device is provided. The computing device includes a processor and a memory that is executable by the processor and stores instructions that cause the computing device to perform the function. The function causes the first reproduction device to reproduce the first audio signal in the reproduction zone, causes the second reproduction device to reproduce the second audio signal in the reproduction zone, and the microphone of the first reproduction device. Receiving data indicative of the third audio signal detected by the second reproduction device from the first reproduction device. The third audio signal includes (i) a portion corresponding to the first audio signal and (ii) a portion corresponding to the second audio signal reproduced by the second reproduction device. The function also determines an audio processing algorithm based on the third audio signal and the acoustic characteristics of the first playback device, and transmits data indicative of the determined audio processing algorithm to the first playback device. Including.

別の態様において、再生デバイスが提供される。再生デバイスは、プロセッサと、マイクロホンと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーンにおいて第1のオーディオ信号を再生しながら、マイクロホンによって第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び再生ゾーンにおいてメディアアイテムを再生するときに、決定されたオーディオ処理アルゴリズムをメディアアイテムに対応するオーディオデータに適用することを含む。  In another aspect, a playback device is provided. The playback device includes a processor, a microphone, and a memory that is executable by the processor and stores instructions that cause the playback device to perform the function. The function includes detecting the second audio signal by the microphone while playing the first audio signal in the playback zone. The second audio signal includes a portion corresponding to the first audio signal. The function also determines an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and the audio processing algorithm determined when playing back the media item in the playback zone. Including applying to audio data corresponding to

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、及びオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。  In another aspect, a computing device is provided. The computing device includes a processor and a memory that is executable by the processor and stores instructions that cause the computing device to perform the function. The function includes causing the playback device in the playback zone to play the first audio signal and receiving data indicative of the second audio signal detected by the playback device's microphone. The second audio signal includes a portion corresponding to the first audio signal reproduced by the reproduction device. The function also includes determining an acoustic characteristic of the reproduction zone based on the second audio signal and the characteristics of the reproduction device, determining an audio processing algorithm based on the acoustic characteristic of the reproduction zone, and an audio processing algorithm Storing the association of the playback zone with the acoustic characteristics in a database.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び(i)再生ゾーンの1つ又は複数の特性を示すデータと、(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータとを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。  In another aspect, a computing device is provided. The computing device includes a processor and a memory that is executable by the processor and stores instructions that cause the computing device to perform the function. The function causes the playback device in the playback zone to play the first audio signal, and (i) data indicative of one or more characteristics of the playback zone, and (ii) detected by the microphone of the playback device. Receiving data indicative of the second audio signal. The second audio signal includes a portion corresponding to the audio signal reproduced by the reproduction device. Also, the function determines an audio processing algorithm based on the second audio signal and the characteristics of the playback device, and the determined audio processing algorithm and at least one of the one or more characteristics of the playback zone. Storing the association in a database.

別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応する。また、本機能は、再生ゾーンの1つ又は複数の特性を示すデータを受信すること、データに基づいてオーディオ処理アルゴリズムをデータベースにおいて特定すること、及び特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。  In another aspect, a computing device is provided. The computing device includes a processor and a memory that is executable by the processor and stores instructions that cause the playback device to perform the function. The function includes maintaining a database of (i) audio processing algorithms and (ii) playback zone characteristics. Each audio processing algorithm of the plurality of audio processing algorithms corresponds to at least one playback zone characteristic of the plurality of playback zone characteristics. The function also receives receiving data indicative of one or more characteristics of the playback zone, identifying an audio processing algorithm in the database based on the data, and transmitting data indicative of the identified audio processing algorithm. including.

本明細書に記載の幾つかの例は、「ユーザ」及び/又は他の実体のような任意の主体によって行われる機能について言及するが、このことは単に例示目的であると理解されるべきである。特許請求の範囲は、特許請求の範囲自体の記載によって明示的に要請されない限り、そのような例示の主体の動作であることを要請するものと解釈されてはならない。当業者にとって、本開示には他の複数の実施形態が含まれることは理解されるであろう。  Although some examples described herein refer to functions performed by any entity, such as "user" and / or other entities, it should be understood that this is merely for illustrative purposes. is there. The claims should not be construed as requiring operation of such example entities unless expressly stated by the claims themselves. Those skilled in the art will appreciate that the present disclosure includes other embodiments.

II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境と関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102−124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
II. Exemplary Operating Environment FIG. 1 illustrates an exemplary configuration of amedia playback system 100 that can or can be implemented in one or more embodiments disclosed herein. As shown, themedia playback system 100 is associated with an exemplary home environment having multiple rooms and spaces, eg, a master bedroom, an office, a dining room, and a living room. As shown in the example of FIG. 1, themedia playback system 100 includes playback devices 102-124,control devices 126 and 128, and a wired orwireless network router 130.

更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。  Further, descriptions of the different components of the exemplarymedia playback system 100 and how the different components work to provide the user with a media experience are described in the following sections. Although the description herein generally refers to themedia playback system 100, the techniques described herein are not limited to the use of the home environment shown in FIG. For example, the techniques described herein may be used in environments where multi-zone audio is desired, such as commercial environments such as restaurants, malls, or airports, sport utility vehicles (SUVs), buses or vehicles. It is useful in the environment of vehicles, ships, or boards, airplanes, etc.

a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102−124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでいてもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
a. Exemplary Playback Device FIG. 2 shows a functional block diagram of an exemplary playback device 200 that configures one or more of the playback devices 102-124 of themedia playback system 100 of FIG. The playback device 200 may include a processor 202, software components 204,memory 206, audio processing components 208, audio amplifiers 210, speakers 212, microphones 220, and network interface 214. Network interface 214 includes wireless interface 216 and wired interface 218. In some cases, the playback device 200 does not include the speaker 212, but may include a speaker interface for connecting the playback device 200 to an external speaker. In other cases, the playback device 200 does not include the speaker 212 or the audio amplifier 210, but may include an audio interface for connecting the playback device 200 to an external audio amplifier or an audio visual receiver.

ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。  In one example, processor 202 may be a clocked computer component configured to process input data based on instructions stored inmemory 206.Memory 206 may be a non-transitory computer readable storage medium configured to store instructions executable by processor 202. For example,memory 206 may be data storage capable of loading one or more of software components 204 executable by processor 202 to perform certain functions. In one example, the function may include the playback device 200 reading audio data from an audio source or another playback device. In another example, the function may include the playback device 200 transmitting audio data to another device on the network or to the playback device. In yet another example, the functionality may include pairing playback device 200 with one or more playback devices to create a multi-channel audio environment.

ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。  Certain functions include the playback device 200 synchronizing playback of audio content with one or more other playback devices. Preferably, while synchronizing playback, the listener is not aware of the delay between playback of audio content by playback device 200 and playback by one or more other playback devices. U.S. Pat. No. 8,234,395 entitled "System and Method for Synchronizing Operation Between Multiple Independent Clock Digital Data Processing Devices" is incorporated herein by reference, which provides for audio playback between playback devices. It provides a more detailed example where synchronization is stated.

更に、メモリ206は、データを記憶するように構成されていてもよい。データは、例えば、1つ又は複数のゾーンおよび/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)と関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態と関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムと関連するほぼ直近のデータを有してもよい。他の実施形態も可能である。  Additionally,memory 206 may be configured to store data. The data may be, for example, a playback device 200, such as a playback device 200 included as part of one or more zones and / or zone groups, an audio source accessible by the playback device 200, or a playback device 200 (or other playback Associated with the playback queue, which can be associated with the device). The data may be updated periodically and stored as one or more state variables that indicate the state of the playback device 200.Memory 206 may also include data associated with the state of other devices of the media system, with one or more devices at or near their most recent data associated with the system, by sharing between devices at any time. You may have. Other embodiments are also possible.

オーディオ処理コンポーネント208は、とりわけ、1つ又は複数のデジタル−アナログ変換器(DAC)、アナログ−デジタル変換器(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)を含んでいてもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理および/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、および/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。  Audio processing component 208 includes, among other things, one or more digital-to-analog converters (DACs), analog-to-digital converters (ADCs), audio processing components, audio enhancement components, and digital signal processors (DSPs). It is also good. In one embodiment, one or more audio processing components 208 may be subcomponents of processor 202. In one embodiment, audio content may be processed and / or intentionally modified by audio processing component 208 to generate an audio signal. The generated audio signal is transmitted to the audio amplifier 210, amplified, and reproduced through the speaker 212. In particular, audio amplifier 210 may include a device configured to amplify the audio signal to a level that can drive one or more speakers 212. The speaker 212 may comprise a complete speaker system, including an independent transducer (e.g., a "driver") or a housing that encloses one or more drivers. Some drivers provided in the speaker 212 may include, for example, a subwoofer (for example, for low frequencies), a middle range driver (for example, for intermediate frequencies), and / or a tweeter (for high frequencies). In some cases, each transducer of one or more speakers 212 may be driven by a corresponding individual audio amplifier of audio amplifier 210. In addition to generating an analog signal for playback on playback device 200, audio processing component 208 processes the audio content and transmits the audio content for playback to one or more other playback devices.

再生デバイス200によって処理および/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン−イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。  Audio content to be processed and / or reproduced by the reproduction device 200 is received via an external source, eg, an audio line-in input connection (eg, auto-detecting 3.5 mm audio line-in connection) or the network interface 214. May be

マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されうる。マイクロホン220は、再生デバイス200における1つ又は複数の位置において1つ又は複数の向きに配置されうる。マイクロホン220は、1つ又は複数の周波数レンジ内のサウンドを検出するように構成されうる。ある場合では、1つ又は複数のマイクロホン220は、再生デバイス200が可能であるか又はレンダリングしているオーディオの周波数レンジ内のサウンドを検出するように構成されうる。別の場合では、1つ又は複数のマイクロホン220は、人間の可聴周波数レンジ内のサウンドを検出するように構成されてもよい。他の例もまた可能である。  The microphone 220 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signals may be processed by the audio processing component 208 and / or the processor 202. The microphones 220 may be arranged in one or more orientations at one or more locations in the playback device 200. Microphone 220 may be configured to detect sound within one or more frequency ranges. In some cases, one or more microphones 220 may be configured to detect sounds within the frequency range of audio that the playback device 200 is capable or rendering. In another case, one or more microphones 220 may be configured to detect sound in the human audio frequency range. Other examples are also possible.

ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されていてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。  Network interface 214 may be configured to enable data flow between playback device 200 and one or more other devices over a data network. Thus, the playback device 200 may be a data network from one or more other playback devices in communication with the playback device, a network device in a local area network, or an audio content source on a wide area network such as, for example, the Internet. May be configured to receive audio content. In one example, audio content and other signals sent and received by the playback device 200 may be sent in the form of digital packets that include an Internet Protocol (IP) based source address and an IP based destination address. In such a case, the network interface 214 can appropriately receive and process data addressed to the playback device 200 by the playback device 200 by analyzing the digital packet data.

図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでいてもよい。  As shown, network interface 214 may include wireless interface 216 and wired interface 218. The wireless interface 216 provides a network interface function for the playback device 200 and a communication protocol (eg, wireless standard IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11n, 802.11ac, 802.15, 4G mobile) Other devices (eg, other playback devices in the data network associated with the playback device 200, speakers, receivers, network devices, control devices) based on any of the wireless standards (standards) including communication standards etc. It may communicate wirelessly. The wired interface 218 provides a network interface function for the playback device 200 and may communicate via a wired connection with other devices based on a communication protocol (eg, IEEE 802.3). Although the network interface 214 shown in FIG. 2 includes both the wireless interface 216 and the wired interface 218, the network interface 214 may, in certain embodiments, include only the wireless interface or only the wired interface. Good.

ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。  In one example, playback device 200 and another playback device may be paired to play two separate audio components of audio content. For example, playback device 200 may be configured to play left channel audio components, while other playback devices may be configured to play right channel audio components. This can create or enhance stereo effects of the audio content. Paired playback devices (also referred to as "combined playback devices") may also play audio content in synchronization with other playback devices.

別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。  In another example, the playback device 200 may be acoustically integrated with one or more other playback devices to form a single integrated playback device (integrated playback device). The integrated playback device can be configured to process and reproduce sound differently as compared to a non-integrated playback device or paired playback device. This is because the integrated playback device can add a speaker that plays audio content. For example, if the playback device 200 is designed to play audio content in the low frequency range (eg, a subwoofer), the playback device 200 is designed to play audio content in the full frequency range It may be integrated with the device. In this case, the full frequency range playback device may be configured to play only the mid-high frequency component of the audio content when integrated with the low frequency playback device 200. On the other hand, the low frequency range playback device 200 plays back the low frequency component of the audio content. Furthermore, the integrated playback device may be paired with a single playback device, or even another integrated playback device.

例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、および/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。  As an example, Sonoz Inc. currently plays including "PLAY: 1", "PLAY: 3", "PLAY: 5", "PLAYBAR", "CONNECT: AMP", "CONNECT", and "SUB" We offer devices for sale. Any other past, present, and / or future playback devices may additionally or alternatively be implemented and used in the playback devices of the embodiments disclosed herein. Further, it is understood that the playback device is not limited to the particular example shown in FIG. 2 or the provided Sonoz product. For example, the playback device may include wired or wireless headphones. In another example, the playback device may include or interact with a docking station for a personal mobile media playback device. In yet another example, the playback device may be integrated with another device or component, such as a television, a light fixture, or some other device for indoor or outdoor use.

b.例示的な再生ゾーン構成
図1のメディア再生システム100に戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、および/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでいてもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでいてもよい。
b. Exemplary Playback Zone Configuration Returning to themedia playback system 100 of FIG. 1, the environment includes one or more playback zones, each playback zone including one or more playback devices. Themedia playback system 100 is formed of one or more playback zones, and one or more zones may be added or deleted later to provide the exemplary configuration shown in FIG. Each zone may be given a name based on a different room or space, for example an office, a bathroom, a master bedroom, a bedroom, a kitchen, a dining room, a living room, and / or a balcony. In some cases, a single regeneration zone may include multiple rooms or spaces. In another case, a single room or space may include multiple playback zones.

図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。  As shown in FIG. 1, each of the balcony, dining room, kitchen, bathroom, office, and bedroom zones have one playback device, while each of the living room and master bedroom zones has a plurality of playback devices. Have. In the living room zone, theplayback devices 104, 106, 108, and 110 may be separate playback devices, one or more combined playback devices, one or more integrated playback devices, or any of these Audio content may be configured to be synchronized and played back in any combination. Similarly, in the case of the master bedroom, theplayback devices 122 and 124 may be configured to play audio content synchronously as separate playback devices, as combined playback devices, or as integrated playback devices. .

ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト−ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。  In one example, one or more playback zones in the environment of FIG. 1 are playing different audio content. For example, the user can listen to hip-hop music played by theplayback device 102 while grilling in the balcony zone. Meanwhile, another user can listen to the classical music played by theplayback device 114 while preparing a meal in the kitchen zone. In another example, the playback zone may play the same audio content in synchronization with another playback zone. For example, if the user is in the office zone, the officezone playback device 118 may play the same music as the music being played on thebalcony playback device 102. In such a case, theplayback devices 102 and 118 are playing the rock music synchronously, so that the user moves between different playback zones seamlessly (or at least the audio content played out-loudly). Almost seamless). Synchronization between playback zones may be performed in the same manner as synchronization between playback devices as described in the aforementioned U.S. Patent No. 8,234,395.

上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、および/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。  As mentioned above, the zone configuration ofmedia playback system 100 may be changed dynamically, and in an embodiment,media playback system 100 supports multiple configurations. For example, if a user physically moves one or more playback devices into or out of a zone,media playback system 100 may be reconfigured to accommodate changes. For example, if the user physically moves theplayback device 102 from the balcony zone to the office zone, the office zone may include both theplayback device 118 and theplayback device 102. If desired,playback devices 102 may be paired, or grouped into office zones, and / or renamed, via control devices, eg,control devices 126 and 128. On the other hand, if one or more playback devices are moved to an area in a home environment where the playback zone has not yet been set, a new playback zone may be formed in that area.

更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。  Further, different playback zones of themedia playback system 100 may be dynamically combined into zone groups or may be divided into separate playback zones. For example, by combining the dining room zone and thekitchen zone 114 into a dinner party zone group, theplayback devices 112 and 114 can synchronize and play audio content. On the other hand, if one user wants to watch TV while the other wants to listen to music in the living room space, the living room zone comprises a television zone including playback device 104 and a listening zone includingplayback devices 106, 108 and 110. And may be divided.

c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126と128とうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、及びマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
c. Exemplary Control Device FIG. 3 shows a functional block diagram of an exemplary control device 300 that configurescontrol device 126 and / or 128 ofmedia playback system 100. As shown, control device 300 may include processor 302, memory 304, network interface 306, user interface 308, and microphone 310. In one example, control device 300 may be a control device dedicated tomedia playback system 100. In another example, the control device 300 may be a network device with media playback system controller application software installed, such as an iPhone®, iPad®, or any other smartphone, tablet or network device (eg, , PC or a network computer such as Mac (registered trademark).

プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されていてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されていてもよい。  Processor 302 may be configured to perform functions related to enabling user access, control, and configuration ofmedia playback system 100. Memory 304 may be configured to store instructions executable by processor 302 and to perform those functions. Memory 304 may also be configured to store media playback system controller application software and other data associated withmedia playback system 100 and the user.

マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、プロセッサ302によって処理されうる。ある場合では、制御デバイス300が音声通信又は音声録音のための手段として使用されることもできるデバイスである場合、1つ又は複数のマイクロホン310は、それらの機能を容易にするマイクロホンであってもよい。例えば、1つ又は複数のマイクロホン310は、人間が生成可能な周波数レンジ及び/又は人間の可聴周波数レンジ内のサウンドを検出するように構成されうる。他の例もまた可能である。  The microphone 310 may include an audio sensor configured to convert the detected sound into an electrical signal. The electrical signals may be processed by the processor 302. In some cases, where the control device 300 is a device that can also be used as a means for voice communication or voice recording, the one or more microphones 310 may even be microphones that facilitate their function. Good. For example, one or more microphones 310 may be configured to detect sound within a human-generated frequency range and / or a human audio frequency range. Other examples are also possible.

ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。  In one example, the network interface 306 may be an industrial standard (eg, infrared, wireless, wired standard such as IEEE 802.3, IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11n, 802.15, etc. Wireless standard, 4G communication standard, etc.). Network interface 306 may provide a means for control device 300 to communicate with other devices withinmedia playback system 100. In an example, data and information (eg, state variables) may be communicated between control device 300 and other devices via network interface 306. For example, the configuration of playback zones and zone groups in themedia playback system 100 may be received by the control device 300 from a playback device or another network device, or alternatively by the control device 300 via the network interface 306. It may be sent to a playback device or a network device. In some cases, the other network device may be another control device.

ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。  Playback device control commands, such as volume control and audio playback control, may be communicated from control device 300 to the playback device via network interface 306. As described above, the configuration change of themedia playback system 100 can be performed by the user using the control device 300. Configuration changes include adding one or more playback devices to the zone, removing one or more playback devices from the zone, adding one or more zones to the zone group, one or more May be removed from the zone group, forming a combined player or an integrated player, separating the combined player or integrated player into one or more playback devices, and so on. Thus, control device 300 may be referred to as a controller, which may be a dedicated controller with installed media playback system controller application software or may be a network device.

制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されていてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(および/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。  User interface 308 of control device 300 may be configured to allow user access and control ofmedia playback system 100 by providing a controller interface, such as controller interface 400 shown in FIG. . The controller interface 400 includes a playback control area 410, a playback zone area 420, a playback status area 430, a playback queue area 440, and an audio content source area 450. The illustrated user interface 400 is merely one example of a user interface provided with a network device (and / or thecontrol devices 126 and 128 of FIG. 1) such as the control device 300 of FIG. It may be accessed to control a media playback system such assystem 100. Alternatively, various formats, styles, and interactive sequences may be implemented on other user interfaces on one or more network devices to provide similar control access to the media playback system.

再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。  The playback control area 410 may include an icon that can be selected (e.g., using a touch or a cursor). This icon allows playback devices in the selected playback zone or zone group to play or stop, fast forward, rewind, then skip, skip forward, shuffle mode on / off, repeat mode on / off, cross Turn on / off fade mode. The playback control area 410 may include another selectable icon. Other selectable icons may change other settings such as equalization settings and playback volume.

再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。  The playback zone area 420 may include an indication of playback zones within themedia playback system 100. In one embodiment, graphical display of the playback zone may be selectable. By moving additional selectable icons, playback zones within the media playback system can be managed or configured. For example, other management or configuration may be performed, such as creating combined zones, creating zone groups, splitting zone groups, and renaming zone groups.

例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。  For example, as shown, a "group" icon may be provided on each of the graphical representations of the playback zone. A "group" icon in the graphic display of a zone may be selectable to select one or more zones in the media playback system to present an option to group with a zone. Once grouped, playback devices in a zone grouped with a zone are configured to play audio content in synchronization with playback devices in the zone. Similarly, a "group" icon may be provided in the graphical representation of the zone group. In this case, the "group" icon is selectable to give the option of deselecting one or more zones in the zone group in order to remove one or more zones in the zone group from the zone group It may be. Other interactions for grouping and ungrouping zones via user interfaces, such as user interface 400, are possible and can be implemented. The display of playback zones in the playback zone area 420 may be dynamically updated as the playback zone or zone group configuration is changed.

再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420および/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでいてもよい。  The playback status area 430 displays a graphical representation of the currently played audio content, previously played audio content, or audio content scheduled to be played next within the selected playback zone or zone group. May be included. Selectable playback zones or playback groups may be visually distinguished on the user interface, for example, within playback zone region 420 and / or playback status region 430. The graphic display includes the track title, artist name, album name, album year, track length, and other relevant information useful to the user when controlling the media playback system via the user interface 400. It is also good.

再生キュー領域440は、選択された再生ゾーン又はゾーングループと関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューと関連付けられていてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでいてもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、および/又は取り出し、再生デバイスによって再生することができる。  The play queue area 440 may include a graphical representation of audio content in a play queue associated with the selected play zone or zone group. In one embodiment, each playback zone or zone group may be associated with a playback queue that includes information corresponding to zero or more audio items played by the playback zone or group. For example, each audio item in the playback queue may include a URL, a URL, or any other identifier that can be used by a playback device within a playback zone or zone group. It may be These allow audio items to be found and / or retrieved from local audio content sources or network audio content sources and played back by the playback device.

ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオおよび/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「未使用」とすることができる。他の例も可能である。  In one example, a playlist may be added to the play queue. In this case, information corresponding to each audio item in the playlist may be added to the playback queue. In another example, audio items in the play queue may be saved as a playlist. In yet another example, when the playback device continues to play streaming audio content, eg, an internet radio that is played continuously unless stopped, rather than an audio item that is not played continuously by having a play time, The playback queue may be empty or "unused" but filled. In another embodiment, the playback queue may include Internet radio and / or other streaming audio content items, and be "unused" when a playback zone or zone group is playing those items. Can. Other examples are also possible.

再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有していてもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。  When a playback zone or zone group is "grouped" or "ungrouped", the playback queue associated with the affected playback zone or zone group may be cleared or reassociated May be For example, if a first playback zone that includes a first playback queue is grouped with a second playback zone that includes a second playback queue, the formed zone group may have an associated playback queue . The associated play queue is initially empty or contains an audio item of the first play queue (eg, if the second play zone is added to the first play zone) (eg, the first play) If a zone is added to the second playback zone, the audio items of the second playback queue may be included, or audio items of both the first playback queue and the second playback queue may be combined. Thereafter, if the formed zone group is ungrouped, the ungrouped first reproduction zone may be reassociated with the previous first reproduction queue or may be associated with an empty new reproduction queue Or may be associated with a new play queue that includes audio items of the play queue that were associated with the zone group before the zone group was ungrouped. Similarly, the ungrouped second playback zone may be reassociated with the previous second playback queue, may be associated with an empty new playback queue, or before the zone group is ungrouped. , And may be associated with a new playback queue that includes audio items of the playback queue that were associated with the zone group.

図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツと関連付けられた他の関連情報を含んでいてもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キューおよび/又は再生キューに表示されたオーディオコンテンツを管理および/又は操作することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、および/又は他の指定のデバイスのメモリに記憶されていてもよい。  Returning to the user interface 400 of FIG. 4, a graphical representation of the audio content in the play queue area 440 includes the track title, artist name, track length, and other relevant information associated with the audio content in the play queue. May be included. In one example, graphical representations of audio content can be moved by selecting additional selectable icons. This allows the management and / or manipulation of the playback cue and / or the audio content displayed in the playback cue. For example, the displayed audio content may be removed from the playback queue, moved to a different position in the playback queue, played immediately or played after the currently playing audio content. May be selected or other operations may be performed. The playback queue associated with the playback zone or zone group may be the memory of one or more playback devices in the playback zone or zone group, the memory of playback devices not in the playback zone or zone group, and / or other designations May be stored in the memory of the device.

オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。  Audio content source area 450 may include a graphical representation of selectable audio content sources. In this audio content source, the audio content may be retrieved and played by the selected playback zone or zone group. Descriptions of audio content sources can be found in the following sections.

d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されていてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン−イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
d. Exemplary Audio Content Source As illustrated previously, one or more playback devices in a zone or zone group may have multiple audio content to play (e.g., based on the corresponding URI or URL of the audio content) May be configured to be retrieved from a source of available audio content. In one example, audio content may be retrieved directly from the corresponding audio content source (eg, line-in connection) by the playback device. In another example, audio content may be provided to playback devices on the network via one or more other playback devices or network devices.

例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン−イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。  An exemplary audio content source may include memory of one or more playback devices in a media playback system. As the media playback system, for example, themedia playback system 100 of FIG. 1, a local music library on one or more network devices (for example, a control device, a network compatible personal computer, or a network attached storage (NAS)), A streaming audio service providing audio content via the Internet (eg cloud), or an audio source connected to a media playback system via a playback device or a line-in input connection of a network device, or other possible system May be

ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。  In one embodiment, audio content sources may be periodically added to or removed from media playback systems, such as themedia playback system 100 of FIG. In one example, indexing of audio items may be performed each time one or more audio content sources are added, removed or updated. Audio item indexing may include scanning for identifiable audio items in all folders / directories shared over the network. Here, the network is accessible by the playback device in the media playback system. Also, the indexing of audio items may include creating or updating an audio content database that includes metadata (eg, title, artist, album, track length, etc.) and other relevant information. Good. Other relevant information may include, for example, a URI or a URL for finding each identifiable audio item. Other examples for managing and maintaining audio content sources are also possible.

再生デバイス、制御デバイス、再生ゾーン構成、およびメディアコンテンツソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。  The above description of the playback device, the control device, the playback zone configuration, and the media content source provides only a few exemplary operating environments in which the functions and methods described below can be implemented. The invention is applicable to other operating environments and configurations of media playback systems, playback devices, and network devices not explicitly mentioned herein, and to implement their functions and methods. Is suitable.

III.信号処理アルゴリズムのデータベースの保守
上述したように、本明細書で説明される幾つかの例は、オーディオ処理アルゴリズムのデータベースを保守することに関連する。幾つかの場合において、データベースの保守は、さらに、データベースについてのオーディオ処理アルゴリズムのエントリを生成及び/又は更新することを含んでもよい。データベースにおけるオーディオ処理アルゴリズムのそれぞれは、再生ゾーンの1つ又は複数の特性に対応することができる。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。以下の説明は、一般に、データベース内のエントリとして記憶されるオーディオ処理アルゴリズムを決定することに関する。しかし、当業者は、類似の機能がデータベース内の既存のエントリを更新するために実行されてもよいことを理解するであろう。データベースにアクセスして、特定の再生ゾーンにおけるオーディオコンテンツを再生するときに、再生デバイスが適用するオーディオ処理アルゴリズムを特定することができる。
III. Maintaining a Database of Signal Processing Algorithms As mentioned above, some examples described herein relate to maintaining a database of audio processing algorithms. In some cases, maintenance of the database may further include generating and / or updating audio processing algorithm entries for the database. Each of the audio processing algorithms in the database may correspond to one or more characteristics of the playback zone. In one example, one or more characteristics of the playback zone may include acoustic characteristics of the playback zone. The following description relates generally to determining audio processing algorithms stored as entries in a database. However, one skilled in the art will appreciate that similar functions may be performed to update existing entries in the database. The database may be accessed to identify the audio processing algorithm that the playback device applies when playing audio content in a particular playback zone.

a.オーディオ処理アルゴリズム及び再生ゾーンの対応する音響特性の例示的データベース
図5は、オーディオ処理アルゴリズム及び再生ゾーン音響特性のデータベースを保守する方法500の例示的なフロー図を示している。上述したように、オーディオ処理アルゴリズムのデータベースを保守することは、データベースに記憶されるオーディオ処理アルゴリズムを決定することを含んでもよい。図5に示される方法500は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法500は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されうる。別の例では、方法500の幾つか又は全ての機能は、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. Exemplary Database of Audio Processing Algorithms and Corresponding Acoustic Characteristics of Playback Zones FIG. 5 shows an exemplary flow diagram of amethod 500 of maintaining a database of audio processing algorithms and playback zone acoustic characteristics. As mentioned above, maintaining a database of audio processing algorithms may include determining audio processing algorithms stored in the database. Themethod 500 shown in FIG. 5 is implemented, for example, in an operating environment including themedia playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, and one or more control devices 300 of FIG. 7 illustrates an embodiment of a method that can be performed. In one example,method 500 may be performed by a computing device in communication with a media playback system, such asmedia playback system 100. In another example, some or all of the functionality ofmethod 500 may alternatively be one or more of one or more servers, one or more playback devices, and / or one or more controller devices, etc. It may be performed by several other computing devices.

方法500は、ブロック502−510の1つ又は複数によって構成されるように、1つ又は複数の操作、機能、又は動作を含んでもよい。ブロックはそれぞれ順番に示されているが、これらのブロックは並行して行われてもよいし、および/又は、本明細書で述べられている順番と異なる順番で行われてもよい。また、所望の実施内容に応じて、ブロックを少なくしてもよいし、増やして分割してもよいし、および/又は取り除いてもよい。さらに、フローチャートは、方法500並びに本明細書で開示されている他の処理および方法に関して、本実施形態の実施可能な機能および動作の例を示している。これに関して、各ブロックは、プロセッサによって実行されるとプロセスにおける特定のロジカル機能又はステップを実行させる1つ又は複数の命令を記憶した、モジュール、セグメント、あるいはプログラムコードの一部を示していてもよい。プログラムコードは例えば、ディスク又はハードドライブを含む記憶デバイスなど、任意のタイプのコンピュータ読み取り可能記録媒体に記憶されてもよい。  Method 500 may include one or more operations, functions, or operations as configured by one or more of blocks 502-510. Although each block is shown in order, these blocks may be performed in parallel and / or in an order different from the order described herein. Also, depending on the desired implementation, blocks may be fewer, more may be split, and / or removed. Further, the flowchart shows an example of the possible functions and operations of the present embodiment with respect to themethod 500 as well as the other processes and methods disclosed herein. In this regard, each block may represent a module, segment, or portion of program code that has stored one or more instructions that, when executed by the processor, cause particular logical functions or steps in the process to be performed. . The program code may for example be stored on any type of computer readable recording medium, such as a storage device including a disc or a hard drive.

コンピュータ読み取り可能記録媒体は、非一時的なコンピュータ読み取り可能記録媒体、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダム・アクセス・メモリ(RAM)などのように短時間データを記憶するコンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、非一時的なメディア、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD−ROM)等の長期間の記憶が可能な二次記憶装置又は永続記憶装置を含んでもよい。コンピュータ読み取り可能媒体は、その他の任意の揮発性記憶システム又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能媒体は例えば、コンピュータ読み取り可能記録媒体、即ち、有形の記憶デバイスとみなされてもよい。また、方法500並びに本明細書に開示されたその他の処理および方法において、各ブロックは回路を示していてもよく、その回路は処理において、ある論理機能を実行するために有線接続されている。  Computer readable storage media include non-transitory computer readable storage media, such as computer readable media for storing short duration data, such as register memory, processor cache, and random access memory (RAM). May be. The computer readable medium is capable of long-term storage of non-transitory media, such as read only memory (ROM), optical disk, magnetic disk, compact disk read only memory (CD-ROM), etc. It may include secondary storage or permanent storage. The computer readable medium may be any other volatile or non-volatile storage system. Computer readable media, for example, may be considered as computer readable storage media, ie, tangible storage devices. Also, inmethod 500, as well as in other processes and methods disclosed herein, each block may represent a circuit, which is wired to perform certain logic functions in the process.

図5に示されるように、方法500は、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させ(ブロック502)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信し(ブロック504)、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定し(ブロック506)、再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定し(ブロック508)、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させる(ブロック510)。  As shown in FIG. 5, themethod 500 causes the computing device to cause the playback device in the playback zone to play the first audio signal (block 502), and the second audio detected by the microphone of the playback device. Receiving the data indicative of the signal (block 504) and determining the acoustic characteristics of the playback zone based on the second audio signal and the characteristics of the playback device (block 506) audio processing based on the acoustic characteristics of the playback zone An algorithm is determined (block 508) and an association of the audio processing algorithm with the acoustic characteristics of the playback zone is stored in a database (block 510).

前述したように、データベースにアクセスして、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを、特定することができる。そのため、ある例では、方法500は、様々な異なる再生ゾーンについて実行されて、様々な異なる再生環境に対応するオーディオ処理アルゴリズムのデータベースが構築される。  As mentioned above, the database can be accessed to identify the audio processing algorithm that the playback device applies when playing back audio content in the playback zone. As such, in one example,method 500 may be performed for various different playback zones to build up a database of audio processing algorithms that correspond to different different playback environments.

方法500は、ブロック502において、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させることを含む。再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。ある場合では、コンピューティングデバイスは、第1のオーディオ信号を再生させるコマンドを送信することによって、再生デバイスに第1のオーディオ信号を再生させてもよい。別の場合では、コンピューティングデバイスは、再生されるべき第1のオーディオ信号を再生デバイスに提供してもよい。  Method 500 includes, atblock 502, causing a playback device in a playback zone to play the first audio signal. The playback device may be a playback device similar to the playback device 200 shown in FIG. In some cases, the computing device may cause the playback device to play the first audio signal by sending a command to play the first audio signal. In another case, the computing device may provide the first audio signal to be reproduced to the reproduction device.

ある例では、第1のオーディオ信号は、再生ゾーンの音響応答を決定するために使用されてもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表す検査信号又は測定信号であってもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。  In one example, the first audio signal may be used to determine the acoustic response of the playback zone. As such, the first audio signal may be a test or measurement signal that represents audio content that may be played back by the playback device during normal use by the user. Thus, the first audio signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audio frequency range.

ある例では、再生ゾーンは、再生デバイスがユーザによる通常使用中にオーディオコンテンツを再生することができる複数の再生環境のうちの1つを表す再生ゾーンであってもよい。図1を参照すると、再生ゾーンは、メディア再生システム100における異なる部屋及びゾーングループのうちのいずれか1つを表すことができる。例えば、再生ゾーンは、ダイニングルームを表していてもよい。  In one example, the playback zone may be a playback zone that represents one of a plurality of playback environments in which the playback device may play audio content during normal use by the user. Referring to FIG. 1, the playback zone can represent any one of different rooms and zone groups in themedia playback system 100. For example, the regeneration zone may represent a dining room.

ある例では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために構築されたモデル再生ゾーンであってもよい。ある例では、再生ゾーンは、複数の再生環境をシミュレートするために構築された複数の再生ゾーンのうちの1つであってもよい。複数の再生ゾーンは、そのようなオーディオ処理アルゴリズムのデータベースを作成する目的のために構築されてもよい。そのような場合、再生ゾーンの特定の特性は、予め決められていてもよいし及び/又は公知のものであってもよい。例えば、いくつかある可能性の中でも特に、再生ゾーンの寸法、再生ゾーンの床材若しくは壁材(又は再生ゾーンのオーディオ反射特性に影響を与えることがある他の特徴)、再生ゾーン内の家具の数、又は再生ゾーン内の家具のサイズ及び種類は、予め決められた及び/又は公知の再生ゾーンの特性であってもよい。  In one example, the playback zone may be a model playback zone built to simulate a listening environment where the playback device can play audio content. In an example, the playback zone may be one of multiple playback zones configured to simulate multiple playback environments. Multiple playback zones may be constructed for the purpose of creating a database of such audio processing algorithms. In such cases, the particular characteristics of the regeneration zone may be predetermined and / or known. For example, among other possibilities, the dimensions of the reproduction zone, the flooring or wall material of the reproduction zone (or other features that may affect the audio reflection characteristics of the reproduction zone), the furniture in the reproduction zone The number, or size and type of furniture in the regeneration zone may be characteristic of a predetermined and / or known regeneration zone.

別の場合では、再生ゾーンは、再生デバイスのユーザの家庭内の部屋であってもよい。例えば、データベースの構築の一部として、顧客及び/又は試験者などの再生デバイスのユーザは、ユーザの再生デバイスを使用して、方法500の機能を実行してデータベースを構築するように要請されることがある。幾つかの場合において、ユーザ再生ゾーンの特定の特性は不明であってもよい。幾つかの他の場合において、ユーザ再生ゾーンの特定の特性の一部又は全てがユーザによって提供されてもよい。方法500の機能を実行することによって作成されたデータベースは、シミュレートされた再生ゾーン及び/又はユーザ再生ゾーンに基づくエントリを含んでもよい。  In other cases, the playback zone may be a room in the home of the user of the playback device. For example, as part of the construction of a database, a user of a reproduction device, such as a customer and / or tester, is requested to perform the functions ofmethod 500 to construct a database using the user's reproduction device Sometimes. In some cases, the particular characteristics of the user playback zone may be unknown. In some other cases, some or all of the specific characteristics of the user playback zone may be provided by the user. A database created by performing the functions ofmethod 500 may include entries based on simulated playback zones and / or user playback zones.

ブロック502はコンピューティングデバイスを含み、そのコンピューティングデバイスは、再生デバイスに第1のオーディオ信号を再生させる。しかし、当業者は、再生デバイスによる第1のオーディオ信号の再生が、必ずしもコンピューティングデバイスによって引き起こされるか又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイスは、再生デバイスにコマンドを送信して、再生デバイスに第1のオーディオ信号を再生させてもよい。別の例において、再生デバイスは、コンピューティングデバイス又はコントローラからコマンドを受信することなく、第1のオーディオ信号を再生してもよい。他の例もまた可能である。  Block 502 includes a computing device, which causes the playback device to play the first audio signal. However, one skilled in the art will appreciate that playback of the first audio signal by the playback device may not necessarily be triggered or initiated by the computing device. For example, the controller device may send a command to the playback device to cause the playback device to play the first audio signal. In another example, the playback device may play the first audio signal without receiving a command from the computing device or controller. Other examples are also possible.

方法500は、ブロック504において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。上述したように、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。そのため、マイクロホンは、マイクロホン220であってもよい。ある例では、コンピューティングデバイスは、再生デバイスからデータを受信してもよい。別の例において、コンピューティングデバイスは、他の再生デバイス、コントローラデバイス又は他のサーバを介してデータを受信してもよい。  Method 500 includes, atblock 504, receiving data indicative of a second audio signal detected by a microphone of a playback device. As mentioned above, the playback device may be a playback device similar to the playback device 200 shown in FIG. Therefore, the microphone may be the microphone 220. In one example, the computing device may receive data from the playback device. In another example, the computing device may receive data via other playback devices, controller devices or other servers.

再生デバイスが第1のオーディオ信号を再生しているとき又はその後まもなく、再生デバイスのマイクロホンは、第2のオーディオ信号を検出してもよい。第2のオーディオ信号は、再生ゾーン内に存在する検出可能なオーディオ信号を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。  When or shortly after the playback device is playing the first audio signal, the microphone of the playback device may detect the second audio signal. The second audio signal may comprise a detectable audio signal present in the playback zone. For example, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device.

ある例では、マイクロホンが第2のオーディオ信号を検出するとき、コンピューティングデバイスは、メディアストリームとして、再生デバイスから検出された第2のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生デバイスのマイクロホンによる第1のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイスから受信してもよい。いずれの場合においても、再生デバイスは、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成し、コンピューティングデバイスにそのデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。  In an example, when the microphone detects a second audio signal, the computing device may receive data indicative of the detected second audio signal from the playback device as a media stream. In another example, the computing device may receive data indicative of the second audio signal from the playback device upon completion of the detection of the first audio signal by the microphone of the playback device. In any case, the playback device processes the detected second audio signal (via an audio processing component such as the audio processing component 208 of the playback device 200) to generate data indicative of the second audio signal. The data may be generated and sent to the computing device. In an example, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.

方法500は、ブロック506において、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定することを含む。上述したように、第2のオーディオ信号は、再生ゾーンにおいて再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。  Method 500 includes, atblock 506, determining acoustic characteristics of the playback zone based on the second audio signal and the characteristics of the playback device. As mentioned above, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device in the reproduction zone.

再生デバイスの特性は、再生デバイスの音響特性、再生デバイスの仕様(すなわち、トランスデューサの数、周波数レンジ、増幅器ワット数など)、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。幾つかの場合において、再生デバイスの音響特性及び/又は再生デバイスの仕様は、再生デバイスのモデルと関連付けられてもよい。例えば、再生デバイスの特定のモデルは、実質的に同一の仕様及び音響特性を有してもよい。ある例では、再生デバイスのモデルのデータベース、再生デバイスのモデルの音響特性、及び/又は再生デバイスのモデルの仕様は、コンピューティングデバイス又はコンピューティングデバイスと通信する他のデバイス上で保守されうる。  The characteristics of the playback device may include one or more of acoustic characteristics of the playback device, specifications of the playback device (ie, number of transducers, frequency range, amplifier wattage, etc.), and models of the playback device. In some cases, the acoustic characteristics of the playback device and / or the specifications of the playback device may be associated with a model of the playback device. For example, particular models of playback devices may have substantially identical specifications and acoustical characteristics. In an example, a database of models of playback devices, acoustic characteristics of models of playback devices, and / or specifications of models of playback devices may be maintained on the computing device or other devices in communication with the computing device.

ある例では、再生ゾーン内で第1のオーディオ信号を再生する再生デバイスからの音響応答は、第1のオーディオ信号と第2のオーディオ信号との間の関係によって表すことができる。数学的に、第1のオーディオ信号がf(t)であり、第2のオーディオ信号がs(t)であり、且つ再生ゾーン内で第1のオーディオ信号を再生する再生デバイスの音響応答がh(t)である場合、下記式(1)になる。In one example, the acoustic response from a playback device playing a first audio signal within a playback zone can be represented by the relationship between the first audio signal and the second audio signal. Mathematically, the first audio signal is f (t), the second audio signal is s (t), and the acoustic response of the reproduction device reproducing the first audio signal within the reproduction zone is hIn the case of r (t), the following formula (1) is obtained.

Figure 0006503457
そのため、再生デバイスのマイクロホンによって検出される第2のオーディオ信号s(t)及び再生デバイスによって再生された第1の信号f(t)が与えられると、h(t)を計算することができる。
Figure 0006503457
Thus, given the second audio signal s (t) detected by the microphone of the reproduction device and the first signal f (t) reproduced by the reproduction device, hr (t) can be calculated .

ある場合では、第1のオーディオ信号f(t)が再生デバイスによって再生されることから、音響応答h(t)は、(i)再生デバイスの音響特性及び(ii)再生デバイスとは独立した再生ゾーンの音響特性を含んでもよい。数学的に、この関係は、下記式(2)として表すことができる。In some cases, since the first audio signal f (t) is reproduced by the reproduction device, the acoustic response hr (t) is (i) independent of the acoustic characteristics of the reproduction device and (ii) the reproduction device It may include the acoustic characteristics of the playback zone. Mathematically, this relationship can be expressed as the following equation (2).

Figure 0006503457
ここで、h(t)は、再生デバイスの音響特性であり、hroom(t)は、再生デバイスとは独立した再生ゾーンの音響特性である。そのため、再生デバイスとは独立した再生ゾーンの音響特性は、再生ゾーンの音響応答から再生デバイスによって再生された第1のオーディオ信号へと再生デバイスの音響特性を除去することによって決定されうる。換言すれば、下記式(3)になる。
Figure 0006503457
Here, hp (t) is an acoustic characteristic of the reproduction device, and hroom (t) is an acoustic characteristic of a reproduction zone independent of the reproduction device. As such, the acoustic characteristics of the reproduction zone independent of the reproduction device may be determined by removing the acoustic characteristics of the reproduction device from the acoustic response of the reproduction zone to the first audio signal reproduced by the reproduction device. In other words, the following equation (3) is obtained.

Figure 0006503457
Figure 0006503457

ある例では、再生デバイスの音響特性h(t)は、無響室において再生デバイス又は同一のモデルの代表的な再生デバイスを配置し、再生デバイスに無響室内で測定信号を再生させ、再生デバイスのマイクロホンによって応答信号を検出することによって、決定されうる。無響室において再生デバイスによって再生された測定信号は、上述した第1のオーディオ信号f(t)に類似していてもよい。例えば、測定信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含むことができる。In one example, the acoustic characteristics hp (t) of the playback device arrange the playback device or a representative playback device of the same model in the anechoic chamber, and cause the playback device to play back the measurement signal in the anechoic chamber and play back It can be determined by detecting the response signal by the microphone of the device. The measurement signal reproduced by the reproduction device in the anechoic chamber may be similar to the first audio signal f (t) described above. For example, the measurement signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audio frequency range.

再生デバイスの音響特性h(t)は、再生された測定信号と検出された応答信号との間の関係を表すことができる。例えば、測定信号が特定の周波数において第1の信号の大きさを有し且つ検出された応答信号がその特定の周波数において第1の信号の大きさとは異なる第2の信号の大きさを有する場合、再生デバイスの音響特性h(t)は、特定の周波数において信号の増幅又は減衰を示すことができる。The acoustic characteristics hp (t) of the reproduction device can represent the relationship between the reproduced measurement signal and the detected response signal. For example, if the measurement signal has a first signal magnitude at a particular frequency and the detected response signal has a second signal magnitude different from the first signal magnitude at the particular frequency. The acoustic characteristics hp (t) of the playback device can indicate the amplification or attenuation of the signal at a particular frequency.

数学的に、測定信号がx(t)であり、検出された応答信号がy(t)であり且つ無響室における再生デバイスの音響特性がh(t)である場合、下記式(4)になる。Mathematically, if the measurement signal is x (t), the detected response signal is y (t), and the acoustic characteristic of the reproduction device in the anechoic chamber is hp (t), then )become.

Figure 0006503457
したがって、h(t)は、測定信号x(t)及び検出された応答信号y(t)に基づいて計算されうる。上述したように、h(t)は、無響室において使用されたものと同一のモデルの再生デバイスについての代表的な音響特性であってもよい。
Figure 0006503457
Thus, hp (t) can be calculated based on the measured signal x (t) and the detected response signal y (t). As mentioned above, hp (t) may be a representative acoustic characteristic for a reproduction device of the same model as that used in the anechoic chamber.

ある例では、上述したように、基準音響特性h(t)は、再生デバイスのモデル及び/又は再生デバイスの仕様と関連付けて記憶されてもよい。ある例では、h(t)は、コンピューティングデバイス上に格納されてもよい。別の例では、h(t)は、再生デバイス及び同一のモデルの他の再生デバイス上に格納されてもよい。さらなる場合において、h−1(t)として表されるh(t)の逆数は、h(t)の代わりに記憶されてもよい。In one example, as described above, the reference acoustical properties hP (t) may be stored in association with the model of the playback device and / or the specifications of the playback device. In one example, hP (t) may be stored on a computing device. In another example, hp (t) may be stored on the playback device and other playback devices of the same model. In a furthercase, the inverse ofh p (t), expressed ash p -1 (t)may be stored instead ofh p (t).

したがって、ブロック506に戻って参照すると、再生ゾーンの音響特性hroom(t)は、第1のオーディオ信号f(t)、第2のオーディオ信号s(t)、及び再生デバイスの音響特性h(t)に基づいて決定されうる。ある例では、再生デバイスの音響特性の逆数h−1(t)を、式(2)に適用することができる。換言すれば、下記式(5)になる。Thus, referring back to block 506, the acoustic characteristics hroom (t) of the playback zone are the first audio signal f (t), the second audio signal s (t), and the acoustic characteristics hp of the playback device. It can be determined based on (t). In one example, the reciprocal hp−1 (t) of the acoustic characteristics of the playback device can be applied to equation (2). In other words, the following equation (5) is obtained.

Figure 0006503457
Figure 0006503457

ここで、I(t)は、インパルス信号である。そして、再生ゾーン時間の音響特性hroom(t)は、下記式(6)のように簡略化されうる。Here, I (t) is an impulse signal. And, the acoustic characteristic hroom (t) of the reproduction zone time can be simplified as the following equation (6).

Figure 0006503457
Figure 0006503457

方法500は、ブロック506において、再生ゾーンの音響特性及び所定のオーディオ信号に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、オーディオ処理アルゴリズムが決定されて、再生ゾーンにおいて第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度所定のオーディオ特性を持つ第3のオーディオ信号が生成されうる。  Method 500 includes, atblock 506, determining an audio processing algorithm based on the acoustic characteristics of the playback zone and the predetermined audio signal. In one example, the audio processing algorithm is determined to apply an audio processing algorithm determined by the playback device when playing back the first audio signal in the playback zone, the audio characteristic substantially identical to the predetermined audio characteristic. A third audio signal may be generated having at least some predetermined audio characteristics.

ある例では、所定のオーディオ特性は、良好なサウンディングとみなされるオーディオ周波数等化であってもよい。ある場合では、所定のオーディオ特性は、再生デバイスのレンダリング可能な周波数レンジにわたって実質的に均等な等化を含んでもよい。別の場合では、所定のオーディオ特性は、一般的なリスナーに心地よいと考えられる等化を含んでもよい。さらなる場合において、所定のオーディオ特性は、特定の音楽ジャンルに適していると考えられる周波数応答を含んでもよい。  In one example, the predetermined audio characteristic may be audio frequency equalization that is considered good sounding. In some cases, the predetermined audio characteristics may include substantially even equalization over the renderable frequency range of the playback device. In other cases, the predetermined audio characteristics may include equalization that is considered pleasing to the general listener. In further cases, the predetermined audio feature may include a frequency response that is considered suitable for a particular music genre.

いずれの場合にも、コンピューティングデバイスは、音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定することができる。ある例では、再生ゾーンの音響特性が、特定のオーディオ周波数が他の周波数よりも減衰されたものであり、且つ、所定のオーディオ特性が、特定のオーディオ周波数が最小限に減衰された等化を含む場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数において強めた増幅を含んでもよい。  In any case, the computing device can determine the audio processing algorithm based on the acoustic characteristics and the predetermined audio characteristics. In one example, the acoustic characteristics of the playback zone are such that a particular audio frequency is attenuated relative to the other frequencies, and the predetermined audio characteristics are equalized with a particular audio frequency being attenuated to a minimum. When included, the corresponding audio processing algorithm may include enhanced amplification at a particular audio frequency.

所定のオーディオ特性が所定のオーディオ信号z(t)によって表され且つオーディオ処理アルゴリズムがp(t)によって表される場合、所定のオーディオ信号z(t)、オーディオ処理アルゴリズム及び再生ゾーンの音響特性hroom(t)との間の関係を、下記式(7)のように数学的に記述することができる。If the predetermined audio characteristic is represented by the predetermined audio signal z (t) and the audio processing algorithm is represented by p (t), then the predetermined audio signal z (t), the audio processing algorithm and the acoustic characteristics h of the reproduction zone h The relationship withroom (t) can be described mathematically as the following equation (7).

Figure 0006503457
Figure 0006503457

したがって、オーディオ処理アルゴリズムp(t)を、下記式(8)のように数学的に記述することができる。  Therefore, the audio processing algorithm p (t) can be mathematically described as the following equation (8).

Figure 0006503457
Figure 0006503457

幾つかの場合において、オーディオ処理アルゴリズムを決定することは、オーディオ処理アルゴリズムについての1つ又は複数のパラメータ(すなわち、p(t)についての係数)を決定することを含んでもよい。例えば、オーディオ処理アルゴリズムは、オーディオ信号の特定の対応する周波数における特定の信号増幅利得を含んでもよい。そのため、特定の信号増幅及び/又はオーディオ信号の特定の対応する周波数を示すパラメータが、オーディオ処理アルゴリズムp(t)を決定するために特定されてもよい。  In some cases, determining the audio processing algorithm may include determining one or more parameters for the audio processing algorithm (ie, coefficients for p (t)). For example, the audio processing algorithm may include a particular signal amplification gain at a particular corresponding frequency of the audio signal. As such, parameters indicative of particular signal amplification and / or particular corresponding frequencies of the audio signal may be identified to determine the audio processing algorithm p (t).

方法500は、ブロック510において、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。そのため、ブロック504及び506において決定した再生ゾーンの音響特性hroom(t)及び対応するオーディオ処理アルゴリズムp(t)を含むエントリを、データベースに追加してもよい。ある例では、データベースは、コンピューティングデバイスのローカルのメモリストレージに格納されてもよい。別の例において、データベースが他のデバイスに格納されている場合、コンピューティングデバイスは、オーディオ処理アルゴリズム及び再生ゾーンの音響特性を他のデバイスに送信して、データベースに記憶されるようにしてもよい。他の例もまた可能である。Themethod 500 includes, at block 510, storing an association of the audio processing algorithm with the acoustic characteristics of the playback zone in a database. As such, an entry may be added to the database including the acoustic characteristics hroom (t) of the playback zone determined inblocks 504 and 506 and the corresponding audio processing algorithm p (t). In one example, the database may be stored on a local memory storage of the computing device. In another example, if the database is stored on another device, the computing device may transmit the audio processing algorithm and the acoustic characteristics of the playback zone to the other device for storage in the database. . Other examples are also possible.

上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。  As mentioned above, the playback zone for which the audio processing algorithm has been determined is a model playback zone used to simulate a listening environment where the playback device can play audio content, or in the room of the user of the playback device. It may be. In some cases, the database is based on the audio signal reproduced and detected in the room of the user of the reproduction device, with an entry generated on the basis of the audio signal reproduced and detected in the model reproduction zone It may contain a generated entry.

図6Aは、オーディオ処理アルゴリズムのデータベース600の例示的な部分を示していて、上記説明において決定されたオーディオ処理アルゴリズムp(t)がデータベース600に格納されている。示されるように、データベース600の一部は、複数のエントリ602−608を含んでもよい。エントリ602は、再生ゾーン音響特性hroom−1(t)−1を含んでもよい。音響特性hroom−1(t)−1は、上述したように再生デバイスによって検出されたオーディオ信号及び再生デバイスの特性に基づいて計算されるように、再生ゾーンの音響特性の数学的表現であってもよい。エントリ602における音響特性hroom−1(t)−1に対応するものは、上述したように、音響特性hroom−1(t)−1及び所定のオーディオ特性に基づいて決定されたオーディオ処理アルゴリズムについての係数w、x、y及びzであってもよい。FIG. 6A shows an exemplary portion of the audioprocessing algorithm database 600, and the audio processing algorithm p (t) determined in the above description is stored in thedatabase 600. As shown, a portion ofdatabase 600 may include a plurality of entries 602-608.Entry 602 may include the playback zone acoustics feature hroom−1 (t) −1. The acoustical property hroom-1 (t) -1 is a mathematical representation of the acoustical properties of the reproduction zone as calculated on the basis of the audio signal detected by the reproduction device and the characteristics of the reproduction device as described above May be The one corresponding to the acoustic characteristic hroom-1 (t) -1 in theentry 602 is the audio processing algorithm determined based on the acoustic characteristic hroom-1 (t) -1 and the predetermined audio characteristic as described above. The coefficients w1 , x1 , y1 and z1 for

さらに示されるように、データベース600のエントリ604は、再生ゾーン音響特性hroom−1(t)−2及び処理アルゴリズム係数w、x、y及びzを含んでもよい。データベース600のエントリ606は、再生ゾーン音響特性hroom−1(t)−3及び処理アルゴリズム係数w、x、y及びzを含んでもよい。データベース600のエントリ608は、再生ゾーン音響特性hroom−1(t)−4及び処理アルゴリズム係数w、x、y及びzを含んでもよい。As further shown,entries 604 ofdatabase 600 may include playback zone acoustic characteristics hroom−1 (t) −2 and processing algorithm coefficients w2 , x2 , y2 and z2 .Entries 606 of thedatabase 600 may include playback zone acoustic characteristics hroom−1 (t) −3 and processing algorithm coefficients w3 , x3 , y3 and z3 .Entries 608 ofdatabase 600 may include playback zone acoustics characteristics hroom−1 (t) −4 and processing algorithm coefficients w4 , x4 , y4 and z4 .

当業者は、データベース600が方法500の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されうる。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。他の例もまた可能である。  Those skilled in the art will appreciate thatdatabase 600 is merely one example of a database that may be created and maintained by performing the functions ofmethod 500. In one example, the playback zone acoustics may be stored in different forms or mathematical states (ie, inversion versus non-inversion functions). In another example, the audio processing algorithm may be stored as a function and / or an equalization function. Other examples are also possible.

ある例では、上述した機能の一部が、同一の再生ゾーンにおいて同一の再生デバイスについて複数回実行されて、再生ゾーンの音響特性hroom(t)及び対応する処理アルゴリズムp(t)が決定されうる。例えば、複数回、ブロック502−506を実行することによって、再生ゾーンの複数の音響特性を決定することができる。再生ゾーンの合成(すなわち、平均)音響特性は、複数の音響特性から決定されてもよく、対応する処理アルゴリズムp(t)は、再生ゾーンの合成音響特性に基づいて決定されてもよい。そして、対応する処理アルゴリズムp(t)と再生ゾーンの音響特性hroom(t)又はhroom−1(t)との関連付けは、データベースに記憶されてもよい。幾つかの場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復のそれぞれにおいて実質的に同一のオーディオ信号であってもよい。幾つかの他の場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復の一部又はそれぞれについて異なるオーディオ信号であってもよい。他の例もまた可能である。In one example, some of the functions described above are performed multiple times for the same playback device in the same playback zone to determine the acoustic characteristics hroom (t) of the playback zone and the corresponding processing algorithm p (t) sell. For example, by performing blocks 502-506 multiple times, multiple acoustic characteristics of the playback zone can be determined. The composite (ie, average) acoustical properties of the playback zone may be determined from a plurality of acoustical properties, and the corresponding processing algorithm p (t) may be determined based on the synthetic acoustic properties of the playback zone. Then, the association between the corresponding processing algorithm p (t) and the acoustic characteristic hroom (t) or hroom−1 (t) of the reproduction zone may be stored in the database. In some cases, the first audio signal reproduced by the reproduction device in the reproduction zone may be substantially the same audio signal at each of the function iterations. In some other cases, the first audio signal reproduced by the reproduction device in the reproduction zone may be a different audio signal for part or each of the function iterations. Other examples are also possible.

上述した方法500(又は、方法500の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されうる。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法500は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されうる。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、第5のオーディオ信号を示すデータを受信し、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定することができる。  Themethod 500 described above (or some variation of the method 500) may further be performed to generate other entries in the database. For example, considering that the playback device is a first playback device, the playback zone is a first playback zone, and the audio processing algorithm is a first audio processing algorithm,method 500 may additionally or alternatively Thus, it may be performed using a second playback device in a second playback zone. In an example, the second playback device can play the fourth audio signal in the second playback zone, and the microphone of the second playback device is a fourth playback device that is played by the second playback device. A fifth audio signal may be detected that includes a portion of the audio signal. The computing device can then receive data indicative of the fifth audio signal and determine an acoustic characteristic of the second reproduction zone based on the characteristics of the fifth audio signal and the second reproduction device. .

コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定することができる。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させることができる。  The computing device may determine a second audio processing algorithm based on the acoustic characteristics of the second playback zone. Here, the application of the determined second audio processing algorithm by the second reproduction device when reproducing the fourth audio signal in the reproduction zone generates a sixth audio signal. The sixth audio signal has substantially the same audio characteristics as the predetermined audio characteristics represented by the predetermined audio signal z (t) shown in Equations (7) and (8). The computing device can then store the association of the second audio processing algorithm and the acoustic characteristics of the second playback zone in a database.

多くの再生ゾーンは、寸法、構築材料、及び/又は家具の種類及び配置において類似している場合もあるけれども、2つの再生ゾーンが全く同一の再生ゾーン音響特性を有することになるとは考えにくい。そのため、各固有の再生ゾーン音響特性及びそれらの各対応するオーディオ処理アルゴリズムについての個々のエントリを記憶すると、非現実的な量のメモリストレージを必要とすることがあるため、むしろ、類似の又は実質的に同一の再生ゾーン音響特性についてのエントリは組み合わせたほうがよい。  Although many regeneration zones may be similar in size, construction material, and / or furniture type and arrangement, it is unlikely that the two regeneration zones will have exactly the same regeneration zone acoustical properties. As such, storing individual entries for each unique playback zone acoustic characteristic and their respective corresponding audio processing algorithms may require an unrealistic amount of memory storage, rather rather similar or substantial. It is better to combine entries for spatially identical playback zone acoustics.

ある場合では、2つの再生ゾーンが実質的に類似の部屋であるとき、2つの再生ゾーンの音響特性は類似している場合がある。別の場合では、コンピューティングデバイスは、上記示唆したように、同一の再生ゾーンにおいて、複数回、同一の再生デバイスについて、方法500を実行してもよい。さらなる場合において、コンピューティングデバイスは、同一の再生ゾーンにおいて、異なる再生デバイスについて、方法500を実行してもよい。さらに他の場合において、コンピューティングデバイスは、同一の再生ゾーンであるが再生ゾーン内の他の場所において、再生デバイスについて方法500を実行してもよい。他の例もまた可能である。  In some cases, the acoustic characteristics of the two playback zones may be similar when the two playback zones are substantially similar rooms. In another case, the computing device may performmethod 500 multiple times in the same playback zone, as suggested above, for the same playback device. In further cases, the computing device may performmethod 500 for different playback devices in the same playback zone. In still other cases, the computing device may performmethod 500 for the playback device in the same playback zone but elsewhere in the playback zone. Other examples are also possible.

いずれの場合にも、再生ゾーン音響特性及び対応するオーディオ処理アルゴリズムのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが実質的に同一の再生ゾーン音響特性を有することを決定してもよい。そして、コンピューティングデバイスは、それに応答して、第1のオーディオ処理アルゴリズム及び第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定してもよい。例えば、コンピューティングデバイスは、第1及び第2のオーディオ処理アルゴリズムのパラメータの平均をとることによって、第3のオーディオ処理アルゴリズムを決定してもよい。  In either case, in the process of generating the playback zone acoustic characteristics and the corresponding audio processing algorithm entry, the computing device determines that the two playback zones have substantially identical playback zone acoustic characteristics It is also good. The computing device may then, in response, determine a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm. For example, the computing device may determine the third audio processing algorithm by averaging the parameters of the first and second audio processing algorithms.

そして、コンピューティングデバイスは、第3のオーディオ処理アルゴリズムと実質的に同一の音響特性との関連付けをデータベースに記憶してもよい。ある例では、第3のオーディオ処理アルゴリズムについてのデータベースエントリは、2つの実質的に同一の音響特性の平均値に基づいて決定された対応する音響特性を有してもよい。幾つかの場合において、上記示唆したように、データベースは、ストレージメモリを節約する目的で、実質的に同一の音響特性について1つのエントリのみを有してもよい。そのため、第3のオーディオ処理アルゴリズムについてのエントリを優先して、第1の再生ゾーン及び第2の再生ゾーンの音響特性のエントリは廃棄してもよい。他の例もまた可能である。  The computing device may then store in the database the association of the third audio processing algorithm with substantially the same acoustic characteristics. In one example, the database entry for the third audio processing algorithm may have corresponding acoustical properties determined based on an average of two substantially identical acoustical properties. In some cases, as suggested above, the database may have only one entry for substantially identical acoustical properties in order to save storage memory. Therefore, the entries of the acoustic characteristics of the first playback zone and the second playback zone may be discarded, giving priority to the entry for the third audio processing algorithm. Other examples are also possible.

上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法500について言及しているが、当業者は、上述したように、方法500の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック502−510のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック502−510のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。  Although the above description generally refers tomethod 500 as being performed by a computing device, one skilled in the art will appreciate that the functionality ofmethod 500 may alternatively be one or more, as described above. It will be appreciated that it may be performed by one or more other devices, such as a server, one or more playback devices, and / or one or more controller devices. In other words, one or more of blocks 502-510 may be performed by the computing device while one or more other blocks of blocks 502-510 are one or more May be performed by other computing devices.

ある例では、上述したように、ブロック502における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されてもよい。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して第1のオーディオ信号を再生してもよい。別の例では、ブロック502−506は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック508及び510を実行してもよい。さらに別の例では、ブロック502−508は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック510においてオーディオ処理アルゴリズムを記憶する機能を実行するだけであってもよい。他の例もまた可能である。  In one example, as described above, playback of the first audio signal by the playback device atblock 502 may be performed by the playback device without any external command. Alternatively, the playback device may play the first audio signal in response to commands from the controller device and / or other playback devices. In another example, blocks 502-506 may be performed by one or more playback devices or one or more controller devices, and the computing device may performblocks 508 and 510. In yet another example, blocks 502-508 may be performed by one or more playback devices or one or more controller devices, and the computing device has the ability to store audio processing algorithms at block 510. It may only be performed. Other examples are also possible.

b.オーディオ処理アルゴリズム及び再生ゾーンの対応する1つ又は複数の特性の例示的データベース
先に示したように、再生ゾーンは、1つ又は複数の再生ゾーン特性を有してもよい。1つ又は複数の再生ゾーン特性は、上述したように、再生ゾーンの音響特性を含んでもよい。また、再生ゾーンの1つ又は複数の特性は、(a)再生ゾーンの寸法、(b)再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具のサイズ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含んでもよい。ある場合では、再生ゾーンのオーディオ反射特性は、再生ゾーンの床材及び/又は壁材に関連してもよい。
b. Exemplary Database of Audio Processing Algorithms and Corresponding One or More Characteristics of Playback Zones As indicated above, playback zones may have one or more playback zone characteristics. The one or more reproduction zone characteristics may include the acoustic characteristics of the reproduction zone, as described above. In addition, one or more characteristics of the reproduction zone are (a) dimensions of the reproduction zone, (b) audio reflection characteristics of the reproduction zone, (c) purpose of using the reproduction zone, (d) number of furniture in the reproduction zone , (E) the size of the furniture in the regeneration zone, and (f) the type of furniture in the regeneration zone. In some cases, the audio reflection characteristics of the playback zone may be associated with the flooring and / or walling of the playback zone.

幾つかの例において、上述したp(t)などの決定されたオーディオ処理アルゴリズムと再生ゾーンの追加の1つ又は複数の特性との関連付けがデータベースに記憶されうる。図7は、オーディオ処理アルゴリズム及び再生ゾーンの1つ又は複数の特性のデータベースを保守する方法700の例示的なフロー図を示している。図7に示される方法700は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法700は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されてもよい。これに代えて、別の例では、方法700の幾つか又は全ての機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。  In some instances, an association of the determined audio processing algorithm, such as p (t) described above, with one or more additional characteristics of the playback zone may be stored in a database. FIG. 7 shows an exemplary flow diagram of amethod 700 for maintaining a database of audio processing algorithms and one or more characteristics of playback zones. Themethod 700 shown in FIG. 7, for example, is implemented within an operating environment including themedia playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, and one or more control devices 300 of FIG. 7 illustrates an embodiment of a method that can be performed. In one example,method 700 may be performed by a computing device in communication with a media playback system, such asmedia playback system 100. Alternatively, in another example, some or all of the functionality ofmethod 700 may be one, such as one or more servers, one or more playback devices, and / or one or more controller devices, etc. Or may be performed by a plurality of other computing devices.

方法700は、ブロック702−708のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。  Method 700 may include one or more operations, functions or operations as indicated by one or more of blocks 702-708. Although the blocks are shown in order, these blocks may be performed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into additional blocks, and / or eliminated based on the desired implementation.

図7に示されるように、方法700は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック702)、(i)再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信するステップ(ブロック704)、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック706)、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させるステップ(ブロック708)を含む。  As shown in FIG. 7, themethod 700 causes the playback device in the playback zone to play the first audio signal (block 702), (i) data indicative of one or more characteristics of the playback zone and ii) receiving data indicative of the second audio signal detected by the reproduction device microphone (block 704), determining an audio processing algorithm based on the second audio signal and the characteristics of the reproduction device (block 706) And storing in the database an association of the determined audio processing algorithm and at least one of the one or more characteristics of the playback zone (block 708).

方法700は、ブロック702において、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させる。ある例では、ブロック702は、図5に関連して記載されたブロック502のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。そのため、ブロック502に関連した上記説明は、ブロック702に適用することができる。  Themethod 700 causes the computing device to play the first audio signal to the playing device in the playing zone atblock 702. In one example, block 702 may include the same or substantially the same function as that ofblock 502 described in connection with FIG. For example, the first audio signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audio frequency range. As such, the above description associated withblock 502 can apply to block 702.

方法700は、ブロック704において、(i)再生ゾーンの1つ又は複数の特性を示すデータ、及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。ある例では、ブロック704は、図5に関連して記載されたブロック504のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。そのため、ブロック504に関連した上記説明は、ブロック704に適用することができる。  Method 700 includes, atblock 704, receiving (i) data indicative of one or more characteristics of the playback zone, and (ii) data indicative of a second audio signal detected by a microphone of the playback device. . In one example, block 704 may include the same or substantially the same function as that ofblock 504 described in connection with FIG. For example, the second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device. As such, the above description associated withblock 504 may apply to block 704.

ブロック504に関連して上述したものに加えて、ブロック704は、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。上述したように、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーンであってもよい。そのような場合、再生ゾーンについての1つ又は複数の再生ゾーン特性の一部は公知であってもよい。例えば、再生ゾーンについての寸法、フロアプラン、構築材料、及び家具が公知であってもよい。ある場合では、モデル再生ゾーンは、データベースについてのオーディオ処理アルゴリズムを決定するという目的のために構築されてもよく、その場合、1つ又は複数の再生ゾーン特性の一部は予め決められていてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの部屋であってもよい。上述したように、そのような再生ゾーンの特性は、再生ゾーンの音響特性に寄与することができる。  In addition to those described above in connection withblock 504, block 704 includes receiving data indicative of one or more characteristics of the playback zone. As mentioned above, the playback zone may be a model playback zone that is used to simulate a listening environment where the playback device can play audio content. In such cases, some of the one or more regeneration zone characteristics for the regeneration zone may be known. For example, dimensions, floor plans, construction materials, and furniture for the regeneration zone may be known. In some cases, a model playback zone may be constructed for the purpose of determining the audio processing algorithm for the database, in which case one or more of the playback zone characteristics may be predetermined. Good. In another case, the playback zone may be the room of the user of the playback device. As mentioned above, the characteristics of such a reproduction zone can contribute to the acoustic characteristics of the reproduction zone.

ある例では、コンピューティングデバイスは、ユーザ又は音響エンジニアによって使用されるコントローラデバイスのコントローラインタフェースを介して、1つ又は複数の再生ゾーン特性を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスから再生ゾーンの1つ又は複数の特性を示すデータを受信してもよい。例えば、1つ又は複数の特性を示すデータは、第2のオーディオ信号を示すデータとともに受信されてもよい。1つ又は複数の再生ゾーン特性を示すデータは、ブロック702における再生デバイスによる第1のオーディオ信号の再生前、再生中又は再生後に受信されてもよい。他の例もまた可能である。  In an example, the computing device may receive data indicative of one or more playback zone characteristics via a controller interface of a controller device used by a user or an audio engineer. In another example, the computing device may receive data indicative of one or more characteristics of the playback zone from the playback device within the playback zone. For example, data indicative of one or more characteristics may be received along with data indicative of a second audio signal. Data indicative of one or more playback zone characteristics may be received before, during or after playback of the first audio signal by the playback device atblock 702. Other examples are also possible.

方法700は、ブロック706において、第2のオーディオ信号及び再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック706は、図5のブロック506及び508において上述したものと同一又は類似の機能を含んでもよい。例えば、オーディオ処理アルゴリズムを決定することは、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、及びその後に再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定することを含んでもよい。再生デバイスの特性は、上述したように、再生デバイスの音響特性、再生デバイスの仕様、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。  Method 700 includes, atblock 706, determining an audio processing algorithm based on the second audio signal and the characteristics of the playback device. In one example, block 706 may include the same or similar functionality as described above inblocks 506 and 508 of FIG. For example, determining the audio processing algorithm comprises determining an acoustic characteristic of the reproduction zone based on the second audio signal and the characteristics of the reproduction device, and thereafter determining an audio processing algorithm based on the acoustic characteristic of the reproduction zone You may include doing. The characteristics of the playback device may include one or more of the acoustic characteristics of the playback device, the specifications of the playback device, and the model of the playback device, as described above.

上述したように、再生ゾーン内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、第3のオーディオ信号が生成されうる。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度所定のオーディオ特性を持つ。ある場合では、所定のオーディオ特性は、上述した所定のオーディオ信号p(t)として表される所定のオーディオ特性と同一か又は実質的に同一であってもよい。他の例もまた可能である。  As mentioned above, application of the determined audio processing algorithm when playing back the first audio signal in the playing zone may produce a third audio signal. The third audio signal has substantially the same audio characteristics as the predetermined audio characteristics, or at least has some predetermined audio characteristics. In some cases, the predetermined audio characteristic may be the same as or substantially the same as the predetermined audio characteristic represented as the predetermined audio signal p (t) described above. Other examples are also possible.

方法800は、ブロック708において、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。ある例では、ブロック708は、ブロック501において上述したものと同一又は類似の機能を含んでもよい。しかしながら、この場合において、コンピューティングデバイスは、再生ゾーンの音響特性に加えて又はその代わりに、オーディオ処理アルゴリズムと1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。  Method 800 includes, atblock 708, storing an association of the determined audio processing algorithm with at least one of the one or more characteristics of the playback zone in a database. In one example, block 708 may include the same or similar functionality as described above in block 501. However, in this case, the computing device may store in the database an association between the audio processing algorithm and at least one of the one or more characteristics in addition to or instead of the acoustic characteristics of the playback zone .

上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。  As mentioned above, the playback zone for which the audio processing algorithm has been determined is a model playback zone used to simulate a listening environment where the playback device can play audio content, or in the room of the user of the playback device. It may be. In some cases, the database is based on the audio signal reproduced and detected in the room of the user of the reproduction device, with an entry generated on the basis of the audio signal reproduced and detected in the model reproduction zone It may contain a generated entry.

図6Bは、オーディオ処理アルゴリズムのデータベース650の例示的な部分を示している。データベース650には、上記説明において決定したオーディオ処理アルゴリズム及びオーディオ処理アルゴリズムと再生ゾーン音響特性との関連付けが格納されている。示されるように、データベース650の一部は、データベース600のエントリ602−608と類似の複数のエントリ652−658を含んでもよい。例えば、エントリ652及び602は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ654及び604は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ656及び606は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ658及び608は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。  FIG. 6B illustrates an exemplary portion of adatabase 650 of audio processing algorithms. Thedatabase 650 stores the audio processing algorithm determined in the above description and the association between the audio processing algorithm and the reproduction zone acoustic characteristic. As shown, a portion ofdatabase 650 may include multiple entries 652-658 similar to entries 602-608 ofdatabase 600. For example,entries 652 and 602 may have the same playback zone sound characteristics and the same audio processing algorithm coefficients.Entries 654 and 604 may have the same playback zone acoustics and the same audio processing algorithm coefficients.Entries 656 and 606 may have the same playback zone acoustics and the same audio processing algorithm coefficients.Entries 658 and 608 may have the same playback zone acoustics and the same audio processing algorithm coefficients.

再生ゾーン音響特性に加えて、データベース650は、対応する再生ゾーン音響特性を有する再生ゾーンの寸法を示すゾーン寸法情報及び対応する再生ゾーン音響特性に基づいて決定されたオーディオ処理アルゴリズムを含んでもよい。例えば、示されるように、エントリ652は、a×b×cのゾーン寸法を有してもよく、エントリ654は、a×b×cのゾーン寸法を有してもよく、エントリ656は、a×b×cのゾーン寸法を有してもよく、エントリ654は、a×b×cのゾーン寸法を有してもよい。そのため、この例において、決定されたオーディオ処理アルゴリズムに関連付けて記憶された1つ又は複数の特性は、再生ゾーンの音響特性及び再生ゾーンの寸法を含む。他の例もまた可能である。In addition to playback zone acoustics,database 650 may include zone size information indicating dimensions of playback zones having corresponding playback zone acoustics and audio processing algorithms determined based on the corresponding playback zone acoustics. For example, as shown,entry 652 may have a zone dimension of a1 × b1 × c1 andentry 654 may have a zone dimension of a2 × b2 × c2 ,entries 656 may have a zone dimension ofa 3 × b 3 × c 3 ,entry 654 may have a zone dimension ofa 4 × b 4 × c 4 . As such, in this example, the one or more characteristics stored in association with the determined audio processing algorithm include the acoustic characteristics of the playback zone and the dimensions of the playback zone. Other examples are also possible.

当業者は、データベース650が方法700の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されてもよい。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。さらに別の例では、データベース650は、ゾーン寸法及び対応するオーディオ処理アルゴリズムのみを含むことができ、再生ゾーンの対応する音響特性を含まないことができる。他の例もまた可能である。  Those skilled in the art will appreciate thatdatabase 650 is merely one example of a database that may be created and maintained by performing the functions ofmethod 700. In one example, the playback zone acoustics may be stored in different types or mathematical states (ie, inversion versus non-inversion functions). In another example, the audio processing algorithm may be stored as a function and / or an equalization function. In yet another example,database 650 may include only zone sizes and corresponding audio processing algorithms, and may not include corresponding acoustic characteristics of playback zones. Other examples are also possible.

方法500と同様に、上述した方法700(又は方法700の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されてもよい。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法600は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されてもよい。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、(i)第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信してもよい。  Similar tomethod 500,method 700 described above (or some variations of method 700) may be further performed to generate other entries in the database. For example, considering that the playback device is a first playback device, the playback zone is a first playback zone, and the audio processing algorithm is a first audio processing algorithm, themethod 600 may additionally or alternatively Thus, it may be performed using a second playback device in a second playback zone. In an example, the second playback device can play the fourth audio signal in the second playback zone, and the microphone of the second playback device is a fourth playback device that is played by the second playback device. A fifth audio signal may be detected that includes a portion of the audio signal. And the computing device is: (i) data indicative of one or more characteristics of the second playback zone; and (ii) a fifth detected by the microphone of the second playback device in the second playback zone Data indicative of an audio signal may be received.

そして、コンピューティングデバイスは、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定してもよい。コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。  The computing device may then determine the acoustic characteristics of the second playback zone based on the characteristics of the fifth audio signal and the second playback device. The computing device may determine a second audio processing algorithm based on the acoustic characteristics of the second playback zone. Here, the application of the determined second audio processing algorithm by the second reproduction device when reproducing the fourth audio signal in the reproduction zone generates a sixth audio signal. The sixth audio signal has substantially the same audio characteristics as the predetermined audio characteristics represented by the predetermined audio signal z (t) shown in Equations (7) and (8). The computing device may then store an association of the second audio processing algorithm with at least one of the one or more characteristics of the second playback zone in a database.

方法500に関連して上述したものと同様に、データベースについてのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが類似の又は実質的に同一の再生ゾーン音響特性を有することを決定してもよい。したがって、上述したように、コンピューティングデバイスは、再生ゾーン音響特性と再生ゾーン音響特性に対応する決定したオーディオ処理アルゴリズムとを合成(すなわち、平均化)することができ、データベース内の1つのエントリとして合成された再生ゾーン音響特性及び合成したオーディオ処理アルゴリズムを記憶してもよい。他の例もまた可能である。  Similar to that described above in connection withmethod 500, in the process of generating an entry for the database, the computing device determines that the two playback zones have similar or substantially the same playback zone acoustical characteristics. You may Thus, as mentioned above, the computing device can combine (ie, average) the playback zone acoustics and the determined audio processing algorithm corresponding to the playback zone acoustics, as one entry in the database The synthesized playback zone acoustics and the synthesized audio processing algorithm may be stored. Other examples are also possible.

方法500の場合と同様に、上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法700について言及しているが、当業者は、方法700の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック702−708のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック702−708のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。他のコンピューティングデバイスは、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、及び/又は1つ又は複数のサーバを含んでもよい。  As withmethod 500, although the above description generally refers tomethod 700 as being performed by a computing device, one skilled in the art will appreciate that the functionality ofmethod 700 may alternatively be one. It will be appreciated that it may be performed by one or more other computing devices, such as or multiple servers, one or more playback devices, and / or one or more controller devices. In other words, one or more of blocks 702-708 may be performed by the computing device while one or more other blocks of blocks 702-708 are one or more May be performed by other computing devices. Other computing devices may include one or more playback devices, one or more controller devices, and / or one or more servers.

ある例では、上述したように、ブロック702における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されうる。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して、第1のオーディオ信号を再生してもよい。別の例では、ブロック702−706は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック708を実行してもよい。他の例もまた可能である。  In an example, as described above, playback of the first audio signal by the playback device atblock 702 may be performed by the playback device without any external command. Alternatively, the playback device may play the first audio signal in response to commands from the controller device and / or other playback devices. In another example, blocks 702-706 may be performed by one or more playback devices or one or more controller devices, and the computing device may perform block 708. Other examples are also possible.

IV. 再生ゾーン特性に基づく再生デバイスの校正
上述したように、本明細書に記載された幾つかの例は、再生ゾーンについての再生デバイスの校正を含む。幾つかの場合において、再生デバイスの校正は、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含んでもよい。
IV. Calibration of Playback Device Based on Playback Zone Characteristics As mentioned above, some examples described herein include calibration of the playback device for the playback zone. In some cases, calibration of the playback device may include determining an audio processing algorithm that the playback device applies when playing back audio content in the playback zone.

図8は、再生デバイスを校正することができる例示的な再生環境800を示している。示されるように、再生環境800は、コンピューティングデバイス802と、再生デバイス804及び806と、コントローラデバイス808と、再生ゾーン810とを含む。再生デバイス804及び806は、図2に示される再生デバイス200に類似していてもよい。そのため、再生デバイス804及び806は、それぞれ、マイクロホン220などのマイクロホンを有してもよい。幾つかの場合において、再生デバイス804及び806のうちの一方のみがマイクロホンを有していてもよい。  FIG. 8 shows anexemplary playback environment 800 in which the playback device can be calibrated. As shown,playback environment 800 includescomputing device 802,playback devices 804 and 806, controller device 808, andplayback zone 810. Theplayback devices 804 and 806 may be similar to the playback device 200 shown in FIG. As such,playback devices 804 and 806 may each include a microphone, such as microphone 220. In some cases, only one of theplayback devices 804 and 806 may have a microphone.

ある例では、再生デバイス804及び806は、メディア再生システムの一部とすることができ、図1のメディア再生システム100に関連して示されて上述されたもののように、オーディオコンテンツを同期して再生するように構成されうる。ある場合では、再生デバイス804及び806は、再生ゾーン810内で同期してオーディオコンテンツを再生するためにともにグループ化されうる。図1を再度参照すると、再生ゾーン810は、メディア再生システム100において異なる部屋及びゾーングループのいずれか1つ又は複数であってもよい。例えば、再生ゾーン810は、主寝室であってもよい。そのような場合、再生デバイス804及び806は、それぞれ、再生デバイス122及び124に対応していてもよい。  In one example, theplayback devices 804 and 806 can be part of a media playback system and synchronize audio content, such as that shown and described above in connection with themedia playback system 100 of FIG. It can be configured to play. In some cases,playback devices 804 and 806 may be grouped together to play audio content synchronously withinplayback zone 810. Referring back to FIG. 1, theplayback zone 810 may be any one or more of different rooms and zone groups in themedia playback system 100. For example, theplayback zone 810 may be a master bedroom. In such case,playback devices 804 and 806 may correspond toplayback devices 122 and 124, respectively.

ある例では、コントローラデバイス808は、メディア再生システムを制御するために使用されうるデバイスであってもよい。ある場合では、コントローラデバイス808は、図3の制御デバイス300に類似していてもよい。図8のコントローラデバイス808は、再生ゾーン810の内部にあるように示されているが、コントローラデバイス808は、再生ゾーン810の外部にあってもよいし、又は、再生デバイス804、再生デバイス806、及び/又はメディア再生システム内の他のデバイスと通信しながら再生ゾーン810の内外に移動してもよい。  In one example, controller device 808 may be a device that may be used to control the media playback system. In some cases, controller device 808 may be similar to control device 300 of FIG. While controller device 808 in FIG. 8 is shown as being insideplayback zone 810, controller device 808 may beoutside playback zone 810, orplayback device 804,playback device 806, And / or may be moved into and out ofplayback zone 810 in communication with other devices within the media playback system.

ある例では、コンピューティングデバイス802は、メディア再生システムと通信するサーバであってもよい。コンピューティングデバイス802は、メディア再生システムに関連する情報(再生デバイス804及び806に関連付けられた登録番号など)のデータベースを保守するように構成されうる。また、コンピューティングデバイス802は、前のセクションにおいて記載されたようにオーディオ処理アルゴリズムのデータベースを保守するように構成されうる。他の例もまた可能である。  In one example,computing device 802 may be a server in communication with a media playback system. Thecomputing device 802 may be configured to maintain a database of information associated with the media playback system, such as registration numbers associated with theplayback devices 804 and 806. Also,computing device 802 may be configured to maintain a database of audio processing algorithms as described in the previous section. Other examples are also possible.

方法900、1000及び1100は、後述するように、再生ゾーン810における再生デバイス804及び806などの再生ゾーンにおける再生デバイスの校正のために実行されうる機能を提供する。  Methods 900, 1000 and 1100 provide functionality that may be performed for calibration of playback devices in playback zones, such asplayback devices 804 and 806 inplayback zone 810, as described below.

a. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第1の例示的な方法
図9は、1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する方法900の例示的なフロー図を示している。図9に示される方法900は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法900は、メディア再生システムと通信するコンピューティングデバイスによって実行されうる。これに代えて、別の例では、方法900の機能の一部又は全ては、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又はメディア再生システムに関連する1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. First Exemplary Method of Determining an Audio Processing Algorithm Based on a Detected Audio Signal FIG. 9 is an exemplary flow diagram of amethod 900 of determining an audio processing algorithm based on one or more playback zone characteristics. Is shown. Themethod 900 shown in FIG. 9 may be, for example, themedia playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, one or more control devices 300 of FIG. 3, and aplayback environment 800 of FIG. And FIG. 10 illustrates an embodiment of a method that may be implemented within an operating environment including: In an example, themethod 900 may be performed by a computing device in communication with a media playback system. Alternatively, in another example, some or all of the functionality ofmethod 900 may be associated with one or more servers, one or more playback devices, and / or one or more media playback systems. It may be performed by one or more other computing devices, such as a controller device.

方法900は、ブロック902−908のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。  Method 900 may include one or more operations, functions or operations as indicated by one or more of blocks 902-908. Although the blocks are shown in order, these blocks may be performed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into additional blocks, and / or eliminated based on the desired implementation.

図9に示されるように、方法900は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック902)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信するステップ(ブロック904)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック906)、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信するステップ(ブロック908)を含む。  As shown in FIG. 9, themethod 900 causes the playback device in the playback zone to play the first audio signal (block 902), data indicative of the second audio signal detected by the microphone of the playback device. Receiving from the playback device (block 904), determining an audio processing algorithm based on the second audio signal and the audio characteristics of the playback device (block 906), and playing back data indicative of the determined audio processing algorithm And sending (block 908).

方法900は、ブロック902において、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させることを含む。図8を参照し、再生デバイスは再生デバイス804であってもよく、再生ゾーンは再生ゾーン810であってもよい。そのため、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。  Method 900 includes, atblock 902, causing the playback device in the playback zone to play the first audio signal. Referring to FIG. 8, the playback device may be aplayback device 804, and the playback zone may be aplayback zone 810. Therefore, the playback device may be the same playback device as the playback device 200 shown in FIG.

ある例では、コンピューティングデバイス802は、再生デバイス804が再生ゾーン810について校正されるべきであることを決定してもよく、それに応答して再生ゾーン810内の再生デバイス804に第1のオーディオ信号を再生させてもよい。ある場合では、コンピューティングデバイス802は、ユーザから受信した、再生デバイス804が校正されるべきであることを示す入力に基づいて、再生デバイス804が校正されるべきであることを決定してもよい。ある例では、入力は、コントローラデバイス808を介してユーザから受信されてもよい。別の場合では、コンピューティングデバイス802は、再生デバイス804が新たな再生デバイスであることから又は再生ゾーン810へと新たに移動したことから、再生デバイス804が校正されるべきであることを決定してもよい。さらなる場合において、再生デバイス804(又はメディア再生システム内の任意の他の再生デバイス)の校正が定期的に実行されてもよい。そのため、コンピューティングデバイス802は、再生デバイス804が再生デバイス804の校正スケジュールに基づいて校正されるべきであることを決定してもよい。他の例もまた可能である。再生デバイス804が校正されるべきであることを決定するのに応答して、コンピューティングデバイス802は、その後、再生デバイス804に第1のオーディオ信号を再生させてもよい。  In one example,computing device 802 may determine thatplayback device 804 should be calibrated forplayback zone 810, and responsive thereto, the first audio signal toplayback device 804 inplayback zone 810 May be played back. In some cases,computing device 802 may determine thatplayback device 804 is to be calibrated based on an input received from the user indicating thatplayback device 804 should be calibrated. . In one example, the input may be received from the user via controller device 808. In another case, thecomputing device 802 determines that theplayback device 804 should be calibrated because theplayback device 804 is a new playback device or has moved to aplayback zone 810 anew. May be In further cases, calibration of the playback device 804 (or any other playback device in the media playback system) may be performed periodically. As such,computing device 802 may determine thatplayback device 804 should be calibrated based on the calibration schedule ofplayback device 804. Other examples are also possible. In response to determining that theplayback device 804 is to be calibrated, thecomputing device 802 may then cause theplayback device 804 to play the first audio signal.

ブロック902は、コンピューティングデバイス802が再生デバイス804に第1のオーディオ信号を再生させることを含むが、当業者は、再生デバイス804による第1のオーディオ信号の再生が必ずしもコンピューティングデバイス802によって生じなくてもよい又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイス808は、再生デバイス804にコマンドを送信して、再生デバイス804に第1のオーディオ信号を再生させてもよい。別の例では、再生デバイス806は、再生デバイス804に第1のオーディオ信号を再生させてもよい。さらなる例において、再生デバイス804は、コンピューティングデバイス802、再生デバイス806又はコントローラデバイス808からのコマンドを受信することなく、第1のオーディオ信号を再生してもよい。ある例では、再生デバイス804は、再生デバイス804の動き又は再生デバイス804の再生ゾーンの変化に基づいて、校正が実行されるべきであることを決定してもよく、それに応答して、第1のオーディオ信号を再生してもよい。他の例もまた可能である。  Althoughblock 902 includescomputing device 802 causingplayback device 804 to play the first audio signal, one skilled in the art will appreciate that playback of the first audio signal byplayback device 804 is not necessarily caused bycomputing device 802. It will be understood that it may or may not be started. For example, controller device 808 may send a command toplayback device 804 to causeplayback device 804 to play the first audio signal. In another example, theplayback device 806 may cause theplayback device 804 to play the first audio signal. In further examples, theplayback device 804 may play the first audio signal without receiving a command from thecomputing device 802, theplayback device 806 or the controller device 808. In an example, theplayback device 804 may determine that the calibration should be performed based on the motion of theplayback device 804 or the change in playback zone of theplayback device 804, in response, the first May be played back. Other examples are also possible.

示唆されるように、第1のオーディオ信号は、再生ゾーン810についての再生デバイス804を校正するための検査信号又は測定信号であってもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表してもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。別の例では、第1のオーディオ信号は、再生デバイスのユーザのお気に入りの又は一般に再生されるオーディオトラックであってもよい。  As suggested, the first audio signal may be a test signal or a measurement signal to calibrate theplayback device 804 for theplayback zone 810. As such, the first audio signal may represent audio content that may be played back by the playback device during normal use by the user. Thus, the first audio signal may include audio content having a frequency that substantially covers the renderable frequency range of the playback device or the human audio frequency range. In another example, the first audio signal may be a favorite or commonly played audio track of a user of the playing device.

方法900は、ブロック904において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を再生デバイスから受信することを含む。上記例を続けると、再生デバイス804が図2の再生デバイス200と同様であることを考慮すると、再生デバイス804のマイクロホンは、再生デバイス200のマイクロホン220に類似していてもよい。ある例では、コンピューティングデバイス802は、再生デバイス804からデータを受信してもよい。別の例では、コンピューティングデバイス804は、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、又は他のサーバなどの他のコンピューティングデバイスを介して、データを受信してもよい。  Method 900 includes, atblock 904, receiving from the playback device a second audio signal detected by a microphone of the playback device. Continuing the above example, the microphone of theplayback device 804 may be similar to the microphone 220 of the playback device 200, given that theplayback device 804 is similar to the playback device 200 of FIG. In one example,computing device 802 may receive data fromplayback device 804. In another example,computing device 804 may also receive data via another playback device such asplayback device 806, a controller device such as controller device 808, or other computing device such as another server. Good.

再生デバイス804が第1のオーディオ信号を再生しているとき又はその直後まもなく、再生デバイス804のマイクロホンは、第2のオーディオ信号を検出することができる。第2のオーディオ信号は、再生ゾーン内に存在するサウンドを含んでもよい。例えば、第2のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分を含んでもよい。  Immediately after or shortly after theplayback device 804 is playing the first audio signal, the microphone of theplayback device 804 can detect the second audio signal. The second audio signal may include the sound present in the playback zone. For example, the second audio signal may include a portion corresponding to the first audio signal reproduced by thereproduction device 804.

ある例では、コンピューティングデバイス802は、マイクロホンが第2のオーディオ信号を検出するとき、メディアストリームとして再生デバイス804から第1のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイス802は、再生デバイス804のマイクロホンによる第2のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイス804から受信してもよい。いずれの場合も、再生デバイス804は、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成してコンピューティングデバイス802にデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。  In an example, thecomputing device 802 may receive data indicative of the first audio signal from theplayback device 804 as a media stream when the microphone detects the second audio signal. In another example,computing device 802 may receive data indicative of the second audio signal fromplayback device 804 upon completion of detection of the second audio signal by the microphone ofplayback device 804. In any case, theplayback device 804 processes the detected second audio signal (via an audio processing component such as the audio processing component 208 of the playback device 200) to generate data indicative of the second audio signal. It may be generated and sent data to thecomputing device 802. In an example, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.

方法900は、ブロック906において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、再生デバイスの音響特性は、図5に示される方法500のブロック506に関連して上述したように、h(t)であってもよい。例えば、上述したように、無響室内の基準再生デバイスに測定信号を再生させ、基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを基準再生デバイスから受信し、検出されたオーディオ信号と測定信号との比較に基づいて再生デバイスの音響特性を決定することにより、再生デバイスの音響特性を決定することができる。Themethod 900 includes, atblock 906, determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device. In one example, the acoustic characteristic of the playback device may be hp (t) as described above in connection withblock 506 ofmethod 500 shown in FIG. For example, as described above, the reference reproduction device in the anechoic chamber reproduces the measurement signal, data indicating the audio signal detected by the microphone of the reference reproduction device is received from the reference reproduction device, and the detected audio signal and measurement By determining the acoustic characteristics of the playback device based on the comparison with the signal, the acoustic characteristics of the playback device can be determined.

上記示唆したように、基準再生デバイスは、再生ゾーン810について校正されている再生デバイス804と同じモデルであってもよい。また、ブロック506に関連して上述したものと同様に、コンピューティングデバイスは、それに応じて、再生デバイスの音響特性及び第2のオーディオ信号に基づいて、再生ゾーンの音響特性を決定してもよい。  As suggested above, the reference playback device may be the same model as theplayback device 804 being calibrated forplayback zone 810. Also, similar to that described above in connection withblock 506, the computing device may accordingly determine the acoustic characteristics of the playback zone based on the acoustic characteristics of the playback device and the second audio signal. .

ある例では、コンピューティングデバイス802は、ブロック508に関連して上述したものと同様の再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。そのため、コンピューティングデバイス802は、再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーン810内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度、所定のオーディオ特性を持つ。  In one example, thecomputing device 802 may determine the audio processing algorithm based on the acoustic characteristics of the playback zone similar to those described above in connection withblock 508. As such,computing device 802 may determine the audio processing algorithm based on the acoustic characteristics of the playback zone and the predetermined audio characteristics. Here, the application by theplayback device 804 of the determined audio processing algorithm when playing back the first audio signal in theplayback zone 810 generates a third audio signal. The third audio signal has an audio characteristic substantially identical to the predetermined audio characteristic, or at least to some extent has the predetermined audio characteristic.

別の例では、コンピューティングデバイス802は、再生ゾーン810の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、コンピューティングデバイスは、図6A及び図6Bそれぞれのデータベース600及び650などのデータベースにアクセスすることができ、再生ゾーン810の音響特性に基づいてオーディオ処理アルゴリズムを特定してもよい。例えば、図6Aのデータベース600を参照すると、再生ゾーン810の音響特性がhroom−1(t)−3として決定された場合、データベースエントリ606の係数w、x、y及びzを有するオーディオ処理アルゴリズムを特定することができる。In another example,computing device 802 may select an audio processing algorithm that corresponds to the acoustic characteristics ofplayback zone 810 from among a plurality of audio processing algorithms. For example, the computing device may access databases such asdatabases 600 and 650 of FIGS. 6A and 6B, respectively, and may specify audio processing algorithms based on the acoustic characteristics ofplayback zone 810. For example, referring todatabase 600 of FIG. 6A, if the acoustic characteristics ofplayback zone 810 are determined as hroom−1 (t) −3, then coefficients w3 , x3 , y3 and z3 ofdatabase entry 606 are The audio processing algorithm to have can be specified.

幾つかの場合において、再生ゾーン810の決定された音響特性に完全に一致する音響特性は、データベースにおいてみつからないことがある。そのような場合、再生ゾーン810の音響特性に最も類似しているデータベース内の音響特性に対応するオーディオ処理アルゴリズムが特定されてもよい。他の例もまた可能である。  In some cases, acoustic characteristics that perfectly match the determined acoustic characteristics of theplayback zone 810 may not be found in the database. In such a case, an audio processing algorithm may be identified that corresponds to the acoustic characteristics in the database that is most similar to the acoustic characteristics of theplayback zone 810. Other examples are also possible.

方法900は、ブロック908において、決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。上記例を続けると、コンピューティングデバイス802(又は1つ又は複数の他のデバイス)は、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。また、決定されたオーディオ処理アルゴリズムを示すデータは、再生ゾーン810においてオーディオコンテンツを再生するときに、決定されたオーディオ処理アルゴリズムを再生デバイス804に適用させるためのコマンドを含んでもよい。ある例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの周波数等化を変更してもよい。別の例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの音量域を変更してもよい。他の例もまた可能である。  Method 900 includes, atblock 908, transmitting data indicative of the determined audio processing algorithm to the playback device. Continuing the example, the computing device 802 (or one or more other devices) may send data to theplayback device 804 indicating the determined audio processing algorithm. Also, the data indicative of the determined audio processing algorithm may include a command for causing the determined audio processing algorithm to be applied to theplayback device 804 when playing back audio content in theplayback zone 810. In an example, applying audio processing algorithms to audio content may alter frequency equalization of the audio content. In another example, applying an audio processing algorithm to audio content may change the volume range of the audio content. Other examples are also possible.

幾つかの場合において、再生ゾーンは、同期してオーディオコンテンツを再生するように構成された複数の再生デバイスを含んでもよい。例えば、上述したように、再生デバイス804及び806は、再生ゾーン810において同期してオーディオコンテンツを再生するように構成されてもよい。そのような場合、再生デバイスのうちの1つの校正は、他の再生デバイスを含んでもよい。  In some cases, the playback zone may include multiple playback devices configured to synchronously play audio content. For example, as discussed above,playback devices 804 and 806 may be configured to play audio content synchronously inplayback zone 810. In such cases, the calibration of one of the playback devices may include another playback device.

ある例では、再生ゾーン810などの再生ゾーンは、同期してオーディオコンテンツを再生するように構成された、再生デバイス804などの第1の再生デバイス及び再生デバイス806などの第2の再生デバイスを含んでもよい。コンピューティングデバイス802によって協調されて実行されるのにともない、再生デバイス804の校正は、再生デバイス804に第1のオーディオ信号を再生させ且つ再生デバイス806に第2のオーディオ信号を再生させることを含んでもよい。  In an example, a playback zone, such asplayback zone 810, includes a first playback device, such asplayback device 804, and a second playback device, such asplayback device 806, configured to synchronously play audio content. May be. Calibration of theplayback device 804 as performed coordinated by thecomputing device 802 includes causing theplayback device 804 to play the first audio signal and causing theplayback device 806 to play the second audio signal. May be.

ある場合では、コンピューティングデバイス802は、再生デバイス804による第1のオーディオ信号の再生と同期して、再生デバイス806に第2のオーディオ信号を再生させてもよい。ある例では、再生デバイス804及び806のいずれかによって同期して再生されるオーディオコンテンツの成分が識別可能とすることができるように、第2のオーディオ信号は第1のオーディオ信号に直交していてもよい。別の場合では、コンピューティングデバイスは、再生デバイス804による第1のオーディオ信号の再生が終了した後に再生デバイス806に第2のオーディオ信号を再生させてもよい。他の例もまた可能である。  In some cases,computing device 802 may causeplayback device 806 to play the second audio signal in synchronization with the playback of the first audio signal byplayback device 804. In one example, the second audio signal is orthogonal to the first audio signal such that the components of the audio content that are synchronously reproduced by any of thereproduction devices 804 and 806 can be identified. It is also good. In another case, the computing device may causeplayback device 806 to play the second audio signal after playback of the first audio signal byplayback device 804 is complete. Other examples are also possible.

そして、コンピューティングデバイス802は、ブロック904に関連して記載されたものと同様に、再生デバイス804のマイクロホンによって検出された第3のオーディオ信号を再生デバイス804から受信してもよい。しかしながら、この場合、第3のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分の双方を含んでもよい。  Thecomputing device 802 may then receive, from theplayback device 804, a third audio signal detected by the microphone of theplayback device 804, similar to that described in connection withblock 904. However, in this case, the third audio signal may include both a portion corresponding to the first audio signal reproduced by thereproduction device 804 and a portion corresponding to the second audio signal reproduced by thereproduction device 806. Good.

その後、コンピューティングデバイス802は、第3のオーディオ信号及び再生デバイス804の音響特性に基づいて、オーディオ処理アルゴリズムを決定して、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。決定されたオーディオ処理アルゴリズムは、ブロック906及び908に関連して上述したものと同様に、再生ゾーン810においてオーディオコンテンツを再生するときに、再生デバイス804が適用するものである。  Thecomputing device 802 may then determine an audio processing algorithm based on the third audio signal and the acoustic characteristics of theplayback device 804 and transmit data indicative of the determined audio processing algorithm to theplayback device 804 . The determined audio processing algorithm is that theplayback device 804 applies when playing back audio content in theplayback zone 810, similar to that described above in connection withblocks 906 and 908.

ある場合では、上述したように、再生デバイス806は、マイクロホンを有してもよく、また、上述したものと同様に校正されてもよい。示されるように、再生デバイス804によって再生される第1のオーディオ信号及び再生デバイス806によって再生される第2のオーディオ信号は、直交していてもよく又は識別可能であってもよい。例えば、また上述したように、再生デバイス806は、再生デバイス804による第1のオーディオ信号の再生が終了した後に、第2のオーディオ信号を再生してもよい。別の例において、第2のオーディオ信号は、第1のオーディオ信号の位相に直交する位相を有してもよい。さらに別の例において、第2のオーディオ信号は、第1のオーディオ信号とは異なる及び/又は変化する周波数レンジを有してもよい。他の例もまた可能である。  In some cases, as described above, theplayback device 806 may include a microphone and may be calibrated as described above. As shown, the first audio signal reproduced by thereproduction device 804 and the second audio signal reproduced by thereproduction device 806 may be orthogonal or distinguishable. For example, and as discussed above, theplayback device 806 may play the second audio signal after theplayback device 804 has finished playing the first audio signal. In another example, the second audio signal may have a phase orthogonal to the phase of the first audio signal. In yet another example, the second audio signal may have a different frequency range and / or change than the first audio signal. Other examples are also possible.

いずれの場合にも、識別可能な第1及び第2のオーディオ信号により、コンピューティングデバイス802は、再生デバイス804によって検出された第3のオーディオ信号から、検出された第3のオーディオ信号に対する再生デバイス804の寄与及び検出された第3のオーディオ信号に対する再生デバイス806の寄与を解析することができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806について決定されうる。  In any case, thecomputing device 802 can play back the detected third audio signal from the third audio signal detected by theplayback device 804 by the identifiable first and second audio signals. The contribution of 804 and the contribution of theplayback device 806 to the detected third audio signal may be analyzed. Then, each audio processing algorithm may be determined for theplayback device 804 and theplayback device 806.

各オーディオ処理アルゴリズムは、ブロック508に関連して上述したものと同様に、決定されうる。ある場合では、再生ゾーンの第1の音響特性は、再生デバイス604によって検出された第3のオーディオ信号に基づいて決定されてもよく、再生ゾーンの第2の音響特性は、再生デバイス806によって検出された第4のオーディオ信号に基づいて決定されてもよい。第3のオーディオ信号と同様に、第4のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分を含んでもよい。  Each audio processing algorithm may be determined as described above in connection withblock 508. In some cases, a first acoustic characteristic of the playback zone may be determined based on a third audio signal detected by theplayback device 604, and a second acoustic characteristic of the playback zone is detected by theplayback device 806 It may be determined based on the received fourth audio signal. Similar to the third audio signal, the fourth audio signal includes a portion corresponding to the first audio signal reproduced by thereproduction device 804 and a portion corresponding to the second audio signal reproduced by thereproduction device 806. May be included.

そして、再生デバイス804及び再生デバイス806についての各オーディオ処理アルゴリズムは、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の個々に又はそれらの組み合わせに基づいて、決定されうる。幾つかの場合において、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の組み合わせは、再生ゾーンの個別の第1又は第2の音響特性のいずれかよりも、再生ゾーンのより包括的な音響特性を表すことができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806に送信されて、再生ゾーン810においてオーディオコンテンツを再生するときに適用される。他の例もまた可能である。  And, each audio processing algorithm for theplayback device 804 and theplayback device 806 may be determined based on the first acoustic characteristic of the playback zone and the second acoustic characteristic of the playback zone individually or in combination. In some cases, the combination of the first acoustical property of the reproduction zone and the second acoustical property of the reproduction zone is more than that of either of the individual first or second acoustical properties of the reproduction zone. It can represent comprehensive acoustic characteristics. Each audio processing algorithm is then sent to theplayback device 804 and theplayback device 806 and applied when playing back audio content in theplayback zone 810. Other examples are also possible.

上記説明は、全体的に、図8のコンピューティングデバイス802によって実行されるものとして、方法900ついて言及しているが、当業者は、上述したように、方法900の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス及び/又は1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスよって実行されてもよいことを理解するであろう。例えば、再生ゾーン810についての再生デバイス804を校正するための方法900の機能は、再生デバイス804、再生デバイス806、コントローラデバイス808、又は図8には示されていないが再生デバイス804と通信する他のデバイスによって実行されてもよい。  Although the above description generally refers to themethod 900 as being performed by thecomputing device 802 of FIG. 8, those skilled in the art will appreciate that the functionality of themethod 900 may alternatively be as described above. It will be appreciated that it may be performed by one or more other computing devices, such as one or more servers, one or more playback devices and / or one or more controller devices. . For example, the functionality ofmethod 900 for calibratingplayback device 804 forplayback zone 810 may beplayback device 804,playback device 806, controller device 808, or otherwise not shown in FIG. May be performed by the device.

さらに、幾つかの場合において、ブロック902−908のうちの1つ又は複数は、コンピューティングデバイス802によって実行されうる一方で、ブロック902−908のうちの1つ又は複数の他のブロックは、1つ又は複数の他のデバイスによって実行されてもよい。例えば、ブロック902及び904は、再生デバイス804、再生デバイス806及び再生デバイス808のうちの1つ又は複数によって実行されうる。換言すれば、コンピューティングデバイス802以外の調整デバイスは、再生ゾーン810についての再生デバイス804の校正を調整することができる。  Further, in some cases, one or more of blocks 902-908 may be performed by computingdevice 802 while one or more other blocks of blocks 902-908 are It may be performed by one or more other devices. For example, blocks 902 and 904 may be performed by one or more ofplayback device 804,playback device 806 and playback device 808. In other words, a coordinating device other than computingdevice 802 can coordinate the calibration ofplayback device 804 forplayback zone 810.

幾つかの場合において、ブロック906において、調整デバイスは、第2のオーディオ信号をコンピューティングデバイス802に送信して、コンピューティングデバイス802が第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定してもよい。再生デバイスの音響特性は、調整デバイスによってコンピューティングデバイス802に提供されてもよいし、又は再生デバイスの特性が格納されている他のデバイスから提供されてもよい。ある場合では、コンピューティングデバイス802は調整デバイスよりも多くの処理能力を有するため、コンピューティングデバイス802がブロック906の計算を実行してもよい。  In some cases, atblock 906, the coordination device transmits a second audio signal to thecomputing device 802, and thecomputing device 802 processes the audio based on the audio characteristics of the second audio signal and the playback device. An algorithm may be determined. The acoustic characteristics of the playback device may be provided by the coordination device to thecomputing device 802 or from other devices in which the characteristics of the playback device are stored. In some cases,computing device 802 may perform the calculations ofblock 906 becausecomputing device 802 has more processing power than the coordinating device.

ある例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを直接再生デバイス804に送信して、再生ゾーン810でオーディオコンテンツを再生するときに再生デバイス804が適用できるようにしてもよい。別の例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを調整デバイスに送信してもよく、調整デバイスはブロック908を実行して、(調整デバイスが再生デバイス804ではない場合は)決定したオーディオ処理アルゴリズムを再生デバイス804に送信してもよい。他の例もまた可能である。  In one example, once thecomputing device 802 determines the audio processing algorithm, it sends the determined audio processing algorithm directly to theplayback device 804 so that theplayback device 804 can apply when playing back audio content in theplayback zone 810 You may In another example, thecomputing device 802 may transmit the determined audio processing algorithm to the coordinating device upon determining the audio processing algorithm, the coordinating device performing block 908 ( If not, the determined audio processing algorithm may be sent to theplayback device 804. Other examples are also possible.

b. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第2の例示的な方法
幾つかの場合において、上述したように、再生ゾーンにおける再生デバイスの校正は、サーバ又はコントーラデバイスなどのコンピューティングデバイスによって調整されて実行されてもよい。幾つかの他の場合において、上述したように、再生デバイスの校正は、校正されている再生デバイスによって調整及び/又は実行されてもよい。
b. Second Exemplary Method of Determining an Audio Processing Algorithm Based on a Detected Audio Signal In some cases, as described above, calibration of a playback device in a playback zone may be a computing device such as a server or controller device May be adjusted and implemented. In some other cases, as mentioned above, calibration of the playback device may be adjusted and / or performed by the playback device being calibrated.

図10は、校正されている再生デバイスによって実行されるような、1つ又は複数の再生ゾーン特性に基づいて、オーディオ処理アルゴリズムを決定する方法1000の例示的なフロー図を示している。図10に示される方法1000は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。示されるように、方法800は、再生ゾーンのために校正されるべき再生デバイスによって実行されうる。幾つかの場合において、方法1000の機能の一部は、代替的に、1つ又は複数のサーバ、1つ又は複数の他の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。  FIG. 10 shows an exemplary flow diagram of amethod 1000 of determining an audio processing algorithm based on one or more playback zone characteristics as performed by the playback device being calibrated. Themethod 1000 shown in FIG. 10 may be, for example, themedia playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, one or more control devices 300 of FIG. 3, and aplayback environment 800 of FIG. And FIG. 10 illustrates an embodiment of a method that may be implemented within an operating environment including: As shown, themethod 800 may be performed by the playback device to be calibrated for the playback zone. In some cases, a portion of the functionality ofmethod 1000 may alternatively be one such as one or more servers, one or more other playback devices, and / or one or more controller devices, etc. Or may be performed by a plurality of other computing devices.

方法1000は、ブロック1002−1008のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。  Method 1000 may include one or more operations, functions or operations as indicated by one or more of blocks 1002-1008. Although the blocks are shown in order, these blocks may be performed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into additional blocks, and / or eliminated based on the desired implementation.

図10に示されるように、方法1000は、再生ゾーン内で第1のオーディオ信号を再生するステップ(ブロック1002)、マイクロホンによって第2のオーディオ信号を検出するステップ(ブロック1004)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック1006)、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに適用するステップ(ブロック1008)を含む。  As shown in FIG. 10, themethod 1000 reproduces the first audio signal in the reproduction zone (block 1002), detects the second audio signal by the microphone (block 1004), the second audio Determining an audio processing algorithm based on the signal and the acoustic characteristics of the playback device (block 1006), applying the determined audio processing algorithm to audio data corresponding to the media item when playing back the media item (block 1008) )including.

方法1000は、ブロック1002において、再生ゾーンにおいて、第1のオーディオ信号を再生することを含む。図8を参照すると、再生デバイス804が再生ゾーン810内にある間、方法1000を実行する再生デバイスは、再生デバイス804であってもよい。ある例では、ブロック1002はブロック902に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック902に関連した上記説明が、時にはいくらか変形して、ブロック1002に適用可能である。  Method 1000 includes, atblock 1002, playing a first audio signal in a playing zone. Referring to FIG. 8, the playback device performing themethod 1000 may be theplayback device 804 while theplayback device 804 is in theplayback zone 810. In one example,block 1002 is similar to block 902 but may be performed by theplayback device 804 being calibrated rather than thecomputing device 802. Nevertheless, the above description associated withblock 902 is applicable to block 1002, sometimes with some variations.

方法1000は、ブロック1004において、マイクロホンによって、第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。ある例では、ブロック1004はブロック904に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック904に関連した上記説明が、時にはいくらか変形して、ブロック1004に適用可能である。  Themethod 1000 includes, atblock 1004, detecting a second audio signal with a microphone. The second audio signal may include a portion corresponding to the first audio signal reproduced by the reproduction device. In one example,block 1004 is similar to block 904 but may be performed by theplayback device 804 being calibrated rather than thecomputing device 802. Nevertheless, the above description associated withblock 904 is applicable to block 1004, with some variations.

方法1000は、ブロック1006において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック1006はブロック906に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック906に関連した上記説明が、時にはいくらか変形して、ブロック1006に適用可能である。  Method 1000 includes, atblock 1006, determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device. In one example,block 1006 is similar to block 906, but may be performed by theplayback device 804 being calibrated rather than thecomputing device 802. Nevertheless, the above description associated withblock 906 is applicable to block 1006, sometimes with some variations.

ある場合では、オーディオ処理アルゴリズムを決定する機能は、ブロック906に関連して記載されたように、再生ゾーン810のために校正されている再生デバイス804によって全体的に実行されてもよい。例えば、再生デバイス804が、第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン610の音響特性を決定してもよい。ある場合では、再生デバイス804は、再生デバイス804の音響特性をローカルに格納していてもよい。別の場合では、再生デバイス804は、他のデバイスから、再生デバイス804の音響特性を受信してもよい。  In some cases, the function of determining the audio processing algorithm may be performed entirely by theplayback device 804 being calibrated for theplayback zone 810, as described in connection withblock 906. For example, theplayback device 804 may determine the acoustic characteristics of the playback zone 610 based on the second audio signal and the acoustic characteristics of theplayback device 804. In some cases, theplayback device 804 may store the acoustic characteristics of theplayback device 804 locally. In other cases, theplayback device 804 may receive acoustic characteristics of theplayback device 804 from other devices.

ある例では、その後、再生デバイス804は、再生ゾーン610の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、再生デバイス804は、それぞれ、図6A及び図6Bに関連して示されて上述されたデータベース600及び650などのデータベースにアクセスして、再生ゾーン610の音響特性と実質的に同様の音響特性に対応するオーディオ処理アルゴリズムをデータベースにおいて特定してもよい。  In one example, theplayback device 804 may then select an audio processing algorithm that corresponds to the acoustic characteristics of the playback zone 610 from among a plurality of audio processing algorithms. For example, theplayback device 804 accesses a database such as thedatabases 600 and 650 shown and described above with reference to FIGS. 6A and 6B, respectively, to obtain acoustic characteristics substantially similar to the acoustic characteristics of the playback zone 610. The audio processing algorithm corresponding to may be identified in the database.

他の例において、方法900のブロック906及び/又は方法500のブロック508に関連して上述した機能と同様に、再生デバイス804は、再生ゾーン610の音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを計算してもよい。ここで、再生ゾーン810において第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度の所定のオーディオ特性を持つ。  In another example, similar to the functions described above in connection withblock 906 ofmethod 900 and / or block 508 ofmethod 500,playback device 804 may, based on the acoustic characteristics of playback zone 610 and the predetermined audio characteristics, audio. The processing algorithm may be calculated. Here, the application by theplayback device 804 of the determined audio processing algorithm when playing back the first audio signal in theplayback zone 810 generates a third audio signal. The third audio signal has substantially the same audio characteristics as the predetermined audio characteristics or has at least some predetermined audio characteristics.

さらなる例において、前のセクションにおいて記載されたように、再生デバイス804以外の他のデバイスが、ブロック1006の機能の一部又は全てを実行してもよい。例えば、再生デバイス804は、コンピューティングデバイス802などのコンピューティングデバイス、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、及び/又は再生デバイス804と通信する幾つかの他のデバイスに対して、検出された第2のオーディオ信号を示すデータを送信して、オーディオ処理アルゴリズムを要求してもよい。別の例において、再生デバイス804は、検出されたオーディオ信号に基づいて再生ゾーン810の音響特性を決定し、再生ゾーン810の決定した音響特性に基づいたオーディオ処理アルゴリズムについての要求に応じて、再生ゾーン810の決定した音響特性を示すデータを他のデバイスに送信してもよい。  In a further example, as described in the previous section, other devices besides theplayback device 804 may perform some or all of the functions ofblock 1006. For example,playback device 804 may be a computing device such ascomputing device 802, another playback device such asplayback device 806, a controller device such as controller device 808, and / or some other device in communication withplayback device 804. , Data indicative of the detected second audio signal may be transmitted to request an audio processing algorithm. In another example, theplayback device 804 determines the acoustic characteristics of theplayback zone 810 based on the detected audio signal and plays back in response to a request for an audio processing algorithm based on the determined acoustic characteristics of theplayback zone 810 Data indicative of the determined acoustic characteristics ofzone 810 may be transmitted to other devices.

換言すれば、1つの態様において、再生デバイス804は、検出された第2のオーディオ信号及び/又は再生デバイス804によって他のデバイスに提供された再生ゾーン810の音響特性に基づいて、他のデバイスからオーディオ処理アルゴリズムを要求することによって、オーディオ処理アルゴリズムを決定してもよい。  In other words, in one aspect, theplayback device 804 may be configured to transmit from the other device based on the detected second audio signal and / or the acoustic characteristics of theplayback zone 810 provided to the other device by theplayback device 804. The audio processing algorithm may be determined by requesting the audio processing algorithm.

再生デバイス804が再生ゾーン810の音響特性ではなく、検出された第2のオーディオ信号を示すデータを提供する場合、再生デバイス804は、他のデバイスが再生ゾーン810の音響特性を決定することができるように、検出された第2のオーディオ信号を示すデータとともに再生デバイス804の音響特性を送信してもよい。別の場合では、検出された第2のオーディオ信号を示すデータを受信するデバイスは、データに基づいて、データを送信する再生デバイス804のモデルを決定し、再生デバイス804のモデル(すなわち、再生デバイス音響特性データベース)に基づいて、再生デバイス804の音響特性を決定してもよい。他の例もまた可能である。  If theplayback device 804 provides data indicative of the detected second audio signal rather than the acoustic characteristics of theplayback zone 810, theplayback device 804 may allow other devices to determine the acoustic characteristics of theplayback zone 810 As such, the acoustic characteristics of theplayback device 804 may be transmitted along with data indicative of the detected second audio signal. In another case, the device receiving data indicative of the detected second audio signal determines the model of theplayback device 804 to transmit data based on the data, and the model of the playback device 804 (ie, the playback device The acoustic characteristics of theplayback device 804 may be determined based on the acoustic characteristics database). Other examples are also possible.

そして、再生デバイス804は、決定されたオーディオ処理アルゴリズムを受信してもよい。ある場合では、再生デバイス804は、他のデバイスが再生デバイス804よりも多くの処理能力を有することから、第2のオーディオ信号を他のデバイスに送信してもよい。別の場合では、再生デバイス804及び1つ又は複数の他のデバイスは、処理能力の効率的な使用のために、計算及び機能を並列に実行してもよい。他の例もまた可能である。  Theplayback device 804 may then receive the determined audio processing algorithm. In some cases, theplayback device 804 may transmit the second audio signal to the other device as the other device has more processing power than theplayback device 804. In other cases, theplayback device 804 and one or more other devices may perform calculations and functions in parallel for efficient use of processing power. Other examples are also possible.

方法800は、ブロック1008において、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに対して適用することを含む。ある例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの周波数等化を変更してもよい。別の例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの音量域を変更してもよい。ある例では、再生デバイス804は、決定されたオーディオ処理アルゴリズムをローカルメモリストレージに格納することができ、再生ゾーン810においてオーディオコンテンツを再生するときにオーディオ処理アルゴリズムを適用してもよい。  Method 800 includes applying the determined audio processing algorithm atblock 1008 to audio data corresponding to the media item when playing the media item. In an example, application of the audio processing algorithm to audio data of the media item by theplayback device 804 when playing the media item within theplayback zone 810 may change frequency equalization of the media item. In another example, application of the audio processing algorithm to audio data of the media item by theplayback device 804 when playing the media item in theplayback zone 810 may change the volume range of the media item. In one example, theplayback device 804 may store the determined audio processing algorithm in a local memory storage, and may apply the audio processing algorithm when playing back audio content in theplayback zone 810.

ある例では、再生デバイス804は、再生デバイス804の異なる構成のために校正されてもよい。例えば、再生デバイス804は、再生ゾーン810における個々の再生を含む第1の構成、並びに再生ゾーン810における再生デバイス806との同期再生を含む第2の構成のために、校正されてもよい。そのような場合、第1のオーディオ処理アルゴリズムが、再生デバイスの第1の再生構成のために、決定、格納、及び適用され、第2のオーディオ処理アルゴリズムが、再生デバイスの第2の再生構成のために、決定、格納、及び適用される。  In one example, theplayback device 804 may be calibrated for different configurations of theplayback device 804. For example,playback device 804 may be calibrated for a first configuration that includes individual playbacks inplayback zone 810 as well as a second configuration that includes synchronized playback withplayback device 806 inplayback zone 810. In such case, a first audio processing algorithm is determined, stored and applied for a first playback configuration of the playback device, and a second audio processing algorithm is of a second playback configuration of the playback device. To determine, store and apply.

そして、再生デバイス804は、再生デバイス804の所定時間における再生構成に基づいて、オーディオ処理アルゴリズムを決定して、再生ゾーン810におけるオーディオコンテンツの再生時に適用してもよい。例えば、再生デバイス804が再生デバイス806なしで再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第1のオーディオ処理アルゴリズムを適用してもよい。一方、再生デバイス804が再生デバイス806と同期して再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第2のオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。  Then, theplayback device 804 may determine an audio processing algorithm based on the playback configuration at a predetermined time of theplayback device 804 and apply it when playing back audio content in theplayback zone 810. For example, when theplayback device 804 is playing audio content in theplayback zone 810 without theplayback device 806, theplayback device 804 may apply a first audio processing algorithm. On the other hand, when theplayback device 804 is playing back audio content in theplayback zone 810 in synchronization with theplayback device 806, theplayback device 804 may apply a second audio processing algorithm. Other examples are also possible.

c. 再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する例示的な方法
上記説明において、オーディオ処理アルゴリズムの決定は、一般に、再生ゾーン内の再生デバイスによって検出されたオーディオ信号に基づいて決定されるように、再生ゾーンの音響特性を決定することに基づくことができる。幾つかの場合において、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に加えて又はその代わりに、再生ゾーンの他の特性に基づいて特定されてもよい。
c. Exemplary Method for Determining Audio Processing Algorithm Based on Playback Zone Characteristics In the above description, the determination of the audio processing algorithm is generally as determined based on the audio signal detected by the playback device in the playback zone: It can be based on determining the acoustic properties of the reproduction zone. In some cases, audio processing algorithms may be identified based on other characteristics of the playback zone in addition to or instead of the acoustic characteristics of the playback zone.

図11は、再生ゾーンの1つ又は複数の特性に基づいて、オーディオ処理アルゴリズムのデータベースから、オーディオ処理アルゴリズムを提供する例示的なフロー図を示している。図11に示される方法1100は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法1100は、再生ゾーンのために校正されるべきである再生デバイスと通信する、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、1つ又は複数のサーバ、又は1つ又は複数のコンピューティングデバイスによって、個別に又はまとめて実行されてもよい。  FIG. 11 illustrates an exemplary flow diagram for providing an audio processing algorithm from a database of audio processing algorithms based on one or more characteristics of a playback zone. Themethod 1100 shown in FIG. 11, for example, includes themedia playback system 100 of FIG. 1, one or more playback devices 200 of FIG. 2, one or more control devices 300 of FIG. 3, and aplayback environment 800 of FIG. And FIG. 10 illustrates an embodiment of a method that may be implemented within an operating environment including: In an example, themethod 1100 may communicate with the playback device that is to be calibrated for the playback zone, one or more playback devices, one or more controller devices, one or more servers, or It may be performed individually or collectively by one or more computing devices.

方法1100は、ブロック1102−1108のうちの1つ又は複数によって示されるように、1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。  Themethod 1100 may include one or more operations, functions or operations as indicated by one or more of the blocks 1102-1108. Although the blocks are shown in order, these blocks may be performed in parallel and / or in a different order than that described herein. Also, the various blocks may be combined into fewer blocks, divided into additional blocks, and / or eliminated based on the desired implementation.

図11に示されるように、方法1100は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守するステップ(ブロック1102)、再生ゾーンの1つ又は複数の特性を示すデータを受信するステップ(ブロック1104)、データに基づいてオーディオ処理アルゴリズムをデータベース内で特定するステップ(ブロック1106)、及び特定したオーディオ処理アルゴリズムを示すデータを送信するステップ(ブロック1108)を含む。  As shown in FIG. 11, themethod 1100 comprises the steps of: (i) maintaining a plurality of audio processing algorithms and (ii) a database of a plurality of playback zone characteristics (block 1102), one or more characteristics of the playback zone Receiving the indicated data (block 1104), identifying an audio processing algorithm in the database based on the data (block 1106), and transmitting data indicative of the identified audio processing algorithm (block 1108).

方法1100は、ブロック1102において、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。ある例では、データベースは、図6A及び図6Bそれぞれに関連して示されて上述されたようなデータベース600及び650に類似していてもよい。そのため、複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの1つ又は複数の再生ゾーン特性に対応してもよい。データベースの保守は、図5及び図7それぞれの方法500及び700に関連して上述したようなものとしてもよい。上述したように、データベースは、データベースを保守するデバイス上にローカルに格納されていてもよいし、格納されていなくてもよい。  Method 1100 includes, atblock 1102, maintaining a database of (i) audio processing algorithms and (ii) playback zone characteristics. In one example, the database may be similar todatabases 600 and 650 as shown and described above in connection with FIGS. 6A and 6B, respectively. As such, each audio processing algorithm of the plurality of audio processing algorithms may correspond to one or more playback zone characteristics of the plurality of playback zone characteristics. Maintenance of the database may be as described above in connection withmethods 500 and 700 of FIGS. 5 and 7 respectively. As mentioned above, the database may or may not be stored locally on the device maintaining the database.

方法1100は、ブロック1104において、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。別の例では、再生ゾーンの1つ又は複数の特性は、他の可能性のうち、再生ゾーンの寸法、再生ゾーンの床材、再生ゾーンの壁材、再生ゾーンの使用目的、再生ゾーン内の家具の数、再生ゾーン内の家具の大きさ及び再生ゾーン内の家具の種類を含んでもよい。  Themethod 1100 includes receiving, atblock 1104, data indicative of one or more characteristics of the playback zone. In one example, one or more characteristics of the playback zone may include acoustic characteristics of the playback zone. In another example, one or more properties of the regeneration zone include, among other possibilities, the dimensions of the regeneration zone, the floor of the regeneration zone, the wall material of the regeneration zone, the use of the regeneration zone, the purpose of use of the regeneration zone, It may include the number of furniture, the size of the furniture in the regeneration zone and the type of furniture in the regeneration zone.

ある例では、図8を再度参照すると、再生デバイス804は、再生ゾーン810のために校正されてもよい。上述したように、方法1100は、校正されている再生デバイス804、再生デバイス806、コントローラデバイス808、コンピューティングデバイス802、又は再生デバイス804と通信する他のデバイスによって、個別に又はまとめて実行されてもよい。  In one example, referring back to FIG. 8,playback device 804 may be calibrated forplayback zone 810. As described above, themethod 1100 may be performed individually or collectively by theplayback device 804, theplayback device 806, the controller device 808, thecomputing device 802, or other device in communication with theplayback device 804 being calibrated. It is also good.

ある場合では、1つ又は複数の特性は、再生ゾーン810の音響特性を含んでもよい。そのような場合、再生ゾーン810内の再生デバイス804は、第1のオーディオ信号を再生し、第1のオーディオ信号に対応する部分を含む第2のオーディオ信号を再生デバイス804のマイクロホンによって検出してもよい。ある例では、1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータであってもよい。別の例において、検出された第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン810の音響特性は、先に記載されたものと同様に決定されてもよい。そして、1つ又は複数の特性を示すデータは、再生ゾーンの音響特性を示してもよい。いずれの場合にも、1つ又は複数の特性を示すデータは、その後、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。  In one case, the one or more characteristics may include the acoustic characteristics of theplayback zone 810. In such a case, theplayback device 804 in theplayback zone 810 plays back the first audio signal and the second audio signal including the portion corresponding to the first audio signal is detected by the microphone of theplayback device 804 It is also good. In an example, the data indicative of the one or more characteristics may be data indicative of the detected second audio signal. In another example, based on the detected second audio signal and the acoustic characteristics of thereproduction device 804, the acoustic characteristics of thereproduction zone 810 may be determined similar to those described above. And, data indicative of one or more characteristics may indicate acoustic characteristics of the playback zone. In any case, data indicative of one or more characteristics may then be received by at least one of the one or more devices performing themethod 1100.

別の場合では、1つ又は複数の特性は、再生ゾーンの寸法、再生ゾーンの床材、及び再生ゾーンの壁材などを含んでもよい。そのような場合、ユーザは、コントローラデバイス808などのコントローラデバイスによって提供されるコントローラインタフェースを介して、再生ゾーン810の1つ又は複数の特性を入力又は選択するように促されてもよい。例えば、コントローラインタフェースは、ユーザが選択できるように、他の可能性のうち、再生ゾーン寸法のリスト及び/又は家具配置のリストを提供してもよい。そして、ユーザによって提供されるような再生ゾーン810の1つ又は複数の特性を示すデータは、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。  In other cases, one or more properties may include the dimensions of the regeneration zone, the flooring of the regeneration zone, the wall material of the regeneration zone, and the like. In such case, the user may be prompted to enter or select one or more characteristics of theplayback zone 810 via a controller interface provided by a controller device such as controller device 808. For example, the controller interface may provide, among other possibilities, a list of reproduction zone dimensions and / or a list of furniture arrangements, for the user to select. And, data indicative of one or more characteristics of theplayback zone 810 as provided by the user may be received by at least one of the one or more devices performing themethod 1100.

方法1100は、ブロック1106において、データに基づいて、データベース内でオーディオ処理アルゴリズムを特定することを含む。1つ又は複数の特性が再生ゾーン810の音響特性を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーン810の音響特性に基づいて、データベース内で特定されうる。例えば、図6Aのデータベース600を参照すると、受信したデータが、hroom−1(t)−3又はhroom−1(t)−3と実質的に同一の、再生ゾーン810の音響特性を示す場合、係数w、x、y及びzを有するデータベースエントリ606のオーディオ処理アルゴリズムが特定されうる。例えば、再生ゾーンの1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータを単に含み、再生ゾーンの音響特性は、さらに、オーディオ処理アルゴリズムを特定する前に、上述したように決定されうる。他の例もまた可能である。Method 1100 includes, atblock 1106, identifying an audio processing algorithm in a database based on the data. Referring to the case where the one or more characteristics include the acoustic characteristics of theplayback zone 810, the audio processing algorithm may be identified in the database based on the acoustic characteristics of theplayback zone 810. For example, referring todatabase 600 of FIG. 6A, the received data indicates the acoustic characteristics of theplayback zone 810 substantially identical to hroom-1 (t) -3 or hroom-1 (t) -3. In the case, an audio processing algorithm ofdatabase entry 606 having coefficients w3 , x3 , y3 and z3 may be identified. For example, the data indicative of one or more characteristics of the playback zone may simply include data indicative of the detected second audio signal, and the acoustic characteristics of the playback zone may further be described above before identifying the audio processing algorithm. It can be determined as Other examples are also possible.

1つ又は複数の特性が、数ある特性の中でも特に、再生ゾーンの寸法を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーンの寸法に基づいて、データベース内で特定されてもよい。例えば、図6Bのデータベース650を参照すると、受信データがa×b×cとして又はa×b×cと実質的に同一の、再生ゾーン810の寸法を示す場合、係数w、x、y及びzを有するデータベースエントリ658のオーディオ処理アルゴリズムエントリが特定されうる。他の例もまた可能である。Referring to the case where the one or more characteristics include, among other characteristics, the dimensions of the playback zone, the audio processing algorithm may be identified in the database based on the dimensions of the playback zone. For example, in the case shown with reference to thedatabase 650 of FIG. 6B, the received data isa4 ×b4 ×c4 and with ora4 ×b4 ×c4 substantially the same, the size of theregeneration zone 810, the coefficient w An audio processing algorithm entry ofdatabase entry 658 having4 ,4 , y4 and z4 may be identified. Other examples are also possible.

幾つかの場合において、複数のオーディオ処理アルゴリズムは、受信データに示される再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。例えば、再生ゾーン810の音響特性が、hroom−1(t)−3として決定される一方で、再生ゾーン810についてユーザによって提供される寸法が、a×b×cであってもよい。ここで、hroom−1(t)−3は、図6のデータベース650のエントリ656において提供されるようなオーディオ処理アルゴリズムパラメータw、x、y及びzに対応し、a×b×cは、エントリ658において提供されるようなオーディオ処理アルゴリズムパラメータw、x、y及びzに対応する。In some cases, multiple audio processing algorithms may be identified based on one or more characteristics of the playback zone indicated in the received data. For example, even if the acoustic characteristics of theplayback zone 810 are determined as hroom-1 (t)-3 while the dimension provided by the user for theplayback zone 810 is a4 x b4 x c4 Good.Here,h room -1 (t) -3 corresponds to an audio processing algorithm parameterw3, x3,y 3 andz 3 as provided in theentry 656 in thedatabase 650 of FIG. 6,a 4 × b4 × c4 correspond to audio processing algorithm parameters w4 , x4 , y4 and z4 as provided inentry 658.

ある例では、一致又は実質的に一致する音響特性に対応するオーディオ処理アルゴリズムが優先されてもよい。別の例では、オーディオ処理アルゴリズムの平均(すなわち、パラメータの平均)が計算されてもよく、平均オーディオ処理アルゴリズムが、特定されたオーディオ処理アルゴリズムであってもよい。他の例もまた可能である。  In one example, audio processing algorithms that correspond to matched or substantially matched acoustic characteristics may be prioritized. In another example, an average of the audio processing algorithms (ie, an average of the parameters) may be calculated, and the average audio processing algorithm may be the identified audio processing algorithm. Other examples are also possible.

方法1100は、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。上記例を続けると、特定したオーディオ処理アルゴリズムを示すデータは、再生ゾーン810用に校正されている再生デバイス804に送信されてもよい。ある場合では、特定したオーディオ処理アルゴリズムを示すデータは、再生デバイス804に直接送信されてもよい。別の場合では、再生デバイス804の校正がコントローラデバイス808によって調整される場合、及びオーディオ処理アルゴリズムがコンピューティングデバイス802によって特定された場合、特定されたオーディオ処理アルゴリズムを示すデータは、コントローラデバイス808を介してコンピューティングデバイス802から再生デバイス804に対して送信されてもよい。他の例もまた可能である。  Method 1100 includes transmitting, atblock 1108, data indicative of the identified audio processing algorithm. Continuing the example, data indicative of the identified audio processing algorithm may be sent toplayback device 804 being calibrated forplayback zone 810. In some cases, data indicative of the identified audio processing algorithm may be transmitted directly to theplayback device 804. In another case, if the calibration of theplayback device 804 is adjusted by the controller device 808, and if the audio processing algorithm is identified by thecomputing device 802, then data indicating the identified audio processing algorithm may It may be transmitted from thecomputing device 802 to theplayback device 804 via: Other examples are also possible.

上述したように、方法1100の機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスのうちの1つ又は複数によって実行されうる。ある例では、ブロック1102におけるデータベースの保守は、コンピューティングデバイス802によって実行される。ブロック1104における再生ゾーンの1つ又は複数の特性を示すデータの受信は、コントローラデバイス808によって実行される(データは、再生ゾーン810において校正されている再生デバイス804によってコントローラデバイス808に提供される)。ブロック1106は、コンピューティングデバイス802と通信するコントローラデバイス808によって実行され、コンピューティングデバイス802によって保守されるデータベースにアクセスして、オーディオ信号処理が特定される。ブロック1108は、コンピューティングデバイス802が、特定されたオーディオ処理アルゴリズムを示すデータを、直接又はコントローラデバイス808を介して、再生デバイス804に送信することを含む。  As mentioned above, the functions ofmethod 1100 may be performed by one or more of one or more servers, one or more playback devices, and / or one or more controller devices. In one example, maintenance of the database atblock 1102 is performed by computingdevice 802. Reception of data indicative of one or more characteristics of the playback zone atblock 1104 is performed by controller device 808 (data is provided to controller device 808 byplayback device 804 being calibrated in playback zone 810) .Block 1106 is executed by a controller device 808 in communication with thecomputing device 802 to access a database maintained by thecomputing device 802 to identify audio signal processing.Block 1108 includes thecomputing device 802 transmitting data indicative of the identified audio processing algorithm to theplayback device 804, either directly or via the controller device 808.

別の例では、方法1100の機能は、1つのデバイスによって完全に又は実質的完全に実行されてもよい。例えば、コンピューティングデバイス802は、ブロック1102に関連して記載されたようにデータベースを保守してもよい。  In another example, the functions ofmethod 1100 may be performed completely or substantially completely by one device. For example,computing device 802 may maintain a database as described in connection withblock 1102.

そして、コンピューティングデバイス802は、再生デバイス804の校正を調整してもよい。例えば、コンピューティングデバイス802は、再生デバイス804に第1のオーディオ信号を再生させて第2のオーディオ信号を検出させ、検出された第2のオーディオ信号を示すデータを再生デバイス804から受信し、再生デバイス804からのデータに基づいて再生ゾーン810の音響特性を決定してもよい。別の場合において、コンピューティングデバイス802は、コントローラデバイス808に再生ゾーン810の1つ又は複数の特性(すなわち、上述したように寸法など)を提供するようにユーザを促させ、再生ゾーン810のユーザによって提供された特性を示すデータを受信してもよい。  Thecomputing device 802 may then adjust the calibration of theplayback device 804. For example,computing device 802 causesplayback device 804 to play the first audio signal to detect the second audio signal, and receives data indicative of the detected second audio signal fromplayback device 804 for playback The acoustic characteristics of theplayback zone 810 may be determined based on data from thedevice 804. In another case, thecomputing device 802 prompts the user to provide the controller device 808 with one or more characteristics of the playback zone 810 (ie, dimensions, etc. as described above), and the user of theplayback zone 810 Data indicative of the characteristics provided by

そして、コンピューティングデバイスは、ブロック1106において、受信データに基づいてオーディオ処理アルゴリズムを特定することができ、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に対して送信してもよい。また、コンピューティングデバイス802は、再生デバイス804のためにコマンドを送信して、再生ゾーン810内でオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。  The computing device may then identify an audio processing algorithm based on the received data atblock 1106, and may send data indicative of the identified audio processing algorithm to theplayback device 804 atblock 1108. . Thecomputing device 802 may also send commands for theplayback device 804 to apply the identified audio processing algorithm when playing back audio content in theplayback zone 810. Other examples are also possible.

IV.結論
本明細書は、様々な例示のシステム、方法、装置、および製品などを開示しており、それらは、他のコンポーネントの中で、ハードウェア上で実行されるファームウェアおよび/又はソフトウェアを含む。そのような例は、単なる例示であり、限定されるものとみなすべきではないと理解される。例えば、これらのファームウェア、ハードウェア、および/又はソフトウェアの態様又はコンポーネントのいくつか又はすべてが、専らハードウェアに、専らソフトウェアに、専らファームウェアに、又はハードウェア、ソフトウェア、および/又はファームウェアの任意の組み合わせを実施することができることが意図されている。したがって、提供されているそれらの例は、それらのシステム、方法、装置、および/又は生産物を実施する唯一の方法ではない。
IV. Conclusion The present specification discloses various exemplary systems, methods, apparatuses, products and the like, which include, among other components, firmware and / or software executed on hardware. It is understood that such examples are merely illustrative and should not be considered limiting. For example, some or all of these firmware, hardware and / or software aspects or components may be exclusively in hardware, exclusively in software, exclusively in firmware, or any of hardware, software and / or firmware It is intended that combinations can be implemented. Thus, those examples provided are not the only way to implement those systems, methods, devices, and / or products.

更に、本明細書において「実施形態」は、実施形態に関連して述べられた特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを示している。本明細書の様々な場所でこの語句が用いられているが、すべてが同じ実施形態を言及するものではなく、又、他の実施形態を除いた別個の実施形態又は代替の実施形態でもない。このように、本明細書で述べられた実施形態は、明示的におよび暗黙的に、当業者によって、他の実施形態砥組み合わせることができることが理解される。  Further, "embodiments" as used herein indicate that certain features, structures or characteristics described in connection with the embodiments may be included in at least one embodiment of the invention. Although this phrase is used in various places throughout the specification, it is not all referring to the same embodiment, nor is it a separate or alternative embodiment excluding the other embodiments. Thus, it is understood that the embodiments described herein can be combined explicitly and implicitly by one of ordinary skill in the art with other embodiments.

以下の例は、本開示のさらなる又は代替的な態様を記載している。以下の例のいずれかにおけるデバイスは、本明細書に記載されたデバイスのうちのいずれかのデバイスの要素又は本明細書に記載されたデバイスの任意の構成とすることができる。
(特徴1)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを前記再生デバイスから受信すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
決定した前記オーディオ処理アルゴリズムを示すデータを前記再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴2)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴3)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴4)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴5)
前記オーディオ処理アルゴリズムを決定することが、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴6)
前記機能が、さらに、
無響室内の基準再生デバイスに測定信号を再生させること、
前記基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを前記基準再生デバイスから受信すること、ここで、前記検出されたオーディオ信号は前記無響室内で再生された測定信号に対応する部分を含む、及び
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイスの音響特性を決定すること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴7)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーンにおいて、第1の再生デバイスに第1のオーディオ信号を再生させること、
前記再生ゾーンにおいて、第2の再生デバイスに第2のオーディオ信号を再生させること、
前記第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを前記第1の再生デバイスから受信すること、ここで、前記第3のオーディオ信号は、(i)前記第1のオーディオ信号に対応する部分及び(ii)第2の再生デバイスによって再生された前記第2のオーディオ信号に対応する部分を含む、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムを示すデータを前記第1の再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴8)
前記再生ゾーンにおいて前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第4のオーディオ信号が生成される、特徴7のコンピューティングデバイス。
(特徴9)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること
を含む、特徴7又は特徴8のコンピューティングデバイス。
(特徴10)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生と同期して、前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴9のいずれかのコンピューティングデバイス。
(特徴11)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生が終了した後に前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴10のいずれかのコンピューティングデバイス。
(特徴12)
前記第1のオーディオ信号は前記第2のオーディオ信号に直交している、特徴7から特徴11のいずれかのコンピューティングデバイス。
(特徴13)
前記第1の再生デバイス及び前記第2の再生デバイスは、同期してオーディオコンテンツを再生するように構成された再生デバイスのゾーングループに含まれる、特徴7から特徴12のいずれかのコンピューティングデバイス。
(特徴14)
プロセッサ、マイクロホン、及び前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリを備えた再生デバイスであって、
前記機能は、
再生ゾーン内で第1のオーディオ信号を再生すること、
第2のオーディオ信号を前記マイクロホンによって検出すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
前記再生ゾーン内でメディアアイテムを再生するときに前記メディアアイテムに対応するオーディオデータに対して、前記決定したオーディオ処理アルゴリズムを適用すること、
を有する、再生デバイス。
(特徴15)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号を生成する、特徴14のコンピューティングデバイス。
(特徴16)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの1つ又は複数の特性を決定すること、及び
前記再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、特徴14又は特徴15のコンピューティングデバイス。
(特徴17)
前記オーディオ処理アルゴリズムを決定することは、
(i)前記第2のオーディオ信号及び(ii)前記再生デバイスの特性を示す送信データをコンピューティングデバイスに送信すること、及び
前記オーディオ処理アルゴリズムを示すデータを前記コンピューティングデバイスから受信すること、
を含む、特徴14から特徴16のいずれかのコンピューティングデバイス。
(特徴18)
前記機能は、さらに、前記決定したオーディオ処理アルゴリズムを前記メモリに格納することを含む、特徴14から特徴17のいずれかのコンピューティングデバイス。
(特徴19)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの周波数等化を変更することを含む、特徴14から特徴18のいずれかのコンピューティングデバイス。
(特徴20)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの音量域を変更することを含む、特徴14から特徴19のいずれかのコンピューティングデバイス。
(特徴21)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、コンピューティングデバイス。
(特徴22)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴23)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第4のオーディオ信号を再生させること、
前記第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信すること、ここで、前記第5のオーディオ信号は、前記第2の再生デバイスによって再生された前記第4のオーディオ信号に対応する部分を含む、
前記第5のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、前記第2の再生ゾーンの音響特性を決定すること、
前記第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズム及び前記第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴24)
第1の再生ゾーン内で前記第1のオーディオ信号を再生するときに前記第1の決定されたオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、
前記第2の再生ゾーン内で前記第4のオーディオ信号を再生するときに前記第2の決定されたオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、前記所定のオーディオ特性と実質的に同一のオーディオ特性を有する第6のオーディオ信号が生成される、
特徴3のコンピューティングデバイス。
(特徴25)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、特徴3のコンピューティングデバイス。
(特徴26)
前記オーディオ処理アルゴリズムを決定することは、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、特徴21から特徴25のいずれかのコンピューティングデバイス。
(特徴27)
前記機能は、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、及び
前記再生ゾーンの1つ又は複数の特性と前記第2のオーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を有する、特徴21から特徴26のいずれかのコンピューティングデバイス。
(特徴28)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含む、特徴27のコンピューティングデバイス。
(特徴29)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
(i)前記再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記オーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムと前記再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を備える、コンピューティングデバイス。
(特徴30)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第2のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴31)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第3のオーディオ信号を再生させること、
(i)前記第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第4のオーディオ信号を示すデータを受信すること、ここで、前記第4のオーディオ信号は、前記再生デバイスによって再生された前記第3のオーディオ信号に対応する部分を含む、
前記第4のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズムと前記第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴29又は特徴30のコンピューティングデバイス。
(特徴32)
前記第2のオーディオ処理アルゴリズムを決定することは、さらに、
前記第4のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第3のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第5のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴33)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴32のコンピューティングデバイス。
(特徴34)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴29から特徴33のいずれかのコンピューティングデバイス。
(特徴35)
プロセッサ、及び
前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守すること、ここで、前記複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、前記複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応している、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記データに基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、及び
前記特定したオーディオ処理アルゴリズムを示すデータを送信すること、
を有する、コンピューティングデバイス。
(特徴36)
前記データは、さらに、前記再生ゾーン内の再生デバイスのマイクロホンによって検出されたオーディオ信号を示す、特徴35のコンピューティングデバイス。
(特徴37)
前記オーディオ処理アルゴリズムを前記データベースにおいて特定することは、さらに、
前記検出されたオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、
を含む、特徴36のコンピューティングデバイス。
(特徴38)
前記複数の再生ゾーン特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴35のコンピューティングデバイス。
(特徴39)
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイスから受信される、特徴35のコンピューティングデバイス。
(特徴40)
前記再生ゾーンの1つ又は複数の特性を示すデータは、前記再生ゾーン内の再生デバイスから受信される、特徴35のコンピューティングデバイス。
The following examples describe further or alternative aspects of the present disclosure. The device in any of the following examples may be an element of any of the devices described herein or any configuration of the devices described herein.
(Feature 1)
What is claimed is: 1. A computing device comprising a processor and a memory executable by the processor and having instructions stored thereon for causing a computing device to perform the function.
The function is
Causing the playback device in the playback zone to play the first audio signal,
Receiving from the playback device data indicative of a second audio signal detected by a microphone of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
Determining an audio processing algorithm based on the second audio signal and an acoustic characteristic of the reproduction device; and transmitting data indicating the determined audio processing algorithm to the reproduction device.
A computing device that has
(Feature 2)
Third audio having substantially the same audio characteristics as the predetermined audio characteristics by applying the determined audio processing algorithm by the reproduction device when reproducing the first audio signal in the reproduction zone A computing device of any preceding feature in which a signal is generated.
(Feature 3)
In addition, determining the audio processing algorithm
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and an acoustic characteristic of the reproduction device; and a plurality of audio processing algorithms corresponding to the acoustic characteristic determined by the reproduction zone To choose from,
A computing device of any preceding feature, including:
(Feature 4)
In addition, determining the audio processing algorithm
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and an acoustic characteristic of the reproduction device, and calculating the audio processing algorithm based on an acoustic characteristic of the reproduction zone and a predetermined audio characteristic To do,
A computing device of any preceding feature, including:
(Feature 5)
The computing device of any preceding feature, wherein determining the audio processing algorithm comprises determining one or more parameters for the audio processing algorithm.
(Feature 6)
Said function is also
Reproducing the measurement signal on a reference reproduction device in the anechoic chamber,
Receiving from the reference reproduction device data indicative of an audio signal detected by a microphone of the reference reproduction device, wherein the detected audio signal corresponds to the measurement signal reproduced in the anechoic chamber Determining an acoustic characteristic of the reproduction device based on a comparison of the detected audio signal and the measurement signal;
A computing device of any preceding feature having:
(Feature 7)
What is claimed is: 1. A computing device comprising a processor and a memory executable by the processor and having instructions stored thereon for causing a computing device to perform the function.
The function is
Causing the first reproduction device to reproduce the first audio signal in the reproduction zone,
Causing the second reproduction device to reproduce the second audio signal in the reproduction zone;
Receiving from the first reproduction device data indicative of a third audio signal detected by a microphone of the first reproduction device, wherein the third audio signal comprises: (i) the first A portion corresponding to an audio signal and (ii) a portion corresponding to the second audio signal reproduced by a second reproduction device,
Determining an audio processing algorithm based on the third audio signal and an acoustic characteristic of the first reproduction device; and transmitting data indicating the determined audio processing algorithm to the first reproduction device.
A computing device that has
(Feature 8)
A fourth audio device having a substantially same audio characteristic as a predetermined audio characteristic by applying the determined audio processing algorithm by the first reproduction device when reproducing the first audio signal in the reproduction zone; The computing device of Feature 7, wherein an audio signal of is generated.
(Feature 9)
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the third audio signal and an acoustic characteristic of the first reproduction device; and a plurality of audio processing algorithms corresponding to the acoustic characteristic of the reproduction zone The computing device of feature 7 or feature 8 comprising selecting from:
(Feature 10)
Reproducing a second audio signal to a second reproduction device may be performed by synchronizing the reproduction of the first audio signal by the first reproduction device to the second audio signal to the second reproduction device. The computing device according to any of Features 7 to 9, including playing a.
(Feature 11)
The reproduction of the second audio signal by the second reproduction device may be performed by causing the second audio signal to be transmitted to the second reproduction device after the reproduction of the first audio signal by the first reproduction device is completed. The computing device according to any of Features 7 to 10, including playing.
(Feature 12)
A computing device according to any of features 7 to 11, wherein the first audio signal is orthogonal to the second audio signal.
(Feature 13)
The computing device of any of Features 7 to 12, wherein the first playback device and the second playback device are included in a zone group of playback devices configured to synchronously play audio content.
(Feature 14)
What is claimed is: 1. A playback device comprising a processor, a microphone, and a memory that is executable by the processor and stores instructions that cause the playback device to perform a function.
The function is
Playing back the first audio signal in the playback zone,
Detecting a second audio signal by the microphone, wherein the second audio signal includes a portion corresponding to the first audio signal;
Determining an audio processing algorithm based on the second audio signal and acoustic characteristics of the playback device;
Applying the determined audio processing algorithm to audio data corresponding to the media item when playing back the media item in the playback zone;
Has a playback device.
(Feature 15)
Applying the determined audio processing algorithm when reproducing the first audio signal in the reproduction zone to generate a third audio signal having substantially the same audio characteristics as the predetermined audio characteristics , 14 computing devices.
(Feature 16)
Determining the audio processing algorithm further comprises:
Determining one or more characteristics of the reproduction zone based on the second audio signal and the acoustic characteristics of the reproduction device, and an audio processing algorithm corresponding to the one or more characteristics of the reproduction zone Choose from multiple audio processing algorithms,
The computing device of feature 14 or feature 15, including:
(Feature 17)
Determining the audio processing algorithm
(I) transmitting to the computing device transmission data indicative of the second audio signal and (ii) characteristics of the playback device, and receiving data indicative of the audio processing algorithm from the computing device.
The computing device of any of Features 14 to 16, including:
(Feature 18)
16. The computing device of any of features 14-17, wherein the function further comprises storing the determined audio processing algorithm in the memory.
(Feature 19)
18. The computing device of any of features 14-18, wherein applying the audio processing algorithm to the audio data comprises changing frequency equalization of the media item.
(Feature 20)
The computing device of any of features 14 to 19, wherein applying the audio processing algorithm to the audio data comprises changing a volume range of the media item.
(Feature 21)
A processor, and a memory storing instructions that are executable by the processor to cause a computing device to perform the function;
A computing device comprising
The function is
Causing the playback device in the playback zone to play the first audio signal,
Receiving data indicative of a second audio signal detected by a microphone of the reproduction device, wherein the second audio signal corresponds to the first audio signal reproduced by the reproduction device including,
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and the characteristic of the reproduction device;
Determining an audio processing algorithm based on the acoustic characteristics of the reproduction zone, and storing in the database an association between the audio processing algorithm and the acoustic characteristics of the reproduction zone;
A computing device that has
(Feature 22)
Third audio having substantially the same audio characteristics as the predetermined audio characteristics by applying the determined audio processing algorithm by the reproduction device when reproducing the first audio signal in the reproduction zone A computing device of any preceding feature in which a signal is generated.
(Feature 23)
The playback device is a first playback device,
The reproduction zone is a first reproduction zone,
The audio processing algorithm is a first audio processing algorithm,
Said function is further:
Playing a fourth audio signal on a second playback device in a second playback zone,
Receiving data indicative of a fifth audio signal detected by a microphone of the second reproduction device, wherein the fifth audio signal is reproduced by the fourth reproduction device by the second reproduction device. Including the part corresponding to the audio signal,
Determining an acoustic characteristic of the second reproduction zone based on the characteristic of the fifth audio signal and the second reproduction device;
Determining a second audio processing algorithm based on the acoustic characteristics of the second reproduction zone, and storing the association of the second audio processing algorithm and the acoustic characteristics of the second reproduction zone in a database about,
A computing device of any preceding feature having:
(Feature 24)
Applying the first determined audio processing algorithm by the first reproduction device when reproducing the first audio signal in a first reproduction zone substantially identical to a predetermined audio characteristic A third audio signal having an audio characteristic of
By applying the second determined audio processing algorithm by the second reproduction device when reproducing the fourth audio signal in the second reproduction zone, the predetermined audio characteristics and A sixth audio signal having the same audio characteristics as
Feature 3 computing device.
(Feature 25)
Said function is further:
Determining that the acoustic characteristics of the second reproduction zone are substantially identical to the acoustic characteristics of the first reproduction zone;
In response thereto, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm, and the third audio processing algorithm and the first playback zone Storing the association with the acoustic characteristics of
The computing device offeature 3, comprising:
(Feature 26)
The computing device of any of features 21 to 25, wherein determining the audio processing algorithm comprises determining one or more parameters for the audio processing algorithm.
(Feature 27)
Said function is further:
Receiving data indicative of one or more characteristics of the playback zone, and storing in the database an association of the one or more characteristics of the playback zone with the second audio processing algorithm;
The computing device of any of features 21 to 26, having a.
(Feature 28)
One or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone, (b) audio reflection characteristics of the reproduction zone, (c) purpose of using the reproduction zone, (d) of furniture in the reproduction zone The computing device of Feature 27, including one or more of: number; (e) size of furniture in the regeneration zone; and (f) type of furniture in the regeneration zone.
(Feature 29)
A processor, and a memory storing instructions that are executable by the processor to cause a computing device to perform the function;
A computing device comprising
The function is
Causing the playback device in the playback zone to play the first audio signal,
(I) receiving data indicative of one or more characteristics of the playback zone and (ii) data indicative of a second audio signal detected by a microphone of the playback device, wherein the second audio is received. The signal includes a portion corresponding to the audio signal reproduced by the reproduction device
Determining an audio processing algorithm based on the second audio signal and the characteristics of the playback device; and associating the determined audio processing algorithm with at least one of the one or more characteristics of the playback zone Storing in the database,
A computing device.
(Feature 30)
Determining the audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the second audio signal and the characteristics of the reproduction device, and determining an audio processing algorithm based on an acoustic characteristic of the reproduction zone By applying the determined audio processing algorithm by the reproduction device when reproducing the second audio signal in a zone, a third audio signal having an audio characteristic substantially identical to the predetermined audio characteristic is obtained. To be generated,
Features 29 computing devices.
(Feature 31)
The playback device is a first playback device,
The reproduction zone is a first reproduction zone,
The audio processing algorithm is a first audio processing algorithm,
Said function is further:
Playing a third audio signal on a second playback device in a second playback zone,
(I) data indicative of one or more characteristics of the second reproduction zone and (ii) data indicative of a fourth audio signal detected by a microphone of a second reproduction device within the second reproduction zone Receiving, wherein the fourth audio signal includes a portion corresponding to the third audio signal reproduced by the reproduction device.
Determining an audio processing algorithm based on the fourth audio signal and the characteristics of the second playback device; and of the second audio processing algorithm and one or more characteristics of the second playback zone Storing the association with at least one of them in the database,
The computing device of Feature 29 or Feature 30 comprising:
(Feature 32)
Determining the second audio processing algorithm further comprises:
Determining an acoustic characteristic of the reproduction zone based on the fourth audio signal and a characteristic of the reproduction device, and determining an audio processing algorithm based on an acoustic characteristic of the reproduction zone. Fifth, by applying the determined audio processing algorithm by the second reproduction device when reproducing the third audio signal in a reproduction zone, a fifth audio characteristic substantially the same as a predetermined audio characteristic To generate an audio signal of
Features 29 computing devices.
(Feature 33)
Said function is further:
Determining that the acoustic characteristics of the second reproduction zone are substantially identical to the acoustic characteristics of the first reproduction zone;
In response thereto, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm, and the third audio processing algorithm and the first playback zone Storing in the database an association with at least one of the one or more characteristics of
The computing device of feature 32, comprising:
(Feature 34)
One or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone, (b) audio reflection characteristics of the reproduction zone, (c) purpose of using the reproduction zone, (d) of furniture in the reproduction zone Feature 29 to 33, including one or more of: number, (e) size of furniture in the regeneration zone, (f) type of furniture in the regeneration zone, and (g) acoustic characteristics of the regeneration zone. One of the computing devices.
(Feature 35)
A processor, and a memory that stores instructions that are executable by the processor to cause the playback device to perform the function;
A computing device comprising
The function is
(I) maintaining a plurality of audio processing algorithms and (ii) a database of a plurality of playback zone characteristics, wherein each audio processing algorithm of the plurality of audio processing algorithms comprises: Corresponding to at least one regeneration zone characteristic of
Receiving data indicative of one or more characteristics of the playback zone;
Identifying an audio processing algorithm in the database based on the data; and transmitting data indicative of the identified audio processing algorithm.
A computing device that has
(Feature 36)
The computing device of Feature 35, the data further indicating an audio signal detected by a microphone of a playback device in the playback zone.
(Feature 37)
Identifying the audio processing algorithm in the database further comprises:
Determining an acoustic characteristic of the reproduction zone based on the detected audio signal and the characteristic of the reproduction device; and identifying an audio processing algorithm in the database based on the acoustic characteristic determined of the reproduction zone about,
The computing device of feature 36, including:
(Feature 38)
The plurality of reproduction zone characteristics are (a) dimensions of the reproduction zone, (b) audio reflection characteristics of the reproduction zone, (c) use purpose of the reproduction zone, (d) the number of furniture in the reproduction zone, (e 35. The computing device of feature 35, including one or more of: size of furniture in the regeneration zone, (f) type of furniture in the regeneration zone, and (g) acoustic characteristics of the regeneration zone.
(Feature 39)
The computing device of Feature 35, wherein data indicative of one or more characteristics of the playback zone is received from a controller device.
(Feature 40)
The computing device of Feature 35, wherein data indicative of one or more characteristics of the playback zone is received from a playback device in the playback zone.

本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。  The specification broadly describes exemplary environments, systems, procedures, steps, logic blocks, processes, and other symbolic representations that operate directly or indirectly on data processing devices connected to a network. It is similar to These process descriptions and representations are commonly used by those skilled in the art to most effectively convey the substance of their work to others skilled in the art. Many specific details are provided to understand the present disclosure. However, it will be understood by one of ordinary skill in the art that certain embodiments of the present disclosure may be practiced without the specific details. In other instances, well-known methods, procedures, components and circuits have not been described in detail to avoid unnecessarily obscuring the embodiments. Accordingly, the scope of the present disclosure is defined by the appended claims rather than the embodiments described above.

添付の特許請求の範囲のいずれかが単にソフトウェアおよび/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェアおよび/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu−ray(登録商標)等を含むことが明確に定められている。  When any of the appended claims simply reads to cover an implementation in software and / or firmware, one or more of the elements in at least one example may, herein, be software and / or firmware. It is clearly defined that it includes tangible, non-transitory storage media storing such as, for example, memory, DVD, CD, Blu-ray (registered trademark) and the like.

Claims (11)

Translated fromJapanese
再生ゾーン内の再生デバイス(200)に第1のオーディオ信号を再生させる、
前記再生デバイスのマイクロホン(220)によって検出された第2のオーディオ信号を示すデータを受信する、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記再生ゾーン内において検出された前記第2のオーディオ信号及び前記再生ゾーン内の前記再生デバイスの特性に基づいて、前記再生ゾーンのオーディオ処理アルゴリズムを決定する、
ここで、前記再生ゾーンは、第1及び第2の再生ゾーンを含む、
ここで、前記再生デバイスは、前記第1の再生ゾーンに配置された第1の再生デバイスと、前記第2の再生ゾーンに配置された第2の再生デバイスを含む、
ここで、前記第1の再生ゾーンについて決定されたオーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムであり、前記第2の再生ゾーンについて決定されたオーディオ処理アルゴリズムは、第2のオーディオ処理アルゴリズムである、
前記第2の再生ゾーンの特性が、前記第1の再生ゾーンの特性と実質的に同一であることを決定する、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定する、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの特性との関連付けをデータベースに記憶させる、
コンピューティングデバイス(300)。
Have the playback device (200) in the playback zone play the first audio signal
Receiving data indicative of a second audio signal detected by a microphone (220) of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
Based on thecharacteristics of the reproducing devicein said second audio signal andthe regeneration zonewhich has been detected in said regeneration zone, to determine the audio processing algorithmsof said regeneration zone,
Here, the reproduction zone includes first and second reproduction zones.
Here, the playback device includes a first playback device disposed in the first playback zone and a second playback device disposed in the second playback zone.
Here, the audio processing algorithm determined for the first playback zone is a first audio processing algorithm, and the audio processing algorithm determined for the second playback zone is a second audio processing algorithm ,
Determining that the characteristics of the second regeneration zone are substantially identical to the characteristics of the first regeneration zone;
In response, determining a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm;
Storing in the database an association between the third audio processing algorithm and the characteristics of the first playback zone;
Computing Device (300).
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに、決定した前記オーディオ処理アルゴリズムを前記再生デバイス(200)によって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、請求項1に記載のコンピューティングデバイス。  By applying the determined audio processing algorithm by the playback device (200) when playing back the first audio signal in the playback zone, it has substantially the same audio characteristics as the predetermined audio characteristics The computing device of claim 1, wherein a third audio signal is generated. 前記再生ゾーンのオーディオ処理アルゴリズムを決定することは、さらに、
前記再生ゾーン内で検出された前記第2のオーディオ信号及び前記再生ゾーン内の前記再生デバイス(200)の特性に基づいて、前記再生ゾーンの音響特性を決定すること、
前記再生ゾーンの決定した前記音響特性に基づいて、前記再生ゾーンのオーディオ処理アルゴリズムを決定すること、及び
決定した前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けを前記データベースに記憶させること、
を含む、請求項1又は請求項2に記載のコンピューティングデバイス。
Determiningthe audio processing algorithm of theplayback zone further comprises:
Based on the reproductioncharacteristics ofthe device (200)of said second audio signal andthe regeneration zoneis detected in the regeneration zone, determining the acoustic properties of the regeneration zone,
Determining an audio processing algorithm of theplayback zone based on the determined acoustic characteristics of theplayback zone ;
Be stored anddetermined the audio processing algorithms association with the acoustic characteristics of the regeneration zone insaid database,
The computing device according to claim 1 or 2, comprising
前記再生ゾーンの決定した前記音響特性に基づいて、前記オーディオ処理アルゴリズムを決定することは、
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、又は
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、請求項3に記載のコンピューティングデバイス。
It is possible to determine the audio processing algorithm based on the determined acoustic characteristics of the playback zone:
Selecting an audio processing algorithm corresponding to the determined acoustic characteristic of the reproduction zone from a plurality of audio processing algorithms, or calculating the audio processing algorithm based on the acoustic characteristic of the reproduction zone and a predetermined audio characteristic ,
The computing device of claim 3, comprising:
前記再生デバイス(200)の特性は、前記再生デバイス(200)の音響特性を含む、
無響室内の基準再生デバイス(200)に測定信号を再生させる、
前記基準再生デバイス(220)のマイクロホン(220)によって検出されたオーディオ信号を示すデータを前記基準再生デバイス(200)から受信する、ここで、前記検出されたオーディオ信号は、前記無響室内で再生された前記測定信号に対応する部分を含む、
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイス(200)の音響特性を決定する、
請求項1から請求項4のうちいずれか1項に記載のコンピューティングデバイス。
The characteristics of the reproduction device (200) include the acoustic characteristics of the reproduction device (200),
Make the reference reproduction device (200) in the anechoic chamber reproduce the measurement signal,
Data from the reference reproduction device (200) is received indicating data detected by the microphone (220) of the reference reproduction device (220), wherein the detected audio signal is reproduced in the anechoic chamber Including a portion corresponding to the measured signal
Determining an acoustic characteristic of the reproduction device (200) based on a comparison of the detected audio signal and the measurement signal;
The computing device according to any one of claims 1 to 4.
さらに、
第3の再生デバイスが前記第1の再生ゾーンに配置されている、
前記第2のオーディオ信号を示すデータを受信する前に、前記第1の再生デバイス(200)による前記第1のオーディオ信号の再生と同期して、又は前記第1の再生デバイス(200)による前記第1のオーディオ信号の再生が終了した後に、前記第3の再生デバイス(200)に前記第1の再生ゾーン内で第4のオーディオ信号を再生させる、
ここで、前記第1の再生デバイスのマイクロホンが検出する前記第2のオーディオ信号は、さらに、前記第3の再生デバイス(200)によって再生された前記第4のオーディオ信号に対応する部分を含む、
請求項1から請求項5のうちいずれか1項に記載のコンピューティングデバイス。
further,
A third playback device is arranged in the first playback zone,
Before receiving data indicative of the second audio signal, in synchronization with the reproduction of the first audio signal by the first reproduction device (200), or by the first reproduction device (200) Havingthe third reproduction device (200) reproduce a fourth audio signal inthe first reproduction zone after the reproduction of the first audio signal is finished,
Here, the second audio signaldetected by the microphone of the first reproduction device further includes a portion corresponding to the fourth audio signal reproduced bythe third reproduction device (200).
A computing device according to any of the preceding claims.
前記第1のオーディオ信号は、前記第4のオーディオ信号に対して直交している、請求項6に記載のコンピューティングデバイス。The computing device ofclaim 6 , wherein the first audio signal is orthogonal tothe fourth audio signal . 前記第1の再生デバイス(200)及び前記第3の再生デバイス(200)は、同期してオーディオコンテンツを再生するように構成された再生デバイス(200)のゾーングループに含まれる、請求項6又は請求項7に記載のコンピューティングデバイス。The system according to claim 6 or 7, wherein the first reproduction device (200) andthe third reproduction device (200) are included in a zone group of reproduction devices (200) configured to synchronously reproduce audio content. The computing device of claim 7. 前記再生ゾーンのオーディオ処理アルゴリズムを決定することは、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記再生ゾーンの1つ又は複数の特性と前記オーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を含む、請求項1から請求項8のうちいずれか1項に記載のコンピューティングデバイス。
Determiningthe audio processing algorithm of theplayback zone further comprises:
Receiving data indicative of one or more characteristics of the playback zone;
Storing in the database an association between the audio processing algorithm and one or more characteristics of the playback zone;
9. A computing device according to any one of the preceding claims, comprising
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイス及び前記再生ゾーン内の再生デバイスのうちの一方から受信される、請求項9に記載のコンピューティングデバイス。  The computing device of claim 9, wherein data indicative of one or more characteristics of the playback zone is received from one of a controller device and a playback device in the playback zone. 前記再生ゾーンの受信された1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)前記再生ゾーンの使用目的、(d)前記再生ゾーン内の家具の数、(e)前記再生ゾーン内の家具の大きさ、及び(f)前記再生ゾーン内の家具の種類のうちの1つ又は複数を含む、請求項9又は請求項10に記載のコンピューティングデバイス。  The received one or more characteristics of the playback zone are (a) the dimensions of the playback zone, (b) the audio reflection characteristics of the playback zone, (c) the intended use of the playback zone, (d) the playback 11. The method according to claim 9 or 10, comprising one or more of: the number of furniture in the zone, (e) the size of the furniture in the regeneration zone, and (f) the type of furniture in the regeneration zone. A computing device as described.
JP2017513241A2014-09-092015-09-08 Audio processing algorithm and databaseActiveJP6503457B2 (en)

Applications Claiming Priority (5)

Application NumberPriority DateFiling DateTitle
US14/481,5142014-09-09
US14/481,505US9952825B2 (en)2014-09-092014-09-09Audio processing algorithms
US14/481,514US9891881B2 (en)2014-09-092014-09-09Audio processing algorithm database
US14/481,5052014-09-09
PCT/US2015/048942WO2016040324A1 (en)2014-09-092015-09-08Audio processing algorithms and databases

Related Child Applications (1)

Application NumberTitlePriority DateFiling Date
JP2019056360ADivisionJP6792015B2 (en)2014-09-092019-03-25 Audio processing algorithms and databases

Publications (2)

Publication NumberPublication Date
JP2017528083A JP2017528083A (en)2017-09-21
JP6503457B2true JP6503457B2 (en)2019-04-17

Family

ID=54292894

Family Applications (4)

Application NumberTitlePriority DateFiling Date
JP2017513241AActiveJP6503457B2 (en)2014-09-092015-09-08 Audio processing algorithm and database
JP2019056360AActiveJP6792015B2 (en)2014-09-092019-03-25 Audio processing algorithms and databases
JP2020185230AActiveJP7110301B2 (en)2014-09-092020-11-05 Audio processing algorithms and databases
JP2022115789AActiveJP7617875B2 (en)2014-09-092022-07-20 Audio Processing Algorithms and Databases

Family Applications After (3)

Application NumberTitlePriority DateFiling Date
JP2019056360AActiveJP6792015B2 (en)2014-09-092019-03-25 Audio processing algorithms and databases
JP2020185230AActiveJP7110301B2 (en)2014-09-092020-11-05 Audio processing algorithms and databases
JP2022115789AActiveJP7617875B2 (en)2014-09-092022-07-20 Audio Processing Algorithms and Databases

Country Status (4)

CountryLink
EP (3)EP4243450B1 (en)
JP (4)JP6503457B2 (en)
CN (2)CN111565352B (en)
WO (1)WO2016040324A1 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US9084058B2 (en)2011-12-292015-07-14Sonos, Inc.Sound field calibration using listener localization
US9690539B2 (en)2012-06-282017-06-27Sonos, Inc.Speaker calibration user interface
US9219460B2 (en)2014-03-172015-12-22Sonos, Inc.Audio settings based on environment
US9706323B2 (en)2014-09-092017-07-11Sonos, Inc.Playback device calibration
US9106192B2 (en)2012-06-282015-08-11Sonos, Inc.System and method for device playback calibration
US9264839B2 (en)2014-03-172016-02-16Sonos, Inc.Playback device configuration based on proximity detection
US10127006B2 (en)2014-09-092018-11-13Sonos, Inc.Facilitating calibration of an audio playback device
US9910634B2 (en)2014-09-092018-03-06Sonos, Inc.Microphone calibration
US9952825B2 (en)2014-09-092018-04-24Sonos, Inc.Audio processing algorithms
US9891881B2 (en)2014-09-092018-02-13Sonos, Inc.Audio processing algorithm database
WO2016172593A1 (en)2015-04-242016-10-27Sonos, Inc.Playback device calibration user interfaces
US10664224B2 (en)2015-04-242020-05-26Sonos, Inc.Speaker calibration user interface
US9538305B2 (en)2015-07-282017-01-03Sonos, Inc.Calibration error conditions
CN108028985B (en)2015-09-172020-03-13搜诺思公司Method for computing device
US9693165B2 (en)2015-09-172017-06-27Sonos, Inc.Validation of audio calibration using multi-dimensional motion check
US9743207B1 (en)2016-01-182017-08-22Sonos, Inc.Calibration using multiple recording devices
US10003899B2 (en)2016-01-252018-06-19Sonos, Inc.Calibration with particular locations
US11106423B2 (en)2016-01-252021-08-31Sonos, Inc.Evaluating calibration of a playback device
EP3226575B1 (en)*2016-04-012019-05-15Sonos, Inc.Updating playback device configuration information based on calibration data
US9860662B2 (en)2016-04-012018-01-02Sonos, Inc.Updating playback device configuration information based on calibration data
US9864574B2 (en)2016-04-012018-01-09Sonos, Inc.Playback device calibration based on representation spectral characteristics
US9763018B1 (en)2016-04-122017-09-12Sonos, Inc.Calibration of audio playback devices
US9860670B1 (en)2016-07-152018-01-02Sonos, Inc.Spectral correction using spatial calibration
US9794710B1 (en)2016-07-152017-10-17Sonos, Inc.Spatial audio correction
US10372406B2 (en)2016-07-222019-08-06Sonos, Inc.Calibration interface
US10459684B2 (en)2016-08-052019-10-29Sonos, Inc.Calibration of a playback device based on an estimated frequency response
US10299061B1 (en)2018-08-282019-05-21Sonos, Inc.Playback device calibration
US11206484B2 (en)2018-08-282021-12-21Sonos, Inc.Passive speaker authentication
US10959018B1 (en)*2019-01-182021-03-23Amazon Technologies, Inc.Method for autonomous loudspeaker room adaptation
US10734965B1 (en)2019-08-122020-08-04Sonos, Inc.Audio calibration of a portable playback device
EP4564154A3 (en)2021-09-302025-07-23Sonos Inc.Conflict management for wake-word detection processes

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH0828920B2 (en)*1992-01-201996-03-21松下電器産業株式会社 Speaker measuring device
KR970005607B1 (en)*1992-02-281997-04-18삼성전자 주식회사 Listening space characteristic correction device
JP2870359B2 (en)*1993-05-111999-03-17ヤマハ株式会社 Acoustic characteristic correction device
JPH10307592A (en)*1997-05-081998-11-17Alpine Electron IncData distributing system for on-vehicle audio device
WO2001011918A2 (en)*1999-08-112001-02-15Pacific Microsonics, Inc.Compensation system and method for sound reproduction
JP4187391B2 (en)2000-08-282008-11-26富士通テン株式会社 In-vehicle audio service method
US7483540B2 (en)*2002-03-252009-01-27Bose CorporationAutomatic audio system equalizing
JP2004159037A (en)*2002-11-062004-06-03Sony CorpAutomatic sound adjustment system, sound adjusting device, sound analyzer, and sound analysis processing program
US8234395B2 (en)2003-07-282012-07-31Sonos, Inc.System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
JP2005086686A (en)*2003-09-102005-03-31Fujitsu Ten LtdElectronic equipment
US20060088174A1 (en)*2004-10-262006-04-27Deleeuw William CSystem and method for optimizing media center audio through microphones embedded in a remote control
LV13342B (en)*2005-05-182005-10-20Real Sound Lab SiaMethod and device for correction of acoustic parameters of electro-acoustic transducers
JP4407571B2 (en)*2005-06-062010-02-03株式会社デンソー In-vehicle system, vehicle interior sound field adjustment system, and portable terminal
JP2007271802A (en)*2006-03-302007-10-18Kenwood CorpContent reproduction system and computer program
JP4725422B2 (en)2006-06-022011-07-13コニカミノルタホールディングス株式会社 Echo cancellation circuit, acoustic device, network camera, and echo cancellation method
JP2008035254A (en)2006-07-282008-02-14Sharp Corp Sound output device, television receiver
US7845233B2 (en)*2007-02-022010-12-07Seagrave Charles GSound sensor array with optical outputs
JP2008228133A (en)*2007-03-152008-09-25Matsushita Electric Ind Co Ltd Acoustic system
JP5313549B2 (en)2008-05-272013-10-09アルパイン株式会社 Acoustic information providing system and in-vehicle acoustic device
US8819554B2 (en)2008-12-232014-08-26At&T Intellectual Property I, L.P.System and method for playing media
US8300840B1 (en)*2009-02-102012-10-30Frye Electronics, Inc.Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties
US8588430B2 (en)*2009-02-112013-11-19Nxp B.V.Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition
JP2011164166A (en)*2010-02-052011-08-25D&M Holdings IncAudio signal amplifying apparatus
JP5508550B2 (en)*2010-02-242014-06-04フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Apparatus for generating extended downmix signal, method and computer program for generating extended downmix signal
CN102893633B (en)*2010-05-062015-04-15杜比实验室特许公司Audio system equalization for portable media playback devices
US9307340B2 (en)2010-05-062016-04-05Dolby Laboratories Licensing CorporationAudio system equalization for portable media playback devices
JP5533248B2 (en)*2010-05-202014-06-25ソニー株式会社 Audio signal processing apparatus and audio signal processing method
CN102004823B (en)*2010-11-112012-09-26浙江中科电声研发中心Numerical value simulation method of vibration and acoustic characteristics of speaker
US9053456B2 (en)*2011-03-282015-06-09Microsoft Technology Licensing, LlcTechniques for conference system location awareness and provisioning
DE102011076484A1 (en)2011-05-252012-11-29Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. SOUND PLAYING DEVICE WITH HORIZONTAL SIMULATION
US9438996B2 (en)2012-02-212016-09-06Intertrust Technologies CorporationSystems and methods for calibrating speakers
JP2013247456A (en)*2012-05-242013-12-09Toshiba CorpAcoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
US9106192B2 (en)*2012-06-282015-08-11Sonos, Inc.System and method for device playback calibration
CN104956689B (en)*2012-11-302017-07-04Dts(英属维尔京群岛)有限公司For the method and apparatus of personalized audio virtualization
EP2747081A1 (en)*2012-12-182014-06-25Oticon A/sAn audio processing device comprising artifact reduction

Also Published As

Publication numberPublication date
EP4498701A3 (en)2025-03-26
JP7110301B2 (en)2022-08-01
JP2017528083A (en)2017-09-21
EP3111678A1 (en)2017-01-04
JP2019134470A (en)2019-08-08
CN111565352B (en)2021-08-06
CN111565352A (en)2020-08-21
JP2022163061A (en)2022-10-25
CN106688248A (en)2017-05-17
WO2016040324A1 (en)2016-03-17
EP4243450A3 (en)2023-11-15
JP7617875B2 (en)2025-01-20
CN106688248B (en)2020-04-14
JP6792015B2 (en)2020-11-25
EP4243450A2 (en)2023-09-13
EP4243450B1 (en)2024-08-07
EP3111678B1 (en)2023-11-01
JP2021044818A (en)2021-03-18
EP4498701A2 (en)2025-01-29

Similar Documents

PublicationPublication DateTitle
JP7617875B2 (en) Audio Processing Algorithms and Databases
JP6524273B2 (en) Calibration of playback device
US12141501B2 (en)Audio processing algorithms
JP6523543B2 (en) Calibration of playback device
US10127008B2 (en)Audio processing algorithm database

Legal Events

DateCodeTitleDescription
A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20170502

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20170502

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20180413

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20180508

A601Written request for extension of time

Free format text:JAPANESE INTERMEDIATE CODE: A601

Effective date:20180806

A601Written request for extension of time

Free format text:JAPANESE INTERMEDIATE CODE: A601

Effective date:20181005

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20181107

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20190226

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20190325

R150Certificate of patent or registration of utility model

Ref document number:6503457

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250


[8]ページ先頭

©2009-2025 Movatter.jp