Movatterモバイル変換


[0]ホーム

URL:


JP2000242434A - Storage system - Google Patents

Storage system

Info

Publication number
JP2000242434A
JP2000242434AJP11344260AJP34426099AJP2000242434AJP 2000242434 AJP2000242434 AJP 2000242434AJP 11344260 AJP11344260 AJP 11344260AJP 34426099 AJP34426099 AJP 34426099AJP 2000242434 AJP2000242434 AJP 2000242434A
Authority
JP
Japan
Prior art keywords
frame
disk array
node
host
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11344260A
Other languages
Japanese (ja)
Other versions
JP2000242434A5 (en
Inventor
Naoto Matsunami
直人 松並
Takashi Oeda
高 大枝
Akira Yamamoto
山本  彰
Yasuyuki Ajimatsu
康行 味松
Masahiko Sato
雅彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LtdfiledCriticalHitachi Ltd
Priority to JP11344260ApriorityCriticalpatent/JP2000242434A/en
Publication of JP2000242434ApublicationCriticalpatent/JP2000242434A/en
Publication of JP2000242434A5publicationCriticalpatent/JP2000242434A5/ja
Withdrawnlegal-statusCriticalCurrent

Links

Abstract

Translated fromJapanese

(57)【要約】【課題】計算機システムの規模、要求などに応じた記憶
装置システムを構築でき、将来における記憶装置システ
ムの拡張、信頼性の向上を容易に実現できるようにす
る。【解決手段】記憶装置システム1は、データを保持する
記憶装置とそれを制御する制御装置を有する複数のサブ
セット10とサブセット10とホスト30との間に配置
されるスイッチ装置20を有する。スイッチ装置20
は、記憶装置システム1の構成を管理する管理情報を保
持する管理テーブルを有し、管理情報に従ってホスト3
0が出力するフレーム情報に含まれるアドレス情報を変
換してフレーム情報をサブセット10に振り分ける。
(57) [Summary] A storage device system can be constructed according to the scale, requirements, and the like of a computer system, and expansion and reliability improvement of the storage device system in the future can be easily realized. A storage device system includes a plurality of subsets having a storage device that holds data and a control device that controls the storage device, and a switch device disposed between the subset and a host. Switch device 20
Has a management table for holding management information for managing the configuration of the storage device system 1, and according to the management information, the host 3
0 converts the address information included in the frame information output and distributes the frame information to the subset 10.

Description

Translated fromJapanese
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数のディスク装
置を制御するディスク制御システムの実現方法に関し、
特に、ディスク制御システムの高速化、低コスト化、コ
ストパフォーマンスの向上の方法に関する。
The present invention relates to a method for implementing a disk control system for controlling a plurality of disk devices,
In particular, the present invention relates to a method for increasing the speed, reducing the cost, and improving the cost performance of a disk control system.

【0002】[0002]

【従来の技術】計算機システムに用いられる記憶装置シ
ステムとして、複数のディスク装置を制御するディスク
アレイシステムがある。ディスクアレイシステムについ
ては、例えば、“A Case for Redundant Arrays of Ine
xpensive Disks (RAID)”; InProc. ACM SIGMOD, June
1988(カリフォルニア大学バークレー校発行)に開示さ
れている。ディスクアレイは、複数のディスク装置を並
列に動作させることで、ディスク装置を単体で用いた記
憶装置システムに比べ高速化を実現する技術である。
2. Description of the Related Art As a storage device system used in a computer system, there is a disk array system for controlling a plurality of disk devices. For the disk array system, for example, see “A Case for Redundant Arrays of Ine
xpensive Disks (RAID) ”; InProc. ACM SIGMOD, June
1988 (published by the University of California, Berkeley). The disk array is a technology that operates a plurality of disk devices in parallel to achieve higher speed as compared with a storage device system using a single disk device.

【0003】複数のディスクアレイシステムを、複数の
ホストと相互に接続する方法として、ファイバチャネル
(Fibre Channel)のFabricを使用した方法がある。こ
の方法を適用した計算機システムの例が、日経エレクト
ロニクス1995.7.3(no.639)「シリアルSCSIがいよいよ
市場へ」P.79 図3に示されている。ここに開示される
計算機システムでは、複数のホストコンピュータ(以下
では単にホストと呼ぶ)と複数のディスクアレイシステ
ムが、それぞれ、ファイバチャネルを介してファブリッ
ク装置に接続される。ファブリック装置は、ファイバチ
ャネルのスイッチであり、ファブリック装置に接続する
任意の装置間の転送路の接続を行う。ファブリック装置
はファイバチャネルのパケットである「フレーム」の転
送に対し透過であり、ホストとディスクアレイシステム
は、互いにファブリック装置を意識することなく2点間
で通信を行う。
As a method for interconnecting a plurality of disk array systems with a plurality of hosts, there is a method using Fiber Channel Fabric. An example of a computer system to which this method is applied is shown in Nikkei Electronics 1995.7.3 (No. 639) "Serial SCSI is finally on the market" P.79 FIG. In the computer system disclosed herein, a plurality of host computers (hereinafter simply referred to as hosts) and a plurality of disk array systems are respectively connected to a fabric device via a fiber channel. The fabric device is a fiber channel switch, and connects a transfer path between arbitrary devices connected to the fabric device. The fabric device is transparent to the transfer of a “frame” that is a fiber channel packet, and the host and the disk array system communicate between two points without being aware of the fabric device.

【0004】[0004]

【発明が解決しようとする課題】従来のディスクアレイ
システムでは、大容量化のためディスク装置の台数を増
やし、高性能化のため台数に見合った性能を有するコン
トローラを実現しようとすると、コントローラの内部バ
スの性能限界や、転送制御を行うプロセッサの性能限界
が顕在化する。このような問題に対処するために、内部
バスを拡張し、プロセッサ数を増加することが行われて
いる。しかし、このような対処の仕方は、多数のバス制
御によるコントローラ構成の複雑化や、プロセッサ間の
共有データの排他制御等による制御ソフトの複雑化とオ
ーバヘッドの増加を招く。このため、コストを非常に上
昇させるとともに、性能は頭打ちになり、その結果、コ
ストパフォーマンスが悪化する。また、このような装置
は、大規模なシステムでは、そのコストに見合った性能
が実現できるものの、規模がそれほど大きくないシステ
ムには見合わない、拡張性が制限される、開発期間の増
大と開発コストの上昇を招くといった課題がある。
In the conventional disk array system, if the number of disk drives is increased for increasing the capacity and a controller having a performance corresponding to the number is to be realized for higher performance, the internal capacity of the controller is increased. The performance limit of a bus and the performance limit of a processor that performs transfer control become apparent. To cope with such a problem, an internal bus is expanded to increase the number of processors. However, such a countermeasure causes a complicated controller configuration by controlling a large number of buses, a complicated control software due to exclusive control of shared data between processors, and an increase in overhead. For this reason, the cost is greatly increased, and the performance is leveled off. As a result, the cost performance deteriorates. In addition, such a device can achieve performance commensurate with the cost of a large-scale system, but cannot meet the cost of a system of a small size, has limited scalability, and has an increased development time and There is a problem that the cost rises.

【0005】複数のディスクアレイシステムを並べファ
ブリック装置で相互接続することによって、システム全
体としての大容量化、高性能化を行うことが可能であ
る。しかし、この方法では、ディスクアレイシステム間
に関連性は全くなく、特定のディスクアレイシステムに
アクセスが集中したとしてもそれを他の装置に分散する
ことができないので、実使用上の高性能化が実現できな
い。また、ホストから見た論理的なディスク装置(論理
ユニットと呼ぶ)の容量は、1台のディスクアレイシス
テムの容量に制限されるので、論理ユニットの大容量化
は実現できない。
By arranging a plurality of disk array systems and interconnecting them with a fabric device, it is possible to increase the capacity and performance of the entire system. However, in this method, there is no relevance between the disk array systems, and even if access is concentrated on a specific disk array system, it cannot be distributed to other devices. I can't. Further, since the capacity of a logical disk device (referred to as a logical unit) as viewed from the host is limited to the capacity of one disk array system, the capacity of the logical unit cannot be increased.

【0006】ディスクアレイシステム全体を高信頼化し
ようとした際に、ホストが備えているミラーリング機能
を用いて2台のディスクアレイシステムによるミラー構
成を実現することができるが、ホストによるミラーリン
グのための制御オーバヘッドが発生し、システム性能が
制限されるという課題がある。また、多数のディスクア
レイシステムがシステム内に個別に存在すると、システ
ム管理者が管理するための負荷が増加する。このため、
多数の保守人員、複数台分の保守費用が必要になる等、
管理コストが増加する。さらに、複数のディスクアレイ
システム、ファブリック装置は、それぞれ独立した装置
であるので、各種設定は、それぞれの装置毎に異なる方
法で実施する必要がある。このため、管理者のトレーニ
ングや、操作時間の増大にともない運用コストが増大す
る。
When trying to make the entire disk array system highly reliable, a mirror configuration using two disk array systems can be realized by using the mirroring function of the host. There is a problem that control overhead occurs and system performance is limited. In addition, when a large number of disk array systems exist individually in the system, a load for management by a system administrator increases. For this reason,
A large number of maintenance personnel, maintenance costs for multiple units are required,
Administration costs increase. Further, since the plurality of disk array systems and the fabric devices are independent devices, various settings need to be performed by different methods for each device. For this reason, the operation cost increases with the training of the administrator and the increase in the operation time.

【0007】本発明の目的は、これら従来技術における
課題を解決し、計算機システムの規模、要求などに応じ
た記憶装置システムを構築でき、将来における記憶装置
システムの拡張、信頼性の向上などに容易に対応するこ
とのできる記憶装置システムを実現することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve these problems in the prior art, to construct a storage system according to the scale and requirements of a computer system, and to easily expand the storage system and improve reliability in the future. Another object of the present invention is to realize a storage device system that can cope with the above.

【0008】[0008]

【課題を解決するための手段】本発明の記憶装置システ
ムは、データを保持する記憶媒体を有する記憶装置と、
この記憶装置を制御する制御装置とを有する複数の記憶
装置サブシステム、複数の記憶装置サブシステムに保持
されるデータを使用する計算機に接続された第1のイン
タフェースノード、各々が記憶装置サブシステムのいず
れかに接続された複数の第2のインタフェースノード、
及び第1のインタフェースノード及び複数の第2のイン
タフェースノードが接続され、第1のインタフェースノ
ードと複数の第2のインタフェースノードとの間でフレ
ームの転送を行う転送手段を有する。
A storage device system according to the present invention includes a storage device having a storage medium for holding data;
A plurality of storage subsystems having a control device for controlling the storage subsystem; a first interface node connected to a computer using data held in the plurality of storage subsystems; A plurality of second interface nodes connected to either,
And a first interface node and a plurality of second interface nodes are connected to each other, and a transfer unit for transferring a frame between the first interface node and the plurality of second interface nodes is provided.

【0009】好ましくは、第1のインタフェースノード
は、記憶装置システムの構成情報を格納した構成管理テ
ーブルと、計算機から送られてくるフレームに応答し
て、該フレームを解析し、構成管理テーブルに保持され
た構成情報に基づいてそのフレームの転送先に関する情
報変換して転送手段に転送する。
Preferably, the first interface node analyzes the frame in response to a frame sent from a computer and stores the configuration information in a configuration management table storing configuration information of the storage device system. The information on the transfer destination of the frame is converted based on the obtained configuration information and transferred to the transfer unit.

【0010】また、フレームの転送に際して、第1のイ
ンタフェースノードは、そのフレームを受け取るべきノ
ードのノードアドレス情報をフレームに付加する。転送
手段はフレームに付加されたノードアドレス情報に従っ
てフレームを転送する。第2のインタフェースノード
は、転送手段から受け取ったフレームからノードアドレ
ス情報を除いてフレームを再形成し、目的の記憶装置サ
ブシステムに転送する。
In transferring a frame, the first interface node adds node address information of a node that should receive the frame to the frame. The transfer means transfers the frame according to the node address information added to the frame. The second interface node re-creates the frame received from the transfer unit by removing the node address information, and transfers the frame to the target storage subsystem.

【0011】本発明のある態様において、記憶装置シス
テムは、転送手段に接続する管理プロセッサを有する。
管理プロセッサは、オペレータからの指示に従って、構
成管理テーブルに構成情報を設定する。構成情報には、
計算機からのアクセスを制限する情報が含まれる。
In one embodiment of the present invention, the storage device system has a management processor connected to the transfer means.
The management processor sets the configuration information in the configuration management table according to an instruction from the operator. The configuration information includes
Information that restricts access from the computer is included.

【0012】[0012]

【発明の実施の形態】[第1実施形態]図1は、本発明
が適用されたディスクアレイシステムを用いたコンピュ
ータシステムの一実施形態における構成図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a block diagram showing an embodiment of a computer system using a disk array system to which the present invention is applied.

【0013】1はディスクアレイシステム、30はディ
スクアレイシステムが接続されるホストコンピュータ
(ホスト)である。ディスクアレイシステム1は、ディ
スクアレイサブセット10、ディスクアレイスイッチ2
0、ディスクアレイシステム全体の設定管理を行うディ
スクアレイシステム構成管理手段70、ディスクアレイ
スイッチ20とディスクアレイシステム構成管理手段7
0との間、およびディスクアレイサブセット10ディス
クアレイシステム構成管理手段70との間の通信インタ
フェース(通信I/F)80を有する。ホスト30とデ
ィスクアレイシステム1とは、ホストインタフェース
(ホストI/F)31で接続されており、ホストI/F
31はディスクアレイシステム1のディスクアレイスイ
ッチ20に接続する。ディスクアレイシステム1の内部
において、ディスクアレイスイッチ20とディスクアレ
イサブセット10は、ディスクアレイインタフェース
(ディスクアレイI/F21)で接続される。
1 is a disk array system, and 30 is a host computer (host) to which the disk array system is connected. The disk array system 1 includes a disk array subset 10 and a disk array switch 2
0, a disk array system configuration management unit 70 for managing settings of the entire disk array system, a disk array switch 20 and a disk array system configuration management unit 7
0, and a communication interface (communication I / F) 80 with the disk array subset 10 and the disk array system configuration management means 70. The host 30 and the disk array system 1 are connected by a host interface (host I / F) 31, and the host I / F
31 is connected to the disk array switch 20 of the disk array system 1. Inside the disk array system 1, the disk array switch 20 and the disk array subset 10 are connected by a disk array interface (disk array I / F 21).

【0014】ホスト30、ディスクアレイサブセット1
0は、図では、各々4台示されているが、この台数に関
しては制限はなく任意である。ホスト30とディスクア
レイサブセット10の台数が異なっても構わない。ま
た、ディスクアレイスイッチ20は、本実施形態では図
示の通り二重化されている。各ホスト30および各ディ
スクアレイサブセット10は、それぞれ別々のホストI
/F31、ディスクアレイI/F21で二重化されたデ
ィスクアレイスイッチ20の双方に接続されている。こ
れは、一方のディスクアレイスイッチ20、ホストI/
F31、あるいはディスクアレイI/F21が故障して
も他方を使用することでホスト30からディスクアレイ
システム1へのアクセスを可能とし、高い可用性を実現
するためである。しかし、このような二重化は必ずしも
必須ではなく、システムに要求される信頼性レベルに応
じて選択可能である。
Host 30, Disk Array Subset 1
Although 0 is shown in the figure for each of the four units, there is no limitation on the number, and the number is arbitrary. The number of hosts 30 and the number of disk array subsets 10 may be different. In this embodiment, the disk array switch 20 is duplicated as shown. Each host 30 and each disk array subset 10 have separate host I
/ F31 and the disk array switch 20 duplexed by the disk array I / F 21. This is because one of the disk array switches 20 and the host I /
This is because even if the F31 or the disk array I / F 21 fails, the other can be used to access the disk array system 1 from the host 30, thereby realizing high availability. However, such duplication is not always necessary, and can be selected according to the reliability level required for the system.

【0015】図2は、ディスクアレイサブセット10の
一構成例を示す構成図である。101は上位システム
(ホスト10)からのコマンドを解釈してキャッシュヒ
ットミス判定を実施し、上位システムとキャッシュ間の
データ転送を制御する上位アダプタ、102はディスク
データアクセス高速化のためのキャッシュ、および、マ
ルチプロセッサ間の共有データを格納する共有メモリ
(以下キャッシュ・共有メモリと呼ぶ)、104はディ
スクアレイサブセット10内に格納される複数のディスク
ユニットである。103はディスクユニット104を制
御し、ディスクユニット104とキャッシュ間のデータ
転送を制御する下位アダプタである。106はディスク
アレイサブセット構成管理手段であり、ディスクアレイ
システム1全体を管理するディスクアレイシステム構成
管理手段70と通信I/F80を介して通信し、構成パ
ラメータの設定や、障害情報の通報等の管理を行う。
FIG. 2 is a configuration diagram showing an example of the configuration of the disk array subset 10. As shown in FIG. Reference numeral 101 denotes a host adapter that interprets a command from the host system (host 10) to determine a cache hit / miss and controls data transfer between the host system and the cache. 102 denotes a cache for accelerating disk data access. A shared memory (hereinafter referred to as cache / shared memory) 104 for storing shared data between multiprocessors; and 104, a plurality of disk units stored in the disk array subset 10. A lower adapter 103 controls the disk unit 104 and controls data transfer between the disk unit 104 and the cache. Reference numeral 106 denotes a disk array subset configuration management unit that communicates with the disk array system configuration management unit 70 that manages the entire disk array system 1 via the communication I / F 80, and manages configuration parameter setting, failure information reporting, and the like. I do.

【0016】上位アダプタ101、キャッシュ・共有メ
モリ102、下位アダプタ103はそれぞれ二重化され
ている。この理由は上記ディスクアレイスイッチ20の
二重化と同様、高可用性を実現するためであり必須では
ない。また、各ディスクユニット104は、二重化され
た下位アダプタ103のいずれからも制御可能である。
本実施形態では、低コスト化の観点から同一のメモリ手
段をキャッシュと共有メモリに共用しているが、これら
は勿論分離することも可能である。
The upper adapter 101, the cache / shared memory 102, and the lower adapter 103 are each duplicated. The reason for this is to realize high availability as in the case of the above-mentioned duplexing of the disk array switch 20, and is not essential. Further, each disk unit 104 can be controlled from any of the duplexed lower adapters 103.
In the present embodiment, the same memory means is shared between the cache and the shared memory from the viewpoint of cost reduction, but these can of course be separated.

【0017】上位アダプタ101は、上位アダプタ10
1の制御を実行する上位MPU1010、上位システ
ム、すなわちディスクアレイスイッチ20との接続I/
FであるディスクアレイI/F21を制御するディスク
アレイI/Fコントローラ1011、キャッシュ・共有
メモリ102と上位MPU1010とディスクアレイI
/Fコントローラ1011との間の通信、データ転送を
行う上位バス1012を含む。
The upper adapter 101 is a host adapter 10
1 which controls the upper MPU 1010 and the upper system, ie, the connection I / O with the disk array switch 20.
A disk array I / F controller 1011 for controlling the disk array I / F 21 as the F, the cache / shared memory 102, the upper MPU 1010, and the disk array I
/ F controller 1011 and an upper bus 1012 for performing data transfer and communication with the controller 1011.

【0018】図では各上位アダプタ101毎に1台のデ
ィスクアレイI/Fコントローラ1011が示されてい
るが、1つの上位アダプタに対し、複数のディスクアレ
イI/Fコントローラ1011を設けてもよい。
In the figure, one disk array I / F controller 1011 is shown for each upper adapter 101, but a plurality of disk array I / F controllers 1011 may be provided for one upper adapter.

【0019】下位アダプタ103は、下位アダプタ10
3の制御を実行する下位MPU1030、ディスク10
4とのインタフェースであるディスクI/Fを制御する
ディスクI/Fコントローラ1031、キャッシュ・共
有メモリ102と下位MPU1030とディスクI/F
コントローラ1031との間の通信、データ転送を行う
下位バス1032を含む。
The lower adapter 103 includes the lower adapter 10
MPU 1030 that executes the control of the third disk 10
I / F controller 1031, which controls the disk I / F which is an interface with the C.4, the cache / shared memory 102, the lower MPU 1030, and the disk I / F
A lower bus 1032 for performing communication and data transfer with the controller 1031 is included.

【0020】図では各下位アダプタ103毎に4台のデ
ィスクI/Fコントローラ1031が示されているが、
その数は任意であり、ディスクアレイの構成や、接続す
るディスク台数に応じて変更可能である。
In the figure, four disk I / F controllers 1031 are shown for each lower adapter 103.
The number is arbitrary and can be changed according to the configuration of the disk array and the number of disks to be connected.

【0021】図3は、ディスクアレイスイッチ20の一
構成例を示す構成図である。200はディスクアレイス
イッチ全体の制御および管理を行うプロセッサである管
理プロセッサ(MP)、201はn×nの相互スイッチ
経路を構成するクロスバスイッチ、202はディスクア
レイI/F21毎に設けられるディスクアレイI/Fノ
ード、203はホストI/F31毎に設けられるホスト
I/Fノード、204はディスクアレイシステム構成管
理手段70との間の通信を行う通信コントローラであ
る。2020はディスクアレイI/Fノード202とク
ロスバスイッチ201を接続するパス、2030はホス
トI/Fノード203とクロスバスイッチ201を接続
するパス、2040は他のディスクアレイスイッチ20
と接続し、クラスタを構成するためのクラスタ間I/
F、2050はMP200とクロスバスイッチ201を
接続するためのパスである。
FIG. 3 is a configuration diagram showing an example of the configuration of the disk array switch 20. Reference numeral 200 denotes a management processor (MP) which is a processor for controlling and managing the entire disk array switch; 201, a crossbar switch constituting an n × n mutual switch path; and 202, a disk array I / F provided for each disk array I / F 21. A / F node, 203 is a host I / F node provided for each host I / F 31, and 204 is a communication controller that performs communication with the disk array system configuration management means 70. Reference numeral 2020 denotes a path connecting the disk array I / F node 202 and the crossbar switch 201, reference numeral 2030 denotes a path connecting the host I / F node 203 and the crossbar switch 201, and reference numeral 2040 denotes another disk array switch 20.
And I / O between clusters to configure a cluster
F and 2050 are paths for connecting the MP 200 and the crossbar switch 201.

【0022】図4はクロスバスイッチ201の構造を示
す構成図である。2010はクロスバスイッチ201に
接続するパス2020、2030、2050、およびク
ラスタ間I/F2040を接続するポートであるスイッ
チングポート(SWP)である。SWP2010はすべ
て同一の構造を有し、あるSWPから他のSWPへの転
送経路のスイッチング制御を行う。図では1つのSWP
についてのみ転送経路を示しているが、すべてのSWP
間で同様の転送経路が存在する。
FIG. 4 is a block diagram showing the structure of the crossbar switch 201. Reference numeral 2010 denotes a switching port (SWP) which is a port connecting the paths 2020, 2030, and 2050 connected to the crossbar switch 201 and the inter-cluster I / F 2040. The SWPs 2010 all have the same structure, and perform switching control of a transfer path from one SWP to another SWP. In the figure, one SWP
, The transfer path is shown only for all SWPs.
A similar transfer path exists between them.

【0023】図5は、ホストI/Fノード203の一構
成例を示す構成図である。本実施形態では、具体的に説
明をするためにホストI/F31とディスクアレイI/
F21の両方にファイバチャネルを使用するものと仮定
する。もちろんホストI/F31とディスクアレイI/
F21として、ファイバチャネル以外のインタフェース
を適用することも可能である。ホストI/Fノード20
3とディスクアレイI/Fノード202の両方に同一の
インタフェースを使用することで、両者を同一構造にで
きる。本実施形態においては、ディスクアレイI/Fノ
ード202も図に示すホストI/Fノード203と同様
に構成される。以下では、ホストI/Fノード203を
例に説明を行う。
FIG. 5 is a configuration diagram showing an example of the configuration of the host I / F node 203. In this embodiment, the host I / F 31 and the disk array I / F 31
Assume that Fiber Channel is used for both F21. Of course, host I / F 31 and disk array I / F
As F21, an interface other than the fiber channel can be applied. Host I / F node 20
3 and the disk array I / F node 202, by using the same interface, both can have the same structure. In the present embodiment, the disk array I / F node 202 is configured similarly to the host I / F node 203 shown in FIG. Hereinafter, the host I / F node 203 will be described as an example.

【0024】2021は受信したファイバチャネルフレ
ーム(以下単にフレームと呼ぶ)をどのノードに転送す
るかを検索する検索プロセッサ(SP)、2022はホ
スト30(ディスクアレイI/Fノード202の場合
は、ディスクアレイサブセット10)との間でフレーム
を送受信するインタフェースコントローラ(IC)、2
022はIC2023が受信したフレームに対しSP2
021が検索した結果に基づいて変換を施すスイッチン
グコントローラ(SC)、2024はSC2021が変
換したフレームを他のノードに転送するためにクロスバ
スイッチ201を通過できる形式にパケット化するパケ
ット生成部(SPG)、2025は受信したフレームを
一時的に格納するフレームバッファ(FB)、2026
は一つのホストからのディスクアレイアクセス要求コマ
ンド(以下単にコマンドと呼ぶ)に対応した複数のフレ
ーム列であるエクスチェンジ(Exchange)を識別するた
めのエクスチェンジ番号を管理するエクスチェンジテー
ブル(ET)、2027は複数のディスクアレイサブセ
ット10の構成情報を格納するディスクアレイ構成管理
テーブル(DCT)である。
Reference numeral 2021 denotes a search processor (SP) for searching for a node to which a received fiber channel frame (hereinafter, simply referred to as a frame) is to be transferred, and reference numeral 2022 denotes a host 30 (in the case of the disk array I / F node 202, a disk An interface controller (IC) for transmitting and receiving frames to and from the array subset 10), 2
022 is SP2 for the frame received by the IC 2023.
A switching controller (SC) 2021 performs conversion based on the search result, and a packet generation unit (SPG) 2024 converts the frame converted by the SC 2021 into a format that can pass through the crossbar switch 201 to transfer the frame to another node. , 2025 are frame buffers (FB) for temporarily storing received frames, 2026
Is an exchange table (ET) that manages an exchange number for identifying an exchange (Exchange) that is a plurality of frame strings corresponding to a disk array access request command (hereinafter simply referred to as a command) from one host. 3 is a disk array configuration management table (DCT) for storing configuration information of the disk array subset 10 of FIG.

【0025】ディスクアレイスイッチ20の各構成部
は、すべてハードウェアロジックで構成されることが性
能上望ましい。しかし、求められる性能を満足できるな
らば、汎用プロセッサを用いたプログラム制御によりS
P2021やSC2022の機能を実現することも可能
である。
It is desirable in terms of performance that all components of the disk array switch 20 are constituted by hardware logic. However, if the required performance can be satisfied, S
It is also possible to realize the functions of P2021 and SC2022.

【0026】各ディスクアレイサブセット10は、各々
が有するディスクユニット104を1または複数の論理
的なディスクユニットとして管理している。この論理的
なディスクユニットを論理ユニット(LU)と呼ぶ。L
Uは、物理的なディスクユニット104と1対1で対応
する必要はなく、1台のディスクユニット104に複数
のLUが構成され、あるいは、複数のディスクユニット
104で1つのLUが構成されても構わない。
Each disk array subset 10 manages its own disk unit 104 as one or more logical disk units. This logical disk unit is called a logical unit (LU). L
The U does not need to correspond one-to-one with the physical disk unit 104, and a plurality of LUs may be configured in one disk unit 104, or a single LU may be configured in a plurality of disk units 104. I do not care.

【0027】ディスクアレイサブセット10の外部から
見た場合、1つのLUは、1台のディスク装置として認
識される。本実施形態では、ディスクアレイスイッチ2
0によりさらに論理的なLUが構成され、ホスト30
は、このLUに対してアクセスするように動作する。本
明細書では、1つのLUでホスト30から認識される1
つのLUが構成される場合、ホスト30により認識され
るLUを独立LU(ILU)、複数のLUでホスト30
から認識される1つのLUが構成される場合、ホスト3
0により認識されるLUを統合LU(CLU)と呼ぶ。
When viewed from the outside of the disk array subset 10, one LU is recognized as one disk device. In the present embodiment, the disk array switch 2
0 constitutes a further logical LU, and the host 30
Operates to access this LU. In this specification, one LU recognized by the host 30 by one LU
When one LU is configured, an LU recognized by the host 30 is an independent LU (ILU), and a plurality of LUs
When one LU recognized from is configured, the host 3
The LU recognized by 0 is called an integrated LU (CLU).

【0028】図12に、4つのディスクアレイサブセッ
トのLUで1つの統合LUが構成される場合における各
階層間でのアドレス空間の対応関係を示す。図におい
て、1000は、一例として、ホスト“#2”からみた
ディスクアレイシステム1の1つの統合LUにおけるア
ドレス空間、1100は、ディスクアレイサブセット1
0のLUのアドレス空間、1200はディスクユニット
104(ここでは、ディスクアレイサブセット“#0”
についてのみ図示されている)のアドレス空間を示して
いる。
FIG. 12 shows the correspondence of the address space between the respective layers when one integrated LU is constituted by the LUs of the four disk array subsets. In the figure, reference numeral 1000 denotes, for example, an address space in one integrated LU of the disk array system 1 viewed from the host “# 2”, and 1100 denotes a disk array subset 1
0 LU address space 1200 is the disk unit 104 (here, the disk array subset “# 0”).
(Only shown in FIG. 2).

【0029】各ディスクアレイサブセット10のLU
は、ここでは、4台のディスクユニット104によりR
AID5(Redundant Arrays of
Inexpensive Disks Level
5)型ディスクアレイとして構成されるものとする。各
ディスクアレイサブセット10は、それぞれn0、n
1、n2、n3の容量を有するLUを持つ。ディスクア
レイスイッチ20は、これら4つのLUの持つアドレス
空間を(n0+n1+n2+n3)の容量を有するアド
レス空間に統合し、ホスト30から認識される統合LU
を実現する。
The LU of each disk array subset 10
Here, R is calculated by four disk units 104.
AID5 (Redundant Arrays of
Inexpensive Disks Level
5) It is configured as a type disk array. Each disk array subset 10 has n0, n
It has LUs with capacities of 1, n2 and n3. The disk array switch 20 integrates the address space of these four LUs into an address space having a capacity of (n0 + n1 + n2 + n3), and the integrated LU recognized by the host 30.
To achieve.

【0030】本実施形態では、例えば、ホスト#2が領
域A1001をアクセスする場合、領域A1001を指
定したアクセス要求は、ディスクアレイスイッチ20に
よりディスクアレイサブセット#0のLUの領域A′1
101をアクセスするための要求に変換されてディスク
アレイサブセット#0に転送される。ディスクアレイサ
ブセット#0は、領域A′1101をさらに、ディスク
ユニット104上の領域A″1201にマッピングして
アクセスを行う。アドレス空間1000とアドレス空間
1100との間のマッピングは、ディスクアレイスイッ
チ20が有するDCT207に保持された構成情報に基
づき行われる。この処理の詳細については後述する。な
お、ディスクアレイサブセット内におけるマッピングに
ついては、既によく知られた技術であり、本明細書では
詳細な説明については省略する。
In this embodiment, for example, when the host # 2 accesses the area A1001, an access request designating the area A1001 is sent by the disk array switch 20 to the LU area A'1 of the disk array subset # 0.
The request 101 is converted into a request to access 101 and transferred to the disk array subset # 0. The disk array subset # 0 performs access by mapping the area A ′ 1101 to the area A ″ 1201 on the disk unit 104. The mapping between the address space 1000 and the address space 1100 is performed by the disk array switch 20. This processing is performed based on the configuration information held in the DCT 207. The details of this processing will be described later, and the mapping in the disk array subset is a well-known technique, and will be described in detail in this specification. Is omitted.

【0031】本実施形態において、DCT207は、シ
ステム構成テーブルとサブセット構成テーブルを含む。
図6は、システム構成テーブルの構成を、図7は、サブ
セット構成テーブルの構成を示す。
In this embodiment, the DCT 207 includes a system configuration table and a subset configuration table.
FIG. 6 shows the configuration of the system configuration table, and FIG. 7 shows the configuration of the subset configuration table.

【0032】図7に示すように、システム構成テーブル
20270は、ホストLUの構成を示す情報を保持する
ホストLU構成テーブル20271、及びディスクアレイス
イッチ20のディスクアレイI/Fノード202とディ
スクアレイサブセット10との接続関係を示すディスク
アレイI/Fノード構成テーブル20272を有する。
As shown in FIG. 7, the system configuration table 20270 includes a host LU configuration table 20271 holding information indicating the configuration of the host LU, the disk array I / F node 202 of the disk array switch 20, and the disk array subset 10 And a disk array I / F node configuration table 20272 indicating the connection relationship with.

【0033】ホストLU構成テーブル20271は、ホスト
30からみたLUごとに、そのLUを識別する番号であ
るHost-LU No.、LUの属性を示すLU Type、CLU Clas
s、及びCLU Stripe Size、ホストLUの状態を示す情報
であるCondition、ホストLUを構成するディスクアレ
イサブセット10のLUに関する情報であるLU情報
(LU Info.)を有する。
The host LU configuration table 20271 includes, for each LU viewed from the host 30, a Host-LU No., which is a number for identifying the LU, an LU Type indicating the attribute of the LU, and a CLU Clas.
s, CLU Stripe Size, Condition indicating information on the status of the host LU, and LU information (LU Info.) indicating information on LUs of the disk array subset 10 constituting the host LU.

【0034】LU Typeは、このホストLUがCLUであ
るか、ILUであるかといったLUの種類を示す情報で
ある。CLU Classは、LU TypeによりこのホストLUがC
LUであることが示される場合に、そのクラスが“Join
ed”、“mirrored”、及び“Striped”のいずれである
かを示す情報である。“Joined”は、図11により説明
したように、いくつかのLUを連結して1つの大きな記
憶空間を持つCLUが構成されていることを示す。“Mi
rrored”は、第6実施形態として後述するように、2つ
のLUにより二重化されたLUであることを示す。“St
riped”は、第7実施形態として後述するように、複数
のLUで構成され、データがこれら複数のLUに分散し
て格納されたLUであることを示す。CLU Stripe Size
は、CLU Classにより「Striped」であることが示される
場合に、ストライピングサイズ(データの分散の単位と
なるブロックのサイズ)を示す。
LU Type is information indicating the type of LU such as whether the host LU is a CLU or an ILU. CLU Class indicates that this host LU is C
If the class is indicated as LU, the class is "Join
It is information indicating any of “ed”, “mirrored”, and “Striped.” “Joined” has one large storage space by connecting several LUs as described with reference to FIG. Indicates that a CLU has been configured.
“rrored” indicates that the LU is duplicated by two LUs, as described later in the sixth embodiment.
The “riped” indicates that the LU is composed of a plurality of LUs and is an LU in which data is distributed and stored in the plurality of LUs, as described later in the seventh embodiment. CLU Stripe Size
Indicates the striping size (the size of a block serving as a unit of data distribution) when the CLU Class indicates “Striped”.

【0035】Conditionにより示される状態には、“Nor
mal”、“Warning”、“Fault”、及び“Not Defined”
の4種類がある。“Normal”はこのホストLUが正常な
状態であることを示す。“Warning”は、このホストL
Uを構成するLUに対応するいずれかのディスクユニッ
トに障害が発生している等の理由により縮退運転が行わ
れていることを示す。“Fault”は、ディスクアレイサ
ブセット10の故障などによりこのホストLUを運転す
ることができないことを示す。“Not Defined”は、対
応するHost-LU No.のホストLUが定義されていないこ
とを示す。
The condition indicated by Condition includes “Nor
mal ”,“ Warning ”,“ Fault ”, and“ Not Defined ”
There are four types. “Normal” indicates that this host LU is in a normal state. “Warning” is the host L
This indicates that the degenerate operation is being performed, for example, because a failure has occurred in any disk unit corresponding to the LU configuring U. “Fault” indicates that the host LU cannot be operated due to a failure of the disk array subset 10 or the like. “Not Defined” indicates that the host LU of the corresponding Host-LU No. is not defined.

【0036】LU Infoは、このホストLUを構成するL
Uについて、そのLUが属するディスクアレイサブセッ
ト10を特定する情報、ディスクアレイサブセット内で
のLUN、及びそのサイズを示す情報を含む。ホストL
UがILUの場合には、唯一のLUに関する情報が登録
される。ホストLUがCLUの場合には、それを構成す
る全てのLUについて、それぞれのLUに関する情報が
登録される。例えば、図において、Host-LU No.が
“0”であるHost-LUは、ディスクアレイサブセット
“#0”のLUN“0”、ディスクアレイサブセット
“#1”のLUN“0”、ディスクアレイサブセット
“#2”のLUN“0”、ディスクアレイサブセット
“#3”のLUN“0”の4つのLUから構成されるC
LUであり、そのCLUクラスが“Joined”であるCL
Uであることが分かる。
LU Info is an L that constitutes this host LU.
For U, the information includes information specifying the disk array subset 10 to which the LU belongs, LUNs in the disk array subset, and information indicating the size. Host L
When U is ILU, information on only one LU is registered. When the host LU is a CLU, information on each LU is registered for all the LUs that make up the CLU. For example, in the figure, a Host-LU whose Host-LU No. is “0” is LUN “0” of the disk array subset “# 0”, LUN “0” of the disk array subset “# 1”, and disk array subset C composed of four LUs: LUN “0” of “# 2” and LUN “0” of disk array subset “# 3”
CL which is LU and whose CLU class is "Joined"
It turns out that it is U.

【0037】ディスクアレイI/Fノード構成テーブル
20272は、ディスクアレイI/F21が接続するディス
クアレイサブセット10のポートごとに、どのディスク
アレイスイッチ20のディスクアレイI/Fノード20
2が接続されるかを示す情報を保持する。
Disk array I / F node configuration table
Reference numeral 20272 denotes a disk array I / F node 20 of any disk array switch 20 for each port of the disk array subset 10 to which the disk array I / F 21 connects.
2 is stored.

【0038】具体的には、ディスクアレイサブセット1
0を特定するSubset No.、ポートを特定するSubset Por
t No.、そのポートに接続するディスクアレイスイッチ
20を特定するSwitch No.、及びそのディスクアレイス
イッチ20のディスクアレイI/Fノード202を特定
するI/F Node No.を有する。ディスクアレイサブセット
10が複数のポートを備えている場合には、そのポート
毎に情報が設定される。
Specifically, the disk array subset 1
Subset No. specifying 0, Subset Por specifying port
t No., Switch No. for specifying the disk array switch 20 connected to the port, and I / F Node No. for specifying the disk array I / F node 202 of the disk array switch 20. When the disk array subset 10 has a plurality of ports, information is set for each of the ports.

【0039】サブセット構成テーブルは、図7に示すよ
うに、各ディスクアレイサブセット10に対応する複数
のテーブル202720〜202723を有する。各テーブルは、デ
ィスクアレイサブセット10内で構築されたRAIDグ
ループの構成を示す情報を保持するRAIDグループ構
成テーブル202730と、ディスクアレイサブセット10内
に構築されたLUの構成を示す情報を保持するLU構成
テーブル202740を含む。
As shown in FIG. 7, the subset configuration table has a plurality of tables 202720 to 202723 corresponding to each disk array subset 10. Each table includes a RAID group configuration table 202730 that holds information indicating the configuration of a RAID group built in the disk array subset 10, and an LU configuration that holds information indicating the configuration of an LU built in the disk array subset 10. Includes table 202740.

【0040】RAIDグループ構成テーブル202730は、
RAIDグループに付加された番号を示すGroup No.、
そのRAIDグループのレベルを示すLevel、そのRA
IDグループを構成するディスクの数を示す情報である
Disks、そのRAIDグループがRAIDレベル0,5
等のストライピングされた構成の場合、そのストライプ
サイズを示すStripe Sizeを情報として含む。例えば、
図に示されるテーブルにおいて、RAIDグループ
“0”は、4台のディスクユニットにより構成されたR
AIDグループであり、RAIDレベルが5、ストライ
プサイズがS0である。
The RAID group configuration table 202730 includes:
Group No. indicating the number added to the RAID group,
Level indicating the level of the RAID group, the RA
This is information indicating the number of disks constituting the ID group.
Disks, the RAID groups of which are RAID levels 0 and 5
In the case of such a striped configuration, the information includes a Stripe Size indicating the stripe size. For example,
In the table shown in the figure, the RAID group “0” is an R group composed of four disk units.
This is an AID group, the RAID level is 5, and the stripe size is S0.

【0041】LU構成テーブル202740は、LUに付加さ
れた番号(LUN)を示すLU No.、このLUがどのRA
IDグループに構成されているのかを示すRAID Group、
LUの状態を示すCondition、このLUのサイズ(容
量)を示すSize、このLUがディスクアレイサブセット
10のどのポートからアクセス可能なのかを示すPort、
及びその代替となるポートを示すAlt. Portを情報とし
て含む。Conditionで示される状態は、ホストLUにつ
いてのConditionと同様、“Normal”、“Warning”、
“Fault”、“Not Defined”の4種類がある。Alt. Por
tに設定された情報により特定されるポートは、Portに
設定された情報で特定されるポートに障害が発生したと
きに用いられるが、単に複数のポートから同一のLUを
アクセスするために用いることもできる。
The LU configuration table 202740 contains an LU number indicating the number (LUN) added to the LU, and which RA
RAID Group that indicates whether it is configured as an ID group,
Condition indicating the status of the LU, Size indicating the size (capacity) of the LU, Port indicating from which port of the disk array subset 10 the LU can be accessed,
And Alt. Port indicating an alternative port are included as information. The state indicated by Condition is “Normal”, “Warning”,
There are four types: “Fault” and “Not Defined”. Alt. Por
The port specified by the information set in t is used when a failure occurs in the port specified by the information set in Port, but it is used simply to access the same LU from multiple ports. Can also.

【0042】図8は、ファイバチャネルにおけるフレー
ムの構成図である。ファイバチャネルのフレーム40
は、フレームの先頭を示すSOF(Start Of Frame)4
00、フレームヘッダ401、転送の実態データを格納
する部位であるフレームペイロード402、32ビット
のエラー検出コードであるCRC(Cyclic RedundancyC
heck)403、フレームの最後尾を示すEOF(End Of
Frame)404を含む。フレームヘッダ401は、図9
に示すような構造になっており、フレーム転送元のID
(S_ID)、フレーム転送先のID(D_ID)、エクスチェ
ンジの起動元、応答先が指定するそれぞれのエクスチェ
ンジID(OX_ID、RX_ID)、エクスチェンジ中のフレー
ムグループを指定するシーケンスのID(SEQ_ID)等が
格納されている。
FIG. 8 is a configuration diagram of a frame in the fiber channel. Fiber Channel frame 40
Is SOF (Start Of Frame) 4 indicating the beginning of the frame.
00, a frame header 401, a frame payload 402 which stores actual data of transfer, and a CRC (Cyclic Redundancy C) which is a 32-bit error detection code.
heck) 403, EOF (End Of) indicating the end of the frame
Frame) 404. The frame header 401 is shown in FIG.
And the ID of the frame transfer source
(S_ID), ID of frame transfer destination (D_ID), exchange ID (OX_ID, RX_ID) specified by exchange start source and response destination, ID of sequence (SEQ_ID) specifying frame group during exchange, etc. are stored. Have been.

【0043】本実施形態では、ホスト30により発行さ
れるフレームには、S_IDとしてホスト30に割り当てら
れたIDが、また、D_IDとしてディスクアレイスイッチ
20のポートに割り当てられたIDが使用される。一つ
のホストコマンドに対し、1ペアのエクスチェンジID
(OX_ID、RX_ID)が割り当てられる。複数のデータフレ
ームを同一のエクスチェンジに対し発行する必要がある
ときは、その全データフレームに対して同一のSEQ_IDが
割り当てられ、おのおのはシーケンスカウント(SEQ_CN
T)で識別される。フレームペイロード402の最大長
は2110バイトであり、フレーム種毎に格納される内
容が異なる。例えば、後述するFCP_CMDフレームの場
合、図10に示すように、SCSIのLogical Unit Num
ber(LUN)、Command Description Block(CDB)
等が格納される。CDBは、ディスク(ディスクアレ
イ)アクセスに必要なコマンドバイト、転送開始論理ア
ドレス(LBA)、転送長(LEN)を含む。
In this embodiment, the frame issued by the host 30 uses the ID assigned to the host 30 as the S_ID, and the ID assigned to the port of the disk array switch 20 as the D_ID. One pair of exchange ID for one host command
(OX_ID, RX_ID) are assigned. When multiple data frames need to be issued for the same exchange, the same SEQ_ID is assigned to all the data frames, and each data frame is assigned a sequence count (SEQ_CN
T). The maximum length of the frame payload 402 is 2110 bytes, and the content stored differs for each frame type. For example, in the case of an FCP_CMD frame to be described later, as shown in FIG.
ber (LUN), Command Description Block (CDB)
Are stored. The CDB includes a command byte, a transfer start logical address (LBA), and a transfer length (LEN) required for accessing a disk (disk array).

【0044】以下、本実施形態のディスクアレイシステ
ムの動作を説明する。
Hereinafter, the operation of the disk array system of the present embodiment will be described.

【0045】ディスクアレイシステムを使用するのに先
立ち、ディスクアレイスイッチ20に対して、ディスク
アレイサブセット10の構成情報を設定する必要があ
る。システム管理者は、管理端末5からディスクアレイ
システム構成手段70を介して、すべてのディスクアレ
イサブセット10およびディスクアレイスイッチ20の
構成設定情報を獲得する。管理者は、管理端末5から所
望のシステム構成になるよう論理ユニットの構成設定、
RAIDレベルの設定、障害発生時の交代パスの設定等、各
種設定に必要な設定情報を入力する。ディスクアレイシ
ステム構成管理手段70は、その設定情報を受け、各デ
ィスクアレイサブセット10およびディスクアレイスイ
ッチ20に設定情報を転送する。なお、管理端末5にお
ける設定情報の入力については第5実施形態にて別途説
明する。
Prior to using the disk array system, it is necessary to set the configuration information of the disk array subset 10 in the disk array switch 20. The system administrator acquires the configuration setting information of all the disk array subsets 10 and the disk array switches 20 from the management terminal 5 via the disk array system configuration means 70. The administrator sets the configuration of the logical unit from the management terminal 5 so as to obtain a desired system configuration,
Enter setting information required for various settings, such as setting of RAID level and setting of alternate path when a failure occurs. The disk array system configuration management means 70 receives the setting information and transfers the setting information to each disk array subset 10 and the disk array switch 20. The input of the setting information in the management terminal 5 will be described separately in a fifth embodiment.

【0046】ディスクアレイスイッチ20では、通信コ
ントローラ204が設定情報を獲得し、MP200によ
り各ディスクアレイサブセット10のアドレス空間情報
等の構成情報が設定される。MP200は、クロスバス
イッチ201経由で各ホストI/Fノード203および
ディスクアレイI/Fノード202に、ディスクアレイ
サブセット10の構成情報を配信する。
In the disk array switch 20, the communication controller 204 acquires the setting information, and the MP 200 sets configuration information such as address space information of each disk array subset 10. The MP 200 distributes the configuration information of the disk array subset 10 to each host I / F node 203 and the disk array I / F node 202 via the crossbar switch 201.

【0047】各ノード203、および202はこの情報
を受信すると、SP2021により構成情報をDCT2
027に格納する。ディスクアレイサブセット10で
は、ディスクアレイサブセット構成管理手段106が、
設定情報を獲得し、共有メモリ102に格納する。各上
位MPU1010および下位MPU1030は、共有メ
モリ102上の設定情報を参照し、各々の構成管理を実
施する。
When each of the nodes 203 and 202 receives this information, the SP 2021 converts the configuration information into the DCT2
027. In the disk array subset 10, the disk array subset configuration management means 106
The setting information is acquired and stored in the shared memory 102. Each of the upper MPU 1010 and the lower MPU 1030 refers to the setting information on the shared memory 102 and performs the respective configuration management.

【0048】以下では、ホスト“#2”がディスクアレ
イシステム1に対し、リードコマンドを発行した場合の
動作を説明する。図11に、ホストからのリード動作時
にファイバチャネルを通して転送されるフレームのシー
ケンスを示す模式図を、図13にこのときのディスクア
レイスイッチのホストI/Fノード203における動作
のフローチャートを示す。
The operation when the host “# 2” issues a read command to the disk array system 1 will be described below. FIG. 11 is a schematic diagram showing a sequence of a frame transferred through the fiber channel at the time of a read operation from the host, and FIG. 13 is a flowchart of the operation in the host I / F node 203 of the disk array switch at this time.

【0049】なお、以下の説明では、ホスト“#2”
が、図12における記憶領域A1001をアクセスする
ことを仮定する。記憶領域A1001に対応する実際の
記憶領域A″は、ディスクアレイサブセット“#0”の
LUN=0のLUを構成するディスクユニット#2のア
ドレス空間内に存在するものとする。また、アドレス空
間1000を構成するLUを定義しているホストLU構
成テーブル20271のLU Typeには「CLU」が、CLU Clas
sには「Joined」が設定されているものとする。
In the following description, the host "# 2"
Access the storage area A1001 in FIG. The actual storage area A "corresponding to the storage area A1001 is assumed to exist in the address space of the disk unit # 2 constituting the LU of LUN = 0 of the disk array subset"# 0 ". In the LU type of the host LU configuration table 20271 that defines the LUs constituting "CLU", "CLU" is
It is assumed that "Joined" is set in s.

【0050】データのリード時、ホスト30は、リード
コマンドを格納したコマンドフレーム「FCP_CMD」をデ
ィスクアレイスイッチ20に発行する(図11矢印
(a))。ディスクアレイスイッチ20のホストI/F
ノード“#2”は、IC2023によりホストI/F3
1経由でコマンドフレーム「FCP_CMD」を受信する(ス
テップ20001)。IC2023は、SC2022にコマ
ンドフレームを転送する。SC2022は、受け取った
コマンドフレームを一旦FB2025に格納する。この
際、SC2022は、コマンドフレームのCRCを計算
し、受信情報が正しいことを検査する。CRCの検査に
誤りがあれば、SC2022は、その旨をIC2023
に通知する。IC2023は、誤りの通知をSC202
2から受けると、ホストI/F31を介してホスト30
にCRCエラーを報告する。(ステップ20002)。
When reading data, the host 30 issues a command frame “FCP_CMD” storing a read command to the disk array switch 20 (arrow (a) in FIG. 11). Host I / F of disk array switch 20
The node “# 2” is connected to the host I / F 3 by the IC 2023.
Then, a command frame “FCP_CMD” is received via Step 1 (Step 20001). The IC 2023 transfers the command frame to the SC 2022. The SC 2022 temporarily stores the received command frame in the FB 2025. At this time, the SC 2022 calculates the CRC of the command frame and checks that the received information is correct. If there is an error in the CRC check, the SC 2022 notifies the IC 2023 accordingly.
Notify. The IC 2023 sends the error notification to the SC 202
2 from the host 30 via the host I / F 31
To report a CRC error. (Step 20002).

【0051】CRCが正しい場合、SC2022は、F
B2025に保持したフレームをリードし、それがコマ
ンドフレームであることを認識してフレームヘッダ40
1を解析する(ステップ20003)。そして、SC202
2は、SP2021に指示し、S_ID、D_ID、OX_ID等の
エクスチェンジ情報をET2026に登録する(ステッ
プ20004)。
If the CRC is correct, SC 2022 returns F
The frame held in B2025 is read, and it is recognized that the frame is a command frame.
1 is analyzed (step 20003). And SC202
2 instructs the SP 2021 to register exchange information such as S_ID, D_ID, and OX_ID in the ET 2026 (step 20004).

【0052】次に、SC2022は、フレームペイロー
ド402を解析し、ホスト30により指定されたLUN
およびCDBを取得する(ステップ20005)。SP20
21は、SC2022の指示により、DCT2027を
検索し、ディスクアレイサブセット10の構成情報を得
る。具体的には、SP2021は、ホストLU構成テー
ブル20271を検索し、受信したフレームペイロード40
2に格納されたLUNと一致するHost-LU No.を有する
情報を見つける。SP2021は、LU Type、CLU Class
に設定された情報からホストLUの構成を認識し、LU I
nfo.に保持されている情報に基づきアクセスすべきディ
スクサブセット10とその中のLUのLUN、及びこの
LU内でのLBAを判別する。次に、SP2021は、
サブセット構成テーブル202720のLU構成テーブル2027
40を参照し、目的のディスクアレイサブセット10の接
続ポートを確認し、ディスクアレイI/Fノード構成テ
ーブル20272からそのポートに接続するディスクアレイ
I/Fノード202のノードNo.を得る。SP2021
は、このようにして得たディスクアレイサブセット10
を識別する番号、LUN、LBA等の変換情報をSC2
022に報告する。(ステップ20006)。
Next, the SC 2022 analyzes the frame payload 402 and checks the LUN specified by the host 30.
And a CDB (step 20005). SP20
21 searches the DCT 2027 according to the instruction of the SC 2022, and obtains the configuration information of the disk array subset 10. Specifically, the SP 2021 searches the host LU configuration table 20271, and receives the received frame payload 40
2. Find the information having the Host-LU No. that matches the LUN stored in 2. SP2021 is LU Type, CLU Class
Recognizes the configuration of the host LU from the information set in the
Based on the information held in the nfo., the disk subset 10 to be accessed, the LUN of the LU in the disk subset 10, and the LBA in this LU are determined. Next, SP 2021
LU configuration table 2027 of subset configuration table 202720
With reference to 40, the connection port of the target disk array subset 10 is confirmed, and the node number of the disk array I / F node 202 connected to the port is obtained from the disk array I / F node configuration table 20272. SP2021
Is the disk array subset 10 thus obtained.
The conversion information such as a number for identifying the
022. (Step 20006).

【0053】次に、SC2022は、獲得した変換情報
を使用しフレームペイロード402のLUNとCDBの
なかのLBAを変換する。また、フレームヘッダ401
のD_IDを対応するディスクアレイサブセット10のホス
トI/Fコントローラ1011のD_IDに変換する。な
お、この時点ではS_IDは書き換えない(ステップ200
07)。
Next, the SC 2022 uses the obtained conversion information to convert the LUN of the frame payload 402 and the LBA in the CDB. Also, the frame header 401
Is converted into the D_ID of the host I / F controller 1011 of the corresponding disk array subset 10. At this point, the S_ID is not rewritten (step 200).
07).

【0054】SC2022は、変換後のコマンドフレー
ムと、対象ディスクアレイサブセット10に接続するデ
ィスクアレイI/Fノード番号を、SPG2024に転
送する。SPG2024は、受け取った変換後のコマン
ドフレームに対し、図14に示すような簡単な拡張ヘッ
ダ601を付加したパケットを生成する。このパケット
をスイッチングパケット(S Packet)60と呼
ぶ。S Packet60の拡張ヘッダ601には、転送元(自
ノード)番号、転送先ノード番号、及び転送長が付加含
まれる。SPG2024は、生成したS Packet60をク
ロスバスイッチ201に送信する(ステップ20008)。
The SC 2022 transfers the converted command frame and the disk array I / F node number connected to the target disk array subset 10 to the SPG 2024. The SPG 2024 generates a packet in which a simple extension header 601 as shown in FIG. 14 is added to the received converted command frame. This packet is called a switching packet (S Packet) 60. The extension header 601 of the S Packet 60 additionally includes a transfer source (own node) number, a transfer destination node number, and a transfer length. The SPG 2024 transmits the generated S Packet 60 to the crossbar switch 201 (Step 20008).

【0055】クロスバスイッチ201は、ホストI/F
ノード“#2”と接続するSWP2010によりS Pack
et60を受信する。SWP2010は、S Packet60の
拡張ヘッダ601を参照し、転送先のノードが接続する
SWPへのスイッチ制御を行って経路を確立し、S Pack
et60を転送先のディスクアレイI/Fノード202
(ここでは、ディスクアレイI/Fノード“#0”)に
転送する。SWP2010は、経路の確立をS Packet6
0の受信の度に実施し、S Packet60の転送が終了した
ら、その経路を解放する。ディスクアレイI/Fノード
“#0”では、SPG2024がS Packet60を受信
し、拡張ヘッダ601を外してコマンドフレームの部分
をSC2022に渡す。
The crossbar switch 201 is connected to the host I / F
SPack by SWP2010 connected to node "# 2"
Receive et60. The SWP 2010 refers to the extension header 601 of the SPacket 60, performs switch control to the SWP to which the transfer destination node connects, establishes a path, and
et60 is the destination disk array I / F node 202
(Here, the data is transferred to the disk array I / F node “# 0”). The SWP 2010 determines that a route has been
The process is performed every time the packet is received, and when the transfer of the S Packet 60 is completed, the route is released. In the disk array I / F node “# 0”, the SPG 2024 receives the S Packet 60, removes the extension header 601 and passes the command frame portion to the SC 2022.

【0056】SC2022は、受け取ったコマンドフレ
ームのフレームヘッダのS_IDに自分のIDを書き込む。
次にSC2022は、SP2021に対し、コマンドフ
レームのS_ID、D_ID、OX_ID等のエクスチェンジ情報、
及びフレーム転送元ホストI/Fノード番号をET20
26に登録するよう指示し、IC2023にコマンドフ
レームを転送する。IC2023は、フレームヘッダ4
01の情報に従い、接続するディスクアレイサブセット
10(ここでは、ディスクアレイサブセット“#0”)
にコマンドフレームを転送する(図11矢印(b))。
The SC 2022 writes its own ID in the S_ID of the frame header of the received command frame.
Next, the SC 2022 gives the SP 2021 exchange information such as S_ID, D_ID, and OX_ID of the command frame,
And the frame transfer source host I / F node number as ET20
26, and the command frame is transferred to the IC 2023. The IC 2023 has a frame header 4
01, the disk array subset 10 to be connected (here, the disk array subset “# 0”)
(FIG. 11 arrow (b)).

【0057】ディスクアレイサブセット“#0”は、変
換後のコマンドフレーム「FCP_CMD」をディスクアレイ
I/Fコントローラ1011で受信する。上位MPU1
010は、コマンドフレームのフレームペイロード40
2に格納されたLUNとCDBを取得し、指定された論
理ユニットのLBAからLEN長のデータをリードする
コマンドであると認識する。
In the disk array subset “# 0”, the converted command frame “FCP_CMD” is received by the disk array I / F controller 1011. Upper MPU1
010 is the frame payload 40 of the command frame.
2. The LUN and CDB stored in No. 2 are acquired, and the command is read to read LEN-length data from the LBA of the specified logical unit.

【0058】上位MPU1010は、共有メモリ102
に格納されたキャッシュ管理情報を参照し、キャッシュ
ヒットミス/ヒット判定を行う。ヒットすればキャッシ
ュ102からデータ転送を実施する。ミスの場合、ディ
スクユニットからデータをリードする必要があるので、
RAID5の構成に基づくアドレス変換を実施し、キャ
ッシュ空間を確保する。そして、ディスクユニット2か
らのリード処理に必要な処理情報を生成し、下位MPU
1030に処理を引き継ぐべく、共有メモリ102に処
理情報を格納する。
The upper MPU 1010 has the shared memory 102
The cache hit miss / hit is determined by referring to the cache management information stored in. If there is a hit, data transfer from the cache 102 is performed. In the case of a mistake, it is necessary to read data from the disk unit,
The address conversion based on the configuration of RAID5 is performed to secure the cache space. Then, it generates the processing information necessary for the read processing from the disk unit 2 and
Processing information is stored in the shared memory 102 so that the processing can be taken over to 1030.

【0059】下位MPU1030は、共有メモリ102
に処理情報が格納されたことを契機に処理を開始する。
下位MPU1030は、適切なディスクI/Fコントロ
ーラ1031を特定し、ディスクユニット2へのリード
コマンドを生成して、ディスクI/Fコントローラ10
31にコマンドを発行する。ディスクI/Fコントロー
ラ1031は、ディスクユニット2からリードしたデー
タをキャッシュ102の指定されたアドレスに格納して
下位MPU1030に終了報告を通知する。下位MPU
1030は、処理が正しく終了したことを上位MPU1
010に通知すべく共有メモリ102に処理終了情報を
格納する。
The lower MPU 1030 has the shared memory 102
The processing is started when the processing information is stored in the.
The lower MPU 1030 specifies the appropriate disk I / F controller 1031, generates a read command to the disk unit 2, and
31 is issued. The disk I / F controller 1031 stores the data read from the disk unit 2 at the specified address of the cache 102, and notifies the lower MPU 1030 of the end report. Lower MPU
1030, the upper MPU 1 indicates that the processing has been completed correctly.
010, the processing end information is stored in the shared memory 102.

【0060】上位MPU1010は、共有メモリ102
に処理終了情報が格納されたことを契機に処理を再開
し、ディスクアレイI/Fコントローラ1011にリー
ドデータ準備完了を通知する。ディスクアレイI/Fコ
ントローラ1011は、ディスクアレイスイッチ20の
当該ディスクアレイI/Fノード“#0”に対し、ファ
イバチャネルにおけるデータ転送準備完了フレームであ
る「FCP_XFER_RDY」を発行する(図11矢印(c))。
The upper MPU 1010 has the shared memory 102
When the processing end information is stored in the disk array I / F, the processing is restarted and the disk array I / F controller 1011 is notified of read data preparation completion. The disk array I / F controller 1011 issues “FCP_XFER_RDY”, which is a data transfer preparation completion frame in the fiber channel, to the disk array I / F node “# 0” of the disk array switch 20 (see arrow (c) in FIG. 11). )).

【0061】ディスクアレイI/Fノード“#0”で
は、データ転送準備完了フレーム「FCP_XFER_RDY」を受
信すると、SC2022が、ディスクアレイサブセット
20から受信した応答先エクスチェンジID(RX_ID)
を獲得し、S_ID、D_ID、OX_IDを指定して、SP202
1に指示しET2026の当該エクスチェンジ情報にRX
_IDを登録する。SC2022は、データ転送準備完了
フレームの転送先(コマンドフレームの転送元)のホス
トI/Fノード番号を獲得する。SC2022は、この
フレームのS_IDを無効化し、SPG2024に転送す
る。SPG2024は、先に述べたようにしてS Packet
を生成し、クロスバスイッチ201経由で対象ホストI
/Fノード“#2”に転送する。
When the disk array I / F node “# 0” receives the data transfer preparation completion frame “FCP_XFER_RDY”, the SC 2022 sends the response destination exchange ID (RX_ID) received from the disk array subset 20.
, And specify S_ID, D_ID, OX_ID, and SP202
1 and RX to the relevant exchange information of ET2026
Register _ID. The SC 2022 acquires the host I / F node number of the transfer destination of the data transfer preparation completion frame (the transfer source of the command frame). The SC 2022 invalidates the S_ID of this frame and transfers it to the SPG 2024. The SPG 2024 uses the S Packet as described above.
To the target host I via the crossbar switch 201.
/ F node "# 2".

【0062】ホストI/Fノード“#2”では、SPG
2024がデータ転送準備完了フレームのS Packetを受
信すると、S Packetの拡張ヘッダを外し「FCP_XFER_RD
Y」を再生してSC2022に渡す(ステップ20011)。
SC2022は、SP2021に指示しET2026を
サーチして該当するエクスチェンジを特定する(ステッ
プ20012)。
In the host I / F node “# 2”, the SPG
When the data transfer preparation frame 2024 receives the S Packet of the data transfer preparation completion frame, the extension header of the S Packet is removed and “FCP_XFER_RD
"Y" is reproduced and transferred to the SC 2022 (step 20011).
The SC 2022 instructs the SP 2021 to search for the ET 2026 and specify the corresponding exchange (step 20012).

【0063】次に、SC2022は、フレームが「FCP_
XFER_RDY」であるかどうか調べ(ステップ20013)、「F
CP_XFER_EDY」であれば、ET2026の応答先エクス
チェンジID(RX_ID)の更新をSP2021に指示す
る。応答先エクスチェンジIDとしては、このフレーム
に付加されていた値が使用される(ステップ20014)。
そして、SC2022は、フレームヘッダ401のS_I
D、D_IDをホストI/Fノード203のIDとホスト3
0のIDを用いた適切な値に変換する(ステップ2001
5)。これらの処理によりフレームヘッダ401は、ホ
スト“#2”に対するフレームに変換される。IC20
23は、ホスト“#2”に対し、このデータ転送準備完
了フレーム「FCP_XFER_RDY」を発行する(図11の矢印
(d):ステップ20016)。
Next, the SC 2022 determines that the frame is “FCP_
XFER_RDY ”(step 20003), and
If “CP_XFER_EDY”, it instructs the SP 2021 to update the response destination exchange ID (RX_ID) of the ET 2026. As the response destination exchange ID, the value added to this frame is used (step 20004).
Then, the SC 2022 determines the S_I of the frame header 401.
D and D_ID are the ID of the host I / F node 203 and the host 3
Is converted to an appropriate value using an ID of 0 (step 2001).
Five). Through these processes, the frame header 401 is converted into a frame for the host “# 2”. IC20
23 issues the data transfer preparation completion frame “FCP_XFER_RDY” to the host “# 2” (arrow (d) in FIG. 11: step 20016).

【0064】ディスクアレイサブセット“#0”のディ
スクアレイI/Fコントローラ1011は、データ転送
を行うため、データフレーム「FCP_DATA」を生成し、デ
ィスクアレイスイッチ20に転送する(図11矢印
(e))。フレームペイロードの転送長には制限がある
ため、1フレームで転送できる最大のデータ長は2KB
である。データ長がこれを越える場合は、必要数だけデ
ータフレームを生成し発行する。すべてのデータフレー
ムには同一のSEQ_IDが割り当てられる。データフレーム
の発行は、同一のSEQ_IDに対し複数のフレームが生成さ
れることを除き(すなわちSEQ_CNTが変化する)、デー
タ転送準備完了フレームの場合と同様である。
The disk array I / F controller 1011 of the disk array subset “# 0” generates a data frame “FCP_DATA” for data transfer and transfers it to the disk array switch 20 (arrow (e) in FIG. 11). . Since the transfer length of the frame payload is limited, the maximum data length that can be transferred in one frame is 2 KB
It is. If the data length exceeds this, a required number of data frames are generated and issued. The same SEQ_ID is assigned to all data frames. Issuing a data frame is similar to issuing a data transfer ready frame, except that multiple frames are generated for the same SEQ_ID (ie, SEQ_CNT changes).

【0065】ディスクアレイスイッチ20は、データ転
送準備完了フレームの処理と同様に、データフレーム
「FCP_DATA」のフレームヘッダ401の変換を実施す
る。ただし、データフレームの転送の場合、RX_IDが既
に確立されているので、データ転送準備完了フレームの
処理におけるステップ20014の処理はスキップされる。
フレームヘッダ401の変換後、ディスクアレイスイッ
チ20は、ホスト“#2”にデータフレームを転送する
(図11矢印(f))。
The disk array switch 20 converts the frame header 401 of the data frame “FCP_DATA” in the same manner as the processing of the data transfer preparation completion frame. However, in the case of transferring a data frame, since the RX_ID has already been established, the process of step 20014 in the process of the data transfer preparation completion frame is skipped.
After the conversion of the frame header 401, the disk array switch 20 transfers the data frame to the host “# 2” (arrow (f) in FIG. 11).

【0066】次に、ディスクアレイサブセット“#0”
のディスクアレイI/Fコントローラ1011は、終了
ステータス転送を行うため、ステータスフレーム「FCP_
RSP」を生成し、ディスクアレイスイッチ20に対し発
行する(図11矢印(g))。ディスクアレイスイッチ
20では、データ転送準備完了フレームの処理と同様
に、SPG2024がS Packetから拡張ヘッダを外し
「FCP_RSP」ステータスフレームを再現し(ステップ200
21)、SP2021によりET2026を検索しエクス
チェンジ情報を獲得する(ステップ20022)。SC20
22は、その情報に基づきフレームを変換する(ステッ
プの20023)。変換されたフレームは、IC2023に
よりホスト“#2”に転送される(図11矢印(h):
ステップ20024)。最後にSP2021は、ET202
6からエクスチェンジ情報を削除する(ステップ2002
5)。
Next, the disk array subset "# 0"
The disk array I / F controller 1011 of the first embodiment transmits the end status by transmitting the status frame “FCP_
RSP ”is generated and issued to the disk array switch 20 (arrow (g) in FIG. 11). In the disk array switch 20, the SPG 2024 removes the extension header from the S Packet and reproduces the "FCP_RSP" status frame in the same manner as the processing of the data transfer preparation completion frame (step 200).
21), the ET 2026 is searched by the SP 2021 to obtain exchange information (step 20022). SC20
22 converts the frame based on the information (step 20023). The converted frame is transferred to the host “# 2” by the IC 2023 (arrow (h) in FIG. 11):
Step 20004). Finally, SP2021 is the ET202
Exchange information is deleted from Step 6 (Step 2002)
Five).

【0067】以上のようにしてディスクアレイからのリ
ード処理が行われる。ディスクアレイシステム1に対す
るライト処理についてもデータフレームの転送方向が逆
転するのみで、上述したリード処理と同様の処理が行わ
れる。
The read processing from the disk array is performed as described above. In the write processing for the disk array system 1, the same processing as the above-described read processing is performed only by reversing the data frame transfer direction.

【0068】図3に示したように、ディスクアレイスイ
ッチ20は、クロスバスイッチ201にクラスタ間I/
F2040を備えている。図1に示したシステム構成で
は、クラスタ間I/F2040は使用されていない。本
実施形態のディスクアレイスイッチ20は、クラスタ間
I/F2040を利用して図15に示すように、他のデ
ィスクアレイスイッチと相互に接続されることができ
る。
As shown in FIG. 3, the disk array switch 20 controls the inter-cluster I /
F2040. In the system configuration shown in FIG. 1, the inter-cluster I / F 2040 is not used. The disk array switch 20 of this embodiment can be mutually connected to other disk array switches by using the inter-cluster I / F 2040 as shown in FIG.

【0069】本実施形態におけるディスクアレイスイッ
チ20単独では、ホスト30とディスクアレイサブセッ
ト10を合計8台までしか接続できないが、クラスタ間
I/F2040を利用して複数のディスクアレイスイッ
チを相互接続し、接続できるホスト10とディスクアレ
イの数を増やすことができる。例えば、図15に示すシ
ステムでは、4台のディスクアレイスイッチ20を使っ
てホスト30とディスクアレイサブセット10を合計3
2台まで接続でき、これらの間で相互にデータ転送が可
能になる。
The disk array switch 20 alone in this embodiment can connect only up to eight hosts 30 and the disk array subsets 10 in total. However, a plurality of disk array switches are interconnected by using the inter-cluster I / F 2040. The number of connectable hosts 10 and disk arrays can be increased. For example, in the system shown in FIG. 15, the host 30 and the disk array subset 10 are
Up to two units can be connected, and data can be transferred between them.

【0070】このように、本実施形態では、ディスク容
量や性能の必要性に合わせて、ディスクアレイサブセッ
トやホストの接続台数を増加していくことができる。ま
た、必要な転送帯域分のホストI/Fを用いてホスト−
ディスクアレイシステム間を接続することができるの
で、容量、性能、接続台数の拡張性を大幅に向上させる
ことができる。
As described above, in this embodiment, the number of disk array subsets and the number of connected hosts can be increased in accordance with the necessity of disk capacity and performance. Also, the host-I / F for the necessary transfer band is used to
Since the disk array systems can be connected, the scalability of capacity, performance, and the number of connected devices can be greatly improved.

【0071】以上説明した実施形態によれば、1台のデ
ィスクアレイサブセットの性能が、内部のMPUや内部
バスで制限されたとしても、複数のディスクアレイサブ
セットを用いて、ディスクアレイスイッチによりホスト
とディスクアレイサブセット間を相互接続することがで
きる。これにより、ディスクアレイシステムトータルと
して高い性能を実現することができる。ディスクアレイ
サブセットの性能が比較的低いものであっても、複数の
ディスクアレイサブセットを用いることで高性能化を実
現できる。したがって、低コストのディスクアレイサブ
セットをコンピュータシステムの規模に合わせて必要な
台数だけ接続することができ、規模に応じた適切なコス
トでディスクアレイシステムを構築することが可能とな
る。
According to the above-described embodiment, even if the performance of one disk array subset is limited by the internal MPU and the internal bus, the host can be connected to the host by the disk array switch using a plurality of disk array subsets. Interconnections between the disk array subsets can be made. Thereby, high performance can be realized as a whole of the disk array system. Even if the performance of the disk array subset is relatively low, high performance can be realized by using a plurality of disk array subsets. Therefore, a required number of low-cost disk array subsets can be connected according to the scale of the computer system, and a disk array system can be constructed at an appropriate cost according to the scale.

【0072】また、ディスク容量の増大や性能の向上が
必要になったときは、ディスクアレイサブセットを必要
なだけ追加すればよい。さらに、複数のディスクアレイ
スイッチを用いて任意の数のホスト及びディスクアレイ
サブセットを接続できるので、容量、性能、接続台数の
いずれをも大幅に向上させることができ、高い拡張性を
有するシステムが実現できる。
When it is necessary to increase the disk capacity and the performance, it is sufficient to add as many disk array subsets as necessary. Furthermore, since any number of hosts and disk array subsets can be connected using multiple disk array switches, capacity, performance, and the number of connected units can be significantly improved, realizing a highly scalable system. it can.

【0073】さらにまた、本実施形態によれば、ディス
クアレイサブセットとして、従来のディスクアレイシス
テムそのものの縮小機を用いることができるので、既に
開発した大規模な制御ソフトウェア資産をそのまま利用
でき、開発コストの低減と開発期間の短縮を実現するこ
とができる。
Furthermore, according to the present embodiment, since a reduction device of the conventional disk array system itself can be used as a disk array subset, a large-scale control software asset already developed can be used as it is, and the development cost can be reduced. And development time can be reduced.

【0074】[第2実施形態]図16は、本発明の第2
の実施形態におけるコンピュータシステムの構成図であ
る。本実施形態は、ディスクアレイスイッチのホストI
/Fノードにおいて、フレームヘッダ401のみを変換
し、フレームペイロード402は操作しない点、及び、
ディスクアレイスイッチ、ホストI/F、ディスクアレ
イI/Fが二重化されていない点で第1実施形態と構成
上相違する。したがって、各部の構成は、第1実施形態
と大きく変わるところがなく、その詳細については説明
を省略する。
[Second Embodiment] FIG. 16 shows a second embodiment of the present invention.
FIG. 3 is a configuration diagram of a computer system according to the embodiment. In this embodiment, the host I of the disk array switch
/ F node converts only the frame header 401 and does not manipulate the frame payload 402, and
The configuration differs from the first embodiment in that the disk array switch, host I / F, and disk array I / F are not duplicated. Therefore, the configuration of each unit is not largely different from that of the first embodiment, and the details will not be described.

【0075】図16において、各ディスクアレイサブセ
ット10は、複数の論理ユニット(LU)110で構成
されている。各LU110は、独立LUとして構成され
る。一般に、各ディスクアレイサブセット10内のLU
110に割り当てられるLUNは、0から始まる連続番
号である。このため、ホスト30に対して、ディスクア
レイシステム1内のすべてのLU110のLUNを連続
的に見せる場合には、第1実施形態と同様に、フレーム
ペイロード402のLUNフィールドを変換する必要が
ある。本実施形態では、各ディスクアレイサブセット1
0のLUNをそのままホスト30に見せることで、フレ
ームペイロード402の変換を不要とし、ディスクアレ
イスイッチの制御を簡単なものとしている。
In FIG. 16, each disk array subset 10 is composed of a plurality of logical units (LUs) 110. Each LU 110 is configured as an independent LU. Generally, LUs in each disk array subset 10
LUNs assigned to 110 are consecutive numbers starting from 0. Therefore, when the LUNs of all the LUs 110 in the disk array system 1 are continuously displayed to the host 30, it is necessary to convert the LUN field of the frame payload 402, as in the first embodiment. In the present embodiment, each disk array subset 1
By showing the LUN of 0 to the host 30 as it is, the conversion of the frame payload 402 becomes unnecessary and the control of the disk array switch is simplified.

【0076】本実施形態のディスクアレイスイッチ20
は、ホストI/Fノード203ごとに特定のディスクア
レイサブセット10をアクセスできるものと仮定する。
この場合、一つのホストI/F31を使うと、1台のデ
ィスクアレイサブセット10にあるLU110のみがア
クセス可能である。1台のホストから複数のディスクア
レイサブセット10のLU110をアクセスしたい場合
には、そのホストを複数のホストI/Fノード203に
接続する。また、複数のホスト30から1台のディスク
アレイサブセット10のLU110をアクセスできるよ
うにする場合は、同一のホストI/Fノード203にル
ープトポロジーや、ファブリックトポロジー等を用い、
複数のホスト30を接続する。このように構成すると、
1台のホスト30から1つのLU110をアクセスする
際に、ホストI/Fノード203のD_ID毎にディスクア
レイサブセット10が確定することになるため、各LU
のLUNをそのままホスト30に見せることが可能であ
る。
The disk array switch 20 of this embodiment
Assume that a particular disk array subset 10 can be accessed for each host I / F node 203.
In this case, if one host I / F 31 is used, only the LU 110 in one disk array subset 10 can be accessed. When a single host wants to access the LUs 110 of a plurality of disk array subsets 10, the host is connected to a plurality of host I / F nodes 203. When a plurality of hosts 30 can access the LU 110 of one disk array subset 10, a loop topology, a fabric topology, or the like is used for the same host I / F node 203.
A plurality of hosts 30 are connected. With this configuration,
When one LU 110 is accessed from one host 30, the disk array subset 10 is determined for each D_ID of the host I / F node 203.
Can be shown to the host 30 as it is.

【0077】本実施形態では、上述した理由により、ホ
スト30に、各ディスクアレイサブセット10内のLU
110のLUNをそのままホスト30に見せているた
め、ディスクアレイスイッチ20におけるLUNの変換
は不要となる。このため、ディスクアレイスイッチ20
は、ホスト30からフレームを受信すると、フレームヘ
ッダ401のみを第1実施例と同様にして変換し、フレ
ームペイロード402は変換せずにディスクアレイサブ
セット10に転送する。本実施形態における各部の動作
は、フレームペイロード402の変換が行われないこと
を除くと第1実施形態と同様であるので、ここでは詳細
な説明を省略する。本実施形態によれば、ディスクアレ
イスイッチ20の開発を容易にできる。
In the present embodiment, the LU in each disk array subset 10 is
Since the LUN of 110 is shown to the host 30 as it is, the conversion of the LUN in the disk array switch 20 becomes unnecessary. Therefore, the disk array switch 20
Receives the frame from the host 30, converts only the frame header 401 in the same manner as in the first embodiment, and transfers the frame payload 402 to the disk array subset 10 without conversion. The operation of each unit in the present embodiment is the same as that of the first embodiment except that the conversion of the frame payload 402 is not performed, and thus detailed description is omitted here. According to the present embodiment, the development of the disk array switch 20 can be facilitated.

【0078】[第3実施形態]第2実施形態では、ディ
スクアレイスイッチのホストI/Fノードにおいて、フ
レームヘッダのみを変換しているが、以下に説明する第
3実施形態ではフレームヘッダも含め、フレームの変換
を行わない形態について説明する。本実施形態のコンピ
ュータシステムは、図1に示す第1実施形態におけるコ
ンピュータシステムと同様に構成される。
[Third Embodiment] In the second embodiment, only the frame header is converted in the host I / F node of the disk array switch. However, in the third embodiment described below, including the frame header, A mode in which frame conversion is not performed will be described. The computer system of the present embodiment has the same configuration as the computer system of the first embodiment shown in FIG.

【0079】第1、および第2実施形態では、ホスト3
0に対し、ディスクアレイサブセット10の台数や、L
U110の構成等、ディスクアレイシステム1の内部構
成を隠蔽している。このため、ホスト30からはディス
クアレイシステム1が全体で1つの記憶装置として見え
る。これに対し、本実施形態では、ディスクアレイサブ
セット10をそのままホスト30に公開し、ホスト30
がフレームヘッダのD_IDとして直接ディスクアレイサブ
セットのポートのIDを使えるようにする。これによ
り、ディスクアレイスイッチは、フレームヘッダの情報
に従ってフレームの転送を制御するだけで済み、従来技
術におけるファイバチャネルのファブリック装置と同等
のスイッチ装置をディスクアレイスイッチ20に替えて
利用することができる。
In the first and second embodiments, the host 3
0, the number of disk array subsets 10 and L
The internal configuration of the disk array system 1 such as the configuration of U110 is hidden. Therefore, the disk array system 1 appears to the host 30 as one storage device as a whole. In contrast, in the present embodiment, the disk array subset 10 is disclosed to the host 30 as it is,
Can use the ID of the port of the disk array subset directly as the D_ID of the frame header. As a result, the disk array switch only needs to control the transfer of the frame according to the information of the frame header, and can use a switch device equivalent to the fiber channel fabric device in the related art in place of the disk array switch 20.

【0080】ディスクアレイシステム構成管理手段70
は、ディスクアレイサブセット10の通信コントローラ
106、及びディスクアレイスイッチ20の通信手段2
04と通信して各ディスクアレイサブセット10及びデ
ィスクアレイスイッチ20の構成情報を獲得し、あるい
は、設定する。
Disk array system configuration management means 70
Are the communication controller 106 of the disk array subset 10 and the communication means 2 of the disk array switch 20
04 to obtain or set the configuration information of each disk array subset 10 and disk array switch 20.

【0081】ディスクアレイスイッチ20は、基本的に
は図3に示す第1実施形態におけるディスクアレイスイ
ッチと同様の構成を有する。しかし、本実施形態では、
ホスト30が発行するフレームのフレームヘッダの情報
をそのまま使ってフレームの転送を制御するため、第1
実施形態、あるいは第2実施形態でディスクアレイスイ
ッチ20のホストI/Fノード203、ディスクアレイ
I/Fノード202が有するDCT2027や、SC2
022、SPG2024等により実現されるフレームヘ
ッダ等の変換の機能は不要となる。ディスクアレイスイ
ッチ20が有するクロスバスイッチ201は、フレーム
ヘッダの情報に従ってホストI/Fノード203、及び
ディスクアレイI/Fノード202の間でファイバチャ
ネルのフレームの転送を行う。
The disk array switch 20 has basically the same configuration as the disk array switch in the first embodiment shown in FIG. However, in this embodiment,
In order to control the transfer of the frame using the information of the frame header of the frame issued by the host 30 as it is, the first
In the embodiment or the second embodiment, the host I / F node 203 of the disk array switch 20, the DCT 2027 of the disk array I / F node 202, or the SC2
022, the function of converting a frame header or the like realized by the SPG2024 or the like is not required. The crossbar switch 201 of the disk array switch 20 transfers a fiber channel frame between the host I / F node 203 and the disk array I / F node 202 according to the information of the frame header.

【0082】本実施形態では、ディスクアレイシステム
の構成をディスクアレイシステム構成管理手段70で一
括して管理するために、ディスクアレイ管理用テーブル
(以下、このテーブルもDCTと呼ぶ)をディスクアレ
イシステム構成管理手段70に備える。ディスクアレイ
システム構成管理手段70が備えるDCTは、図6、7
に示す、システム構成テーブル20270とサブセット構成
テーブル202720〜202723の2つのテーブル群を含む。な
お、本実施形態では、ホストLUは全てILUとして構
成されるため、ホストLU構成テーブル20271のLU Type
は全て「ILU」となり、CLU Class、CLU Stripe Size
は意味をなさない。
In this embodiment, a disk array management table (hereinafter also referred to as a DCT) is used to manage the configuration of the disk array system collectively by the disk array system configuration management means 70. It is provided in the management means 70. The DCT included in the disk array system configuration management means 70 is shown in FIGS.
, Two table groups of a system configuration table 20270 and subset configuration tables 202720 to 202723. In this embodiment, since all the host LUs are configured as ILUs, the LU Type in the host LU configuration table 20271
Are all “ILU”, CLU Class, CLU Stripe Size
Does not make sense.

【0083】管理者は、管理端末5を操作してディスク
アレイシステム構成管理手段70と通信し、ディスクア
レイサブセット10のディスク容量、ディスクユニット
の台数等の情報を得て、ディスクアレイサブセット10
のLU110の設定、RAIDレベルの設定等を行う。
次に管理者は、管理端末5によりディスクアレイシステ
ム構成管理手段70と通信し、ディスクアレイスイッチ
20を制御して、各ホスト30とディスクアレイサブセ
ット20間の関係情報を設定する。
The administrator operates the management terminal 5 to communicate with the disk array system configuration management means 70 to obtain information such as the disk capacity of the disk array subset 10 and the number of disk units.
Of the LU 110, setting of the RAID level, and the like.
Next, the administrator uses the management terminal 5 to communicate with the disk array system configuration management means 70, controls the disk array switch 20, and sets the relationship information between each host 30 and the disk array subset 20.

【0084】以上の操作により、ディスクアレイシステ
ム1の構成が確立し、ホスト30から管理者が望む通り
にLU110が見えるようになる。ディスクアレイ構成
管理手段70は以上の設定情報を保存し、管理者からの
操作に応じ構成の確認や、構成の変更を行うことができ
る。
With the above operation, the configuration of the disk array system 1 is established, and the LU 110 can be seen from the host 30 as desired by the administrator. The disk array configuration management means 70 stores the above setting information, and can confirm the configuration or change the configuration according to the operation of the administrator.

【0085】本実施形態によれば、ひとたびディスクア
レイシステム1を構成すれば、管理者からディスクアレ
イスイッチ20の存在を認識させることが無く、複数の
ディスクアレイサブシステムを1台のディスクアレイシ
ステムと同様に扱うことができる。また、本実施形態に
よれば、ディスクアレイスイッチ20とディスクアレイ
サブセット10は、同一の操作環境によって統一的に操
作することができ、その構成確認や、構成変更も容易に
なる。さらに、本実施形態によれば、従来使用していた
ディスクアレイシステムを本実施形態におけるディスク
アレイシステムに置き換える場合に、ホスト30の設定
を変更することなく、ディスクアレイシステム1の構成
をそれまで使用していたディスクアレイシステムの構成
に合わせることができ、互換性を維持できる。
According to the present embodiment, once the disk array system 1 is configured, a plurality of disk array subsystems can be combined with one disk array system without making the administrator aware of the existence of the disk array switch 20. Can be treated similarly. Further, according to the present embodiment, the disk array switch 20 and the disk array subset 10 can be operated in a unified manner in the same operation environment, and the configuration confirmation and configuration change become easy. Further, according to the present embodiment, when replacing the disk array system used conventionally with the disk array system according to the present embodiment, the configuration of the disk array system 1 can be used without changing the setting of the host 30. It can be adapted to the configuration of the disk array system that has been used, and can maintain compatibility.

【0086】[第4実施形態]以上説明した第1から第
3の実施形態では、ホストI/Fにファイバチャネルを
使用している。以下に説明する実施形態では、ファイバ
チャネル以外のインタフェースが混在した形態について
説明する。
[Fourth Embodiment] In the first to third embodiments described above, a fiber channel is used for the host I / F. In the embodiment described below, a mode in which interfaces other than Fiber Channel are mixed will be described.

【0087】図17は、ホストI/FがパラレルSCS
Iである場合のホストI/Fノード203内部のIC2
023の一構成例を示す。20230はパラレルSCSIの
プロトコル制御を行うSCSIプロトコルコントローラ
(SPC)、20233はファイバチャネルのプロトコル制
御を行うファイバチャネルプロトコルコントローラ(F
PC)、20231はパラレルSCSIとファイバチャネル
のシリアルSCSIをプロトコル変換するプロトコル変
換プロセッサ(PEP)、20232はプロトコル変換中デ
ータを一時保存するバッファ(BUF)である。
FIG. 17 shows that the host I / F is a parallel SCS.
IC2 inside the host I / F node 203 in the case of I
023 shows a configuration example. Reference numeral 20230 denotes a SCSI protocol controller (SPC) for controlling a protocol of a parallel SCSI, and reference numeral 20233 denotes a fiber channel protocol controller (F) for controlling a protocol of a fiber channel.
PC, 20231 is a protocol conversion processor (PEP) for converting the protocol between parallel SCSI and fiber channel serial SCSI, and 20232 is a buffer (BUF) for temporarily storing data during protocol conversion.

【0088】本実施形態において、ホスト30は、ディ
スクアレイI/Fノード203に対してSCSIコマン
ドを発行する。リードコマンドの場合、SPC20230
は、これをBUF20232に格納し、PEP20231に割り込
みでコマンドの受信を報告する。PEP20231は、BU
F20232に格納されたコマンドを利用し、FPC20233へ
のコマンドに変換し、FPC20233に送る。FPC20233
は、このコマンドを受信すると、フレーム形式に変換
し、SC2022に引き渡す。この際、エクスチェンジ
ID、シーケンスID、ソースID、デスティネイショ
ンIDは、以降の処理が可能なようにPEP20231によ
り付加される。あとのコマンド処理は、第1実施形態と
同様に行われる。
In this embodiment, the host 30 issues a SCSI command to the disk array I / F node 203. In case of read command, SPC20230
Stores this in the BUF 20232 and reports the reception of the command to the PEP 20231 by interruption. PEP20231 is a BU
Using the command stored in the F20232, the command is converted into a command for the FPC20233 and sent to the FPC20233. FPC20233
Receives this command, converts it into a frame format, and delivers it to SC2022. At this time, the exchange ID, sequence ID, source ID, and destination ID are added by the PEP 20231 so that the subsequent processing can be performed. Subsequent command processing is performed in the same manner as in the first embodiment.

【0089】ディスクアレイサブセット10は、データ
の準備が完了すると、データ転送準備完了フレームの発
行、データ転送、正常終了後ステータスフレームの発行
を実施する。ディスクアレイサブセット10からIC2
023までの間では、フレームヘッダ401やフレーム
ペイロード402が必要に応じ変換されながら、各種フ
レームの転送が行われる。IC2023のFPC20233
は、データ転送準備完了フレームを受信し、続いてデー
タを受信してBUF20232に格納し、続けて正常に転送
が終わったならば、ステータスフレームを受信し、PT
P20231に割り込みをかけてデータの転送完了を報告す
る。PTP20231は、割り込みを受けると、SPC20230
を起動し、ホスト30に対しデータ転送を開始するよう
指示する。SPC20230はホスト30にデータを送信
し、正常終了を確認するとPTP20231に対し割り込み
で正常終了を報告する。
When data preparation is completed, the disk array subset 10 issues a data transfer preparation completion frame, performs data transfer, and issues a status frame after normal termination. Disk array subset 10 to IC2
Until 023, various frames are transferred while the frame header 401 and the frame payload 402 are converted as necessary. FPC20233 of IC2023
Receives the data transfer ready frame, subsequently receives the data and stores it in the BUF 20232, and if the transfer is normally completed, receives the status frame and
An interrupt is issued to P20231 to report the data transfer completion. When the PTP 20231 receives the interrupt, the STP 20230
And instructs the host 30 to start data transfer. The SPC 20230 transmits the data to the host 30 and, upon confirming the normal end, reports the normal end to the PTP 20231 by interruption.

【0090】ここでは、ファイバチャネル以外のホスト
I/Fの例としてパラレルSCSIを示したが、他のイ
ンタフェース、例えば、メインフレームへのホストI/
FであるESCON等に対しても同様に適用することが可能
である。ディスクアレイスイッチ20のホストI/Fノ
ード203として、例えば、ファイバチャネル、パラレ
ルSCSI、及びESCONに対応したホストI/Fノード
を設けることで、1台のディスクアレイシステム1に、
メインフレームと、パーソナルコンピュータ、ワークス
テーション等のいわゆるオープンシステムの両方を混在
させて接続することが可能である。本実施形態では、デ
ィスクアレイI/Fとしては、第1から第3実施形態と
同様、ファイバチャネルを用いているが、ディスクアレ
イI/Fに対しても任意のI/Fを使用することが可能
である。
Here, the parallel SCSI is shown as an example of the host I / F other than the Fiber Channel, but other interfaces, for example, the host I / F to the mainframe,
The same can be applied to ESCON or the like which is F. As a host I / F node 203 of the disk array switch 20, for example, by providing a host I / F node corresponding to Fiber Channel, parallel SCSI, and ESCON, one disk array system 1
It is possible to mix and connect both a mainframe and a so-called open system such as a personal computer and a workstation. In the present embodiment, a fiber channel is used as the disk array I / F, as in the first to third embodiments. However, an arbitrary I / F may be used for the disk array I / F. It is possible.

【0091】[第5実施形態]次に、ディスクアレイシ
ステム1の構成管理の方法について、第5実施形態とし
て説明する。図18は、本実施形態のシステム構成図で
ある。本実施形態では、ホスト30が4台設けられてい
る。ホスト“#0”、“#1”とディスクアレイシステ
ム1の間のI/F30はファイバチャネル、ホスト“#
2”とディスクアレイシステム1の間は、パラレルSC
SI(Ultra SCSI)、ホスト“#3”とディスクアレイ
システム1の間は、パラレルSCSI(Ultra2 SCSI)で
接続されている。
[Fifth Embodiment] Next, a method of managing the configuration of the disk array system 1 will be described as a fifth embodiment. FIG. 18 is a system configuration diagram of the present embodiment. In the present embodiment, four hosts 30 are provided. The I / F 30 between the hosts "# 0" and "# 1" and the disk array system 1 is a fiber channel and the host "#
2 "and the disk array system 1 are parallel SC
The SI (Ultra SCSI), the host "# 3" and the disk array system 1 are connected by parallel SCSI (Ultra 2 SCSI).

【0092】パラレルSCSIのディスクアレイスイッ
チ20への接続は第4実施形態と同様に行われる。ディ
スクアレイシステム1は、4台のディスクアレイサブセ
ット30を有する。ディスクアレイサブセット“#0”
には4つの独立LU、ディスクアレイサブセット“#
1”には2つの独立LUがそれぞれ構成されている。デ
ィスクアレイサブセット“#2”と“#3”で1つの統
合LUが構成されている。本実施形態では、第1実施形
態と同様、ホスト30に対しディスクアレイサブセット
10を隠蔽し、ファイバチャネルのフレームを変換する
ものとする。各LUに割り当てられるLUNは、ディス
クアレイサブセット“#0”のLUから順に、LUN=
0、1、2、・・・6までの7つである。
The connection of the parallel SCSI to the disk array switch 20 is performed in the same manner as in the fourth embodiment. The disk array system 1 has four disk array subsets 30. Disk array subset “# 0”
Has four independent LUs, disk array subset “#”
1 ", two independent LUs are respectively configured. One integrated LU is configured by the disk array subsets"# 2 "and"# 3 ". In the present embodiment, as in the first embodiment, It is assumed that the disk array subset 10 is concealed from the host 30 and the frame of the Fiber Channel is converted, and the LUN assigned to each LU is LUN = LU in the disk array subset “# 0” in order.
0, 1, 2,...

【0093】図19は、管理端末5の表示画面上に表示
される画面の一例である。図は、ホストI/F31と各
論理ユニット(LU)との対応を示した論理接続構成画
面である。
FIG. 19 is an example of a screen displayed on the display screen of the management terminal 5. The figure is a logical connection configuration screen showing the correspondence between the host I / F 31 and each logical unit (LU).

【0094】論理接続構成画面50には、各ホストI/
F31に関する情報3100、各LU110に関する情
報11000、ディスクアレイサブセット10とLU110
の関係等が表示される。ホストI/F31に関する情報
としては、I/F種類、I/F速度、ステータス等が含
まれる。LU110に関する情報としては、格納サブセ
ット番号、LUN、容量、RAIDレベル、ステータ
ス、情報、等が表示される。管理者はこの画面を参照す
ることで、容易にディスクアレイシステム1の構成を管
理することができる。
The logical connection configuration screen 50 displays each host I /
Information 3100 on F31, information 11000 on each LU110, disk array subset 10 and LU110
Are displayed. Information on the host I / F 31 includes an I / F type, an I / F speed, a status, and the like. As information on the LU 110, a storage subset number, LUN, capacity, RAID level, status, information, and the like are displayed. The administrator can easily manage the configuration of the disk array system 1 by referring to this screen.

【0095】論理接続構成画面50上で、ホストI/F
とLUの間に引かれている線は、各ホストI/F31を
経由してアクセス可能なLU110を示している。ホス
トI/Fから線の引かれていないLU110に対して、
そのホストI/Fに接続するホスト30からはアクセス
できない。ホスト30によって、扱うデータ形式が異な
り、また使用者も異なることから、セキュリティ維持
上、適切なアクセス制限を設けることが不可欠である。
そこで、システムを設定する管理者が、この画面を用い
て、各LU110とホストI/Fとの間のアクセス許可
をあたえるか否かによって、アクセス制限を実施する。
図において、例えば、LU“#0”は、ホストI/F
“#0”および“#1”からアクセス可能であるが、ホ
ストI/F“#2”、“#3”からはアクセスできな
い。LU“#4”は、ホストI/F“#2”からのみア
クセス可能である。
On the logical connection configuration screen 50, the host I / F
The line drawn between and LU indicates the LU 110 that can be accessed via each host I / F 31. For the LU 110 with no line drawn from the host I / F,
It cannot be accessed from the host 30 connected to the host I / F. Since the data format handled and the user differ depending on the host 30, it is indispensable to provide an appropriate access restriction for maintaining security.
Therefore, the administrator who sets up the system uses this screen to restrict access depending on whether or not to grant access permission between each LU 110 and the host I / F.
In the figure, for example, LU “# 0” is a host I / F
It can be accessed from “# 0” and “# 1”, but cannot be accessed from the host I / Fs “# 2” and “# 3”. The LU “# 4” is accessible only from the host I / F “# 2”.

【0096】このようなアクセス制限を実現するためア
クセス制限情報は、ディスクアレイシステム構成管理手
段70からディスクアレイスイッチ20に対して送信さ
れる。ディスクアレイスイッチ20に送られたアクセス
制限情報は、各ホストI/Fノード203に配信され、
各ホストI/Fノード203のDCT2027に登録さ
れる。ホストにより、アクセスが制限されたLUに対す
るLU存在有無の検査コマンドが発行された場合、各ホ
ストI/Fノード203は、DCT2027の検査を行
い、検査コマンドに対し応答しないか、あるいは、エラ
ーを返すことで、そのLUは、ホストからは認識されな
くなる。LU存在有無の検査コマンドとしては、SCS
Iプロトコルの場合、Test Unit Readyコマンドや、Inq
uiryコマンドが一般に用いられる。この検査なしに、リ
ード/ライトが実施されることはないため、容易にアク
セスの制限をかけることが可能である。
The access restriction information is transmitted from the disk array system configuration management means 70 to the disk array switch 20 to realize such access restriction. The access restriction information sent to the disk array switch 20 is distributed to each host I / F node 203,
It is registered in the DCT 2027 of each host I / F node 203. When the host issues a check command for the presence / absence of an LU for an access-restricted LU, each host I / F node 203 checks the DCT 2027 and does not respond to the check command or returns an error. As a result, the LU is not recognized by the host. The check command for the presence or absence of LU is SCS.
In case of I protocol, Test Unit Ready command or Inq
The uiry command is commonly used. Since read / write is not performed without this inspection, access can be easily restricted.

【0097】本実施形態ではホストI/F31毎にアク
セス制限をかけているが、これを拡張することで、ホス
ト30毎にアクセス制限をかけることも容易に実現でき
る。また、ホストI/F31、ホスト30、あるいは、
アドレス空間を特定して、リードのみ可、ライトのみ
可、リード/ライトとも可、リード/ライトとも不可と
いった、コマンドの種別に応じたアクセス制限をかける
こともできる。この場合、アクセス制限情報としてホス
トI/F番号、ホストID、アドレス空間、制限コマン
ド等を指定してディスクアレイスイッチ20に制限を設
定する。
In the present embodiment, the access is restricted for each host I / F 31. However, by extending this, it is possible to easily realize the access restriction for each host 30. Also, the host I / F 31, the host 30, or
By specifying the address space, it is also possible to restrict access according to the type of command, such as read only, write only, read / write, and read / write. In this case, a restriction is set in the disk array switch 20 by specifying a host I / F number, a host ID, an address space, a restriction command, and the like as access restriction information.

【0098】次に、新たなディスクアレイサブセット1
0の追加について説明する。ディスクアレイサブセット
10を新規に追加する場合、管理者は、ディスクアレイ
スイッチ20の空いているディスクアレイI/Fノード
202に追加するディスクアレイサブセット10を接続
する。つづけて、管理者は、管理端末5を操作し、論理
接続構成画面50に表示されている「最新状態を反映」
ボタン5001を押下する。この操作に応答して、未設
定のディスクアレイサブセットを表す絵が画面上に表示
される(図示せず)。このディスクアレイサブセットの
絵が選択されるすると、ディスクアレイサブセットの設
定画面が現れる。管理者は、表示された設定画面上で、
新規に追加されたディスクアレイサブセットの各種設定
を実施する。ここで設定される項目にはLUの構成、R
AIDレベル等がある。続けて、図19の論理接続構成
図の画面に切り替えると、新規ディスクアレイサブセッ
トとLUが現れる。以降、ホストI/F31毎に対する
アクセス制限を設定し、「設定実行」ボタン5002を
押下すると、ディスクアレイスイッチ20に対し、アク
セス制限情報、およびディスクアレイサブセット、LU
の情報が転送され、設定が実行される。
Next, a new disk array subset 1
The addition of 0 will be described. When newly adding the disk array subset 10, the administrator connects the disk array subset 10 to be added to the empty disk array I / F node 202 of the disk array switch 20. Subsequently, the administrator operates the management terminal 5 to display the “reflect the latest state” displayed on the logical connection configuration screen 50.
A button 5001 is pressed. In response to this operation, a picture representing the unset disk array subset is displayed on the screen (not shown). When the picture of the disk array subset is selected, a setting screen for the disk array subset appears. On the displayed setting screen, the administrator
Perform various settings for the newly added disk array subset. The items set here include the LU configuration and R
There are AID levels and the like. Subsequently, when switching to the screen of the logical connection configuration diagram of FIG. 19, a new disk array subset and LU appear. After that, the access restriction for each host I / F 31 is set, and when the “execute setting” button 5002 is pressed, the access restriction information, the disk array subset, and the LU are sent to the disk array switch 20.
Is transferred and the setting is executed.

【0099】各ディスクアレイサブセット10にLU1
10を追加する際の手順も上述した手順で行われる。ま
た、ディスクアレイサブセット、およびLUの削除につ
いてもほぼ同様の手順で行われる。異なる点は、管理者
が各削除部位を画面上で選択して「削除」ボタン500
3を押下し、適切な確認が行われたのち、実行される点
である。以上のように、管理端末70を用いることで、
管理者はディスクアレイシステム全体を一元的に管理で
きる。
LU1 is assigned to each disk array subset 10.
The procedure for adding 10 is also performed in the manner described above. The deletion of the disk array subset and the LU is performed in substantially the same procedure. The difference is that the administrator selects each part to be deleted on the screen and clicks the “Delete” button 500.
This is the point that the operation is performed after the user presses 3 and an appropriate confirmation is performed. As described above, by using the management terminal 70,
The administrator can centrally manage the entire disk array system.

【0100】[第6実施形態]次に、ディスクアレイス
イッチ20によるミラーリングの処理について、第6実
施形態として説明する。ここで説明するミラーリングと
は、2台のディスクアレイサブセットの2つの独立LU
により二重書きをサポートする方法であり、ディスクア
レイサブセットのコントローラまで含めた二重化であ
る。従って、信頼性は、ディスクのみの二重化とは異な
る。
[Sixth Embodiment] Next, a mirroring process performed by the disk array switch 20 will be described as a sixth embodiment. The mirroring described here refers to two independent LUs of two disk array subsets.
Is a method that supports dual writing, and is a duplex including the controller of the disk array subset. Therefore, reliability is different from disk-only duplication.

【0101】本実施形態におけるシステムの構成は図1
に示すものと同じである。図1に示す構成おいて、ディ
スクアレイサブセット“#0”と“#1”は全く同一の
LU構成を備えており、この2つのディスクアレイサブ
セットがホスト30からは1つのディスクアレイとして
見えるものとする。便宜上、ミラーリングされたディス
クアレイサブセットのペアの番号を“#01”と呼ぶ。
また、各ディスクアレイサブセットのLU“#0”とL
U“#1”によってミラーリングペアが形成され、この
LUのペアを便宜上、LU“#01”と呼ぶ。DCT2
027のホストLU構成テーブル20271上でLU#01
を管理するための情報は、CLU Classに「Mirrored」が
設定され、LU Info.として、LU#0とLU#1に関す
る情報が設定される。その他の各部の構成は第1実施形
態と同様である。
The system configuration according to the present embodiment is shown in FIG.
Is the same as that shown in FIG. In the configuration shown in FIG. 1, the disk array subsets “# 0” and “# 1” have exactly the same LU configuration, and these two disk array subsets appear to the host 30 as one disk array. I do. For convenience, the pair number of the mirrored disk array subset is referred to as “# 01”.
Also, LU “# 0” and L of each disk array subset
A mirroring pair is formed by U “# 1”, and this LU pair is called LU “# 01” for convenience. DCT2
LU # 01 in the host LU configuration table 20271 of LU 027
Is set to “Mirrored” in the CLU Class, and information about LU # 0 and LU # 1 is set as LU Info. The other components are the same as in the first embodiment.

【0102】本実施形態における各部の動作は、第1実
施例とほぼ同様である。以下、第1実施形態と相違する
点について、ディスクアレイスイッチ20のホストI/
Fノード203の動作を中心に説明する。図20は、本
実施形態におけるライト動作時に転送されるフレームの
シーケンスを示す模式図、図21、22は、ライト動作
時におけるホストI/Fノード203による処理の流れ
を示すフローチャートである。
The operation of each section in this embodiment is almost the same as in the first embodiment. Hereinafter, the difference between the first embodiment and the first embodiment will be described.
The operation of the F node 203 will be mainly described. FIG. 20 is a schematic diagram showing a sequence of frames transferred at the time of a write operation in the present embodiment, and FIGS. 21 and 22 are flowcharts showing the flow of processing by the host I / F node 203 at the time of a write operation.

【0103】ライト動作時、ホスト30が発行したライ
トコマンドフレーム(FCP_CMD)は、IC2023によ
り受信される(図20の矢印(a):ステップ2100
1)。IC2023により受信されたライトコマンドフ
レームは、第1実施形態で説明したリード動作時におけ
るステップ20002 20005と同様に処理される(ステップ
21002 - 21005)。
At the time of the write operation, the write command frame (FCP_CMD) issued by the host 30 is received by the IC 2023 (arrow (a) in FIG. 20: step 2100).
1). The write command frame received by the IC 2023 is processed in the same manner as in Steps 20002 and 20005 in the read operation described in the first embodiment (Step 20002).
21002-21005).

【0104】SC2022は、SP2021を使ってD
CT2027を検索し、ミラー化されたディスクアレイ
サブセット“#01”のLU“#01”へのライトアク
セス要求であることを認識する(ステップ21006)。S
C2022は、FB2025上に、受信したコマンドフ
レームの複製を作成する(ステップ21007)。SC20
22は、DCT2027に設定されている構成情報に基
づいてコマンドフレームの変換を行い、LU“#0”と
LU“#1”の両者への別々のコマンドフレームを作成
する(ステップ21008)。ここで、LU“#0”を主L
U、LU“#1”を従LUと呼び、コマンドフレームに
もそれぞれ主コマンドフレーム、従コマンドフレームと
呼ぶ。そして、両者別々にET2026にエクスチェン
ジ情報を格納し、ディスクアレイサブセット“#0”お
よびディスクアレイサブセット“#1”に対し作成した
コマンドフレームを発行する(図20の矢印(b0)
(b1):ステップ21009)。
The SC 2022 uses the SP 2021 to
The CT 2027 is searched to recognize that it is a write access request to the LU “# 01” of the mirrored disk array subset “# 01” (step 21006). S
The C2022 creates a copy of the received command frame on the FB 2025 (step 21007). SC20
22 converts the command frame based on the configuration information set in the DCT 2027, and creates separate command frames for both LU “# 0” and LU “# 1” (step 21008). Here, LU “# 0” is the main L
U and LU “# 1” are referred to as a slave LU, and the command frames are also referred to as a main command frame and a slave command frame, respectively. Then, the exchange information is separately stored in the ET 2026, and the command frames created for the disk array subset “# 0” and the disk array subset “# 1” are issued (arrow (b0) in FIG. 20).
(B1): Step 21009).

【0105】各ディスクアレイサブセット“#0”、
“#1”は、コマンドフレームを受信し、それぞれ独立
にデータ転送準備完了フレーム(FCP_XFER_RDY)をディ
スクアレイスイッチ20に送信する(図20の矢印(c
0)(c1))。ディスクアレイスイッチ20では、ホ
ストI/Fノード203が、第1実施形態におけるリー
ド動作のステップ20011 20013と同様の処理により転送
されてきたデータ転送準備完了フレームを処理する(ス
テップ21011 - 21013)。
Each disk array subset “# 0”,
“# 1” receives a command frame and independently transmits a data transfer preparation completion frame (FCP_XFER_RDY) to the disk array switch 20 (arrow (c) in FIG. 20).
0) (c1)). In the disk array switch 20, the host I / F node 203 processes the data transfer preparation completion frame transferred by the same processing as in the steps 20011 20013 of the read operation in the first embodiment (steps 21011 to 21013).

【0106】各ディスクアレイサブセットからのデータ
転送準備完了フレームがそろった段階で(ステップ2101
4)、SC2022は、主データ転送準備完了フレーム
に対する変換を実施し(ステップ21015)、IC202
3により変換後のフレームをホスト30に送信する(図
20の矢印(d):ステップ21015)。
When the data transfer ready frames from each disk array subset are completed (step 2101)
4), SC 2022 performs conversion on the main data transfer ready frame (step 21015), and IC 202
Then, the converted frame is transmitted to the host 30 in step 3 (arrow (d) in FIG. 20: step 21015).

【0107】ホスト30は、データ転送準備完了フレー
ムを受信した後、ライトデータ送信のため、データフレ
ーム(FCP_DATA)をディスクアレイスイッチ20に送信
する(図20の矢印(e))。ホスト30からのデータ
フレームは、IC2023により受信されると(ステッ
プ21031)、リードコマンドフレームやライトコマンド
フレームと同様に、FB2025に格納され、CRC検
査、フレームヘッダの解析が行われる(ステップ2103
2、21033)。フレームヘッダの解析結果に基づき、ET
2026がSP2021により検索され、エクスチェン
ジ情報が獲得される(ステップ21034)。
After receiving the data transfer preparation completion frame, the host 30 transmits a data frame (FCP_DATA) to the disk array switch 20 for write data transmission (arrow (e) in FIG. 20). When the data frame from the host 30 is received by the IC 2023 (step 21031), it is stored in the FB 2025 as in the case of the read command frame and the write command frame, and the CRC check and the analysis of the frame header are performed (step 2103).
2, 21033). ET based on the analysis result of the frame header
2026 is searched by the SP 2021, and exchange information is obtained (step 21034).

【0108】SC2022は、ライトコマンドフレーム
のときと同様に複製を作成し(ステップ21035)、その
一方をディスクアレイサブセット“#0”内のLU“#
0”に、他方をディスクアレイサブセット“#1”内の
LU“#1”に向けて送信する(図20の矢印(f0)
(f1):ステップ21037)。
The SC 2022 creates a duplicate as in the case of the write command frame (step 21035), and assigns one of the duplicates to the LU “#” in the disk array subset “# 0”.
0 "to the LU"# 1 "in the disk array subset"# 1 "(arrow (f0) in FIG. 20).
(F1): Step 21037).

【0109】ディスクアレイサブセット“#0”、“#
1”は、各々、データフレームを受信し、ディスクユニ
ット104に対しそれぞれライトし、ステータスフレー
ム(FCP_RSP)をディスクアレイスイッチ20に送信す
る。
Disk array subsets “# 0”, “#”
1 "receives a data frame, writes the data frame to the disk unit 104, and transmits a status frame (FCP_RSP) to the disk array switch 20.

【0110】SC2022は、ディスクアレイサブセッ
ト“#0”、“#1”それぞれからステータスフレーム
を受信すると、それらのステータスフレームから拡張ヘ
ッダを外してフレームヘッダを再現し、ET2026か
らエクスチェンジ情報を獲得する(ステップ21041、210
42)。
When the SC 2022 receives the status frames from the disk array subsets “# 0” and “# 1”, the SC 2022 removes the extension headers from those status frames and reproduces the frame headers, and obtains exchange information from the ET 2026 ( Step 21041, 210
42).

【0111】ディスクアレイサブセット“#0”、“#
1”の両者からのステータスフレームが揃うと(ステッ
プ21043)、ステータスが正常終了であることを確認の
うえ、LU“#0”からの主ステータスフレームに対す
る変換を行い(ステップ21044)、従ステータスフレー
ム消去する(ステップ21045)。そして、IC2023
は、正常終了を報告するためのコマンドフレームをホス
トに送信する(図20の矢印(h):ステップ2104
6)。最後にSP2021は、ET2026のエクスチ
ェンジ情報を消去する(ステップ21047)。
The disk array subsets “# 0” and “#”
When the status frames from both “1” are prepared (step 21043), after confirming that the status is normally completed, conversion to the main status frame from LU “# 0” is performed (step 21044). Erase (step 21045), and IC 2023
Sends a command frame for reporting normal termination to the host (arrow (h) in FIG. 20: step 2104)
6). Finally, the SP 2021 deletes the exchange information of the ET 2026 (step 21047).

【0112】以上でミラーリング構成におけるライト処
理が終了する。ミラーリングされたLU“#01”に対
するリード処理は、データの転送方向が異なるだけで、
上述したライト処理とほぼ同様に行われるが、ライトと
は異なり、2台のディスクアレイサブセットにリードコ
マンドを発行する必要はなく、どちらか一方に対してコ
マンドフレームを発行すればよい。たとえば、常に主L
Uに対してコマンドフレームを発行してもよいが、高速
化のため、主/従双方のLUに対して、交互にコマンド
フレームを発行するなどにより、負荷を分散すると有効
である。
Thus, the write processing in the mirroring configuration ends. The read processing for the mirrored LU “# 01” differs only in the data transfer direction.
The write process is performed in substantially the same manner as described above, but unlike the write process, it is not necessary to issue a read command to two disk array subsets, and it is sufficient to issue a command frame to one of them. For example, always L
Although a command frame may be issued to U, it is effective to distribute the load by alternately issuing command frames to both the master and slave LUs for speeding up.

【0113】上述した処理では、ステップ21014、及び
ステップ21043で2台のディスクアレイサブセット“#
0”、“#1”の応答を待ち、両者の同期をとって処理
が進められる。このような制御では、双方のディスクア
レイサブセットでの処理の成功が確認されてから処理が
進むため、エラー発生時の対応が容易になる。その一方
で、全体の処理速度が、どちらか遅いほうの応答に依存
してしまうため、性能が低下するという欠点がある。
In the processing described above, the two disk array subsets “#” are set in steps 21014 and 21043.
0 ”and“ # 1 ”, and the process proceeds in synchronization with the two.In such control, the process proceeds after the success of the process in both disk array subsets is confirmed. On the other hand, when an error occurs, it is easy to deal with it, but on the other hand, the overall processing speed depends on the response which is slower, so that there is a disadvantage that the performance is reduced.

【0114】この問題を解決するため、ディスクアレイ
スイッチにおいて、ディスクアレイサブセットの応答を
待たずに次の処理に進んだり、ディスクアレイサブセッ
トのどちらか一方からの応答があった時点で次の処理に
進む「非同期型」の制御をすることも可能である。非同
期型の制御を行った場合のフレームシーケンスの一例
を、図20において破線矢印で示す。
In order to solve this problem, the disk array switch proceeds to the next processing without waiting for the response of the disk array subset, or proceeds to the next processing when there is a response from one of the disk array subsets. It is also possible to perform a “non-synchronous” control. An example of a frame sequence when the asynchronous control is performed is indicated by a broken arrow in FIG.

【0115】破線矢印で示されるフレームシーケンスで
は、ステップ21016で行われるホストへのデータ転送準
備完了フレームの送信が、ステップ21009の処理の後、
ディスクアレイサブセット10からのデータ転送準備完
了フレームを待たずに実施される。この場合、ホストに
送信されるデータ転送準備完了フレームは、ディスクア
レイスイッチ20のSC2022により生成される(破
線矢印(d′))。
In the frame sequence indicated by the broken arrow, the transmission of the data transfer preparation completion frame to the host performed in step 21016 is performed after the processing in step 21009.
This is performed without waiting for a data transfer preparation completion frame from the disk array subset 10. In this case, the data transfer preparation completion frame transmitted to the host is generated by the SC 2022 of the disk array switch 20 (broken arrow (d ')).

【0116】ホスト30からは、破線矢印(e′)で示
されるタイミングでデータフレームがディスクアレイス
イッチ20に転送される。ディスクアレイスイッチ20
では、このデータフレームが一旦FB2025に格納さ
れる。SC2022は、ディスクアレイサブセット10
からのデータ転送準備完了フレームの受信に応答して、
データ転送準備完了フレームが送られてきたディスクア
レイサブセット10に対し、FB2025に保持された
データフレームを転送する(破線矢印(f0′)、(f
1′))。
The data frame is transferred from the host 30 to the disk array switch 20 at the timing indicated by the dashed arrow (e '). Disk array switch 20
Then, this data frame is temporarily stored in the FB 2025. SC 2022 is a disk array subset 10
In response to receiving the data transfer ready frame from
The data frame held in the FB 2025 is transferred to the disk array subset 10 to which the data transfer preparation completion frame has been sent (dashed arrow (f0 '), (f
1 ')).

【0117】ディスクアレイスイッチ20からホスト3
0への終了報告は、双方のディスクアレイサブシステム
10からの報告(破線矢印(g0′)、(g0′))が
あった時点でおこなわれる(破線矢印(h′))。この
ような処理により、図20に示される時間Taの分だけ
処理時間を短縮することが可能である。
From the disk array switch 20 to the host 3
The end report to 0 is made when there are reports (broken arrows (g0 ') and (g0')) from both disk array subsystems 10 (broken arrows (h ')). Through such processing, the processing time can be reduced by the time Ta shown in FIG.

【0118】ディスクアレイスイッチ20とディスクア
レイサブセット10間のフレーム転送の途中でエラーが
発生した場合、以下の処理が実施される。
If an error occurs during the frame transfer between the disk array switch 20 and the disk array subset 10, the following processing is performed.

【0119】実行中の処理がライト処理の場合、エラー
が発生したLUに対し、リトライ処理が行われる。リト
ライが成功すれば、処理はそのまま継続される。あらか
じめ設定された規定の回数のリトライが失敗した場合、
ディスクアレイスイッチ20は、このディスクアレイサ
ブセット10(もしくはLU)に対するアクセスを禁止
し、そのことを示す情報をDCT2027に登録する。
また、ディスクアレイスイッチ20は、MP200、通
信コントローラ204を経由して、ディスクシステム構
成手段70にそのことを通知する。
If the process being executed is a write process, a retry process is performed on the LU in which an error has occurred. If the retry succeeds, the process continues. If the specified number of retries fails,
The disk array switch 20 prohibits access to the disk array subset 10 (or LU), and registers information indicating this in the DCT 2027.
Further, the disk array switch 20 notifies the disk system configuration unit 70 of the fact via the MP 200 and the communication controller 204.

【0120】ディスクシステム構成手段70は、この通
知に応答して管理端末5にアラームを発行する。これに
より管理者は、トラブルが発生したことを認識できる。
その後、ディスクアレイスイッチ20は、正常なディス
クアレイサブセットを用いて運転を継続する。ホスト3
0は、エラーが発生したことを認識することはなく、処
理を継続できる。
The disk system configuration means 70 issues an alarm to the management terminal 5 in response to this notification. This allows the administrator to recognize that a trouble has occurred.
Thereafter, the disk array switch 20 continues operation using the normal disk array subset. Host 3
A value of 0 does not recognize that an error has occurred, and the processing can be continued.

【0121】本実施形態によれば、2台のディスクアレ
イサブシステムでミラー構成を実現できるので、ディス
クの耐障害性を上げることことができる。また、ディス
クアレイコントローラ、ディスクアレイI/F、及びデ
ィスクアレイI/Fノードの耐障害性を上げることがで
き、内部バスの二重化等するくとなくディスクアレイシ
ステム全体の信頼性を向上させることができる。
According to the present embodiment, since a mirror configuration can be realized by two disk array subsystems, the fault tolerance of the disk can be improved. Further, the fault tolerance of the disk array controller, the disk array I / F, and the disk array I / F node can be improved, and the reliability of the entire disk array system can be improved without duplication of the internal bus. it can.

【0122】[第7実施形態]次に、3台以上のディス
クアレイサブセット10を統合し、1台の論理的なディ
スクアレイサブセットのグループを構成する方法につい
て説明する。本実施形態では、複数のディスクアレイサ
ブセット10にデータを分散して格納する。これによ
り、ディスクアレイサブセットへのアクセスを分散さ
せ、特定のディスクアレイサブセットへのアクセスの集
中を抑止することで、トータルスループットを向上させ
る。本実施形態では、ディスクアレイスイッチによりこ
のようなストライピング処理を実施する。
[Seventh Embodiment] Next, a method of integrating three or more disk array subsets 10 to form one logical disk array subset group will be described. In the present embodiment, data is distributed and stored in a plurality of disk array subsets 10. As a result, access to the disk array subset is distributed, and concentration of access to a specific disk array subset is suppressed, thereby improving the total throughput. In the present embodiment, such striping processing is performed by the disk array switch.

【0123】図23は、本実施形態におけるディスクア
レイシステム1のアドレスマップである。ディスクアレ
イサブセット10のアドレス空間は、ストレイプサイズ
Sでストライピングされている。ホストから見たディス
クアレイシステム1のアドレス空間は、ストライプサイ
ズS毎に、ディスクアレイサブセット“#0”、“#
1”、“#2”、“#3”に分散されている。ストライ
プサイズSのサイズは任意であるが、あまり小さくない
方がよい。ストライプサイズSが小さすぎると、アクセ
スすべきデータが複数のストライプに属するストライプ
またぎが発生したときに、その処理にオーバヘッドが発
生するおそれがある。ストライプサイズSを大きくする
と、ストライプまたぎが発生する確率が減少するので性
能向上のためには好ましい。LUの数は任意に設定する
ことができる。
FIG. 23 is an address map of the disk array system 1 in this embodiment. The address space of the disk array subset 10 is striped with a stripe size S. The address space of the disk array system 1 as viewed from the host includes disk array subsets “# 0” and “#” for each stripe size S.
1 ","# 2 ", and"# 3 ". The size of the stripe size S is arbitrary, but should not be too small.If the stripe size S is too small, there are a plurality of data to be accessed. When a stripe crossover belonging to the stripe of the above-mentioned stripe occurs, there is a possibility that overhead will be generated in the processing.When the stripe size S is increased, the probability of occurrence of the stripe crossover decreases, which is preferable for improving the performance. The number can be set arbitrarily.

【0124】以下、本実施形態におけるホストI/Fノ
ード203の動作について、図24に示す動作フローチ
ャートを参照しつつ第1実施形態との相違点に着目して
説明する説明する。なお、本実施形態では、DCT20
27のホストLU構成テーブル20271上で、ストライピ
ングされたホストLUに関する情報のCLU Classには「S
triped」が、CLU Stripe Sizeにはストライプサイズ
「S」が設定される。
Hereinafter, the operation of the host I / F node 203 in this embodiment will be described with reference to the operation flowchart shown in FIG. 24 and focusing on the differences from the first embodiment. In the present embodiment, the DCT 20
27, the CLU Class of the information on the striped host LU is “S
“triped” and the stripe size “S” are set in the CLU Stripe Size.

【0125】ホスト30がコマンドフレームを発行する
と、ディスクアレイスイッチ20は、ホストI/Fノー
ド203のIC2023でこれを受信する(ステップ2
2001)、SC2022は、IC2023からこのコ
マンドフレームを受け取り、SP2021を使ってDC
T2027を検索し、ストライピングする必要があるこ
とを認識する(ステップ22005)。
When the host 30 issues a command frame, the disk array switch 20 receives the command frame with the IC 2023 of the host I / F node 203 (step 2).
2001), the SC 2022 receives the command frame from the IC 2023, and uses the SP 2021 to
T2027 is searched to recognize that striping is necessary (step 22005).

【0126】次に、SC2022は、SP2021によ
りDCT2027を検索し、ストライプサイズSを含む
構成情報から、アクセスの対象となるデータが属するス
トライプのストライプ番号を求め、このストライプがど
のディスクアレイサブセット10に格納されているか特
定する(ステップ22006)。この際、ストライプまたぎ
が発生する可能性があるが、この場合の処理については
後述する。ストライプまたぎが発生しない場合、SP2
021の計算結果に基づき、SC2022はコマンドフ
レームに対し変換を施し(ステップ22007)、エクスチ
ェンジ情報をET2026に格納する(ステップ2200
8)。以降は、第1実施形態と同様の処理が行われる。
Next, the SC 2022 searches the DCT 2027 by the SP 2021 to obtain the stripe number of the stripe to which the data to be accessed belongs from the configuration information including the stripe size S, and stores this stripe in any disk array subset 10 Is specified (step 22006). At this time, there is a possibility that a stripe jump may occur, and the processing in this case will be described later. If no stripe straddling occurs, SP2
On the basis of the calculation result of 021, the SC 2022 converts the command frame (step 22007), and stores the exchange information in the ET 2026 (step 2200).
8). Thereafter, the same processing as in the first embodiment is performed.

【0127】ストライプまたぎが発生した場合、SP2
021は、2つのコマンドフレームを生成する。この生
成は、例えば、ホスト30が発行したコマンドフレーム
を複製することで行われる。生成するコマンドフレーム
のフレームヘッダ、フレームペイロード等は、新規に設
定する。第6実施形態と同様、SC2022でコマンド
フレームの複製を作成した後、変換を実施することも可
能であるが、ここでは、SP2021により新規に作成
されるものとする。SC2022は、2つのコマンドフ
レームが生成されると、これらを各ディスクアレイサブ
セット10に送信する。
When a stripe crossover occurs, SP2
021 generates two command frames. This generation is performed, for example, by copying a command frame issued by the host 30. A frame header, a frame payload, and the like of the generated command frame are newly set. As in the sixth embodiment, it is possible to execute the conversion after creating a copy of the command frame in the SC 2022, but it is assumed here that the command frame is newly created by the SP 2021. When two command frames are generated, the SC 2022 transmits them to each disk array subset 10.

【0128】この後、第1実施形態と同様にデータ転送
が実施される。ここで、本実施形態では、第1実施形
態、あるいは第6実施形態と異なり、データ自体を1台
のホスト30と2台のディスクアレイサブセット10間
で転送する必要がある。たとえば、リード処理の場合、
2台のディスクアレイサブセット10から転送されるデ
ータフレームは、すべてホスト30に転送する必要があ
る。この際SC2022は、各ディスクアレイサブセッ
ト10から転送されてくるデータフレームに対し、ET
2026に登録されたエクスチェンジ情報に従い、適切
な順番で、適切なエクスチェンジ情報を付加してホスト
30に送信する。
Thereafter, data transfer is performed as in the first embodiment. Here, in the present embodiment, unlike the first embodiment or the sixth embodiment, it is necessary to transfer the data itself between one host 30 and two disk array subsets 10. For example, for lead processing,
All data frames transferred from the two disk array subsets 10 need to be transferred to the host 30. At this time, the SC 2022 performs ET on the data frame transferred from each disk array subset 10.
According to the exchange information registered in 2026, appropriate exchange information is added in an appropriate order and transmitted to the host 30.

【0129】ライト処理の場合は、コマンドフレームの
場合と同様、2つのデータフレームに分割して、該当す
るディスクアレイサブセット10に転送する。なお、デ
ータフレームの順序制御は、ホスト、あるいはディスク
アレイサブセットがアウトオブオーダー(Out of Orde
r)機能と呼ばれる、順不同処理に対応しているならば
必須ではない。
In the case of the write process, the data is divided into two data frames and transferred to the corresponding disk array subset 10, as in the case of the command frame. Note that the order control of the data frame is performed when the host or the disk array subset is out of order.
r) It is not essential if it supports out-of-order processing called functions.

【0130】最後に、すべてのデータ転送が完了し、デ
ィスクアレイスイッチ20が2つのステータスフレーム
をディスクアレイサブセット10から受信すると、SP
2021(あるいはSC2022)は、ホスト30への
ステータスフレームを作成し、これをIC2023によ
りホスト30に送信する。
Finally, when all data transfer is completed and the disk array switch 20 receives two status frames from the disk array subset 10, SP
The 2021 (or SC 2022) creates a status frame for the host 30 and transmits this to the host 30 by the IC 2023.

【0131】本実施形態によれば、アクセスを複数のデ
ィスクアレイサブセットに分散することができるので、
トータルとしてスループットを向上させることができる
とともに、アクセスレイテンシも平均的に低減させるこ
とが可能である。
According to this embodiment, access can be distributed to a plurality of disk array subsets.
The throughput can be improved as a whole, and the access latency can be reduced on average.

【0132】[第8実施形態]次に、2台のディスクア
レイシステム(またはディスクアレイサブセット)間に
おける複製の作成について、第8実施形態として説明す
る。ここで説明するようなシステムは、2台のディスク
アレイシステムの一方を遠隔地に配置し、天災等による
他方のディスクアレイシステムの障害に対する耐性を備
える。このような災害に対する対策をディザスタリカバ
リと呼び、遠隔地のディスクアレイシステムとの間で行
われる複製の作成のことをリモートコピーと呼ぶ。
[Eighth Embodiment] Next, the creation of a copy between two disk array systems (or disk array subsets) will be described as an eighth embodiment. In the system described here, one of the two disk array systems is arranged at a remote location, and the system is resistant to a failure of the other disk array system due to a natural disaster or the like. Such a countermeasure against a disaster is called disaster recovery, and creation of a copy with a remote disk array system is called remote copy.

【0133】第6実施形態で説明したミラーリングで
は、地理的にほぼ同一の場所に設置されたディスクアレ
イサブセット10でミラーを構成するので、ディスクア
レイI/F21はファイバチャネルでよい。しかし、リ
モートコピーを行うディスクアレイ(ディスクアレイサ
ブセット)が10kmを越える遠隔地に設置される場
合、中継なしでファイバチャネルによりフレームを転送
する事ができない。ディザスタリカバリに用いられる場
合、お互いの間の距離は通常数百km以上となる、この
ため、ファイバチャネルでディスクアレイ間を接続する
ことは実用上不可能であり、ATM(Asynchronous Tra
nsfer Mode)等による高速公衆回線や衛星通信等が用い
られる。
In the mirroring described in the sixth embodiment, since the mirror is configured by the disk array subsets 10 installed at almost the same location geographically, the disk array I / F 21 may be a fiber channel. However, when a disk array (disk array subset) for performing remote copy is installed in a remote place exceeding 10 km, frames cannot be transferred by fiber channel without relay. When used for disaster recovery, the distance between each other is usually several hundred km or more. Therefore, it is practically impossible to connect the disk arrays with a fiber channel.
nsfer Mode) or a high-speed public line, satellite communication, or the like.

【0134】図25は、本実施形態におけるディザスタ
リカバリシステムの構成例である。
FIG. 25 shows an example of the configuration of a disaster recovery system according to this embodiment.

【0135】81はサイトA、82はサイトBであり、
両サイトは、地理的な遠隔地に設置される。9は公衆回
線であり、ATMパケットがここを通過する。サイトA
81、およびサイトB82は、それぞれディスクアレイ
システム1を有する。ここでは、サイトA81が通常使
用される常用サイトであり、サイトB82はサイトA8
1が災害等でダウンしたときに使用されるリモートディ
ザスタリカバリサイトである。
Reference numeral 81 denotes a site A, 82 denotes a site B,
Both sites will be located in geographically remote locations. Reference numeral 9 denotes a public line through which an ATM packet passes. Site A
81 and site B82 each have a disk array system 1. Here, site A81 is a regular site that is normally used, and site B82 is site A8.
1 is a remote disaster recovery site used when a disaster occurs.

【0136】サイトA81のディスクアレイシステム1
0のディスクアレイサブセット“#0”、“#1”の内
容は、サイトB82のディスクアレイシステム10のリ
モートコピー用ディスクアレイサブセット“#0”、
“#1”にコピーされる。ディスクアレイスイッチ20
のI/Fノードのうち、リモートサイトに接続するもの
はATMを用いて公衆回線9に接続されている。このノ
ードをATMノード205と呼ぶ。ATMノード205
は、図5に示すホストI/Fノードと同様に構成され、
IC2023がATM−ファイバチャネルの変換を行
う。この変換は、第4実施形態におけるSCSI−ファ
イバチャネルの変換と同様の方法により実現される。
Disk Array System 1 at Site A81
The contents of the disk array subsets “# 0” and “# 1” of the disk array subset “# 0”,
Copied to “# 1”. Disk array switch 20
Of the I / F nodes connected to the remote site are connected to the public line 9 using ATM. This node is called an ATM node 205. ATM node 205
Is configured similarly to the host I / F node shown in FIG.
The IC 2023 performs ATM-Fibre Channel conversion. This conversion is realized by a method similar to the SCSI-Fibre Channel conversion in the fourth embodiment.

【0137】本実施形態におけるリモートコピーの処理
は、第6実施形態におけるミラーリングの処理と類似す
る。以下、第6実施形態におけるミラーリングの処理と
異なる点について説明する。
The remote copy processing according to the present embodiment is similar to the mirroring processing according to the sixth embodiment. Hereinafter, points different from the mirroring processing in the sixth embodiment will be described.

【0138】ホスト30がライトコマンドフレームを発
行すると、サイトA81のディスクアレイシステム10
は、第6実施形態における場合と同様にフレームの二重
化を実施し、その一方を自身のディスクアレイサブセッ
ト10に転送する。他方のフレームは、ATMノード20
5によりファイバチャネルフレームからATMパケット
に変換され、公衆回線9を介してサイトB82に送られ
る。
When the host 30 issues a write command frame, the disk array system 10 in the site A 81
Performs the frame duplication as in the sixth embodiment, and transfers one of the frames to its own disk array subset 10. The other frame is the ATM node 20
5, the packet is converted from the fiber channel frame into an ATM packet, and sent to the site B82 via the public line 9.

【0139】サイトB82では、ディスクアレイスイッ
チ20のATMノード205がこのパケットを受信す
る。ATMノード205のIC2023は、ATMパケ
ットからファイバチャネルフレームを再現し、SC20
22に転送する。SC2022は、ホスト30からライ
トコマンドを受信したときと同様にフレーム変換を施
し、リモートコピー用のディスクアレイサブセットに転
送する。以降、データ転送準備完了フレーム、データフ
レーム、ステータスフレームのすべてにおいて、ATM
ノード205においてファイバチャネル−ATM変換を
行い、同様のフレーム転送処理を実施することにより、
リモートコピーが実現できる。
At the site B82, the ATM node 205 of the disk array switch 20 receives this packet. The IC 2023 of the ATM node 205 reproduces the Fiber Channel frame from the ATM packet and
22. The SC 2022 performs frame conversion in the same manner as when a write command is received from the host 30, and transfers the frame to the remote copy disk array subset. Thereafter, in all of the data transfer ready frame, data frame, and status frame, the ATM
By performing Fiber Channel-ATM conversion at the node 205 and performing the same frame transfer processing,
Remote copy can be realized.

【0140】ホスト30がリードコマンドフレームを発
行した際には、ディスクアレイスイッチ20は、自サイ
トのディスクアレイサブセット10に対してのみコマン
ドフレームを転送し、自サイトのディスクアレイサブセ
ット10からのみデータをリードする。このときの動作
は、第1実施形態と同一となる。
When the host 30 issues a read command frame, the disk array switch 20 transfers the command frame only to the disk array subset 10 at its own site, and transfers data only from the disk array subset 10 at its own site. Lead. The operation at this time is the same as in the first embodiment.

【0141】本実施形態によれば、ユーザデータをリア
ルタイムでバックアップし、天災等によるサイト障害、
ディスクアレイシステム障害に対する耐性を備えること
ができる。
According to this embodiment, user data is backed up in real time,
It is possible to provide resistance to a disk array system failure.

【0142】[第9実施形態]次に、一台のディスクア
レイサブセット10に包含される複数のLUの統合につ
いて説明する。例えば、メインフレーム用のディスク装
置は、過去のシステムとの互換性を維持するために、論
理ボリュームのサイズの最大値が2GBに設定されてい
る。このようなディスクアレイシステムをオープンシス
テムでも共用する場合、LUは論理ボリュームサイズの
制限をそのまま受けることになり、小サイズのLUが多
数ホストから見えることになる。このような方法では、
大容量化が進展した場合に運用が困難になるという問題
が生じる。そこで、ディスクアレイスイッチ20の機能
により、この論理ボリューム(すなわちLU)を統合し
て一つの大きな統合LUを構成することを考える。本実
施形態では、統合LUの作成をディスクアレイスイッチ
20で実施する。
[Ninth Embodiment] Next, the integration of a plurality of LUs included in one disk array subset 10 will be described. For example, in a mainframe disk device, the maximum value of the logical volume size is set to 2 GB in order to maintain compatibility with past systems. When such a disk array system is shared even by an open system, LUs are subject to the restriction of the logical volume size as they are, and many small-sized LUs can be seen from many hosts. In such a way,
There is a problem that operation becomes difficult when the capacity is increased. Thus, it is considered that the logical volumes (that is, LUs) are integrated by the function of the disk array switch 20 to form one large integrated LU. In the present embodiment, the creation of the integrated LU is performed by the disk array switch 20.

【0143】本実施形態におけるLUの統合は、第1実
施形態における複数のディスクアレイサブセット10に
よる統合LUの作成と同一である。相違点は、同一のデ
ィスクアレイサブセット10内の複数LUによる統合で
あることだけである。ディスクアレイシステムとしての
動作は、第1実施形態と全く同一となる。
The integration of LUs in this embodiment is the same as the creation of integrated LUs by the plurality of disk array subsets 10 in the first embodiment. The only difference is that the integration is performed by a plurality of LUs in the same disk array subset 10. The operation of the disk array system is exactly the same as in the first embodiment.

【0144】このように、同一のディスクアレイサブセ
ット10に包含される複数のLUを統合して一つの大き
なLUを作成することで、ホストから多数のLUを管理
する必要がなくなり、運用性に優れ、管理コストを低減
したディスクアレイシステムを構築できる。
As described above, by integrating a plurality of LUs included in the same disk array subset 10 to create one large LU, there is no need to manage a large number of LUs from the host, resulting in excellent operability. Thus, a disk array system with reduced management costs can be constructed.

【0145】[第10実施形態]次に、ディスクアレイ
スイッチ10による交代パスの設定方法について、図2
6を参照しつつ説明する。
[Tenth Embodiment] Next, an alternate path setting method by the disk array switch 10 will be described with reference to FIG.
This will be described with reference to FIG.

【0146】図26に示された計算機システムにおける
各部の構成は、第1の実施形態と同様である。ここで
は、2台のホスト30が、各々異なるディスクアレイI
/F21を用いてディスクアレイサブセット10をアク
セスするとように構成していると仮定する。図では、デ
ィスクアレイサブセット、ディスクアレイスイッチ20
のホストI/Fノード203およびディスクアレイI/
Fノード202は、ここでの説明に必要な数しか示され
ていない。
The configuration of each unit in the computer system shown in FIG. 26 is the same as in the first embodiment. Here, two hosts 30 are connected to different disk arrays I
It is assumed that the disk array subset 10 is accessed using / F21. In the figure, the disk array subset, the disk array switch 20
Host I / F node 203 and disk array I / F
Only the number of F-nodes 202 required for the description here is shown.

【0147】ディスクアレイサブセット10は、図2と
同様の構成を有し、2つのディスクアレイI/Fコント
ローラはそれぞれ1台のディスクアレイスイッチ20に
接続している。ディスクアレイスイッチ20の各ノード
のDCT227には、ディスクアレイI/F21の交代
パスが設定される。交代パスとは、ある一つのパスに障
害が発生した場合にもアクセス可能になるように設けら
れる代替のパスのことである。ここでは、ディスクアレ
イI/F“#0”の交替パスをディスクアレイI/F
“#1”、ディスクアレイI/F“#1”の交替パスを
ディスクアレイI/F“#0”として設定しておく。同
様に、ディスクアレイサブセット10内の上位アダプタ
間、キャッシュ・交代メモリ間、下位アダプタ間のそれ
ぞれについても交代パスを設定しておく。
The disk array subset 10 has a configuration similar to that of FIG. 2, and two disk array I / F controllers are connected to one disk array switch 20, respectively. An alternate path of the disk array I / F 21 is set in the DCT 227 of each node of the disk array switch 20. An alternate path is an alternative path that is provided so that it can be accessed even when a failure occurs in one path. Here, the alternate path of the disk array I / F “# 0” is set as the disk array I / F.
An alternate path between “# 1” and the disk array I / F “# 1” is set as the disk array I / F “# 0”. Similarly, an alternate path is set for each of the upper-level adapters, the cache / alternate memory, and the lower-level adapters in the disk array subset 10.

【0148】次に、図26に示すように、ディスクアレ
イサブセット1の上位アダプタ“#1”に接続するディ
スクアレイI/F21が断線し、障害が発生したと仮定
して、交替パスの設定動作を説明する。このとき、障害
が発生したディスクアレイI/F21を利用しているホ
スト“#1”は、ディスクアレイサブセット10にアク
セスできなくなる。ディスクアレイスイッチ20は、デ
ィスクアレイサブセット10との間のフレーム転送の異
常を検出し、リトライ処理を実施しても回復しない場
合、このパスに障害が発生したと認識する。
Next, as shown in FIG. 26, assuming that the disk array I / F 21 connected to the upper adapter “# 1” of the disk array subset 1 has been disconnected and a fault has occurred, an alternate path setting operation is performed. Will be described. At this time, the host “# 1” using the failed disk array I / F 21 cannot access the disk array subset 10. The disk array switch 20 detects an abnormality in frame transfer with the disk array subset 10 and, if recovery is not possible even after retry processing, recognizes that a failure has occurred in this path.

【0149】パスの障害が発生すると、SP2021
は、DCT2027にディスクアレイI/F“#1”に
障害が発生したことを登録し、交代パスとしてディスク
アレイI/F“#0”を使用することを登録する。以
降、ホストI/Fノード203のSC2022は、ホス
ト“#1”からのフレームをディスクアレイI/F“#
0”に接続するディスクアレイI/Fノード202に転
送するように動作する。
When a path failure occurs, the SP 2021
Registers in the DCT 2027 that a failure has occurred in the disk array I / F "# 1" and that the disk array I / F "# 0" is to be used as an alternate path. Thereafter, the SC 2022 of the host I / F node 203 transmits the frame from the host “# 1” to the disk array I / F “#”.
It operates to transfer the data to the disk array I / F node 202 connected to “0”.

【0150】ディスクアレイサブセット10の上位アダ
プタ101は、ホスト“#1”からのコマンドを引き継
いで処理する。また、ディスクアレイスイッチ20は、
ディスクアレイシステム構成管理手段70に障害の発生
を通知し、ディスクアレイシステム構成管理手段70に
より管理者に障害の発生が通報される。
The host adapter 101 of the disk array subset 10 takes over the command from the host “# 1” and processes it. In addition, the disk array switch 20
The occurrence of the failure is notified to the disk array system configuration management means 70, and the occurrence of the failure is reported to the administrator by the disk array system configuration management means 70.

【0151】本実施形態によれば、パスに障害が発生し
た際の交替パスへの切り替えを、ホスト側に認識させる
ことなく行うことができ、ホスト側の交代処理設定を不
要にできる。これにより、システムの可用性を向上させ
ることができる。
According to the present embodiment, switching to an alternate path when a failure occurs in a path can be performed without causing the host to recognize the path, and the setting of the alternate processing on the host can be made unnecessary. Thereby, the availability of the system can be improved.

【0152】以上説明した各実施形態では、記憶メディ
アとして、すべてディスク装置を用いたディスクアレイ
システムについて説明した。しかし、本発明は、これに
限定されるものではなく、記憶メディアとしてディスク
装置に限らず、光ディスク装置、テープ装置、DVD装
置、半導体記憶装置等を用いた場合にも同様に適用でき
る。
In each of the embodiments described above, a disk array system using all disk devices as storage media has been described. However, the present invention is not limited to this, and can be similarly applied to a case where an optical disk device, a tape device, a DVD device, a semiconductor storage device, or the like is used as a storage medium, without being limited to a disk device.

【0153】[0153]

【発明の効果】本発明によれば、計算機システムの規
模、要求などに応じた記憶装置システムの拡張、信頼性
の向上などを容易に実現することのできる記憶装置シス
テムを実現することができる。
According to the present invention, it is possible to realize a storage system capable of easily realizing expansion of the storage system and improvement of reliability according to the scale and requirements of the computer system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1実施形態のコンピュータシステムの構成図
である。
FIG. 1 is a configuration diagram of a computer system according to a first embodiment.

【図2】第1実施形態のディスクアレイサブセットの構
成図である。
FIG. 2 is a configuration diagram of a disk array subset according to the first embodiment.

【図3】第1実施形態のディスクアレイスイッチの構成
図である。
FIG. 3 is a configuration diagram of a disk array switch according to the first embodiment.

【図4】第1実施形態におけるディスクアレイスイッチ
のクロスバスイッチの構成図である。
FIG. 4 is a configuration diagram of a crossbar switch of the disk array switch according to the first embodiment.

【図5】第1実施形態におけるディスクアレイスイッチ
のホストI/Fノードの構成図である。
FIG. 5 is a configuration diagram of a host I / F node of the disk array switch according to the first embodiment.

【図6】システム構成テーブルの構成図である。FIG. 6 is a configuration diagram of a system configuration table.

【図7】サブセット構成テーブルの構成図である。FIG. 7 is a configuration diagram of a subset configuration table.

【図8】ファイバチャネルのフレームの構成図である。FIG. 8 is a configuration diagram of a fiber channel frame.

【図9】ファイバチャネルのフレームヘッダの構成図で
ある。
FIG. 9 is a configuration diagram of a fiber channel frame header.

【図10】ファイバチャネルのフレームペイロードの構
成図である。
FIG. 10 is a configuration diagram of a fiber channel frame payload.

【図11】ホストからのリード動作時にファイバチャネ
ルを通して転送されるフレームのシーケンスを示す模式
図である。
FIG. 11 is a schematic diagram showing a sequence of a frame transferred through a fiber channel at the time of a read operation from a host.

【図12】ホストLU、各ディスクアレイサブセットの
LU、及び各ディスクユニットの対応関係を示す模式図
である。
FIG. 12 is a schematic diagram showing the correspondence between host LUs, LUs of each disk array subset, and disk units.

【図13】ライト処理時のホストI/Fノードにおける
処理のフローチャートである。
FIG. 13 is a flowchart of a process in the host I / F node at the time of a write process.

【図14】スイッチングパケットの構成図である。FIG. 14 is a configuration diagram of a switching packet.

【図15】複数のディスクアレイスイッチをクラスタ接
続したディスクアレイシステムの構成図である。
FIG. 15 is a configuration diagram of a disk array system in which a plurality of disk array switches are connected in a cluster.

【図16】第2実施形態におけるコンピュータシステム
の構成図である。
FIG. 16 is a configuration diagram of a computer system according to a second embodiment.

【図17】第4実施形態におけるディスクアレイスイッ
チのインタフェースコントローラの構成図である。
FIG. 17 is a configuration diagram of an interface controller of a disk array switch according to a fourth embodiment.

【図18】第5実施形態におけるコンピュータシステム
の構成図である。
FIG. 18 is a configuration diagram of a computer system according to a fifth embodiment.

【図19】論理接続構成画面の表示例を示す画面構成図
である。
FIG. 19 is a screen configuration diagram illustrating a display example of a logical connection configuration screen.

【図20】第6実施形態におけるフレームシーケンスを
示す模式図である。
FIG. 20 is a schematic diagram showing a frame sequence in the sixth embodiment.

【図21】第6実施形態のミラーリングライト処理時の
ホストI/Fノードにおける処理のフローチャートであ
る。
FIG. 21 is a flowchart of a process in a host I / F node during a mirroring write process according to a sixth embodiment.

【図22】第6実施形態のミラーリングライト処理時の
ホストI/Fノードにおける処理のフローチャートであ
る。
FIG. 22 is a flowchart of a process in a host I / F node during a mirroring write process according to a sixth embodiment.

【図23】第7実施形態におけるホストLUと各ディス
クアレイサブセットのLUとの対応関係を示す模式図で
ある。
FIG. 23 is a schematic diagram showing the correspondence between host LUs and LUs of each disk array subset in the seventh embodiment.

【図24】第7実施形態におけるホストI/Fノードの
処理を示すフローチャートである。
FIG. 24 is a flowchart illustrating processing of a host I / F node according to the seventh embodiment.

【図25】第8実施形態におけるディザスタリカバリシ
ステムの構成図である。
FIG. 25 is a configuration diagram of a disaster recovery system according to an eighth embodiment.

【図26】交替パスの設定についての説明図である。FIG. 26 is an explanatory diagram of setting of a replacement path.

【符号の説明】[Explanation of symbols]

1…ディスクアレイシステム、5…管理端末、10…デ
ィスクアレイサブセット、20…ディスクアレイスイッ
チ、30…ホストコンピュータ、70…ディスクアレイ
システム構成管理手段、200…管理プロセッサ、20
1…クロスバスイッチ、202…ディスクアレイI/F
ノード、203…ホストI/Fノード、204…通信コ
ントローラ。
DESCRIPTION OF SYMBOLS 1 ... Disk array system, 5 ... Management terminal, 10 ... Disk array subset, 20 ... Disk array switch, 30 ... Host computer, 70 ... Disk array system configuration management means, 200 ... Management processor, 20
1: Crossbar switch, 202: Disk array I / F
Node 203: Host I / F node 204: Communication controller

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 彰 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 味松 康行 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 佐藤 雅彦 神奈川県小田原市国府津2880番地 株式会 社日立製作所ストレージシステム事業部内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Akira Yamamoto 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture Inside Hitachi, Ltd.System Development Laboratory (72) Inventor Yasuyuki Ajimatsu 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture (72) Inventor Masahiko Sato 2880 Kozu, Odawara City, Kanagawa Prefecture Storage Systems Division, Hitachi, Ltd.

Claims (20)

Translated fromJapanese
【特許請求の範囲】[Claims]【請求項1】データを保持する記憶媒体を有する記憶装
置と該記憶装置を制御する制御装置とを有する複数の記
憶装置サブシステムと、前記複数の記憶装置サブシステ
ムに保持されるデータを使用する計算機に接続され、記
憶装置システムの構成情報を格納した構成管理テーブル
と、前記計算機から送られてくるフレームに応答して、
該フレームを解析し、前記構成管理テーブルに保持され
た構成情報に基づいて前記フレームを変換するフレーム
変換手段とを有する第1のインタフェースノードと、各
々が前記記憶装置サブシステムのいずれか1つに接続さ
れた複数の第2のインタフェースノードと、前記第1の
インタフェースノード及び前記複数の第2のインタフェ
ースノードが接続され、前記第1のインタフェースノー
ドと前記複数の第2のインタフェースノードとの間で前
記フレームの転送を行う転送手段とを有することを特徴
とする記憶装置システム。
1. A plurality of storage subsystems having a storage device having a storage medium for storing data and a control device for controlling the storage device, and using data stored in the plurality of storage subsystems. A configuration management table connected to the computer and storing configuration information of the storage device system, and in response to a frame sent from the computer,
A first interface node having frame conversion means for analyzing the frame and converting the frame based on the configuration information held in the configuration management table; each of the first interface nodes having one of the storage subsystems; A plurality of connected second interface nodes, the first interface node and the plurality of second interface nodes are connected, and a connection is made between the first interface node and the plurality of second interface nodes. And a transfer unit for transferring the frame.
【請求項2】前記第1のインタフェースノードは、前記
フレームに前記第2のインタフェースノードのノードア
ドレス情報を付加して出力するパケット生成手段を有
し、前記転送手段は、前記ノードアドレス情報に基づい
て前記第1のインタフェースノードと前記複数の第2の
インタフェースノードとの間で前記フレームの転送を行
うことを特徴とする請求項1記載の記憶装置システム。
2. The apparatus according to claim 1, wherein said first interface node has packet generating means for adding node address information of said second interface node to said frame and outputting said frame. 2. The storage device system according to claim 1, wherein the frame is transferred between the first interface node and the plurality of second interface nodes.
【請求項3】前記フレームは、転送元及び転送先を指定
する識別子を保持するヘッダ部と、転送される実体デー
タを保持するデータ実体部とを有し、前記変換手段は、
前記構成情報に基づき前記ヘッダ部に保持された転送先
の識別子を変換することを特徴とする請求項1記載の記
憶装置システム。
3. The frame has a header section for holding an identifier designating a transfer source and a transfer destination, and a data entity section for holding entity data to be transferred.
2. The storage device system according to claim 1, wherein an identifier of a transfer destination held in the header section is converted based on the configuration information.
【請求項4】前記フレームは、前記データ実体部に、前
記計算機により認識されている第1の論理アドレス情報
を含み、前記変換手段は、前記構成管理テーブルに保持
された前記構成情報に基づいて、前記第1の論理アドレ
ス情報を、該フレームの転送先となる記憶装置サブシス
テム内で管理される第2の論理アドレスに変換すること
を特徴とする請求項3記載の記憶装置システム。
4. The frame includes, in the data entity, first logical address information recognized by the computer, and the conversion unit performs processing based on the configuration information held in the configuration management table. 4. The storage device system according to claim 3, wherein the first logical address information is converted into a second logical address managed in a storage device subsystem to which the frame is transferred.
【請求項5】前記記憶装置システムは、さらに、前記転
送手段に接続し、オペレータから記憶装置システムの構
成を定義する構成情報の入力を受け付け、該入力に応答
して、各ノードの前記構成管理テーブルに前記構成情報
を設定する管理プロセッサを有することを特徴とする請
求項1記載の記憶装置システム。
5. The storage system further connects to the transfer means, receives an input of configuration information defining the configuration of the storage system from an operator, and responds to the input to execute the configuration management of each node. 2. The storage system according to claim 1, further comprising a management processor that sets the configuration information in a table.
【請求項6】前記構成情報は、前記計算機から前記複数
の記憶装置サブシステムへのアクセスを制限する情報を
含むことを特徴とする請求項5記載の記憶装置システ
ム。
6. The storage system according to claim 5, wherein the configuration information includes information for restricting access from the computer to the plurality of storage subsystems.
【請求項7】前記第1のインタフェースノードは、前記
計算機から転送されてくるデータの書き込みを指示する
ライトコマンドフレームに応答して、該ライトコマンド
フレーム及びそれに続くデータフレームについてそれら
の複製を生成し、前記ライトコマンドフレーム及びそれ
に続くデータフレームが少なくとも2つの記憶装置サブ
システムに送られるよう、各々のフレームに異なるノー
ドアドレス情報を付加して前記転送手段に転送すること
を特徴とする請求項2記載の記憶装置システム。
7. The first interface node, in response to a write command frame instructing writing of data transferred from the computer, generates a copy of the write command frame and a subsequent data frame thereof. 3. The frame according to claim 2, wherein the write command frame and the subsequent data frame are transferred to the transfer means with different node address information added to each frame so as to be sent to at least two storage subsystems. Storage system.
【請求項8】前記第1のインタフェースノードは、前記
計算機から転送されてくるデータのリードを指示するリ
ードコマンドフレームに応答して、該リードコマンドフ
レームの複製を生成し、前記少なくとも2つの記憶装置
サブシステムに前記リードコマンドフレームが送られる
ように、各々のリードコマンドフレームに異なるノード
アドレス情報を付加して前記転送手段に転送することを
特徴とする請求項7記載の記憶装置サブシステム。
8. The first interface node, in response to a read command frame instructing to read data transferred from the computer, generates a copy of the read command frame, and generates a copy of the read command frame. 8. The storage subsystem according to claim 7, wherein different read node address information is added to each read command frame and the read command frame is transferred to the transfer unit so that the read command frame is sent to the subsystem.
【請求項9】前記第1のインタフェースノードは、前記
リードコマンドフレームに応答して前記少なくとも2つ
の記憶装置サブシステムから転送されてくるデータフレ
ームを受信し、その一方を選択して前記計算機に転送す
ることを特徴とする請求項8記載の記憶装置システム。
9. The first interface node receives a data frame transferred from the at least two storage subsystems in response to the read command frame, selects one of the data frames, and transfers the selected data frame to the computer. 9. The storage device system according to claim 8, wherein:
【請求項10】前記第1のインタフェースノードは、前
記計算機から転送されてくるデータのリードを指示する
リードコマンドフレームに応答して、前記少なくとも2
つの記憶装置サブシステムのうち予め定められた一の記
憶装置サブシステムに接続する第2のインタフェースノ
ードのノードアドレス情報を前記リードコマンドフレー
ムに付加して前記転送手段に転送することを特徴とする
請求項7記載の記憶装置サブシステム。
10. The first interface node responds to a read command frame instructing to read data transferred from the computer.
Wherein the node address information of a second interface node connected to a predetermined one of the storage subsystems is added to the read command frame and transferred to the transfer means. Item 8. The storage subsystem according to Item 7.
【請求項11】データを保持する記憶媒体を有する記憶
装置、及び該記憶装置を制御する制御装置とを有する複
数の記憶装置サブシステムと、前記記憶装置に格納され
たデータを利用する計算機との間に接続されるスイッチ
装置であって、前記計算機に接続され、記憶装置システ
ムの構成情報を格納した構成管理テーブルと、前記計算
機から送られてくるフレームに応答して、該フレームを
解析し、前記構成管理テーブルに保持された前記構成情
報に基づいて前記フレームを変換する変換手段と、各々
が前記記憶装置サブシステムのいずれかに接続された複
数の第2のインタフェースノードと、前記第1のインタ
フェースノード及び前記複数の第2のインタフェースノ
ードが接続され、前記第1のインタフェースノードと前
記複数の第2のインタフェースノードとの間で前記フレ
ームの転送を行う転送手段とを有すること特徴とするス
イッチ装置。
11. A storage device having a storage medium for storing data, a plurality of storage device subsystems having a control device for controlling the storage device, and a computer using data stored in the storage device. A switch device connected between the computer, the configuration management table storing the configuration information of the storage device system, and in response to a frame sent from the computer, analyze the frame, A conversion unit configured to convert the frame based on the configuration information held in the configuration management table; a plurality of second interface nodes each connected to one of the storage subsystems; An interface node and the plurality of second interface nodes are connected, and the first interface node and the plurality of second interfaces are connected. Switch device according to claim further comprising a transfer means for transferring the frames between the interface node.
【請求項12】前記第1のインタフェースノードが、前
記フレームに前記第2のインタフェースノードのノード
アドレス情報を付加して出力するパケット生成手段を有
し、前記転送手段は、前記ノードアドレス情報に基づい
て前記第1のインタフェースノードと前記複数の第2の
インタフェースノードとの間で前記フレームの転送を行
うことを特徴とする請求項11記載のスイッチ装置。
12. The packet processing device according to claim 1, wherein said first interface node has packet generation means for adding node address information of said second interface node to said frame and outputting said frame, and said transfer means is configured to output said packet based on said node address information. 12. The switch device according to claim 11, wherein the frame is transferred between the first interface node and the plurality of second interface nodes.
【請求項13】前記フレームは、転送元及び転送先を指
定する識別子を保持するヘッダ部と、転送される実体デ
ータを保持するデータ実体部とを有し、前記変換手段
は、前記構成情報に基づき前記ヘッダ部に保持された転
送先の識別子を変換することを特徴とする請求項11記
載のスイッチ装置。
13. The frame has a header section for holding an identifier designating a transfer source and a transfer destination, and a data entity section for holding entity data to be transferred. 12. The switch device according to claim 11, wherein a transfer destination identifier held in the header is converted based on the header.
【請求項14】前記フレームは、前記データ実体部に、
前記計算機により認識されている前記データの格納先を
示す第1の論理アドレス情報を含み、前記変換手段は、
前記構成管理テーブルに保持された前記構成情報に基づ
いて、前記第1の論理アドレス情報を、該フレームの転
送先となる記憶装置サブシステム内で管理される第2の
論理アドレスに変換することを特徴とする請求項13記
載のスイッチ装置。
14. The frame according to claim 1, wherein:
The first conversion unit includes first logical address information indicating a storage destination of the data recognized by the computer, and the conversion unit includes:
Converting the first logical address information into a second logical address managed in a storage subsystem to which the frame is to be transferred, based on the configuration information held in the configuration management table. 14. The switch device according to claim 13, wherein the switch device is a switch device.
【請求項15】前記スイッチ装置は、さらに、前記転送
手段に接続し、オペレータから該スイッチ装置及び前記
複数の記憶装置サブシステムを含んで構成される記憶装
置システムの構成を定義する構成情報の入力を受け付
け、該入力に応答して、各ノードの構成管理テーブルに
前記構成情報を設定する管理プロセッサを有することを
特徴とする請求項11記載のスイッチ装置。
15. The switch device is further connected to the transfer means, and receives input of configuration information defining a configuration of a storage device system including the switch device and the plurality of storage device subsystems from an operator. 12. The switch device according to claim 11, further comprising a management processor configured to receive the input and to set the configuration information in a configuration management table of each node in response to the input.
【請求項16】前記第1のインタフェースノードは、前
記計算機から転送されてくるデータの書き込みを指示す
るライトコマンドフレームに応答して、該ライトコマン
ドフレーム及びそれに続くデータフレームについてそれ
らの複製を生成し、前記ライトコマンドフレーム及びそ
れに続くデータフレームが少なくとも2つの記憶装置サ
ブシステムに送られるよう、各々のフレームに異なるノ
ードアドレス情報を付加して前記転送手段に転送するこ
とを特徴とする請求項12記載のスイッチ装置。
16. The first interface node, in response to a write command frame instructing writing of data transferred from the computer, generates a copy of the write command frame and a subsequent data frame thereof. 13. The frame according to claim 12, wherein the write command frame and the subsequent data frame are transferred to the transfer unit with different node address information added to each frame so as to be sent to at least two storage subsystems. Switch device.
【請求項17】前記第1のインタフェースノードは、前
記計算機から転送されてくるデータのリードを指示する
リードコマンドフレームに応答して、該リードコマンド
フレームの複製を生成し、前記少なくとも2つの記憶装
置サブシステムに前記リードコマンドフレームが送られ
るように、各々のリードコマンドフレームに異なるノー
ドアドレス情報を付加して前記転送手段に転送すること
を特徴とする請求項16記載のスイッチ装置。
17. The first interface node, in response to a read command frame instructing to read data transferred from the computer, generates a copy of the read command frame, and generates a copy of the read command frame. 17. The switch device according to claim 16, wherein the read command frame is transferred to the transfer means with different node address information added to each read command frame so that the read command frame is sent to the subsystem.
【請求項18】前記第1のインタフェースノードは、前
記リードコマンドフレームに応答して前記少なくとも2
つの記憶装置サブシステムから転送されてくるデータフ
レームを受信し、その一方を選択して前記計算機に転送
することを特徴とする請求項17記載のスイッチ装置。
18. The system according to claim 18, wherein said first interface node responds to said read command frame by said at least two interface nodes.
18. The switch device according to claim 17, wherein a data frame transferred from one of the storage subsystems is received, one of which is selected and transferred to the computer.
【請求項19】前記第1のインタフェースノードは、前
記計算機から転送されてくるデータのリードを指示する
リードコマンドフレームに応答して、前記少なくとも2
つの記憶装置サブシステムのうち予め定められた一の記
憶装置サブシステムに接続する第2のインタフェースノ
ードのノードアドレス情報を前記リードコマンドフレー
ムに付加して前記転送手段に転送することを特徴とする
請求項16記載のスイッチ装置。
19. The method according to claim 19, wherein the first interface node responds to a read command frame instructing to read data transferred from the computer.
Wherein the node address information of a second interface node connected to a predetermined one of the storage subsystems is added to the read command frame and transferred to the transfer means. Item 17. The switching device according to Item 16.
【請求項20】データを保持する記憶媒体を有する記憶
装置と、該記憶装置を制御する制御装置とを有する複数
の記憶装置サブシステムと、前記複数の記憶装置サブシ
ステムに保持されるデータを使用する計算機に接続され
た第1のインタフェースノードと、各々が前記記憶装置
サブシステムのいずれか1つに接続された複数の第2の
インタフェースノードと、前記第1のインタフェースノ
ード及び前記複数の第2のインタフェースノードが接続
され、前記第1のインタフェースノードと前記複数の第
2のインタフェースノードとの間でフレームの転送を行
う転送手段と、前記転送手段に接続し、オペレータによ
り入力された記憶装置システムの構成を定義する構成情
報を保持する管理テーブルを備えて前記構成情報に基づ
いて該記憶装置システムの構成を管理する管理プロセッ
サとを有することを特徴とする記憶装置システム。
20. A storage device having a storage medium for storing data, a plurality of storage device subsystems having a control device for controlling the storage device, and data stored in the plurality of storage device subsystems. A first interface node connected to a computer to be connected, a plurality of second interface nodes each connected to any one of the storage subsystems, the first interface node and the second interfaces Transfer means for transferring a frame between the first interface node and the plurality of second interface nodes, and a storage system connected to the transfer means and input by an operator A management table that holds configuration information that defines the configuration of the storage device, based on the configuration information. Storage system, comprising a management processor for managing the configuration systems out.
JP11344260A1998-12-221999-12-03 Storage systemWithdrawnJP2000242434A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP11344260AJP2000242434A (en)1998-12-221999-12-03 Storage system

Applications Claiming Priority (3)

Application NumberPriority DateFiling DateTitle
JP10-3640791998-12-22
JP364079981998-12-22
JP11344260AJP2000242434A (en)1998-12-221999-12-03 Storage system

Related Child Applications (2)

Application NumberTitlePriority DateFiling Date
JP2003426165ADivisionJP4874515B2 (en)1998-12-222003-12-24 Storage system
JP2007035620ADivisionJP2007141264A (en)1998-12-222007-02-16 Storage system

Publications (2)

Publication NumberPublication Date
JP2000242434Atrue JP2000242434A (en)2000-09-08
JP2000242434A5 JP2000242434A5 (en)2004-12-09

Family

ID=26577730

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP11344260AWithdrawnJP2000242434A (en)1998-12-221999-12-03 Storage system

Country Status (1)

CountryLink
JP (1)JP2000242434A (en)

Cited By (70)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2002215554A (en)*2000-12-202002-08-02Internatl Business Mach Corp <Ibm>System and method for data recording and network system
WO2002065298A1 (en)2001-02-132002-08-22Candera, Inc.Silicon-based storage virtualization server
JP2003030167A (en)*2001-04-272003-01-31Internatl Business Mach Corp <Ibm>Atomic ownership change operation for input/output bridge device in clustered computer system
JP2003202964A (en)*2002-01-092003-07-18Hitachi Ltd Computer system control method, computer system, storage device control method, and storage device
JP2004240949A (en)*2002-11-262004-08-26Hitachi Ltd Cluster type storage system and management method thereof
JP2005011277A (en)*2003-06-232005-01-13Hitachi Ltd Storage device connected to external storage
WO2005006175A1 (en)*2003-07-102005-01-20Fujitsu LimitedMethod for grouping a plurality of logic units, received request processing method, device for grouping a plurality of logic units, and received request processing device
WO2003062979A3 (en)*2002-01-232005-05-12Cisco Tech IndMethods and apparatus for implementing virtualization of storage within a storage area network
JP2005524264A (en)*2002-04-252005-08-11インターナショナル・ビジネス・マシーンズ・コーポレーション Data processing system and method for managing data transfer in a network
JP2006178811A (en)*2004-12-242006-07-06Hitachi Ltd Storage system and storage system path control method
JP2006195977A (en)*2005-01-142006-07-27Internatl Business Mach Corp <Ibm>Method, system, and product for redirecting storage access request
US7120739B2 (en)2004-04-142006-10-10Hitachi, Ltd.Storage system
JP2007048323A (en)*2002-11-252007-02-22Hitachi Ltd Virtualization control device and data migration control method
JP2007065751A (en)*2005-08-292007-03-15Hitachi Ltd Storage system and storage control method
US7203814B2 (en)2003-10-062007-04-10Hitachi, Ltd.Storage system
US7213124B2 (en)2003-05-282007-05-01Hitachi, Ltd.Method for allocating storage area to virtual volume
JP2007115264A (en)*2003-09-172007-05-10Hitachi Ltd Storage system
JP2007149068A (en)*2005-11-232007-06-14Internatl Business Mach Corp <Ibm> Methods, systems, and products for rebalancing striped disk data (striped disk data rebalancing)
JP2007157089A (en)*2005-12-092007-06-21Fujitsu Ltd Storage virtualization apparatus and computer system using the same
US7263593B2 (en)2002-11-252007-08-28Hitachi, Ltd.Virtualization controller and data transfer control method
JP2007524877A (en)*2003-01-202007-08-30イコールロジック, インク. Data storage system
US7287116B2 (en)2002-04-052007-10-23Hitachi, Ltd.Storage virtualization system and method having a virtualization switch
US7299333B2 (en)2000-12-072007-11-20Hitachi, Ltd.Computer system with storage system having re-configurable logical volumes
JP2008027459A (en)*2000-12-072008-02-07Hitachi Ltd Computer system
US7337374B2 (en)2002-04-232008-02-26Hitachi, Ltd.Program, information processing method, information processing apparatus, and storage apparatus
JP2008071005A (en)*2006-09-132008-03-27Hitachi Ltd Storage system that makes effective use of available ports
US7356581B2 (en)2001-04-182008-04-08Hitachi, Ltd.Storage network switch
US7383385B2 (en)2001-01-232008-06-03Emc CorporationRemote mirroring in a switched environment
JP2008171420A (en)*2002-04-262008-07-24Hitachi Ltd Storage system control method and storage control device
JP2008529167A (en)*2005-01-272008-07-31ネットワーク・アプライアンス・インコーポレイテッド Collaborative shared storage architecture
US7412543B2 (en)2002-04-262008-08-12Hitachi, Ltd.Method for controlling storage system, and storage control apparatus
WO2008126202A1 (en)*2007-03-232008-10-23Fujitsu LimitedLoad distribution program for storage system, load distribution method for storage system, and storage management device
JP2008539531A (en)*2005-04-292008-11-13ネットワーク・アプライアンス・インコーポレイテッド Data placement technology for striping data containers across multiple volumes in a storage system cluster
US7548975B2 (en)2002-01-092009-06-16Cisco Technology, Inc.Methods and apparatus for implementing virtualization of storage within a storage area network through a virtual enclosure
US7571280B2 (en)2003-04-252009-08-04Hitachi, Ltd.Cluster-type storage system and managing method of the cluster-type storage system
US7609649B1 (en)2005-04-262009-10-27Cisco Technology, Inc.Methods and apparatus for improving network based virtualization performance
JP2009259100A (en)*2008-04-182009-11-05Nec CorpDisk array system, disk device, casing-to-casing mirroring method, and program
JP2009541854A (en)*2006-06-202009-11-26ラテゼ・リモート・エム・ジー・エム・テイ・エル・エル・シー Generating commands for storage systems
US7673107B2 (en)2004-10-272010-03-02Hitachi, Ltd.Storage system and storage control device
US7743211B2 (en)2003-04-252010-06-22Hitachi LtdCluster-type storage system and managing method of the cluster-type storage system
US7747827B2 (en)2002-03-202010-06-29Hitachi, Ltd.Storage system, disk control cluster, and its increase method
US7761677B2 (en)2002-04-022010-07-20Hitachi, Ltd.Clustered storage system and its control method
JP2010191989A (en)*2010-04-262010-09-02Hitachi Ltd Storage control system and method
JP2010211549A (en)*2009-03-112010-09-24Fujitsu LtdManagement program, management apparatus and management method
US7814270B2 (en)2004-03-122010-10-12Hitachi, Ltd.Storage systems and methods of controlling cache memory of storage systems
JP2010250813A (en)*2002-10-312010-11-04Ring Technology Enterprises LlcMethod and system for storage system
US7882287B2 (en)2003-06-272011-02-01Brother Kogyo Kabushiki KaishaPeripheral device
US7899971B2 (en)2008-01-222011-03-01Hitachi, Ltd.Mainframe storage controller and mainframe volume virtualization method
US7934023B2 (en)2003-12-012011-04-26Cisco Technology, Inc.Apparatus and method for performing fast fibre channel write operations over relatively high latency networks
US8006056B2 (en)2004-01-302011-08-23Hewlett-Packard Development Company, L.P.Storage system including capability to move a virtual storage device group without moving data
US8782739B2 (en)2002-12-042014-07-15Cisco Technology, Inc.Access list key compression
US8805918B1 (en)2002-09-112014-08-12Cisco Technology, Inc.Methods and apparatus for implementing exchange management for virtualization of storage within a storage area network
JP2015065507A (en)*2013-09-242015-04-09日本電気株式会社Gateway device, communication network and gateway device control method
US9430440B2 (en)2012-01-062016-08-30Fujitsu LimitedEnvironment construction apparatus and method, environment registration apparatus and method, environment switching apparatus and method
US10140172B2 (en)2016-05-182018-11-27Cisco Technology, Inc.Network-aware storage repairs
US10222986B2 (en)2015-05-152019-03-05Cisco Technology, Inc.Tenant-level sharding of disks with tenant-specific storage modules to enable policies per tenant in a distributed storage system
US10243823B1 (en)2017-02-242019-03-26Cisco Technology, Inc.Techniques for using frame deep loopback capabilities for extended link diagnostics in fibre channel storage area networks
US10243826B2 (en)2015-01-102019-03-26Cisco Technology, Inc.Diagnosis and throughput measurement of fibre channel ports in a storage area network environment
US10254991B2 (en)2017-03-062019-04-09Cisco Technology, Inc.Storage area network based extended I/O metrics computation for deep insight into application performance
US10303534B2 (en)2017-07-202019-05-28Cisco Technology, Inc.System and method for self-healing of application centric infrastructure fabric memory
US10404596B2 (en)2017-10-032019-09-03Cisco Technology, Inc.Dynamic route profile storage in a hardware trie routing table
US10545914B2 (en)2017-01-172020-01-28Cisco Technology, Inc.Distributed object storage
US10585830B2 (en)2015-12-102020-03-10Cisco Technology, Inc.Policy-driven storage in a microserver computing environment
US10664169B2 (en)2016-06-242020-05-26Cisco Technology, Inc.Performance of object storage system by reconfiguring storage devices based on latency that includes identifying a number of fragments that has a particular storage device as its primary storage device and another number of fragments that has said particular storage device as its replica storage device
US10778765B2 (en)2015-07-152020-09-15Cisco Technology, Inc.Bid/ask protocol in scale-out NVMe storage
US10826829B2 (en)2015-03-262020-11-03Cisco Technology, Inc.Scalable handling of BGP route information in VXLAN with EVPN control plane
US10872056B2 (en)2016-06-062020-12-22Cisco Technology, Inc.Remote memory access using memory mapped addressing among multiple compute nodes
US10942666B2 (en)2017-10-132021-03-09Cisco Technology, Inc.Using network device replication in distributed storage clusters
US11563695B2 (en)2016-08-292023-01-24Cisco Technology, Inc.Queue protection using a shared global memory reserve
US11588783B2 (en)2015-06-102023-02-21Cisco Technology, Inc.Techniques for implementing IPV6-based distributed storage space

Cited By (98)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2008027459A (en)*2000-12-072008-02-07Hitachi Ltd Computer system
US7299333B2 (en)2000-12-072007-11-20Hitachi, Ltd.Computer system with storage system having re-configurable logical volumes
JP2002215554A (en)*2000-12-202002-08-02Internatl Business Mach Corp <Ibm>System and method for data recording and network system
US7383385B2 (en)2001-01-232008-06-03Emc CorporationRemote mirroring in a switched environment
WO2002065298A1 (en)2001-02-132002-08-22Candera, Inc.Silicon-based storage virtualization server
EP1370947A4 (en)*2001-02-132009-05-27Candera Inc SERVER OF VIRTUALIZATION AND STORAGE ON SILICON
US7356581B2 (en)2001-04-182008-04-08Hitachi, Ltd.Storage network switch
JP2003030167A (en)*2001-04-272003-01-31Internatl Business Mach Corp <Ibm>Atomic ownership change operation for input/output bridge device in clustered computer system
JP2003202964A (en)*2002-01-092003-07-18Hitachi Ltd Computer system control method, computer system, storage device control method, and storage device
US7548975B2 (en)2002-01-092009-06-16Cisco Technology, Inc.Methods and apparatus for implementing virtualization of storage within a storage area network through a virtual enclosure
US7433948B2 (en)2002-01-232008-10-07Cisco Technology, Inc.Methods and apparatus for implementing virtualization of storage within a storage area network
CN100334534C (en)*2002-01-232007-08-29思科技术公司Methods and apparatus for implementing virtualization of storage within a storage area network
WO2003062979A3 (en)*2002-01-232005-05-12Cisco Tech IndMethods and apparatus for implementing virtualization of storage within a storage area network
US8725854B2 (en)2002-01-232014-05-13Cisco Technology, Inc.Methods and apparatus for implementing virtualization of storage within a storage area network
US7747827B2 (en)2002-03-202010-06-29Hitachi, Ltd.Storage system, disk control cluster, and its increase method
US7761677B2 (en)2002-04-022010-07-20Hitachi, Ltd.Clustered storage system and its control method
US7287116B2 (en)2002-04-052007-10-23Hitachi, Ltd.Storage virtualization system and method having a virtualization switch
US7337374B2 (en)2002-04-232008-02-26Hitachi, Ltd.Program, information processing method, information processing apparatus, and storage apparatus
JP2005524264A (en)*2002-04-252005-08-11インターナショナル・ビジネス・マシーンズ・コーポレーション Data processing system and method for managing data transfer in a network
US7412543B2 (en)2002-04-262008-08-12Hitachi, Ltd.Method for controlling storage system, and storage control apparatus
JP2008171420A (en)*2002-04-262008-07-24Hitachi Ltd Storage system control method and storage control device
US7457899B2 (en)2002-04-262008-11-25Hitachi, Ltd.Method for controlling storage system, and storage control apparatus
US8805918B1 (en)2002-09-112014-08-12Cisco Technology, Inc.Methods and apparatus for implementing exchange management for virtualization of storage within a storage area network
US9733868B2 (en)2002-09-112017-08-15Cisco Technology, Inc.Methods and apparatus for implementing exchange management for virtualization of storage within a storage area network
JP2010250813A (en)*2002-10-312010-11-04Ring Technology Enterprises LlcMethod and system for storage system
US7263593B2 (en)2002-11-252007-08-28Hitachi, Ltd.Virtualization controller and data transfer control method
US8190852B2 (en)2002-11-252012-05-29Hitachi, Ltd.Virtualization controller and data transfer control method
US7877568B2 (en)2002-11-252011-01-25Hitachi, Ltd.Virtualization controller and data transfer control method
US7694104B2 (en)2002-11-252010-04-06Hitachi, Ltd.Virtualization controller and data transfer control method
JP2007048323A (en)*2002-11-252007-02-22Hitachi Ltd Virtualization control device and data migration control method
US8572352B2 (en)2002-11-252013-10-29Hitachi, Ltd.Virtualization controller and data transfer control method
US7366853B2 (en)2002-11-252008-04-29Hitachi, Ltd.Virtualization controller and data transfer control method
US7069385B2 (en)2002-11-262006-06-27Hitachi, Ltd.Cluster-type storage system and managing method of the cluster-type storage system
JP2004240949A (en)*2002-11-262004-08-26Hitachi Ltd Cluster type storage system and management method thereof
US8782739B2 (en)2002-12-042014-07-15Cisco Technology, Inc.Access list key compression
JP2007524877A (en)*2003-01-202007-08-30イコールロジック, インク. Data storage system
US7743211B2 (en)2003-04-252010-06-22Hitachi LtdCluster-type storage system and managing method of the cluster-type storage system
US7571280B2 (en)2003-04-252009-08-04Hitachi, Ltd.Cluster-type storage system and managing method of the cluster-type storage system
US7257694B2 (en)2003-05-282007-08-14Hitachi, Ltd.Method for allocating storage area to virtual volume
US7213124B2 (en)2003-05-282007-05-01Hitachi, Ltd.Method for allocating storage area to virtual volume
US7484071B2 (en)2003-05-282009-01-27Hitachi, Ltd.Method for allocating storage area to virtual volume
JP2005011277A (en)*2003-06-232005-01-13Hitachi Ltd Storage device connected to external storage
US7882287B2 (en)2003-06-272011-02-01Brother Kogyo Kabushiki KaishaPeripheral device
WO2005006175A1 (en)*2003-07-102005-01-20Fujitsu LimitedMethod for grouping a plurality of logic units, received request processing method, device for grouping a plurality of logic units, and received request processing device
JP2007115264A (en)*2003-09-172007-05-10Hitachi Ltd Storage system
US7590818B2 (en)2003-10-062009-09-15Hitachi, Ltd.Storage system having a plurality of virtualization apparatuses that allocate a storage area, form a plurality of virtual volumes, and process input-output from a host processor
US7203814B2 (en)2003-10-062007-04-10Hitachi, Ltd.Storage system
US7334106B2 (en)2003-10-062008-02-19Hitachi, Ltd.Storage system
US7934023B2 (en)2003-12-012011-04-26Cisco Technology, Inc.Apparatus and method for performing fast fibre channel write operations over relatively high latency networks
US8006056B2 (en)2004-01-302011-08-23Hewlett-Packard Development Company, L.P.Storage system including capability to move a virtual storage device group without moving data
US7814270B2 (en)2004-03-122010-10-12Hitachi, Ltd.Storage systems and methods of controlling cache memory of storage systems
US7249220B2 (en)2004-04-142007-07-24Hitachi, Ltd.Storage system
US7594074B2 (en)2004-04-142009-09-22Hitachi, Ltd.Storage system
US7120739B2 (en)2004-04-142006-10-10Hitachi, Ltd.Storage system
US7673107B2 (en)2004-10-272010-03-02Hitachi, Ltd.Storage system and storage control device
JP2006178811A (en)*2004-12-242006-07-06Hitachi Ltd Storage system and storage system path control method
JP2006195977A (en)*2005-01-142006-07-27Internatl Business Mach Corp <Ibm>Method, system, and product for redirecting storage access request
JP2008529167A (en)*2005-01-272008-07-31ネットワーク・アプライアンス・インコーポレイテッド Collaborative shared storage architecture
US8644174B2 (en)2005-04-262014-02-04Cisco Technology, Inc.Network based virtualization performance
US7609649B1 (en)2005-04-262009-10-27Cisco Technology, Inc.Methods and apparatus for improving network based virtualization performance
JP2008539531A (en)*2005-04-292008-11-13ネットワーク・アプライアンス・インコーポレイテッド Data placement technology for striping data containers across multiple volumes in a storage system cluster
JP2007065751A (en)*2005-08-292007-03-15Hitachi Ltd Storage system and storage control method
JP2007149068A (en)*2005-11-232007-06-14Internatl Business Mach Corp <Ibm> Methods, systems, and products for rebalancing striped disk data (striped disk data rebalancing)
JP2007157089A (en)*2005-12-092007-06-21Fujitsu Ltd Storage virtualization apparatus and computer system using the same
JP2009541854A (en)*2006-06-202009-11-26ラテゼ・リモート・エム・ジー・エム・テイ・エル・エル・シー Generating commands for storage systems
JP2008071005A (en)*2006-09-132008-03-27Hitachi Ltd Storage system that makes effective use of available ports
WO2008126202A1 (en)*2007-03-232008-10-23Fujitsu LimitedLoad distribution program for storage system, load distribution method for storage system, and storage management device
US8516070B2 (en)2007-03-232013-08-20Fujitsu LimitedComputer program and method for balancing processing load in storage system, and apparatus for managing storage devices
US7899971B2 (en)2008-01-222011-03-01Hitachi, Ltd.Mainframe storage controller and mainframe volume virtualization method
JP2009259100A (en)*2008-04-182009-11-05Nec CorpDisk array system, disk device, casing-to-casing mirroring method, and program
JP2010211549A (en)*2009-03-112010-09-24Fujitsu LtdManagement program, management apparatus and management method
JP2010191989A (en)*2010-04-262010-09-02Hitachi Ltd Storage control system and method
US9430440B2 (en)2012-01-062016-08-30Fujitsu LimitedEnvironment construction apparatus and method, environment registration apparatus and method, environment switching apparatus and method
JP2015065507A (en)*2013-09-242015-04-09日本電気株式会社Gateway device, communication network and gateway device control method
US10243826B2 (en)2015-01-102019-03-26Cisco Technology, Inc.Diagnosis and throughput measurement of fibre channel ports in a storage area network environment
US10826829B2 (en)2015-03-262020-11-03Cisco Technology, Inc.Scalable handling of BGP route information in VXLAN with EVPN control plane
US10671289B2 (en)2015-05-152020-06-02Cisco Technology, Inc.Tenant-level sharding of disks with tenant-specific storage modules to enable policies per tenant in a distributed storage system
US10222986B2 (en)2015-05-152019-03-05Cisco Technology, Inc.Tenant-level sharding of disks with tenant-specific storage modules to enable policies per tenant in a distributed storage system
US11354039B2 (en)2015-05-152022-06-07Cisco Technology, Inc.Tenant-level sharding of disks with tenant-specific storage modules to enable policies per tenant in a distributed storage system
US11588783B2 (en)2015-06-102023-02-21Cisco Technology, Inc.Techniques for implementing IPV6-based distributed storage space
US10778765B2 (en)2015-07-152020-09-15Cisco Technology, Inc.Bid/ask protocol in scale-out NVMe storage
US10949370B2 (en)2015-12-102021-03-16Cisco Technology, Inc.Policy-driven storage in a microserver computing environment
US10585830B2 (en)2015-12-102020-03-10Cisco Technology, Inc.Policy-driven storage in a microserver computing environment
US10140172B2 (en)2016-05-182018-11-27Cisco Technology, Inc.Network-aware storage repairs
US10872056B2 (en)2016-06-062020-12-22Cisco Technology, Inc.Remote memory access using memory mapped addressing among multiple compute nodes
US10664169B2 (en)2016-06-242020-05-26Cisco Technology, Inc.Performance of object storage system by reconfiguring storage devices based on latency that includes identifying a number of fragments that has a particular storage device as its primary storage device and another number of fragments that has said particular storage device as its replica storage device
US12199886B2 (en)2016-08-292025-01-14Cisco Technology, Inc.Queue protection using a shared global memory reserve
US11563695B2 (en)2016-08-292023-01-24Cisco Technology, Inc.Queue protection using a shared global memory reserve
US10545914B2 (en)2017-01-172020-01-28Cisco Technology, Inc.Distributed object storage
US11252067B2 (en)2017-02-242022-02-15Cisco Technology, Inc.Techniques for using frame deep loopback capabilities for extended link diagnostics in fibre channel storage area networks
US10243823B1 (en)2017-02-242019-03-26Cisco Technology, Inc.Techniques for using frame deep loopback capabilities for extended link diagnostics in fibre channel storage area networks
US10254991B2 (en)2017-03-062019-04-09Cisco Technology, Inc.Storage area network based extended I/O metrics computation for deep insight into application performance
US10303534B2 (en)2017-07-202019-05-28Cisco Technology, Inc.System and method for self-healing of application centric infrastructure fabric memory
US11055159B2 (en)2017-07-202021-07-06Cisco Technology, Inc.System and method for self-healing of application centric infrastructure fabric memory
US10999199B2 (en)2017-10-032021-05-04Cisco Technology, Inc.Dynamic route profile storage in a hardware trie routing table
US11570105B2 (en)2017-10-032023-01-31Cisco Technology, Inc.Dynamic route profile storage in a hardware trie routing table
US10404596B2 (en)2017-10-032019-09-03Cisco Technology, Inc.Dynamic route profile storage in a hardware trie routing table
US10942666B2 (en)2017-10-132021-03-09Cisco Technology, Inc.Using network device replication in distributed storage clusters

Similar Documents

PublicationPublication DateTitle
JP5132720B2 (en) Storage system
JP2000242434A (en) Storage system
US6598174B1 (en)Method and apparatus for storage unit replacement in non-redundant array
US6571354B1 (en)Method and apparatus for storage unit replacement according to array priority
US6446141B1 (en)Storage server system including ranking of data source
US6553408B1 (en)Virtual device architecture having memory for storing lists of driver modules
US6654830B1 (en)Method and system for managing data migration for a storage system
US6640278B1 (en)Method for configuration and management of storage resources in a storage network
US8683157B2 (en)Storage system and virtualization method
US9009427B2 (en)Mirroring mechanisms for storage area networks and network based virtualization
US6915379B2 (en)Storage device for processing an access request from a host and storage system including storage devices
US9619171B2 (en)Storage system and virtualization method
US20070094465A1 (en)Mirroring mechanisms for storage area networks and network based virtualization
US20070094466A1 (en)Techniques for improving mirroring operations implemented in storage area networks and network based virtualization
JP2006072636A (en) Disk array device
IE20000203A1 (en)Storage domain management system
JP2006048358A (en) Storage system and data processing system
WO2001029647A1 (en)Storage area network system
US7660946B2 (en)Storage control system and storage control method
JP4537425B2 (en) Disk array device
JP4874515B2 (en) Storage system
JP4783086B2 (en) Storage system, storage access restriction method, and computer program
JP2007141264A (en) Storage system
US20240289045A1 (en)Storage system and communication path control method

Legal Events

DateCodeTitleDescription
A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20060413

RD01Notification of change of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7421

Effective date:20060417

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20060516

A521Written amendment

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20060714

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20061219

A521Written amendment

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20070216

A911Transfer of reconsideration by examiner before appeal (zenchi)

Free format text:JAPANESE INTERMEDIATE CODE: A911

Effective date:20070316

A761Written withdrawal of application

Free format text:JAPANESE INTERMEDIATE CODE: A761

Effective date:20070405


[8]ページ先頭

©2009-2025 Movatter.jp