Movatterモバイル変換


[0]ホーム

URL:


Masaki Misawa, profile picture
Uploaded byMasaki Misawa
PPTX, PDF847 views

Kinesis Firehoseを使ってみた

2017/09/21D-Cube 勉強会用のスライドです。

Embed presentation

Downloaded 10 times
Kinesis Firehoseを使ってみた2017/09/21 D-Cube勉強会株式会社ビズリーチ エンジニア 三澤正木
【登壇者プロフィール】ミサワ マサキ名前: 三澤 正木職業: エンジニア(現在の業務は、主にWEBアプリ開発担当)所属: 株式会社ビズリーチ キャリアトレック事業部http://careertrek.comGitHub: https://github.com/MasakiMisawa趣味: 野球(観る専)、ランニング、旅行 etc
以下のURLから閲覧、DL可能です。* イベント終了後もしばらく公開しておきますが、削除する可能性もあるので必要な方はDLしておいてください。【今回のスライド】http://www.slideshare.net/MisawaMasaki
アジェンダ・Chapter1 そもそも Amazon Kinesis って?→ Amazon Kinesis の簡単な概要説明です・Chapter2 Kinesis Firehoseの使い方→ Kinesis Firehoseに挿入した値を、任意の場所に転送完了させるまでの一連の流れです・Chapter3 Kinesis Firehoseを使って実現できそうなこと→ 自分なりに考えるKinesis Firehoseを使えばこんなこと、あんなことが実現できそうという紹介です・Chapter4 Kinesis Firehoseを使用したデータ転送を実演してみる→ 時間が余ればになりますが、Kinesis Firehoseを使用したデータ転送を実演しようと思っています。・etc 質疑応答→ さいごに質疑応答の時間を設ける予定でいます
Chapter1:そもそも Amazon Kinesis って?Amazon Kinesis は、AWS(Amazon Web Service)の用意したストリーミングデータ向けのプラットフォームで、大容量のデータを低コストで収集、分析、処理、転送する事が可能なサービスです。大量に流れてくるログデータなどを一時保存(Kinesisへの保存期間はデフォルトで24時間、最大7日まで延長可能)し、分析をしたり任意の形に加工した後に任意の各種データストレージに転送するところまでをやってくれます。
Chapter1:そもそも Amazon Kinesis って?大量のデータを低コストで溜め込み、溜め込んだデータを取得して各種展開するという意味では、AWSの中で割とよく使われているSQS(Simple Queue Service)に近いイメージですが、1. SQSよりも大量、大容量のデータを受ける事が可能* SQSでは秒間数百のリクエストをさばく事ができないが、Kinesisではそれが可能* 1レコードの最大容量がSQSは256KBまでだが、Kinesisは1MBまで保存可能1. 溜め込むだけでなく、分析や加工をしてくれたり、各種AWSサービスに転送する処理もやってくれる(Kinesisすべてではない)の2点が大きな違いであり、Kinesisを使う上での利点です。
Chapter1:そもそも Amazon Kinesis って?一口にKinesisと言っても、用途毎に以下の3種類が存在します。1. Kinesis Streams→ 挿入されたデータをリアルタイムで加工してデータ転送を行いたい場合などに使用します。1. Kinesis Firehose→ 複雑な転送用コードを書かずにコンソール画面での設定だけでデータ転送を行いたい場合などに使用します。今回扱うメインテーマです。1. Kinesis Analytics→ 挿入されたデータに対して予め用意したSQLの実行結果を転送したい場合などに使用します。2017/09現在では東京リージョン非対応になっています。
Chapter1:そもそも Amazon Kinesis って?Kinesis StreamsStreams(小川)という名前が示すとおり、流れてくる大容量データをリアルタイムで加工して扱いたい場合に使用され、データロード間隔の短さが最大の特徴となっています。ストリーミングデータなどの絶え間なく入ってくるデータをリアルタイムで処理できるメリットがある一方、入ってきたデータを加工したり、加工後のデータを任意のデータストアに転送する為のプログラムコードは自前で用意しておく必要があったりなどデータを溜めておく場所の提供と、データが入ってきたタイミングでのイベント発火だけは用意するから、後は使う側で自由にやってね!という、使う人は選ぶものの、割と自由度の高いサービスになっているのが特徴です。
Chapter1:そもそも Amazon Kinesis って?Kinesis Streams
Chapter1:そもそも Amazon Kinesis って?Kinesis Streams尚、Kinesis Streams 内に挿入されたデータを加工、保存先へ転送させる為のプログラムコードを実行させるには、以下の二つの方法が一般的です。1. Kinesis Streams にデータが入ってきたことをイベントトリガーに発火させるLambda function 内に加工、保存先への転送コードを書いておき自動実行。1. cronなどの定期実行処理でKinesis Streamsからデータを取得し、取得したデータを加工、保存先への転送を実行● Kinesis Streamsから手動でデータを取得した場合、取得後もKinesis Streams内に対象データは残り続ける仕様になっている為、既処理済のデータか未処理のデータかを判別可能にする為に取得したレコードのシーケンス番号や取得日時を保存しておき、次回取得時に前回取得したレコード以降のレコードを取得するように管理する必要があります。
Chapter1:そもそも Amazon Kinesis って?Kinesis StreamsKinesis Streamsにデータが入った事をイベントトリガーに発火するLambda functionの例
Chapter1:そもそも Amazon Kinesis って?Kinesis StreamsKinesis Streams では扱える最大データ容量をシャードという概念で管理しており、設定するシャード数により扱える最大データ容量を増やすことができます。ただ、設定するシャード容量を増やすとその分利用料金も増えていくので、使用するデータ容量に応じて適切なシャード数を設定する必要があります。(後からシャードを追加、削除する事は可能)Kinesis Streams に関してはこの設定シャード数が使用する上での重要な肝になってくる為、利用料金についても使用するユーザ側で制御する形になっているなど、ここでもカスタム要素の強いサービスである点が感じられます。
Chapter1:そもそも Amazon Kinesis って?Kinesis Firehose各種AWSサービス間のデータ転送を行うことが可能なサービスであり、複雑な保存先への転送用プログラムコードを書く必要がなく、GUIのコンソール画面での簡単な設定だけでデータ転送を行えることが特徴です。Firehoseは英語で消化ホースという意味を持ちますが、Kinesis Firehose に対してデータを挿入し、挿入したデータを指定した保存先に対して転送するこのサービスは、正にそんなイメージですね。これまで一部のリージョンでのみ使用可能になっていた為東京リージョンでの使用ができませんでしたが、2017年8月に東京リージョンでの使用が解禁されて使用可能になりました!
Chapter1:そもそも Amazon Kinesis って?Kinesis FirehoseKinesis Firehose に挿入されたデータの転送先には、以下の3つが選択可能です。1. Amazon S3→ オンラインストレージで、静的ファイルなどを低料金で保存可能なサービスです。1. Amazon Redshift→ 大容量のデータを低価格で保存可能なデータベースで、分析用途などで使用されます。1. Amazon Elasticsearch Service→ 目的の文字列を含むドキュメントを高速に抽出可能なAWS上の全文検索エンジンです。
Chapter1:そもそも Amazon Kinesis って?Kinesis FirehoseKinesis Firehose Amazon S3 data flow overview
Chapter1:そもそも Amazon Kinesis って?Kinesis FirehoseKinesis Firehose Amazon Redshift data flow overview
Chapter1:そもそも Amazon Kinesis って?Kinesis FirehoseKinesis Firehose Amazon Elasticsearch data flow overview
Chapter1:そもそも Amazon Kinesis って?Kinesis Firehose
Chapter1:そもそも Amazon Kinesis って?Kinesis FirehoseKinesis Firehose を使用する場合の利用料金は、サービスを介して送信するデータ容量に対してのみ発生する形になっている為、Kinesis Streams におけるシャード数のユーザ側による設定などが一切必要ありません。Kinesis Streams が使う人を選ぶカスタム要素の強いサービスなのに対して、KinesisFirehose は、複雑な設定などの管理が不要なサービスであるという事が、利用料金の算出方法からも見受けられます。
Chapter1:そもそも Amazon Kinesis って?→ Kinesis Firehose と Kinesis Streamsの使い分けKinesis に対して挿入されたデータを加工、任意の保存先に転送するという目的は同じの為、混同しやすい Kinesis Firehose と KinesisStreams ですが、それぞれ以下のような特徴がある為、用途により使い分けると便利です。
Chapter1:そもそも Amazon Kinesis って?- Kinesis Firehose特徴:- 転送時に自前でコードを用意する必要がなく、GUIのコンソールで簡単設定可能- 使用するデータ容量の増減があった場合でも、ユーザ側での設定変更が不要- データロードの間隔が最短で60秒からの為、リアルタイム描画などには不向き向いている使用用途:- KVSのレコードやアプリケーションログなどの大容量データを分析用データベースに転送したり、自動バックアップ保存したりなど→ Kinesis Firehose と Kinesis Streamsの使い分け
Chapter1:そもそも Amazon Kinesis って?- Kinesis Streams特徴:- データロードが1秒以下の間隔で可能な為、リアルタイムでの処理に向いている- データ加工や、保存先への転送の為に自前でコードを用意し、実行させる必要有- 設定するシャード数により扱えるデータ容量と利用料金が変動向いている使用用途:- ストリーミングデータをリアルタイムで変化させるグラフで表示させたりなど→ Kinesis Firehose と Kinesis Streamsの使い分け
Chapter1:そもそも Amazon Kinesis って?結論:Kinesis Firehose は、ゼロ管理の非エンジニアでも扱えるようなサービスKinesis Streams は、細かい設定が可能なユーザカスタム用サービス→ Kinesis Firehose と Kinesis Streamsの使い分け
Chapter1:そもそも Amazon Kinesis って?Kinesis Analytics流れてくる大容量データに対して予め用意しておいたSQLを実行し、実行結果を保存先の各種データストアに転送できるサービスです。実行するSQLは標準のSQLクエリがサポートされている為、プログラミング言語などを学ばなくても一般的なSQLの知識があれば使える点など、使用可能になるまでの敷居が低めに設定されており、非エンジニアでも使えそうなところも嬉しい点です。ただ、2017年9月現在では東京リージョンでの使用が不可能になっている点に注意が必要です。
Chapter1:そもそも Amazon Kinesis って?Kinesis Analytics
Chapter1:そもそも Amazon Kinesis って?Kinesis Analytics
Chapter2:Kinesis Firehose の使い方概要が分かったところで、Kinesis Firehoseを使用してデータ転送を行う一連のフローなど、実際の使い方を見ていきましょう。
Chapter2:Kinesis Firehose の使い方AWSコンソール画面TOP から Kinesis を選択します。
Chapter2:Kinesis Firehose の使い方Firehoseの欄の、Firehose コンソールに移動ボタンを選択します。
Chapter2:Kinesis Firehose の使い方最初は何も作られていない為、Create Delivery System ボタンを選択して新規作成します。
Chapter2:Kinesis Firehose の使い方作成するKinesis Firehose の stream name を設定します。Delivery stream name の欄に作成する Kinesis Firehose の名前を入力します。stream nameは作成したKinesisを一意に識別する為の名前で後から変更が不可能な為、なるべく一目で分かるような名前を付けておきましょう。今回は本勉強会のテスト用のKinesisだった為、「dcube-test-kinesis-firehose」という名前で作成しています。
Chapter2:Kinesis Firehose の使い方データ挿入元の指定で、直接PutするかKinesis Streamsから自動転送するかを選択Choose source では、Kinesis Firehoseに入れるデータの挿入元を指定します。2017年9月現在では、自作コードなどでKinesis Firehoseに対して直接データを挿入するか、Kinesis Streamsに入ってきたデータを自動で転送するかの二択が選択可能です。今回は、Kinesis Firehoseに対して直接データを挿入する方式を選択しています。
Chapter2:Kinesis Firehose の使い方受け取ったレコードに対してLambda functionで変換(加工)を行うかを指定受け取ったデータに対して何かしらの加工を施したい場合に設定する項目で、加工したい場合にはKinesis Firehoseにデータが入ってきたことをトリガーに発火するLambdafunctionを設定する事が可能で、変換後のデータを保存先に転送する事ができます。今回は、Disabled(加工は行わない)を選択しています。
Chapter2:Kinesis Firehose の使い方データを転送する保存先をどこにするかを設定受け取ったデータを転送する保存先をどこにするかの設定項目です。2017年9月現在では、Amazon S3、Amazon Redshift、Amazon Elasticsearch Serviceの3つが選択可能になっています。今回は、転送先をAmazon S3に設定しています。
Chapter2:Kinesis Firehose の使い方保存先の詳細情報を設定します。(Amazon S3 を保存先に選択した場合)データを転送する保存先をAmazon S3に指定した場合の詳細設定項目です。S3 Bucket欄で保存先のバケットを設定し、Prefix欄で保存先ファイルパスの接頭語を指定できます(デフォルトの保存先ファイルパスは、YYYY/MM/DD/HH/ 配下になっており、省略した場合はバケット直下にYYYY/MM/DD/HH/ファイル名のパスで保存されます)今回は、本勉強会用に作成した「dcube-test-bucket」を保存先バケットに設定し、管理を容易にする為にデフォルトPrefixの前に test-dir/ をつけて保存するようにしています。
Chapter2:Kinesis Firehose の使い方データロードの間隔を設定します。Kinesis Firehose に挿入されたデータをAmazon S3に転送する間隔を設定する項目です。データロードを行うタイミングは、- 対象データのサイズがBuffer sizeで指定した値を超える- 前回のデータロード実行時からBuffer interval で設定した秒数を経過のどちらかの条件を満たしたタイミングで実行されます。今回は、Buffer sizeはデフォルトの5MBのままにし、Buffer intervalだけ1分毎に転送を行うようにする為に60秒に設定しています。
Chapter2:Kinesis Firehose の使い方Amazon S3に保存するファイルに対して圧縮と暗号化を行うかを設定します。Amazon S3に保存する際にファイル圧縮と暗号化を行なってから保存をしたい場合に設定する項目です。今回はサンプル実行の為、ファイル圧縮も暗号化も行わなずに保存するように設定しています。
Chapter2:Kinesis Firehose の使い方エラーログの出力設定を行います。Kinesis Firehoseに挿入されたデータを加工して保存先のAmazon S3に転送したい場合に使用するLambda functionの変換処理内でエラーが発生した場合や、Amazon S3へのデータ転送時に失敗した場合などにエラーログを出力するかどうかの設定項目です。出力設定にしている状態でエラーが発生した場合は、エラーログがCloudWatch内に出力されるようになります。今回は、エラー発生時に出力するように設定しています。
Chapter2:Kinesis Firehose の使い方転送処理の実行ロールを設定します。Kinesis Firehoseのデータを保存先に転送を行う処理の実行ロール(権限)を設定します。実行ロールは、「該当処理内でAWSのどのサービスに対してどのレベルのアクセスを許可するか」というアクセス可能なサービスと、そのサービスに対するアクセス許可レベル(読み込みのみ許可 or 書き込みも許可 etc)を設定するもので、転送処理で保存する保存先へのアクセス権限を設定しておく必要があります。Kinesis Firehoseを新規作成時には、「Create new or Choose」ボタンから実行ロールの編集画面に遷移することで、デフォルトで保存先サービスへのアクセス権限が設定された状態の実行ロールを作成可能なようになっています。
Chapter2:Kinesis Firehose の使い方実行ロールの詳細設定を行います。デフォルトでfirehose_delivery_roleという実行権限が選択されているので、画面右下の「許可」ボタンを押して転送処理に紐づける実行ロールを確定させます。(ポリシードキュメントを表示を開くと、Amazon S3サービスへの各種アクセス権限が設定されている事が確認できるはずです)
Chapter2:Kinesis Firehose の使い方作成した内容を確認し、問題がなければ作成します。これまでに設定した項目が全て確認可能な最終確認画面に遷移後、設定内容が間違っていないか一通り確認し、問題がなければ「Create delivery stream」ボタンで作成します。
Chapter2:Kinesis Firehose の使い方Kinesis FirehoseのTOP画面に作成したstreamが表示される事を確認します。作成が完了するとKinesis FirehoseのTOP画面に表示されるようになります。
Chapter2:Kinesis Firehose の使い方Kinesis Firehose側の準備が整ったので、作成したKinesis Firehoseにデータを挿入してAmazon S3に転送してみましょう。
Chapter2:Kinesis Firehose の使い方Kinesis Firehose に値を入れる自作処理作成今回は、Kinesis Firehoseに値を入れる方法を自作コードなどから直接値を入れる形式を指定した為、実行環境の用意が簡単なPythonで簡単なスクリプトコードを作成してデータを挿入してみます。
Chapter2:Kinesis Firehose の使い方Kinesis Firehose に値を入れる自作処理作成Kinesis Firehoseに値を挿入するコード作成の前に、コード上で使用するKinesis Firehoseにアクセス可能なIAMUserのクレデンシャルを取得します。以下の手順でIAM ユーザを作成し、クレデンシャル情報を保存します。1. コンソール画面TOPからセキュリティ認証情報 → ユーザー → ユーザーを追加選択1. ユーザー名に適当な名前(test-firehose-full-access-user など)を入力1. アクセスの種類は、「プログラムによるアクセス」を選択1. 既存のポリシーを直接アタッチを選択後、AmazonKinesisFirehoseFullAccessを選択1. ユーザーの作成を選択後、.csvファイルのダウンロードボタンでファイルをDL1. DLしたファイルを開き、クレデンシャル情報を控えておく
Chapter2:Kinesis Firehose の使い方Kinesis Firehose に値を入れる自作処理作成次に、PythonからAWSの各種サービス(今回のKinesis Firehose含む)へのアクセスを行う為のライブラリであるboto3を用意します。boto3はpythonからAWSの各種サービスを行う為のAmazonが提供している公式ライブラリですが、ローカルマシン含むサーバ上ではデフォルトで用意されていない為、pipを使用してインストールする必要があります。
Chapter2:Kinesis Firehose の使い方Kinesis Firehose に値を入れる自作処理作成全ての用意が整ったところで、以下のサンプルコードのようなものを用意、コンソールから実行してKinesis Firehoseに値を挿入します。
Chapter2:Kinesis Firehose の使い方Kinesis Firehose に値を入れる自作処理作成Kinesis Firehoseのデータロード間隔が60秒間隔の為、60秒経過後に転送後の保存先に指定したS3バケットを確認するとファイルが作成されているはずです。
Chapter2:Kinesis Firehose の使い方Kinesis Firehose に値を入れる自作処理作成Amazon S3から転送後のファイルをダウンロードして中身を確認してみると、Pythonコード上で送ったテスト文字列が正しく入っている事が確認できます。
Chapter3:Kinesis Firehose を使って実現できそうなこと1. 中身の参照が難しいKVSのデータを、分析用データベースに転送大量のデータを溜め込み、レコード取得時に取得したいレコードを一意に識別できるKeyを指定して対象レコードを取得する使い方をするKVS(Key-Value Store)ですが、大量のデータを溜め込めるメリットもある一方、データを取得する際に必ずKey を指定しなければならず、溜め込んだデータを分析用途などで使用するのにはあまり向いていない面もあります。この問題を解消する為に、KVSのデータを Kinesis に流し、更に Kinesis から分析用途で使用するデータベースに転送すれば、溜め込んだ大量のデータに対して分析よ用のクエリを実行することが可能になり、KVSのデメリットを解消できそうです。
Chapter3:Kinesis Firehose を使って実現できそうなことAWSのサービスで考えると、KVSはDynamoDBが該当し、分析用途で使用するデータベースはAmazon Redshiftが該当する為、DynamoDBに入ってきたレコードをKinesis Firehoseに一度流し、Kinesis Firehoseが受け取ったレコードの情報をAmazon Redshiftに転送すると良さそうです。
Chapter3:Kinesis Firehose を使って実現できそうなことDynamoのレコードをRedshiftに転送するイメージ図
Chapter3:Kinesis Firehose を使って実現できそうなこと2. アプリケーションログなどの時系列ログデータをビジュアライズ表示各種アプリケーションが出力するログ情報はサービスを運用していく上で非常に大事な情報として使用可能ですが、これらの情報をそのまま見ようとすると grep コマンドなどを毎回使用しながらでないと見たい情報を見る事ができません。この問題を解決する為に、各種ログ情報を時系列にまとめた上で、人間が見る用に最適化した状態を予め作成しておき、見たい時に見たい情報をすぐに見れるような環境を作成しておけば、日々の業務効率が大きく上がりそうです。
Chapter3:Kinesis Firehose を使って実現できそうなことAWSのサービスで考えると、時系列で溜めたデータを見れるようにするのはAmazonElasticsearch Serviceが該当する為、各種アプリケーションのログ情報をKinesis Firehoseに挿入するようにし、Kinesis Firehoseが受け取ったレコードの情報をAmazon Elasticsearch Serviceに転送、KibanaからElastisearchに入れられたデータを参照してビジュアライズ表示させるのが良さそうです。
Chapter3:Kinesis Firehose を使って実現できそうなことこんな感じで綺麗に表示させたい!
Chapter3:Kinesis Firehose を使って実現できそうなこと各種アプリケーションの時系列ログをKibanaで参照するイメージ図
Chapter4 :Kinesis Firehose を使用したデータ転送を実演してみる時間が余れば実際にデータ転送処理が実行されるところを実演してみます。
ご静聴ありがとうございました。

Recommended

PDF
Kinesis + Elasticsearchでつくるさいきょうのログ分析基盤
PDF
20190220 AWS Black Belt Online Seminar Amazon S3 / Glacier
PDF
GraphQL入門 (AWS AppSync)
PPTX
20220409 AWS BLEA 開発にあたって検討したこと
PDF
AWS Black Belt Online Seminar 2018 Amazon DynamoDB Advanced Design Pattern
PDF
20190806 AWS Black Belt Online Seminar AWS Glue
PDF
AWS Black Belt Techシリーズ Amazon Kinesis
PDF
AWSからのメール送信
PDF
CloudFrontのリアルタイムログをKibanaで可視化しよう
PDF
20210119 AWS Black Belt Online Seminar AWS CloudTrail
PPTX
AWSで作る分析基盤
PDF
データ活用を加速するAWS分析サービスのご紹介
PDF
20190514 AWS Black Belt Online Seminar Amazon API Gateway
PDF
AWS Black Belt Online Seminar 2017 Amazon Kinesis
PDF
浸透するサーバーレス 実際に見るユースケースと実装パターン
PDF
20180425 AWS Black Belt Online Seminar Amazon Relational Database Service (Am...
PPT
Linux/DB Tuning (DevSumi2010, Japanese)
PDF
AWS Black Belt Online Seminar AWS Direct Connect
PDF
20190326 AWS Black Belt Online Seminar Amazon CloudWatch
PDF
運用視点でのAWSサポート利用Tips
PDF
AWS OpsWorksハンズオン
PDF
20200722 AWS Black Belt Online Seminar AWSアカウント シングルサインオンの設計と運用
PDF
オンプレミスRDBMSをAWSへ移行する手法
PDF
20190604 AWS Black Belt Online Seminar Amazon Simple Notification Service (SNS)
PDF
20190522 AWS Black Belt Online Seminar AWS Step Functions
PDF
20190129 AWS Black Belt Online Seminar AWS Identity and Access Management (AW...
PDF
20190731 Black Belt Online Seminar Amazon ECS Deep Dive
PDF
20191023 AWS Black Belt Online Seminar Amazon EMR
PDF
Amazon Kinesis Familyを活用したストリームデータ処理
PDF
AWS Black Belt Tech シリーズ 2015 - Amazon Kinesis

More Related Content

PDF
Kinesis + Elasticsearchでつくるさいきょうのログ分析基盤
PDF
20190220 AWS Black Belt Online Seminar Amazon S3 / Glacier
PDF
GraphQL入門 (AWS AppSync)
PPTX
20220409 AWS BLEA 開発にあたって検討したこと
PDF
AWS Black Belt Online Seminar 2018 Amazon DynamoDB Advanced Design Pattern
PDF
20190806 AWS Black Belt Online Seminar AWS Glue
PDF
AWS Black Belt Techシリーズ Amazon Kinesis
PDF
AWSからのメール送信
Kinesis + Elasticsearchでつくるさいきょうのログ分析基盤
20190220 AWS Black Belt Online Seminar Amazon S3 / Glacier
GraphQL入門 (AWS AppSync)
20220409 AWS BLEA 開発にあたって検討したこと
AWS Black Belt Online Seminar 2018 Amazon DynamoDB Advanced Design Pattern
20190806 AWS Black Belt Online Seminar AWS Glue
AWS Black Belt Techシリーズ Amazon Kinesis
AWSからのメール送信

What's hot

PDF
CloudFrontのリアルタイムログをKibanaで可視化しよう
PDF
20210119 AWS Black Belt Online Seminar AWS CloudTrail
PPTX
AWSで作る分析基盤
PDF
データ活用を加速するAWS分析サービスのご紹介
PDF
20190514 AWS Black Belt Online Seminar Amazon API Gateway
PDF
AWS Black Belt Online Seminar 2017 Amazon Kinesis
PDF
浸透するサーバーレス 実際に見るユースケースと実装パターン
PDF
20180425 AWS Black Belt Online Seminar Amazon Relational Database Service (Am...
PPT
Linux/DB Tuning (DevSumi2010, Japanese)
PDF
AWS Black Belt Online Seminar AWS Direct Connect
PDF
20190326 AWS Black Belt Online Seminar Amazon CloudWatch
PDF
運用視点でのAWSサポート利用Tips
PDF
AWS OpsWorksハンズオン
PDF
20200722 AWS Black Belt Online Seminar AWSアカウント シングルサインオンの設計と運用
PDF
オンプレミスRDBMSをAWSへ移行する手法
PDF
20190604 AWS Black Belt Online Seminar Amazon Simple Notification Service (SNS)
PDF
20190522 AWS Black Belt Online Seminar AWS Step Functions
PDF
20190129 AWS Black Belt Online Seminar AWS Identity and Access Management (AW...
PDF
20190731 Black Belt Online Seminar Amazon ECS Deep Dive
PDF
20191023 AWS Black Belt Online Seminar Amazon EMR
CloudFrontのリアルタイムログをKibanaで可視化しよう
20210119 AWS Black Belt Online Seminar AWS CloudTrail
AWSで作る分析基盤
データ活用を加速するAWS分析サービスのご紹介
20190514 AWS Black Belt Online Seminar Amazon API Gateway
AWS Black Belt Online Seminar 2017 Amazon Kinesis
浸透するサーバーレス 実際に見るユースケースと実装パターン
20180425 AWS Black Belt Online Seminar Amazon Relational Database Service (Am...
Linux/DB Tuning (DevSumi2010, Japanese)
AWS Black Belt Online Seminar AWS Direct Connect
20190326 AWS Black Belt Online Seminar Amazon CloudWatch
運用視点でのAWSサポート利用Tips
AWS OpsWorksハンズオン
20200722 AWS Black Belt Online Seminar AWSアカウント シングルサインオンの設計と運用
オンプレミスRDBMSをAWSへ移行する手法
20190604 AWS Black Belt Online Seminar Amazon Simple Notification Service (SNS)
20190522 AWS Black Belt Online Seminar AWS Step Functions
20190129 AWS Black Belt Online Seminar AWS Identity and Access Management (AW...
20190731 Black Belt Online Seminar Amazon ECS Deep Dive
20191023 AWS Black Belt Online Seminar Amazon EMR

Similar to Kinesis Firehoseを使ってみた

PDF
Amazon Kinesis Familyを活用したストリームデータ処理
PDF
AWS Black Belt Tech シリーズ 2015 - Amazon Kinesis
PDF
20180328 AWS Black Belt Online Seminar Amazon Kinesis Video Streams
PDF
Pydata Amazon Kinesisのご紹介
PDF
Kinesis→Redshift連携を、KCLからFirehoseに切り替えたお話
PDF
AWS Black Belt Online Seminar 2016 Amazon Kinesis
PDF
Spark Streaming + Amazon Kinesis
PDF
Amazon kinesisで広がるリアルタイムデータプロセッシングとその未来
PDF
Kinesis3 notes
PDF
Big DataとContainerとStream - AWSでのクラスタ構成とストリーム処理 -
PDF
Kinesis Analyticsの適用できない用途と、Kinesis Firehoseの苦労話
PDF
JAWS-UG CLI専門支部 #74 Amazon Kinesis Firehose 入門
PDF
Kinesushi cmregrowth-2014-tokyo-20141216
PDF
Amazon Kinesis developersio-meetup-05
PDF
Amazon Kinesis はじめました。
 
PDF
jaws-ug kansai-special_kinesis_20150207
PDF
Serverless analytics on aws
PDF
Pydata Amazon Kinesisのご紹介
PDF
AWS Summit Chicago 2016発表のサービスアップデートまとめ
PDF
[AWS re:invent 2013 Report] Amazon Kinesis
Amazon Kinesis Familyを活用したストリームデータ処理
AWS Black Belt Tech シリーズ 2015 - Amazon Kinesis
20180328 AWS Black Belt Online Seminar Amazon Kinesis Video Streams
Pydata Amazon Kinesisのご紹介
Kinesis→Redshift連携を、KCLからFirehoseに切り替えたお話
AWS Black Belt Online Seminar 2016 Amazon Kinesis
Spark Streaming + Amazon Kinesis
Amazon kinesisで広がるリアルタイムデータプロセッシングとその未来
Kinesis3 notes
Big DataとContainerとStream - AWSでのクラスタ構成とストリーム処理 -
Kinesis Analyticsの適用できない用途と、Kinesis Firehoseの苦労話
JAWS-UG CLI専門支部 #74 Amazon Kinesis Firehose 入門
Kinesushi cmregrowth-2014-tokyo-20141216
Amazon Kinesis developersio-meetup-05
Amazon Kinesis はじめました。
 
jaws-ug kansai-special_kinesis_20150207
Serverless analytics on aws
Pydata Amazon Kinesisのご紹介
AWS Summit Chicago 2016発表のサービスアップデートまとめ
[AWS re:invent 2013 Report] Amazon Kinesis

Kinesis Firehoseを使ってみた

  • 1.
  • 2.
    【登壇者プロフィール】ミサワ マサキ名前: 三澤正木職業: エンジニア(現在の業務は、主にWEBアプリ開発担当)所属: 株式会社ビズリーチ キャリアトレック事業部http://careertrek.comGitHub: https://github.com/MasakiMisawa趣味: 野球(観る専)、ランニング、旅行 etc
  • 3.
  • 4.
    アジェンダ・Chapter1 そもそも AmazonKinesis って?→ Amazon Kinesis の簡単な概要説明です・Chapter2 Kinesis Firehoseの使い方→ Kinesis Firehoseに挿入した値を、任意の場所に転送完了させるまでの一連の流れです・Chapter3 Kinesis Firehoseを使って実現できそうなこと→ 自分なりに考えるKinesis Firehoseを使えばこんなこと、あんなことが実現できそうという紹介です・Chapter4 Kinesis Firehoseを使用したデータ転送を実演してみる→ 時間が余ればになりますが、Kinesis Firehoseを使用したデータ転送を実演しようと思っています。・etc 質疑応答→ さいごに質疑応答の時間を設ける予定でいます
  • 5.
    Chapter1:そもそも Amazon Kinesisって?Amazon Kinesis は、AWS(Amazon Web Service)の用意したストリーミングデータ向けのプラットフォームで、大容量のデータを低コストで収集、分析、処理、転送する事が可能なサービスです。大量に流れてくるログデータなどを一時保存(Kinesisへの保存期間はデフォルトで24時間、最大7日まで延長可能)し、分析をしたり任意の形に加工した後に任意の各種データストレージに転送するところまでをやってくれます。
  • 6.
    Chapter1:そもそも Amazon Kinesisって?大量のデータを低コストで溜め込み、溜め込んだデータを取得して各種展開するという意味では、AWSの中で割とよく使われているSQS(Simple Queue Service)に近いイメージですが、1. SQSよりも大量、大容量のデータを受ける事が可能* SQSでは秒間数百のリクエストをさばく事ができないが、Kinesisではそれが可能* 1レコードの最大容量がSQSは256KBまでだが、Kinesisは1MBまで保存可能1. 溜め込むだけでなく、分析や加工をしてくれたり、各種AWSサービスに転送する処理もやってくれる(Kinesisすべてではない)の2点が大きな違いであり、Kinesisを使う上での利点です。
  • 7.
    Chapter1:そもそも Amazon Kinesisって?一口にKinesisと言っても、用途毎に以下の3種類が存在します。1. Kinesis Streams→ 挿入されたデータをリアルタイムで加工してデータ転送を行いたい場合などに使用します。1. Kinesis Firehose→ 複雑な転送用コードを書かずにコンソール画面での設定だけでデータ転送を行いたい場合などに使用します。今回扱うメインテーマです。1. Kinesis Analytics→ 挿入されたデータに対して予め用意したSQLの実行結果を転送したい場合などに使用します。2017/09現在では東京リージョン非対応になっています。
  • 8.
    Chapter1:そもそも Amazon Kinesisって?Kinesis StreamsStreams(小川)という名前が示すとおり、流れてくる大容量データをリアルタイムで加工して扱いたい場合に使用され、データロード間隔の短さが最大の特徴となっています。ストリーミングデータなどの絶え間なく入ってくるデータをリアルタイムで処理できるメリットがある一方、入ってきたデータを加工したり、加工後のデータを任意のデータストアに転送する為のプログラムコードは自前で用意しておく必要があったりなどデータを溜めておく場所の提供と、データが入ってきたタイミングでのイベント発火だけは用意するから、後は使う側で自由にやってね!という、使う人は選ぶものの、割と自由度の高いサービスになっているのが特徴です。
  • 9.
  • 10.
    Chapter1:そもそも Amazon Kinesisって?Kinesis Streams尚、Kinesis Streams 内に挿入されたデータを加工、保存先へ転送させる為のプログラムコードを実行させるには、以下の二つの方法が一般的です。1. Kinesis Streams にデータが入ってきたことをイベントトリガーに発火させるLambda function 内に加工、保存先への転送コードを書いておき自動実行。1. cronなどの定期実行処理でKinesis Streamsからデータを取得し、取得したデータを加工、保存先への転送を実行● Kinesis Streamsから手動でデータを取得した場合、取得後もKinesis Streams内に対象データは残り続ける仕様になっている為、既処理済のデータか未処理のデータかを判別可能にする為に取得したレコードのシーケンス番号や取得日時を保存しておき、次回取得時に前回取得したレコード以降のレコードを取得するように管理する必要があります。
  • 11.
    Chapter1:そもそも Amazon Kinesisって?Kinesis StreamsKinesis Streamsにデータが入った事をイベントトリガーに発火するLambda functionの例
  • 12.
    Chapter1:そもそも Amazon Kinesisって?Kinesis StreamsKinesis Streams では扱える最大データ容量をシャードという概念で管理しており、設定するシャード数により扱える最大データ容量を増やすことができます。ただ、設定するシャード容量を増やすとその分利用料金も増えていくので、使用するデータ容量に応じて適切なシャード数を設定する必要があります。(後からシャードを追加、削除する事は可能)Kinesis Streams に関してはこの設定シャード数が使用する上での重要な肝になってくる為、利用料金についても使用するユーザ側で制御する形になっているなど、ここでもカスタム要素の強いサービスである点が感じられます。
  • 13.
    Chapter1:そもそも Amazon Kinesisって?Kinesis Firehose各種AWSサービス間のデータ転送を行うことが可能なサービスであり、複雑な保存先への転送用プログラムコードを書く必要がなく、GUIのコンソール画面での簡単な設定だけでデータ転送を行えることが特徴です。Firehoseは英語で消化ホースという意味を持ちますが、Kinesis Firehose に対してデータを挿入し、挿入したデータを指定した保存先に対して転送するこのサービスは、正にそんなイメージですね。これまで一部のリージョンでのみ使用可能になっていた為東京リージョンでの使用ができませんでしたが、2017年8月に東京リージョンでの使用が解禁されて使用可能になりました!
  • 14.
    Chapter1:そもそも Amazon Kinesisって?Kinesis FirehoseKinesis Firehose に挿入されたデータの転送先には、以下の3つが選択可能です。1. Amazon S3→ オンラインストレージで、静的ファイルなどを低料金で保存可能なサービスです。1. Amazon Redshift→ 大容量のデータを低価格で保存可能なデータベースで、分析用途などで使用されます。1. Amazon Elasticsearch Service→ 目的の文字列を含むドキュメントを高速に抽出可能なAWS上の全文検索エンジンです。
  • 15.
    Chapter1:そもそも Amazon Kinesisって?Kinesis FirehoseKinesis Firehose Amazon S3 data flow overview
  • 16.
    Chapter1:そもそも Amazon Kinesisって?Kinesis FirehoseKinesis Firehose Amazon Redshift data flow overview
  • 17.
    Chapter1:そもそも Amazon Kinesisって?Kinesis FirehoseKinesis Firehose Amazon Elasticsearch data flow overview
  • 18.
  • 19.
    Chapter1:そもそも Amazon Kinesisって?Kinesis FirehoseKinesis Firehose を使用する場合の利用料金は、サービスを介して送信するデータ容量に対してのみ発生する形になっている為、Kinesis Streams におけるシャード数のユーザ側による設定などが一切必要ありません。Kinesis Streams が使う人を選ぶカスタム要素の強いサービスなのに対して、KinesisFirehose は、複雑な設定などの管理が不要なサービスであるという事が、利用料金の算出方法からも見受けられます。
  • 20.
    Chapter1:そもそも Amazon Kinesisって?→ Kinesis Firehose と Kinesis Streamsの使い分けKinesis に対して挿入されたデータを加工、任意の保存先に転送するという目的は同じの為、混同しやすい Kinesis Firehose と KinesisStreams ですが、それぞれ以下のような特徴がある為、用途により使い分けると便利です。
  • 21.
    Chapter1:そもそも Amazon Kinesisって?- Kinesis Firehose特徴:- 転送時に自前でコードを用意する必要がなく、GUIのコンソールで簡単設定可能- 使用するデータ容量の増減があった場合でも、ユーザ側での設定変更が不要- データロードの間隔が最短で60秒からの為、リアルタイム描画などには不向き向いている使用用途:- KVSのレコードやアプリケーションログなどの大容量データを分析用データベースに転送したり、自動バックアップ保存したりなど→ Kinesis Firehose と Kinesis Streamsの使い分け
  • 22.
    Chapter1:そもそも Amazon Kinesisって?- Kinesis Streams特徴:- データロードが1秒以下の間隔で可能な為、リアルタイムでの処理に向いている- データ加工や、保存先への転送の為に自前でコードを用意し、実行させる必要有- 設定するシャード数により扱えるデータ容量と利用料金が変動向いている使用用途:- ストリーミングデータをリアルタイムで変化させるグラフで表示させたりなど→ Kinesis Firehose と Kinesis Streamsの使い分け
  • 23.
    Chapter1:そもそも Amazon Kinesisって?結論:Kinesis Firehose は、ゼロ管理の非エンジニアでも扱えるようなサービスKinesis Streams は、細かい設定が可能なユーザカスタム用サービス→ Kinesis Firehose と Kinesis Streamsの使い分け
  • 24.
    Chapter1:そもそも Amazon Kinesisって?Kinesis Analytics流れてくる大容量データに対して予め用意しておいたSQLを実行し、実行結果を保存先の各種データストアに転送できるサービスです。実行するSQLは標準のSQLクエリがサポートされている為、プログラミング言語などを学ばなくても一般的なSQLの知識があれば使える点など、使用可能になるまでの敷居が低めに設定されており、非エンジニアでも使えそうなところも嬉しい点です。ただ、2017年9月現在では東京リージョンでの使用が不可能になっている点に注意が必要です。
  • 25.
    Chapter1:そもそも Amazon Kinesisって?Kinesis Analytics
  • 26.
    Chapter1:そもそも Amazon Kinesisって?Kinesis Analytics
  • 27.
    Chapter2:Kinesis Firehose の使い方概要が分かったところで、KinesisFirehoseを使用してデータ転送を行う一連のフローなど、実際の使い方を見ていきましょう。
  • 28.
  • 29.
    Chapter2:Kinesis Firehose の使い方Firehoseの欄の、Firehoseコンソールに移動ボタンを選択します。
  • 30.
    Chapter2:Kinesis Firehose の使い方最初は何も作られていない為、CreateDelivery System ボタンを選択して新規作成します。
  • 31.
    Chapter2:Kinesis Firehose の使い方作成するKinesisFirehose の stream name を設定します。Delivery stream name の欄に作成する Kinesis Firehose の名前を入力します。stream nameは作成したKinesisを一意に識別する為の名前で後から変更が不可能な為、なるべく一目で分かるような名前を付けておきましょう。今回は本勉強会のテスト用のKinesisだった為、「dcube-test-kinesis-firehose」という名前で作成しています。
  • 32.
    Chapter2:Kinesis Firehose の使い方データ挿入元の指定で、直接PutするかKinesisStreamsから自動転送するかを選択Choose source では、Kinesis Firehoseに入れるデータの挿入元を指定します。2017年9月現在では、自作コードなどでKinesis Firehoseに対して直接データを挿入するか、Kinesis Streamsに入ってきたデータを自動で転送するかの二択が選択可能です。今回は、Kinesis Firehoseに対して直接データを挿入する方式を選択しています。
  • 33.
    Chapter2:Kinesis Firehose の使い方受け取ったレコードに対してLambdafunctionで変換(加工)を行うかを指定受け取ったデータに対して何かしらの加工を施したい場合に設定する項目で、加工したい場合にはKinesis Firehoseにデータが入ってきたことをトリガーに発火するLambdafunctionを設定する事が可能で、変換後のデータを保存先に転送する事ができます。今回は、Disabled(加工は行わない)を選択しています。
  • 34.
    Chapter2:Kinesis Firehose の使い方データを転送する保存先をどこにするかを設定受け取ったデータを転送する保存先をどこにするかの設定項目です。2017年9月現在では、AmazonS3、Amazon Redshift、Amazon Elasticsearch Serviceの3つが選択可能になっています。今回は、転送先をAmazon S3に設定しています。
  • 35.
    Chapter2:Kinesis Firehose の使い方保存先の詳細情報を設定します。(AmazonS3 を保存先に選択した場合)データを転送する保存先をAmazon S3に指定した場合の詳細設定項目です。S3 Bucket欄で保存先のバケットを設定し、Prefix欄で保存先ファイルパスの接頭語を指定できます(デフォルトの保存先ファイルパスは、YYYY/MM/DD/HH/ 配下になっており、省略した場合はバケット直下にYYYY/MM/DD/HH/ファイル名のパスで保存されます)今回は、本勉強会用に作成した「dcube-test-bucket」を保存先バケットに設定し、管理を容易にする為にデフォルトPrefixの前に test-dir/ をつけて保存するようにしています。
  • 36.
    Chapter2:Kinesis Firehose の使い方データロードの間隔を設定します。KinesisFirehose に挿入されたデータをAmazon S3に転送する間隔を設定する項目です。データロードを行うタイミングは、- 対象データのサイズがBuffer sizeで指定した値を超える- 前回のデータロード実行時からBuffer interval で設定した秒数を経過のどちらかの条件を満たしたタイミングで実行されます。今回は、Buffer sizeはデフォルトの5MBのままにし、Buffer intervalだけ1分毎に転送を行うようにする為に60秒に設定しています。
  • 37.
    Chapter2:Kinesis Firehose の使い方AmazonS3に保存するファイルに対して圧縮と暗号化を行うかを設定します。Amazon S3に保存する際にファイル圧縮と暗号化を行なってから保存をしたい場合に設定する項目です。今回はサンプル実行の為、ファイル圧縮も暗号化も行わなずに保存するように設定しています。
  • 38.
    Chapter2:Kinesis Firehose の使い方エラーログの出力設定を行います。KinesisFirehoseに挿入されたデータを加工して保存先のAmazon S3に転送したい場合に使用するLambda functionの変換処理内でエラーが発生した場合や、Amazon S3へのデータ転送時に失敗した場合などにエラーログを出力するかどうかの設定項目です。出力設定にしている状態でエラーが発生した場合は、エラーログがCloudWatch内に出力されるようになります。今回は、エラー発生時に出力するように設定しています。
  • 39.
    Chapter2:Kinesis Firehose の使い方転送処理の実行ロールを設定します。KinesisFirehoseのデータを保存先に転送を行う処理の実行ロール(権限)を設定します。実行ロールは、「該当処理内でAWSのどのサービスに対してどのレベルのアクセスを許可するか」というアクセス可能なサービスと、そのサービスに対するアクセス許可レベル(読み込みのみ許可 or 書き込みも許可 etc)を設定するもので、転送処理で保存する保存先へのアクセス権限を設定しておく必要があります。Kinesis Firehoseを新規作成時には、「Create new or Choose」ボタンから実行ロールの編集画面に遷移することで、デフォルトで保存先サービスへのアクセス権限が設定された状態の実行ロールを作成可能なようになっています。
  • 40.
  • 41.
  • 42.
    Chapter2:Kinesis Firehose の使い方KinesisFirehoseのTOP画面に作成したstreamが表示される事を確認します。作成が完了するとKinesis FirehoseのTOP画面に表示されるようになります。
  • 43.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose側の準備が整ったので、作成したKinesis Firehoseにデータを挿入してAmazon S3に転送してみましょう。
  • 44.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose に値を入れる自作処理作成今回は、Kinesis Firehoseに値を入れる方法を自作コードなどから直接値を入れる形式を指定した為、実行環境の用意が簡単なPythonで簡単なスクリプトコードを作成してデータを挿入してみます。
  • 45.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose に値を入れる自作処理作成Kinesis Firehoseに値を挿入するコード作成の前に、コード上で使用するKinesis Firehoseにアクセス可能なIAMUserのクレデンシャルを取得します。以下の手順でIAM ユーザを作成し、クレデンシャル情報を保存します。1. コンソール画面TOPからセキュリティ認証情報 → ユーザー → ユーザーを追加選択1. ユーザー名に適当な名前(test-firehose-full-access-user など)を入力1. アクセスの種類は、「プログラムによるアクセス」を選択1. 既存のポリシーを直接アタッチを選択後、AmazonKinesisFirehoseFullAccessを選択1. ユーザーの作成を選択後、.csvファイルのダウンロードボタンでファイルをDL1. DLしたファイルを開き、クレデンシャル情報を控えておく
  • 46.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose に値を入れる自作処理作成次に、PythonからAWSの各種サービス(今回のKinesis Firehose含む)へのアクセスを行う為のライブラリであるboto3を用意します。boto3はpythonからAWSの各種サービスを行う為のAmazonが提供している公式ライブラリですが、ローカルマシン含むサーバ上ではデフォルトで用意されていない為、pipを使用してインストールする必要があります。
  • 47.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose に値を入れる自作処理作成全ての用意が整ったところで、以下のサンプルコードのようなものを用意、コンソールから実行してKinesis Firehoseに値を挿入します。
  • 48.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose に値を入れる自作処理作成Kinesis Firehoseのデータロード間隔が60秒間隔の為、60秒経過後に転送後の保存先に指定したS3バケットを確認するとファイルが作成されているはずです。
  • 49.
    Chapter2:Kinesis Firehose の使い方KinesisFirehose に値を入れる自作処理作成Amazon S3から転送後のファイルをダウンロードして中身を確認してみると、Pythonコード上で送ったテスト文字列が正しく入っている事が確認できます。
  • 50.
    Chapter3:Kinesis Firehose を使って実現できそうなこと1.中身の参照が難しいKVSのデータを、分析用データベースに転送大量のデータを溜め込み、レコード取得時に取得したいレコードを一意に識別できるKeyを指定して対象レコードを取得する使い方をするKVS(Key-Value Store)ですが、大量のデータを溜め込めるメリットもある一方、データを取得する際に必ずKey を指定しなければならず、溜め込んだデータを分析用途などで使用するのにはあまり向いていない面もあります。この問題を解消する為に、KVSのデータを Kinesis に流し、更に Kinesis から分析用途で使用するデータベースに転送すれば、溜め込んだ大量のデータに対して分析よ用のクエリを実行することが可能になり、KVSのデメリットを解消できそうです。
  • 51.
    Chapter3:Kinesis Firehose を使って実現できそうなことAWSのサービスで考えると、KVSはDynamoDBが該当し、分析用途で使用するデータベースはAmazonRedshiftが該当する為、DynamoDBに入ってきたレコードをKinesis Firehoseに一度流し、Kinesis Firehoseが受け取ったレコードの情報をAmazon Redshiftに転送すると良さそうです。
  • 52.
  • 53.
    Chapter3:Kinesis Firehose を使って実現できそうなこと2.アプリケーションログなどの時系列ログデータをビジュアライズ表示各種アプリケーションが出力するログ情報はサービスを運用していく上で非常に大事な情報として使用可能ですが、これらの情報をそのまま見ようとすると grep コマンドなどを毎回使用しながらでないと見たい情報を見る事ができません。この問題を解決する為に、各種ログ情報を時系列にまとめた上で、人間が見る用に最適化した状態を予め作成しておき、見たい時に見たい情報をすぐに見れるような環境を作成しておけば、日々の業務効率が大きく上がりそうです。
  • 54.
    Chapter3:Kinesis Firehose を使って実現できそうなことAWSのサービスで考えると、時系列で溜めたデータを見れるようにするのはAmazonElasticsearchServiceが該当する為、各種アプリケーションのログ情報をKinesis Firehoseに挿入するようにし、Kinesis Firehoseが受け取ったレコードの情報をAmazon Elasticsearch Serviceに転送、KibanaからElastisearchに入れられたデータを参照してビジュアライズ表示させるのが良さそうです。
  • 55.
  • 56.
  • 57.
    Chapter4 :Kinesis Firehoseを使用したデータ転送を実演してみる時間が余れば実際にデータ転送処理が実行されるところを実演してみます。
  • 58.

[8]ページ先頭

©2009-2025 Movatter.jp