Hologresを使ったバッチ処理ソリューション開発方法
Hologresを使ったバッチ処理ソリューション開発方法
本記事では、Hologres を使ってFunctionComputeとAPI Gatewayによるバッチ処理サービス基盤を開発する方法をご紹介します。
Hologresとは
Hologres はリアルタイムのインタラクティブ分析サービスです。高い同時実行性と低いレイテンシーでTB、PBクラスのデータの移動や分析を短時間で処理できます。PostgreSQL11と互換性があり、データを多次元で分析し、ビジネスインサイトを素早くキャッチすることができます。
少し前になりますが、Hologresについての資料をSlideShareへアップロードしていますので、こちらも参考になればと思います。
Hologresを使ったバッチ処理ソリューション開発方法
このチュートリアルでは、Alibabaクラウド製品に基づいて、書籍の販売データ分析のための全体的なソリューションを作成します。 売上の日報をシステムから取得し、現在の週と前の週の間の異なる書籍に基づく総販売数と金額の違いを知りたいとします。この結果はAPIで簡単に取得することができます。
またテーブル関係図は次の通りになります
このチュートリアルについて
対象者:
本ガイドラインは、以下のような方を対象としています
- Alibaba Cloud、MaxCompute、DataWorks、OSS(Object Storage Service)、HologresおよびFunction Computeに関する基本的な知識を有している
- Function Computeがサポートする少なくとも1つのプログラム言語に精通している
前提条件:
- Alibaba Cloud のアカウントを所持している
- MaxCompute、DataWorks、OSS(Object Storage Service)、ApsaraDB for RDS、Hologres、Function Computeが使用可能な状態になっている
準備作業
データファイルの作成
まず、書籍の注文に関するテストデータを用意します。以下のPythonスクリプトを使用して、日付を基にしたcsvレポートファイルを生成します。
import csvimport randomimport uuidoutput_date = "20210712"book_info = ["嫌われる勇気", "ノルウェイの森", "海辺のカフカ", "色彩を持たない多崎つくると彼の巡礼の年", "容疑者Ⅹの献身", "人間失格", "こころ", "天声人语", "幸せになる勇気"]book_price = [500, 600, 700, 300, 200, 100, 350, 550, 650]csv_writer = csv.writer(open("test_data_{0}.csv".format(output_date), "w+", newline='', encoding='UTF-8'))for i in range(10000):book_id = random.randint(1, 9)order_count = random.randint(1, 5)row = [uuid.uuid1(), random.randint(1, 50), book_id, book_info[book_id-1], order_count,book_price[book_id-1] * order_count] # order_id, user_id, book_id, book_name, order_count, order_amountcsv_writer.writerow(row)
生成されるデータファイルには、以下のような order_id, user_id, book_id, book_name, order_count, order_amount
の情報が含まれます。
5761158b-f044-11eb-8be8-706655fcbfda,39,8,天声人语,1,55057613ca0-f044-11eb-a396-706655fcbfda,46,8,天声人语,5,275057613ca1-f044-11eb-82e5-706655fcbfda,13,5,容疑者Ⅹの献身,1,20057613ca2-f044-11eb-b395-706655fcbfda,35,5,容疑者Ⅹの献身,3,60057613ca3-f044-11eb-a123-706655fcbfda,42,4,色彩を持たない多崎つくると彼の巡礼の年,1,30057613ca4-f044-11eb-923c-706655fcbfda,18,8,天声人语,5,2750......
OSS(Object Storage Service)のバケットにデータファイルをアップロードします。
OSS(Object Storage Service)のバケットに、関連するcsvデータファイルをアップロードします。
DataWorksプロジェクトの準備
DataWorksコンソールで新規プロジェクトを作成し、全てのテーブルとジョブを管理します。対象となるプロジェクトは「basic mode」であることに注意してください。
MaxComputeソーステーブルにデータをインポートするバッチ同期Nodeの作成
このセクションでは、OSS(Object Storage Service)バケット内のデータファイルからMaxComputeのソーステーブルに、日付をパーティションとして売上データをインポートします。
Data Integration は、安定した、効率的な、そしてスケーラブルなデータ同期サービスです。
DI(Data Integration)ジョブを作成する前に、関連するデータソースと接続情報を設定する必要があります。
データ統合管理ページに入り、「接続」リンクをクリックしてデータソース管理ページに移動します。
MaxComputeのデータソースは、odps_first
として自動生成され、DI(Data Integration)のジョブ設定で直接使用することができます。
new data sourceボタンをクリックして、ウィザードに従ってOSS(Object Storage Service)データソースを追加します。
プロジェクトのData Studioにアクセスし、新しいbusiness flowを作成します。
データファイルからのデータに基づいて、MaxComputeソーステーブルを作成します。ウィザードの「DDLステートメント」モードで以下のSQLステートメントを直接使用してフィールド情報を生成することができます。
CREATE TABLE IF NOT EXISTS book_order_src(order_id STRING COMMENT 'Generated order ID',user_id BIGINT COMMENT 'User ID',book_id BIGINT COMMENT 'One of 9 books',book_name STRING COMMENT 'One of 9 book names',order_count BIGINT COMMENT 'How many',order_amount BIGINT COMMENT 'How much')PARTITIONED BY(output_date STRING);
DI(Data Integration)ジョブ用に、上記business flowの下にバッチ同期Nodeを作成します。
列のマッピングを自動的に生成するには、ウィザードでデータソースを更新し、「オブジェクト名」を特定のデータファイルに設定してから、プレビューボタンをクリックします。
スケジューリングパラメータ で、データファイル名やテーブルのパーティションを設定します。
通常は、bizdate
を直接使用しますが、営業日がスケジューリング日と異なる場合は、式を使って定義することができます。例えば、${yyyymmdd-3}
は、スケジューリング日と営業日の差が3日であることを意味します。このスケジューリングパラメータは、あなたの状況に応じて更新することができます。
DI(Data Integration)ジョブを毎日実行するように、Config schedule 設定を行います。
business flow全体でこのタスクが最初に実行されるべきであるため、親Nodeをroot Nodeとして設定します。
Resource group
を public resource group
としても設定します。
Task Nodeのすべての設定を保存します。
選択された日付のデータは、MaxComputeソーステーブルに保存されることに注意してください。同じ日に複数回実行した場合、重複するレコードがあるかもしれませんが、これは前に設定した「書き込みルール」に依存します。
ここまでで、OSS(Object Storage Service)のバケットから毎日データファイルをインポートするDI(Data Integration)のスケジュールジョブを作成しました。
ODPS SQL Nodeを作成して、毎日データ統計を実行
MaxComputeのソーステーブルでは、すべてのBookオーダー情報を日付ごとにチェックすることができます。この統計データは次のステップで使用されます。
新しい MaxCompute テーブルを作成して、毎日の統計結果を保存します。
先ほどと同様に以下のSQL文でテーブルスキーマを生成し、テーブルを本番環境にコミットします。
CREATE TABLE IF NOT EXISTS book_order_daily(output_date STRING COMMENT 'Order output date',book_id BIGINT COMMENT 'One of 9 books',book_name STRING COMMENT 'One of 9 book names',order_count BIGINT COMMENT 'How many - total daily',order_amount BIGINT COMMENT 'How much - total daily') ;
日次統計ロジック用のODPS SQL Nodeを新規に作成します。
営業日を定義するために使用されるスケジューリングパラメータを持つ関連SQLステートメントを準備します。同時にスケジューリング設定を日ごとに設定をします。
INSERT INTO book_order_dailySELECT ${tmp} AS output_date,book_id,book_name,SUM(order_count) AS order_count,SUM(order_amount) AS order_amountFROM book_order_srcWHERE output_date = ${tmp}GROUP BY book_id,book_name;
画像のように線を引く(Drag&Drop)ことで、ことで依存関係を更新します。
また、選択した日付の日次統計タスクをテストすることもできます。
日々のジョブをオペレーションセンターにコミットする
job nodeをコミットすることで、関連するタスクをオペレーション・センターに展開することができます。
https://www.alibabacloud.com/cloud-tech/doc-detail/92402.htm#title-fgd-yis-1kq
business flow nodeに移動し、コミット・ボタンをクリックして、前のステップで準備したすべてのDaily job nodeを選択し、すべてコミットします。
オペレーションセンターのサイクルタスクのページにアクセスすると、そこに新しく投入されたジョブが表示されます。スケジュールされたタスクがT+1日後にトリガーされると、関連するサイクルインスタンスが生成されます。これらのインスタンスの実行中のログは、Data Studioで行うのと同様に、logview
リンクから確認できます。
07/19にサイクルタスクをコミットしたと仮定して、Start Instantiation
を翌日に設定すると、システムは07/19のデータファイルを持つタスクを07/20に最初に実行します。つまり、07/19以前に生成されたデータファイルにはアクセスできないということです。
このような場合には、オペレーションセンターのpatch data
機能を使って、遡及データを作成す ることで、これらのデータファイルに対応することができます。
ここでは、07/12~07/18のデータファイルに対するパッチデータ機能の操作手順を説明します。
パッチデータインスタンスの助けを借りて、選択された日付のソースデータがMaxComputeソーステーブルにインポートされます。インスタンスが正常に終了した後、MaxComputeソーステーブルのデータとパーティション情報を確認できます。
SHOW PARTITIONS book_order_src;
ODPS SQLノードを作成してデータの統計を毎週行う
これで、DI(Data Integration)ジョブのbookオーダーソースデータと、ODPS SQLジョブの日次統計データが揃いました。APIでは週ごとの差分を表示しますので、差分を計算するためには週ごとのデータ統計を行う必要があります。
統計結果は book_order_weekly
という名前の新しいテーブルに保存されます。
統計結果用に新しいMaxComputeテーブルを作成します。
以下は、Statistics weekly テーブルのテーブルスキーマに対する DDL 文です。
CREATE TABLE IF NOT EXISTS book_order_weekly(date_start STRING COMMENT 'Order output date start',date_end STRING COMMENT 'Order output date end',book_id BIGINT COMMENT 'One of 9 books',book_name STRING COMMENT 'One of 9 book names',order_count_diff BIGINT COMMENT 'How many - total weekly difference',cur_order_count BIGINT COMMENT 'How many- current week',pre_order_count BIGINT COMMENT 'How many - previous week',order_amount_diff BIGINT COMMENT 'How much - total weekly difference',cur_order_amount BIGINT COMMENT 'How much - current week',pre_order_amount BIGINT COMMENT 'How much - previous week') ;
週間統計ロジック用のODPS SQLノードを新規作成します。
ビルトイン日付関数(built-in date function)と、営業日を定義するために使用されるスケジューリングパラメータを使用して、関連するSQLステートメントを準備します。
WITHtmp_date AS (SELECT TO_DATE(${tmp},'yyyymmdd') AS tmp_date) ,date_info AS (SELECTDATEADD(t1.tmp_date,-13,'dd') AS pre_start,DATEADD(t1.tmp_date,-7,'dd') AS pre_end,DATEADD(t1.tmp_date,-6,'dd') AS cur_start,t1.tmp_date AS cur_endFROM tmp_date t1),pre_info AS (SELECT book_id,book_name,IF(SUM(t.order_count) IS NULL,0,SUM(t.order_count)) AS order_count,IF(SUM(t.order_amount) IS NULL,0,SUM(t.order_amount)) AS order_amountFROM book_order_daily tWHERE TO_DATE(t.output_date,'yyyymmdd') BETWEEN (SELECT pre_startFROM date_info) AND (SELECT pre_endFROM date_info)GROUP by book_id, book_name),cur_info AS (SELECT book_id,book_name,IF(SUM(t.order_count) IS NULL,0,SUM(t.order_count)) AS order_count,IF(sum(t.order_amount) IS NULL,0,SUM(t.order_amount)) AS order_amountFROM book_order_daily tWHERE TO_DATE(t.output_date,'yyyymmdd') BETWEEN (SELECT cur_startFROM date_info) AND (SELECT cur_endFROM date_info)GROUP BY book_id, book_name)INSERT INTO book_order_weeklySELECT(SELECT to_char(cur_start,'yyyymmdd')FROM date_info) AS date_start,${tmp} AS date_end,c.book_id,c.book_name,c.order_count - P.order_count AS order_count_diff,c.order_count AS cur_order_count,P.order_count AS pre_order_count,c.order_amount - P.order_amount AS order_amount_diff,c.order_amount AS cur_order_amount,P.order_amount AS pre_order_amountFROM pre_info PJOIN cur_info cON P.book_id = c.book_idAND P.book_name = c.book_nameORDER BY c.book_id;
スケジューリングパラメータとスケジュール設定を週単位で設定。ノードの依存関係も同時に設定します。
毎週のジョブをオペレーションセンターにコミットする
先ほどと同様に、週次の統計ジョブをオペレーションセンターにコミットします。ウィークリー統計ジョブはデイリー統計の結果に基づいて動作するため、デイリー統計ジョブの後に実行されます。
スケジュール設定に基づき、毎週月曜日に実行されます。コミットする前に、ビジネスロジックに基づいて関連情報を更新する必要があります。
オペレーションセンターで週次統計のサイクルタスクを確認します。
毎週の統計結果を表示するAPIを用意する
DataWorksプラットフォームのData Serviceでは、APIの作成・登録が可能です。
しかし、DataService StudioはMaxComputeに直接接続することはできません。Hologres接続を作成し、Hologresのアクセラレートクエリ機能を利用することで、DataService StudioからMaxComputeのデータを照会することができます。
Hologres は Data Service の サポートされている接続リストに含まれていますが、日本地域では十分に統合されていません。(2021年9月にリリース予定、そろそろな気がします)
このような場合には、2つの選択肢があります。 ‐ DataWorks Data Service夜ソリューション
- 新しいDI(Data Integration)ジョブを追加して、毎週の統計結果をRDS MySQLに同期させる
- RDS MySQLをベースにデータサービスが構築した関連APIを利用する
- FC(Function Compute)によるソリューション
- Hologresの外部テーブルを使用して、MaxComputeの週次統計テーブルにアクセス
- FC(Function Compute)で、クエリパラメータに基づいてデータを照会する関数を作成
- API Gatewayに手動でAPIを登録し、FC(Function Compute)の機能をバックエンドサーバとして使用する
DataWorks Data Serviceによるソリューション
ここでは、DataWorks Data Serviceによるソリューションの手順を説明します。まずは同じ地域の RDS MySQL インスタンスを用意します。
その後、MaxCompute Weekly Statistics Table と同じスキーマのユーザー、データベース、テーブルを RDS MySQL インスタンスに作成します。
RDS MySQLのテーブル構造は以下を参考にしてください。
-- ------------------------------ Table structure for book_order_weekly-- ----------------------------DROP TABLE IF EXISTS `book_order_weekly`;CREATE TABLE `book_order_weekly` (`date_start` varchar(10) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,`date_end` varchar(10) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,`book_id` bigint(20) NULL DEFAULT NULL,`book_name` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,`order_count_diff` bigint(20) NULL DEFAULT NULL,`cur_order_count` bigint(20) NULL DEFAULT NULL,`pre_order_count` bigint(20) NULL DEFAULT NULL,`order_amount_diff` bigint(20) NULL DEFAULT NULL,`cur_order_amount` bigint(20) NULL DEFAULT NULL,`pre_order_amount` bigint(20) NULL DEFAULT NULL) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;
RDS MySQLにデータを同期する新しいバッチ同期ノードの作成
DataWorks DI(Data Integration)のデータソース管理ページに戻り、ウィザードで新しいRDS MySQLデータソースを作成します。
既存のMaxCompute週間統計テーブルには、過去のすべての統計結果が含まれています。これをMySQLに同期すると、結果が重複してしまいます。そのため、DI(Data Integration)ジョブのために、weekly statisticsテーブルと同じテーブルスキーマを持つ別のMaxComputeを作成する必要があります。
CREATE TABLE <table1> LIKE <table2>
ステートメントを使うか、以前のようにテーブル作成ウィザードを使ってこれを処理することができます。Data Studioに戻って、関連する操作を行います。
CREATE TABLE sfa_statistics_weekly_results LIKE sfa_statistics_weekly;
CREATE TABLE IF NOT EXISTS book_order_weekly_result(date_start STRING COMMENT 'Order output date start',date_end STRING COMMENT 'Order output date end',book_id BIGINT COMMENT 'One of 9 books',book_name STRING COMMENT 'One of 9 book names',order_count_diff BIGINT COMMENT 'How many - total weekly difference',cur_order_count BIGINT COMMENT 'How many- current week',pre_order_count BIGINT COMMENT 'How many - previous week',order_amount_diff BIGINT COMMENT 'How much - total weekly difference',cur_order_amount BIGINT COMMENT 'How much - current week',pre_order_amount BIGINT COMMENT 'How much - previous week') ;
ODPS weekly statistics SQL nodeに以下のステートメントを追加する。これにより同期テーブルがクリーンになり、最新の統計結果が挿入されます。
-- Clean up results tableTRUNCATE TABLE book_order_weekly_result;-- Copy new statistics data into results tableINSERT INTO book_order_weekly_resultSELECT *FROM book_order_weeklyWHERE date_end = ${tmp};
新しいバッチ同期ノードを作成し、毎週の統計データをMySQLに同期させます。バッチ同期ノードにODPSとMySQLのデータソースを設定します。
resource group
を public resource group
として設定します。
同期ジョブは毎週の統計結果に基づいて実行されるので、親ノードを週間統計SQLノードに設定し、スケジュール設定も週間にします。
オペレーションセンターへの関連ノードのコミット
更新された週次統計SQLノードと新しい週次同期ノードを含むBusiness Flowをコミットします。
オペレーションセンターの patch data
機能を使って、遡及データを作成 を行います。
データサービスでのAPIの生成と公開
API GatewayコンソールでAPIグループを作成します。
リンクをクリックすると、DataWorks Data Service studioに移動されます。
作成したAPIグループで新しいビジネスプロセスを作成します。
Script Mode
で API生成(Generate API) を実行し、データソースとクエリステートメントを更新します。
SELECT date_start,date_end,book_id,book_name,order_count_diff,cur_order_count,pre_order_count,order_amount_diff,cur_order_amount,pre_order_amountFROM book_order_weeklyWHERE ${tmp_date} >= date_startand ${tmp_date} <= date_end;
生成されたリクエストパラメータの設定を確認します。
Test linkをクリックして、APIをテストします。query parameterを入力し、レスポンスの結果を確認します。
Publishリンクをクリックして、APIを公開します。
公開されたAPIの管理、APIの統計情報や認証情報の確認は、サービス管理セクションで行うことができます。また、テスト用APIも用意されています。
これでDataWorks Data Serviceよるソリューションとしての構築が完成しました。
FC(Function Compute)によるソリューション
ここでは、FC(Function Compute)ソリューションの手順を説明します。同じリージョンで Hologres インスタンスが稼働していることを確認してください。
Hologres の外部テーブルを作成します。
対象となるインスタンスのHoloWebにアクセスします。
新しいデータベースと外部テーブルを作成します。テーブルスキーマは、選択されたMaxComputeテーブルに基づいて自動的に生成されます。
HoloWebでクエリ結果を確認します。
FC(Function Compute)のサービスと関数の作成
FC(Function Compute)コンソールで新しいサービスを作成します。
FC(Function Compute)でサポートされているプログラム言語であれば、バックエンドサーバを構築することができます。サンプルとしてPythonとFuncraft(https://www.alibabacloud.com/cloud-tech/doc-detail/140283.htm)を使用しています。
Funcraftをインストールして、以下の4つのファイルを新しいフォルダに用意します。
.env
ファイルは、Funcraft の設定に使用します。関連情報は各自で更新してください。
ACCOUNT_ID=xxxxxxxxREGION=cn-shanghaiACCESS_KEY_ID=xxxxxxxxxxxxACCESS_KEY_SECRET=xxxxxxxxxxFC_ENDPOINT=https://{accountid}.{region}.fc.aliyuncs.comTIMEOUT=10RETRIES=3
Funfile
ファイルにはPythonの実行環境が記述されています。今回はHologresインスタンスを接続するので、configsにpsycopg2
を追加します。
RUNTIME python3RUN fun-install pip install psycopg2
template.yml
は、FC(Function Compute)のデプロイ情報を定義しています。このファイルの中身として、この関数は、book_demo_service
というサービスの下に、book_demo_fc_py
というHTTP関数としてデプロイされます。詳しくはtemplate.yml introduction をご覧ください。
ROSTemplateFormatVersion: '2015-09-01'Transform: 'Aliyun::Serverless-2018-04-03'Resources:book_demo_service:Type: 'Aliyun::Serverless::Service'book_demo_fc_py:Type: 'Aliyun::Serverless::Function'Properties:Handler: index.handlerRuntime: python3CodeUri: './'Events:http-test:Type: HTTPProperties:AuthType: FUNCTIONMethods: ['GET', 'POST']
index.py
は対象となる関数のソースコードです。より詳しい情報は、Python HTTP Functionを参照してください。なお使う前に、Hologresの接続情報を更新してください。
import decimalimport jsonimport loggingimport psycopg2def handler(environ, start_response):logger = logging.getLogger()# Connect to the databaseconnection = psycopg2.connect(host="<your instance host>", port=80,dbname="<your db name>", user="<your access key id>",password="<your access key secret>")tmp_date = environ['QUERY_STRING'].replace("tmpdate=", "")logger.info(tmp_date)cur = connection.cursor()cur.execute("""SELECT date_start,date_end,book_id,book_name,order_count_diff,cur_order_count,pre_order_count,order_amount_diff,cur_order_amount,pre_order_amountFROM book_order_weeklyWHERE '{0}' >= date_startAND '{0}' <= date_end""".format(tmp_date))row_headers = [x[0] for x in cur.description] # this will extract row headerslogger.info(row_headers)rv = cur.fetchall()json_data = []for result in rv:json_data.append(dict(zip(row_headers, result)))logger.info(json_data)cur.close()connection.close()status = '200 OK'response_headers = [('Content-type', 'text/plain')]start_response(status, response_headers)tmp_response = json.dumps(json_data)logger.info(tmp_response)return [tmp_response.encode('utf-8') ]
関数のルートディレクトリで fun install
を実行して、依存関係をインストールします。
docker serviceがインストールされ、正常に動作していることを確認します。
なお、インストールにはマルチステージビルドを使用しているため、dockerのバージョンは17.05以降である必要があります。
FunCraftを使って、fun deploy -y
というコマンドで機能をデプロイします。
処理中に「インスタンスメトリクスを有効にするには、プロジェクトとログストアの両方が必要です」というエラーメッセージが表示された場合は、サービス設定で「Request-level Metrics」と「Instance Metrics」を無効にする必要があります。
Query parameter tmpdate
を使って関数テストをします。
API Gatewayコンソールで新しいAPIを作成
上記、DataWorksのData Serviceによるソリューション で作成したAPIグループを再利用することができます。上記のをFC(Function Compute)内の関数をバックエンドサービスとして使用を使用し、FC(Function Compute) コンソールのHTTPトリガー情報でバックエンドサービスのトリガーパスを記入します。
新たに作成したAPIをテスト公開し、テストを行います。
APIを呼び出すための新しいAPPを作成します。
テスト段階のAPIで新規に作成したAPPを認証します。
作成したAPPでテスト段階のAPIをデバッグします。
これでHologres-FC-APIGatewayのソリューションが完成しました。
API Gateway SDKによるAPIへのアクセス
APIは、Data ServiceソリューションやFC(Function Compute)ソリューションで生成されたものであっても、API Gatewayコンソールで確認することができ、API Gateway SDKでアクセスすることができます。
https://www.alibabacloud.com/cloud-tech/doc-detail/185548.htm
ここでは、FC(Function Compute)によるソリューションで作成したAPIを例にとります。
そのAPIを「リリース」の段階で公開し、作成したAPPで認証処理を行います。
生成されたJAVA SDKをダウンロードし、パッケージ内のmdファイルに基づいて設定を行います。
Demo*.java`のAppKeyとAppSecretを以下のように更新します。
......static{//HTTP Client initHttpClientBuilderParams httpParam = new HttpClientBuilderParams();httpParam.setAppKey("<your AppKey>");httpParam.setAppSecret("<your AppSecret>");HttpApiClientbook_demo_group.getInstance().init(httpParam);//HTTPS Client initHttpClientBuilderParams httpsParam = new HttpClientBuilderParams();httpsParam.setAppKey("<your AppKey>");httpsParam.setAppSecret("<your AppSecret>");/*** HTTPS request use DO_NOT_VERIFY mode only for demo* Suggest verify for security*///httpsParam.setRegistry(getNoVerifyRegistry());HttpsApiClientbook_demo_group.getInstance().init(httpsParam);}......
Demo*.java`で、すべてのテストパラメータを「default」から意味のある値に更新します。
......public static void book_order_weekly_diffHttpTest(){// HttpApiClientbook_demo_group.getInstance().book_order_weekly_diff("default" , new ApiCallback() {HttpsApiClientbook_demo_group.getInstance().book_order_weekly_diff("20210720" , new ApiCallback() {@Overridepublic void onFailure(ApiRequest request, Exception e) {e.printStackTrace();}@Overridepublic void onResponse(ApiRequest request, ApiResponse response) {try {System.out.println(getResultString(response));}catch (Exception ex){ex.printStackTrace();}}});}......
次に、APIをテストするための新しいJavaクラスを作成します。
public class App {public static void main(String[] args) {Demobook_demo_group.book_order_weekly_diffHttpTest();}}
最後に
ここまで、Hologres、FunctionCompute、APIGatewayを使ってHologreを使ったバッチ処理ソリューションを開発する方法を紹介しました。
この方法を生かすことで、HologresをDWHとしながらAPIサービス展開をすることができます。