KINTO Tech Blog
AWS

データ競合を気にしながらS3イベントを処理してみた 〜Rust・Lambda・DynamoDBを添えて〜

Cover Image for データ競合を気にしながらS3イベントを処理してみた 〜Rust・Lambda・DynamoDBを添えて〜

この記事は KINTOテクノロジーズアドベントカレンダー2024 の6日目の記事です🎅🎄


はじめに

こんにちは。KINTO FACTORY開発グループの上原(@penpen_77777)です。
2024年の7月に入社し、KINTO FACTORYのバックエンドの開発を担当しています。

今回は、業務の中でS3イベントを処理する際に注意すべきだったデータ競合とその解決策についてサンプルコードを通じてご紹介します。

今回想定する読者

  • AWSのS3イベントが重複して通知されたり、通知の順序が入れ替わることに悩んでいる方
  • Rust、S3、DynamoDB、Lambda、Terraformについて基本的な知識がある方
    • サンプルコードを読む際にこの辺りの知識があると理解しやすいです

S3イベントの概要

S3イベント[1]とは、S3へのオブジェクトをアップロード、削除などの操作をトリガーに発生するイベントのことです。
S3イベントをLambda関数やSNSなどで検知することによって、S3にまつわる様々な処理を自動化できます。

S3イベントの問題点

S3イベントを処理する上で注意するべきなのは、イベントが重複して通知されたり順序が入れ替わったりすることがあるという点です。

例えば、同一オブジェクトキーに対してオブジェクト削除後にオブジェクト作成する処理を考えてみましょう。
この場合、オブジェクトの削除イベントが先に通知され、その後に作成イベントが通知されることが期待されます(同一オブジェクトに対して削除→作成した場合の期待するS3イベントの受信順序の図を参照)
しかし、S3イベントは順序が保証されないため、作成イベントが先に通知され、後に削除イベントが通知されることがあります(同一オブジェクトに対して削除→作成した場合の起こりうるS3イベントの受信順序の図を参照)
結果、オブジェクトを削除するイベントによる処理結果が最新になってしまい、処理内容によってはデータの一貫性が保証されないという問題が発生することがあります。

この問題の解決策としてS3イベントに含まれるsequencerキーを使ってイベントの順序を保証する方法があります[2]

イベントのシーケンスを決定する方法の 1 つとして、sequencer キーがあります。イベントが発生した順序でイベント通知が届く保証はありません。ただし、オブジェクト (PUT) を作成するイベントからの通知 と削除オブジェクトは sequencer を含みます。これは、特定のオブジェクトキーのイベントの順序を決定するために使用できます。

同じオブジェクトキーに対する 2 つのイベント通知の sequencer の文字列を比較すると、sequencer の 16 進値が大きいほうのイベント通知が後に発生したイベントであることがわかります。イベント通知を使用して Amazon S3 オブジェクトの別のデータベースまたはインデックスを維持している場合は、イベント通知を処理するたびに sequencer の値を比較し、保存することを推奨します。

次の点に注意してください。

複数のオブジェクトキーのイベントの順序を決定するために sequencer を使用することはできません。

sequencer の長さが異なる場合があります。これらの値を比較するには、最初に短い方の値を右に 0 と挿入してから、辞書式比較を実行します。

まとめると以下の通りです。

  • sequencerはオブジェクトのPUTやDELETEイベントに含まれる値で、イベントの順序を決定するために使用可能
  • sequencerを辞書式比較し、値が大きい方が後に発生したイベント
    • 長さが異なる場合は、短い方の値の右側に0を挿入してから比較
  • 複数のオブジェクト同士のS3イベント順序を決定するために使用できない
    • 同一オブジェクトに対するPUTやDELETEイベントの順序を決定するために使用する

例えば、Rust上でS3イベントのシーケンサ比較を実装する場合は以下のように実装できます。

S3のシーケンサの性質を表現するための構造体S3Sequencerのフィールドとコンストラクタを定義します。

// 1. 構造体S3Sequencerを定義する
use serde::{Deserialize, Serialize};

#[derive(Serialize, Deserialize, Debug, Clone)]
pub struct S3Sequencer {
    bucket_name: String,
    object_key: String,
    sequencer: String,
}

// 2. S3Sequencerのコンストラクタを定義する
// バケット名、オブジェクトキー、シーケンサを引数に取る
impl S3Sequencer {
    pub fn new(bucket_name: &str, objcet_key: &str, sequencer: &str) -> Self {
        Self {
            bucket_name: bucket_name.to_owned(),
            object_key: objcet_key.to_owned(),
            sequencer: sequencer.to_owned(),
        }
    }
}

次に、イベントの前後関係をS3Sequencerの大小を比較することで判別させるため、PartialOrdトレイト[3]
PartialEqトレイト[4] を実装していきます。
この2つのトレイトを実装すれば、以下のように==<>などの比較演算子を使ってシーケンサの大小を比較できます。

let seq1 = S3Sequencer::new("bucket1", "object1", "abc123");
let seq2 = S3Sequencer::new("bucket1", "object1", "abc124");
if seq1 < seq2 {
    println!("seq1はseq2より古いイベントです");
} else if seq1 == seq2 {
    println!("seq1とseq2は同じイベントです");
} else {
    println!("seq1はseq2より新しいイベントです");
}

PartialOrdトレイトの実装に必要なpartial_cmpメソッドは以下のように実装します。

impl PartialOrd for S3Sequencer {
    fn partial_cmp(&self, other: &Self) -> Option<std::cmp::Ordering> {
        // バケット名が異なるシーケンサは比較できない
        if self.bucket_name != other.bucket_name {
            return None;
        }

        // オブジェクトキーが異なるシーケンサは比較できない
        if self.object_key != other.object_key {
            return None;
        }

        // 長い方に合わせて、短い方の末尾に0を追加して比較
        let max_len = std::cmp::max(self.sequencer.len(), other.sequencer.len());
        let self_sequencer = self
            .sequencer
            .chars()
            .chain(std::iter::repeat('0'))
            .take(max_len);
        let other_sequencer = other
            .sequencer
            .chars()
            .chain(std::iter::repeat('0'))
            .take(max_len);

        Some(self_sequencer.cmp(other_sequencer))
    }

バケット名およびオブジェクトキーが異なるシーケンサの比較に意味はないため、それぞれが異なる場合はearly returnでNoneを返します。
バケット名とオブジェクトキーが同じになっていることを確認できたらシーケンサの比較に入るわけですが、以下の順で処理をしていきます。

  1. シーケンサの長さを比較して、長い方の長さをmax_lenに格納する
  2. max_lenに合わせて、短い方のシーケンサの末尾に0を追加する
  3. 2で作成したシーケンサを辞書順で比較して、大小を返す

PartialEqトレイトは以下のように実装します。

impl PartialEq for S3Sequencer {
    fn eq(&self, other: &Self) -> bool {
        self.partial_cmp(other)
            .map_or(false, |o| o == std::cmp::Ordering::Equal)
    }
}

PartialOrdトレイトのpartial_cmpメソッドを使って、シーケンサの比較結果が等しいかどうかを判定しています。

以上の実装により、S3イベントのシーケンサを比較できるようになりました。

データ一貫性を考慮したS3イベント処理の実装例

アーキテクチャ図

ここからは、シーケンサを用いてS3イベントの順序を保証する方法をサンプルコードを交えながら紹介します。
サンプルコードではS3バケットにアップロードされた画像ファイルをLambda上でグレイスケールに変換して、出力用のS3バケットに保存する処理を行います。
以下にアーキテクチャ図を示します。

サンプルコードのアーキテクチャ図。S3バケットにアップロードされた画像ファイルをLambda上でグレイスケールに変換して、出力用のS3バケットに保存する。DynamoDBを使ってロック処理を実装する。

入力画像用バケットに画像ファイルがアップロードされると、S3イベントを通じてLambda関数がトリガーされます。起動したLambda関数は、DynamoDBを見て処理中でないことを確認し、処理中フラグを立てて画像ファイルを処理します。処理が完了したら、処理中フラグを解除して次の画像ファイルの処理を待ちます。

作成・削除のイベントの通知の順序が逆転してしまうと、本来存在するはずの画像が誤って削除されるといった問題が発生します。
例えば、以下の流れで処理を行うと想定し実装したとします。

  1. 画像ファイルAが入力用バケットから削除される
  2. 画像ファイルAが入力用バケットに再度アップロードされる
  3. Lambdaが削除イベント(1に対応)を受信、画像ファイルAを出力用バケットから削除する
  4. Lambdaが作成イベント(2に対応)を受信、画像ファイルAを処理しグレースケールに変換して出力用バケットに保存する

しかし、S3イベントでは3と4の通知順序が逆転する可能性があるため、以下のような流れになることがあります。

  1. 画像ファイルAが入力用バケットから削除される
  2. 画像ファイルAが入力用バケットに再度アップロードされる
  3. Lambdaが作成イベント(2に対応)を受信、画像ファイルAを処理しグレースケールに変換して出力用バケットに保存する
  4. Lambdaが削除イベント(1に対応)を受信、画像ファイルAを出力用バケットから削除する

この場合、入力用バケットには画像ファイルAが存在するにもかかわらず、出力用バケットにはグレースケール化した画像ファイルA'が存在しないという問題が発生します。

このような問題を防ぐために、S3イベントのシーケンサを使って排他処理を実装します。
加えてDynamoDBによって画像処理状況を管理させることも排他処理の実装には必要です。
DynamoDBの条件付き書き込みを使って、処理中フラグを立てることで、複数のLambda関数が同時に同じ画像ファイルを処理することを防ぎます。

今回のサンプルコードはGitHubに公開しています。以下のリンクからご確認ください。
(実行にはAWSインフラの構築が必要ですが、terraformコードにより容易に試せるようにしております)
https://github.com/kinto-technologies/techblog-s3-sequencer-example

Rustによるサンプルコードの実装

今回はRustを使ってLambda関数を実装します。Lambda関数の実装にはcargo-lambdaを使用するのが便利です。
https://www.cargo-lambda.info/

cargo-lambdaの詳しい使用方法については割愛します

エントリーポイントの作成

cargo-lambdaで初期化コマンドを叩くと以下のようにmain.rsが自動的に生成されます。

cargo lambda init
lambda/src/main.rs
use lambda_runtime::{
    run, service_fn,
    tracing::{self},
    Error,
};
mod handler;
mod image_task;
mod lock;
mod s3_sequencer;

#[tokio::main]
async fn main() -> Result<(), Error> {
    tracing::init_default_subscriber();

    run(service_fn(handler::function_handler)).await
}

handler:function_handlerをLambda関数のエントリポイントとして指定しているため、handler.rsに実装を記述します。

function_handlerは以下のように実装します。

lambda/src/handler.rs
use crate::image_task::ImageTask;
use aws_lambda_events::event::s3::S3Event;
use lambda_runtime::{tracing::info, Error, LambdaEvent};

pub async fn function_handler(event: LambdaEvent<S3Event>) -> Result<(), Error> {
    // S3イベントをImageTaskに変換する
    let tasks: Vec<_> = event
        .payload
        .records
        .into_iter()
        .map(ImageTask::try_from)
        .collect::<Result<Vec<_>, _>>()?;

    // futures::future::join_allで実行するタスクを作成する
    let execute_tasks = tasks.iter().map(|task| task.execute());

    // join_allで全てのタスクを実行・待機する
    // 実行結果をretに格納する
    let ret = futures::future::join_all(execute_tasks).await;

    // 実行結果をログに出力する
    for (t, r) in tasks.iter().zip(&ret) {
        info!("object_key: {}, Result: {:?}", t.object_key, r);
    }

    // エラーがある場合はエラーを返す
    if ret.iter().any(|r| r.is_err()) {
        return Err("Some tasks failed".into());
    }

    // 正常終了
    Ok(())
}
  1. S3イベントのベクタをImageTask構造体のベクタに変換します。変換方法はTryFromトレイトを実装しているため、try_fromメソッドを呼ぶだけで良いです。
  2. ImageTask構造体のベクタを元に、画像処理タスクを作成します。
  3. tokioクレートのjoin_all関数を使って、全てのタスクを並列実行します。
  4. 3のjoin_allで帰ってきた結果をログに出力します。
  5. エラーがある場合はエラーを返却し、Lambda関数を異常終了させます。
  6. エラーがなければ正常終了します。

画像処理の実装

1で使用するImageTask構造体は以下のように定義されており、Lambdaの実行に必要な情報を保持しています。

lambda/src/image_task.rs
#[derive(Serialize, Deserialize, Debug, Clone)]
#[serde(tag = "type")]
pub enum TaskType {
    Grayscale,
    Delete,
}

#[derive(Serialize, Deserialize, Debug, Clone)]
pub struct ImageTask {
    pub bucket_name: String,
    #[serde(rename = "id")]
    pub object_key: String,
    pub sequencer: S3Sequencer,
    pub task_type: TaskType,
    pub processing: bool,
}
フィールド名 説明
bucket_name S3バケット名
object_key オブジェクトキー
sequencer S3イベントのsequencer
task_type タスクの種類を示す列挙体(Grayscale, Delete)
processing 処理中フラグ

具体的な画像処理についてはImageTask構造体のexecuteメソッド内で実装します。

lambda/src/image_task.rs
impl ImageTask {
    pub async fn execute(&self) -> Result<(), Error> {
        // 1. ロックを取得する
        let lock = S3Lock::new(&self).await?;

        // 2. タスクの種類に応じて処理を行う
        match self.task_type {
            TaskType::Grayscale => {
                // 画像をグレースケールに変換し、出力バケットに保存する
                let body = lock.read_input_object().await?;
                let format = image::ImageFormat::from_path(&self.object_key)?;
                let img = image::load_from_memory_with_format(&body, format)?;
                let img = img.grayscale();
                let mut buf = Vec::new();
                img.write_to(&mut Cursor::new(&mut buf), format)?;
                lock.write_output_object(buf).await?;
            }
            // 画像を出力用バケットから削除する
            TaskType::Delete => lock.delete_output_object().await?,
        }

        // 3. ロックを解放する
        lock.free().await?;

        Ok(())
    }
}
  1. S3のオブジェクトのデータ不整合が起きないように排他処理をかける
  2. タスクの種類に応じて処理を行う
  • 元のバケットにファイルが追加された場合は、画像をグレースケールに変換し、出力用バケットに保存する
  • ファイルが削除された場合には、出力用バケットからファイルを削除する
  1. 処理が終わったらロックを解放する

ロック処理を実装する

  • ロック処理を実装するため、S3Lock構造体を定義します。
lambda/src/lock.rs
pub struct S3Lock {
    dynamodb_client: aws_sdk_dynamodb::Client,
    table_name: String,

    s3_client: aws_sdk_s3::Client,
    input_bucket_name: String,
    input_object_key: String,
    output_bucket_name: String,
    output_object_key: String,
}

具体的なロック取得処理はコンストラクタに実装します。
少しコードが長いですが、ざっくり言うと以下の通りです。

  • DynamoDBに書き込みが成功したらロックを取得できたとみなす。
  • 書き込みに失敗した場合は2秒ごとにリトライする。
  • 30秒以上ロックが取れない場合はタイムアウトする。

以下にロック処理のシーケンス図を示します。

コンストラクタ内のコードは以下の通りです。

lambda/src/lock.rs
impl S3Lock {
    pub async fn new(task: &ImageTask) -> Result<Self, Error> {
        let table_name = std::env::var("DYNAMODB_TABLE_NAME").unwrap();
        let output_bucket_name = std::env::var("OUTPUT_BUCKET_NAME").unwrap();
        let require_lock_timeout = Duration::from_secs(
            std::env::var("REQUIRE_LOCK_TIMEOUT")
                .unwrap_or_else(|_| "30".to_string())
                .parse::<u64>()
                .unwrap(),
        );
        let interval_retry_time = Duration::from_secs(
            std::env::var("RETRY_INTERVAL")
                .unwrap_or_else(|_| "2".to_string())
                .parse::<u64>()
                .unwrap(),
        );

        let config = aws_config::load_defaults(aws_config::BehaviorVersion::v2024_03_28()).await;
        let s3_client = aws_sdk_s3::Client::new(&config);
        let dynamodb_client = aws_sdk_dynamodb::Client::new(&config);

        // ロックを取得する
        // 実行時間を計測する
        let start = Instant::now();
        loop {
            // 30秒以上ロックが取れない場合はタイムアウトする
            if start.elapsed() > require_lock_timeout {
                return Err("Failed to acquire lock, timeout".into());
            }

            // 強力な読み取り整合性を利用してDynamoDBからシーケンサを取得する
            let item = dynamodb_client
                .get_item()
                .table_name(table_name.clone())
                .key("id", AttributeValue::S(task.object_key.clone()))
                .consistent_read(true)
                .send()
                .await?;

            // 取得したアイテムが存在する場合はシーケンサを比較する
            if let Some(item) = item.item {
                let item: ImageTask = from_item(item)?;
                if task.sequencer <= item.sequencer {
                    // 自分自身が古いシーケンサの場合は処理する必要がないのでスキップする
                    return Err("Old sequencer".into());
                }

                // 自分自身が新しいシーケンサの場合は他の処理が終わるまで待機する
                if item.processing {
                    warn!(
                        "Waiting for other process to finish task, retrying, remaining time: {:?}",
                        require_lock_timeout - start.elapsed()
                    );
                    thread::sleep(interval_retry_time);
                    continue;
                }
            }

            // DynamoDBに条件付き書き込みでロックを取得する
            // その際にレコードが存在していたらprocessingフラグがfalseの場合のみ書き込む
            let resp = dynamodb_client
                .put_item()
                .table_name(table_name.clone())
                .set_item(Some(to_item(&task).unwrap()))
                .condition_expression("attribute_not_exists(id) OR processing = :false")
                .expression_attribute_values(":false", AttributeValue::Bool(false))
                .send()
                .await;

            // 取得できたらループを抜け処理を続行する
            // 取得できなかった場合はロックが取れるまでリトライを繰り返す
            match resp {
                Ok(_) => break,
                Err(SdkError::ServiceError(e)) => match e.err() {
                    PutItemError::ConditionalCheckFailedException(_) => {
                        warn!(
                            "Failed to acquire lock, retrying, remaining time: {:?}",
                            require_lock_timeout - start.elapsed()
                        );
                        thread::sleep(Duration::from_secs(2));
                        continue;
                    }
                    _ => return Err(format!("{:?}", e).into()),
                },
                Err(e) => return Err(e.into()),
            }
        }

        return Ok(Self {
            dynamodb_client,
            output_bucket_name,
            s3_client,
            table_name,
            input_bucket_name: task.bucket_name.clone(),
            input_object_key: task.object_key.clone(),
            output_object_key: task.object_key.clone(),
        });
    }
}

ロックを解除する処理は以下のように実装しており、processingフラグをfalseに更新することでロックを解除します。

lambda/src/lock.rs
impl S3Lock {
    pub async fn free(self) -> Result<(), Error> {
        // DynamoDBのロックを解放する
        // processingフラグのみを更新する
        self.dynamodb_client
            .update_item()
            .table_name(self.table_name)
            .key("id", AttributeValue::S(self.input_object_key))
            .update_expression("SET processing = :false")
            .expression_attribute_values(":false", AttributeValue::Bool(false))
            .send()
            .await?;
        Ok(())
    }
}

S3オブジェクトを触るのにロックを強制させたいため、S3LockにS3のオブジェクトを操作するメソッドを生やしています[5]

lambda/src/lock.rs
impl S3Lock {
    pub async fn read_input_object(&self) -> Result<Vec<u8>, Error> {
        // S3オブジェクトを取得する
        let object = self
            .s3_client
            .get_object()
            .bucket(&self.input_bucket_name)
            .key(&self.input_object_key)
            .send()
            .await?;
        let body = object.body.collect().await?.to_vec();
        Ok(body)
    }

    pub async fn write_output_object(&self, buf: Vec<u8>) -> Result<(), Error> {
        // S3オブジェクトを保存する
        let byte_stream = ByteStream::from(buf);
        self.s3_client
            .put_object()
            .bucket(&self.output_bucket_name)
            .key(&self.output_object_key)
            .body(byte_stream)
            .send()
            .await?;
        Ok(())
    }

    pub async fn delete_output_object(&self) -> Result<(), Error> {
        // S3オブジェクトを削除する
        self.s3_client
            .delete_object()
            .bucket(&self.output_bucket_name)
            .key(&self.output_object_key)
            .send()
            .await?;
        Ok(())
    }
}

実際に動かしてみる

サンプルコードを実際に動かしてみましょう。

グレースケールにしたい画像を用意しなければならないわけですが、今回は兵庫県立公園あわじ花さじき[6]の画像を使用します。

兵庫県立公園あわじ花さじきでのお花畑の写真

インフラ構築

まずはterraform applyしてAWSインフラを構築します。
GitHubレポジトリをクローンして、以下のコマンドを実行してください。

cd terraform
# variables.tfやprovider.tfをよしなに修正しておく
terraform init
terraform apply

サンプルコードのアーキテクチャ図。S3バケットにアップロードされた画像ファイルをLambda上でグレイスケールに変換して、出力用のS3バケットに保存する。DynamoDBを使ってロック処理を実装する。

S3バケットに画像ファイルをアップロード

インフラ構築ができたら、入力用のS3バケットに画像ファイルをアップロードします。

S3に入力用のバケットに画像が追加されている様子

アップロードが終わるとLambda関数の処理が始まり、DynamoDBのテーブルにアイテムが追加されます。
処理が終わると出力用のS3バケットに画像ファイルが保存され、DynamoDBのアイテムのprocessingフラグがfalseになります。

Lambdaが画像処理完了した時のDynamoDBのアイテム

出力用のS3バケットに画像が追加され、グレースケールに変換されていることが確認できます。

グレースケールに変換された画像

S3バケットから画像ファイルを削除

入力用バケットからオブジェクトが削除されると、出力用バケットからもオブジェクトが削除されます。
グレースケールに変換された画像

排他処理が効いているか確認

DynamoDBに追加されるアイテムのprocessingフラグがtrueになると、処理すべきS3イベントが飛んできたとしてもその処理は待機します。
この挙動を確かめるためにDynamoDBのprocessingフラグをわざとtrueにして、同じ名前のファイルをアップロードしてみます。
DynamoDBのアイテムのprocessingフラグがtrueの状態

CloudWatch Logsを見ると、新たに発生したS3イベントが処理されずに他の処理の完了を待機していることがわかります。
Lambdaが待機していることを示すログメッセージ

DynamoDBのprocessingフラグをfalseに戻すと、処理が再開されます。
DynamoDBのアイテムのprocessingフラグをfalseに戻した場合
処理を完了したことを示すログ

排他処理のおかげで、削除イベントとアップロードイベントがほぼ同時に発生しても処理の順序が保証されます。

まとめ

今回はS3イベントの順序を保証するためのシーケンサを利用した、画像処理のサンプルコードを紹介しました。
S3イベントの順序を保証するためには、シーケンサを利用してイベントの順序を比較する必要があります。
自分の趣味でRustでサンプルコードを実装してみましたが、他の言語でも同様の実装が可能なはずです。
ぜひ参考にしてみてください。

脚注
  1. AWSによるS3イベント通知に関するドキュメント
    https://docs.aws.amazon.com/ja_jp/AmazonS3/latest/userguide/EventNotifications.html ↩︎

  2. S3イベントの構造に関するドキュメント。
    https://docs.aws.amazon.com/ja_jp/AmazonS3/latest/userguide/notification-content-structure.html ↩︎

  3. 数学的に言うと半順序集合を表現できます。
    全順序集合と言うのもありそちらはOrdトレイトを実装します。比較方法を実装するためにわざわざトレイトが分けられているのは面白いなと感じます。
    https://doc.rust-lang.org/std/cmp/trait.PartialOrd.html
    https://ja.wikipedia.org/wiki/順序集合#半順序集合 ↩︎

  4. PartialEqトレイトの定義
    https://doc.rust-lang.org/std/cmp/trait.PartialEq.html ↩︎

  5. S3Lockに生やすと再利用性が低くなりそうだなと感じますが、簡単のため同じ構造体に定義しておきます。もっと良いやり方がありそうですが... ↩︎

  6. 淡路島にある綺麗なお花畑です。私が撮影しました。
    https://awajihanasajiki.jp/about/ ↩︎

Facebook

関連記事 | Related Posts

We are hiring!

【データエンジニア】分析G/名古屋・大阪

分析グループについてKINTOにおいて開発系部門発足時から設置されているチームであり、それほど経営としても注力しているポジションです。決まっていること、分かっていることの方が少ないぐらいですので、常に「なぜ」を考えながら、未知を楽しめるメンバーが集まっております。

【KINTO FACTORYバックエンドエンジニア】KINTO FACTORY開発G/大阪

KINTO FACTORYについて自動車のソフトウェア、ハードウェア両面でのアップグレードを行う新サービスです。トヨタ・レクサスの車をお持ちのお客様にOTAやハードウェアアップデートを通してリフォーム、アップグレード、パーソナライズなどを提供し購入後にも進化続ける自動車を提供するモビリティ業界における先端のサービスの開発となります。