<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
    <channel>
        <title>KINTO Tech Blog | キントテックブログ</title>
        <link>https://blog.kinto-technologies.com/</link>
        <description>年齢・性別・国籍問わず多様なメンバーが、トヨタグループのモビリティサービスの世界展開を実現する技術集団として様々な情報を発信します !</description>
        <lastBuildDate>Fri, 13 Mar 2026 03:08:31 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <image>
            <title>KINTO Tech Blog | キントテックブログ</title>
            <url>https://blog.kinto-technologies.com/assets/common/thumbnail_default.png</url>
            <link>https://blog.kinto-technologies.com/</link>
        </image>
        <copyright>©KINTO Technologies Corporation. All rights reserved.</copyright>
        <item>
            <title><![CDATA[技術者と障害当事者がチームで実現するアクセシビリティの「当たり前品質」：デブサミ2026参加レポート]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-03-11-devsumi-accessibility-as-standard/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-03-11-devsumi-accessibility-as-standard/</guid>
            <pubDate>Wed, 11 Mar 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[2月19日に参加したGovTech東京のアクセシビリティセッションの様子をレポートします]]></description>
            <content:encoded><![CDATA[<p>こんにちは。Engineering OfficeのAccessibility Advocate、辻勝利です。
少し前になりますが、2月19日にDevelopers Summit 2026（デブサミ2026）に参加し、一般財団法人GovTech東京によるセッション「アクセシビリティを“あたりまえ品質”に！！」を傍聴してきました。</p>
<p>登壇者の一人である松村道生さんは私の知人であり、同時期に新たな環境へ身を投じた仲間でもあります。彼がGovTech東京という組織において、どのようにアクセシビリティ推進を開発プロセスに組み込んでいるのか、その実践を参考にしたいと考えたのが参加の動機でした。</p>
<p>30分という限られた時間でしたが、アクセシビリティを「付加価値」ではなく「当然備わっているべき品質」と定義し、組織的に取り組む姿勢が非常に明確なセッションでしたので、今回はその内容を簡単にお伝えします。</p>
<h2>1. 効率化の裏側にある「課題」の実態</h2>
<p>セッションの前半では、視覚障害当事者でもある松村さんより、現在のデジタル化・効率化がもたらした課題が共有されました。</p>
<p>近年、サービスの効率化や自動化が「良いこと」として捉えられる傾向があり、様々なところで実際にいろいろなサービスの効率化が図られています。
もちろん、人材不足などの様々な要因により致し方ないと考えられる側面もありますが、下記の事例は私たち視覚障害者の「それでは済まされない現実」をあらわにする内容で、私も一つ一つうなずきながら聞きました。</p>
<ul>
<li>マイナンバー設定の課題： 役所にスクリーンリーダー環境が整備されていなかったため、秘匿すべきパスワードを職員に口頭で伝えて代筆・設定してもらうしかなかった経験。</li>
<li>対面サービスの減少： 駅の「みどりの窓口」削減により自動券売機が主流となったことで、独力での切符購入が困難になった現状。</li>
<li>行政申請の壁： コロナ禍のワクチン接種予約など、視覚障害者が独力で完結できない設計のままリリースされたサービスの実態。</li>
</ul>
<p>これらの事例を通じて、「世の中を便利にするための自動化が、結果として一部の都民を排除してしまっている」という切実な現状が示されました。</p>
<h2>2. 行政サービスにおける「唯一性」と責任</h2>
<p>特に印象に残ったのが、行政サービス特有の責任に関するお話でした。</p>
<p>民間サービスであれば、もし「サービスA」がアクセシビリティの問題で使えなくても、ユーザーは代替手段として「サービスB」を選択できる可能性があります。しかし、行政サービスである「東京アプリ」は唯一無二の存在であり、他に選択肢がありません。</p>
<p>「使えないから他を使う」という逃げ道がない以上、最初から全都民が等しく使える状態でリリースしなければならない。この「代替不可能な公共インフラとしての責任感」が、GovTech東京がアクセシビリティを最優先事項に据える最大の根拠であることを再認識しました。</p>
<h2>3. シフトレフト：開発工程へのアクセシビリティの組み込み</h2>
<p>山内晨吾さんが担当されたパートでは、これらの課題を「後付け」ではなく、開発の最上流から解決する「シフトレフト」の実践手法が紹介されました。</p>
<ul>
<li>デザイン段階からの設計（Figma）： コンポーネント単位で要件を定義し、UI設計時に品質を確保。</li>
<li>テストコードによる自動検証： 機械的にチェック可能な項目を自動化し、デグレード（品質低下）を防止。</li>
<li>AIレビューの活用： LLM（大規模言語モデル）等を活用し、コードレビュー段階でアクセシビリティの不備を検知。</li>
</ul>
<p>GovTech東京では、山内さん（エンジニア）と松村さん（当事者視点）が密に連携し、技術的な仕組みと実際の課題の体験が双方向でフィードバックされる体制が確立されています。チームとして高度に機能していることが、発表の端々から伝わってきました。</p>
<h2>4. 「なくては困る」を基準にする開発文化</h2>
<p>セッションの核となっていた、アクセシビリティを「あったらいいね（魅力品質）」から「なくては困る（当たり前品質）」へ変えていくという視点は、私が取り組んでいる「アクセシビリティを社内文化にする」という活動とも強く共鳴するものです。</p>
<p>この業界で20年以上アクセシビリティの啓発に従事していますが、当事者意識（オーナーシップ）と技術的な合理性がこれほど高いレベルで融合した発表には、なかなか出会えるものではありません。</p>
<h2>おわりに</h2>
<p>イベント終了後の「Ask the Speaker」では、お二人に直接ご挨拶する機会を得ました。現場で格闘している方々と対話し、今後の連携の可能性についても言葉を交わせたことは大きな収穫でした。</p>
<p>今回のセッションで得た知見を、私自身のプロジェクトにおける「アクセシビリティの文化定着」にも確実に活かしていきたいと考えています。</p>
<hr>
<p>参考リンク</p>
<ul>
<li><a href="https://event.shoeisha.jp/devsumi/20260218/session/6457">デブサミ2026 セッション詳細</a></li>
<li><a href="https://codezine.jp/news/detail/23205">CodeZine：アクセシビリティのシフトレフトを実現！「東京アプリ」の開発プロセス改善</a></li>
</ul>
<hr>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/common/thumbnail_default_×2.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[ソフトウェアの依存関係アップデートはRenovateにした理由]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-03-11-ソフトウェアの依存関係アップデートはRenovateにした理由/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-03-11-ソフトウェアの依存関係アップデートはRenovateにした理由/</guid>
            <pubDate>Wed, 11 Mar 2026 01:00:00 GMT</pubDate>
            <description><![CDATA[ソフトウェアの依存関係アップデートをDependabotと迷い続けた結果、Renovateに決定した理由について紹介します。]]></description>
            <content:encoded><![CDATA[<h1>ソフトウェアの依存関係アップデートはRenovateにした理由</h1>
<p>DBREグループで、DevSecOps担当を自称している栗原です。</p>
<p>タイトルの通り、ソフトウェア依存モジュールのアップデートにRenovateを採用しました。GitHub Dependabotと迷い続けましたが、この記事で紹介するDependabotにはない3つの利点が非常に魅力的だったため、Renovateを採用するにいたりました。Renovateを紹介している記事はよく見かけるので、あまり語られていないおすすめの実行方法についてと、私が惹かれた3つのポイントについて説明します。</p>
<h2>Renovateとは</h2>
<p><a href="https://github.com/renovatebot/renovate">Renovate</a>は、ソフトウェアの依存関係を自動でアップデートしてくれるOSSツールです。Dependabotと同様に、リポジトリのルートに設定ファイル（<code>renovate.json</code>）を配置して、Renovateを実行すると、依存関係のアップデートPRを自動で送ってくれます。</p>
<p>2026年3月現在は無料で利用可能ですが、<a href="https://www.mend.io/renovate/">Mend社による買収</a>後、将来的に有償化される可能性がある点は留意しておく必要があります。ただし、現時点ではOSSとして活発に開発が続いており、セルフホスティングも可能なため、柔軟な運用が可能です。</p>
<p>類似機能である、Dependabotとの詳細比較は<a href="https://docs.renovatebot.com/bot-comparison/">公式のbot比較ページ</a>に譲りますが、Dependabotより高機能なのは間違いないです。個人的には設定の柔軟性が圧倒的に高く、複数リポジトリでの設定の共通化など、エンタープライズでの利用に適していると感じています。</p>
<p>ちなみに、この記事ではSCMはGitHubであることを前提にしておりますが、GitLabなど他のSCMを使われている方にも参考になるかと思います。</p>
<h2>おすすめの実行方法</h2>
<p>他社さんの記事などをみかけると、<a href="https://github.com/apps/renovate">Mend Renovate App</a>（一番手っ取り早い）、<a href="https://github.com/renovatebot/github-action">公式のGitHub Actions</a>が紹介されていることが多いですが、私がおすすめしたいのは、<a href="https://docs.renovatebot.com/self-hosted-configuration/">CLIでの実行</a>です。</p>
<p>Renovateは依存定義ファイル（package.json）だけではなく、lockfile（package-lock.json）も更新してくれますが、その際に実行環境にインストールされているパッケージマネージャ（npm）を実行して実現します。つまり実際の開発環境と同じツールを使えるのがベストなわけです。前者の2つは、プレビルドされた環境はあるものの、厳密にやろうとすると、Renovate実行用のコンテナをカスタマイズするなどが必要ですが、CLI実行であれば、他のワークフローで使っている環境セットアップの処理がそのまま転用できます。</p>
<p>特に我々は<a href="https://blog.kinto-technologies.com/posts/2023-05-29-serverless-with-monorepo-nx/">Monorepo</a>を採用しており、複数の言語、パッケージマネージャ（Go、Python uv、Node.js yarn等）を使っているプロジェクトでは、それぞれのツールのバージョンを揃える必要があるため、CLI実行の恩恵が大きいです。</p>
<p>こちらは実際に我々が使っているGitHub Actionsです。</p>
<pre><code class="language-yaml">name: Update Deps Via Renovate
on:
  schedule:
    - cron: &#39;0 * * * *&#39;
  workflow_dispatch:

concurrency:
  group: &quot;${{ github.event.repository.name }}-update-deps-via-renovate&quot;
  cancel-in-progress: false

env:
  LOG_LEVEL: ${{ vars.RENOVATE_LOG_LEVEL || &#39;&#39; }}

jobs:
  renovate:
    runs-on: ubuntu-latest
    steps:
      # 他のワークフローとも共通化しているセットアッププロセス
      - name: checkout codebase and setup runtime
        id: setup-runtime
        uses: kinto-dev/action-dbre-setup-runtime@v3
        with:
          # 後ほど紹介しますが、共通renovate設定ファイルを利用するため、
          # 通常のGITHUB_TOKENではなく、GitHub Appのインストールアクセストークンを利用
          github-app-id: ${{ vars.GH_APP_ID }}
          github-app-private-key: ${{ secrets.GH_APP_PRIVATE_KEY }}
          go-project: &quot;true&quot;
          python-uv-project: &quot;true&quot;

      # GitHub Actionsであれば、Node.jsランタイムがデフォルトでインストールされているので、npxで直接renovateを実行可能。
      - name: run renovate
        run: npx --yes --package renovate -- --token=&quot;${{ steps.setup-runtime.outputs.github-app-install-token }}&quot; &quot;${{ github.repository }}&quot;
</code></pre>
<p>以上がおすすめの実行方法です。それでは次章からおすすめの機能を紹介していきます。</p>
<h2>おすすめ機能1: インラインスクリプトもアップデートの対象にできる</h2>
<p>Dependabotでは基本的に設定ファイル（package.jsonやgo.mod等）に定義された依存関係のみがアップデート対象になりますが、Renovateは<a href="https://docs.renovatebot.com/modules/manager/regex/">Custom Manager</a>機能により、正規表現でマッチさせた任意の文字列をアップデート対象にできます。</p>
<p>例えば、以下のようにnpm scriptとしてDocker Hubのイメージをタグ指定して実行しているケースを考えてみます。</p>
<pre><code class="language-json">// package.json
{
  &quot;scripts&quot;: {
    &quot;gha_lint&quot;: &quot;docker run -i --init --rm -v $INIT_CWD/.github/workflows:/workflows rhysd/actionlint:1.7.7 -color $(ls .github/workflows/*.yml | awk -F &#39;/&#39; &#39;{print \&quot;/workflows/\&quot;$NF}&#39;)&quot;
  }
}
</code></pre>
<p>このようなインラインスクリプトに依存モジュールのバージョンがハードコードされるケースも、Renovateはアップデートの対象にしてくれます。renovate.jsonに以下の設定を追加するだけで実現できます。</p>
<pre><code class="language-json">&quot;customManagers&quot;: [
    {
      &quot;customType&quot;: &quot;regex&quot;,
      &quot;fileMatch&quot;: [
        &quot;^package\\.json$&quot;
      ],
      &quot;matchStrings&quot;: [
        &quot;docker run [^;]*? (?&lt;depName&gt;[^:\\s]+):(?&lt;currentValue&gt;[^\\s]+)&quot;
      ],
      &quot;datasourceTemplate&quot;: &quot;docker&quot;,
      &quot;versioningTemplate&quot;: &quot;docker&quot;,
      &quot;depTypeTemplate&quot;: &quot;shell-script-docker-inline&quot;
    }
]
</code></pre>
<p>この設定により、<code>rhysd/actionlint:1.7.7</code>の部分が検出され、新しいバージョンがリリースされると自動でPRが作成されます。正規表現でマッチングするため、Dockerfile、シェルスクリプト、CI/CDの設定ファイルなど、あらゆるファイルに対して適用可能です。Dependabotではカバーできない領域まで自動アップデートの対象にできるのは、運用負荷の軽減に大きく貢献します。</p>
<h2>おすすめ機能2: ローカルで設定ファイルをデバッグできる</h2>
<p><a href="https://docs.renovatebot.com/configuration-options/#packagerules">アップデートPRのグルーピング</a>など、ファインチューニングをしようと思うと、設定ファイルのトライアンドエラーがつらいです。これはDependabotでも同じだと思いますが、Renovateは開発PCでも動かせるCLIがあるため、手元でカジュアルに設定ファイルとにらめっこが可能です。</p>
<pre><code class="language-bash">$ LOG_LEVEL=debug npx renovate --platform=local --dry-run=full | tee renovate-dryrun.txt
</code></pre>
<p>この<code>--dry-run</code>オプションを使うと、実際にPRを作成せずに、どのような更新が検出されるかをローカルで確認できます。設定を変更して即座に結果を確認できるため、トライアンドエラーのサイクルが非常に高速です。</p>
<p>設定ファイルのvalidatorも付随しています。</p>
<pre><code class="language-bash">$ npx --yes --package renovate -- renovate-config-validator
</code></pre>
<p>このコマンドで、renovate.jsonの構文エラーや設定の妥当性をチェックできます。CI/CDに組み込んでおけば、設定ミスによる実行エラーを事前に防ぐことができます。</p>
<p>えっ...しょぼくない？と思われたかもしれませんが、Dependabotの場合は設定を変更するたびにGitHubにpushして結果を待つ必要があり、フィードバックループが長いです。Renovateはローカルで即座に確認できるため、スピーディーに設定ファイルを完成させることができました。個人的には大きなメリットであると考えます。</p>
<h2>おすすめ機能3: 設定ファイルを共通化できる</h2>
<p>苦労して完成させた設定ファイルをSSOT（Single Source of Truth）にしたいですよね。Renovateには<a href="https://docs.renovatebot.com/config-presets/">Config Presets</a>という、設定ファイルの共通化機能があります。</p>
<p>共通設定リポジトリに<code>default.json</code>を配置し、そこにベースとなる設定を記述します。例えば、PRのラベル設定、スケジュール設定、グルーピングルールなど、組織として統一したい設定をまとめておきます。</p>
<p>利用側の設定ファイルはこれだけで済みます。</p>
<pre><code class="language-json">{
  &quot;$schema&quot;: &quot;https://docs.renovatebot.com/renovate-schema.json&quot;,
  &quot;extends&quot;: [&quot;github&gt;kinto-dev/dbre-renovate-config&quot;]
}
</code></pre>
<p><code>github&gt;</code>プレフィックスでGitHubリポジトリを指定するだけで、共通設定を読み込むことができます。ブランチやタグを指定することも可能です（例: <code>github&gt;kinto-dev/dbre-renovate-config#v1.0.0</code>）。</p>
<p>もちろん、利用側リポジトリ特有の設定を拡張することもできます。</p>
<pre><code class="language-json">{
  &quot;$schema&quot;: &quot;https://docs.renovatebot.com/renovate-schema.json&quot;,
  &quot;extends&quot;: [&quot;github&gt;kinto-dev/dbre-renovate-config&quot;],
  &quot;ignorePaths&quot;: [
    &quot;backup/**&quot;
  ]
}
</code></pre>
<p>この機能により、複数リポジトリで共通の設定を使いつつ、各リポジトリ固有の要件にも対応できます。組織で管理するリポジトリが増えれば増えるほど、この機能の恩恵は大きくなります。</p>
<h2>まとめ</h2>
<p>以上、Renovateのおすすめの実行方法と、Dependabotにはない3つの魅力的な機能を紹介させていただきました！</p>
<p>改めてまとめると以下の通りです。</p>
<ol>
<li><strong>CLI実行で開発環境と同じツールを使える</strong> - 既存のCI/CDワークフローを流用できる</li>
<li><strong>インラインスクリプトもアップデート対象にできる</strong> - Custom Managerで正規表現マッチング</li>
<li><strong>ローカルでデバッグできる</strong> - 高速なフィードバックループで設定を洗練できる</li>
<li><strong>設定ファイルを共通化できる</strong> - 複数リポジトリで一貫した運用が可能</li>
</ol>
<p>最近全部AIでいいんじゃないかと思うことも多々ありますが、決められた定型作業であれば非AIツールもまだまだ有益だと信じて、ツールボックスを拡充していければと思います。お読みいただきありがとうございます。</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/common/thumbnail_default_×2.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[AWS Configの記録頻度最適化でコストを大幅削減]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-03-10-aws-config-cost-optimization/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-03-10-aws-config-cost-optimization/</guid>
            <pubDate>Tue, 10 Mar 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[AWS Configの記録頻度を最適化し、セキュリティ要件を維持しながら月間コストを約80%削減した取り組みを紹介します。]]></description>
            <content:encoded><![CDATA[<h2>はじめに</h2>
<p>こんにちは、KINTOテクノロジーズ CloudSecurityグループの小林です。</p>
<p>皆さん、AWS Configのコストが高いなと思ったことはありませんか？
今回、記録方式の最適化で約80%のコスト削減を実現しました。
本記事ではその過程と得られた知見を共有します。</p>
<h2>本記事の対象読者</h2>
<ul>
<li>AWS Configのコストが気になっている方</li>
<li>AWSのコスト最適化に取り組んでいる方</li>
<li>セキュリティ要件とコストのバランスを考えている方</li>
<li>大規模なAWS環境を運用している方</li>
<li>Control TowerやOrganizationsを使って複数アカウントを管理している方</li>
</ul>
<h2>AWS Configとは</h2>
<p>AWS Configは、AWSリソースの設定変更を記録・追跡するサービスです。</p>
<p>主な用途は以下の通りです：</p>
<ul>
<li>リソース設定の変更履歴を記録</li>
<li>コンプライアンスルールへの準拠状況を監視</li>
<li>セキュリティ基準違反の検知</li>
<li>設定変更の監査証跡として活用</li>
</ul>
<h2>背景：なぜ見直しが必要だったのか</h2>
<p>AWS Configは便利なサービスですが、
記録回数に応じて課金されるため、大規模環境ではコストが大きくなりがちです。</p>
<p>主な要因は以下の通りです。</p>
<ul>
<li>記録対象リソースの増加（特にネットワーク関連リソース）</li>
<li>連続記録モードによる頻繁な記録</li>
</ul>
<h3>Control Tower環境での課題</h3>
<p>弊社では AWS Control Towerを使用して複数アカウントを管理しています。
AWS Configのコスト削減を検討する中で、取りうる選択肢は以下の2つでした。</p>
<p><strong>選択肢1: 現状維持（全て連続記録）</strong></p>
<ul>
<li>コストが高いまま</li>
<li>Control Towerのベストプラクティスに従う</li>
</ul>
<p><strong>選択肢2: StackSet (aws-control-tower-customizations) で記録頻度を最適化</strong></p>
<p><strong>AWSソリューション:</strong> <a href="https://github.com/aws-solutions/aws-control-tower-customizations">aws-control-tower-customizations</a></p>
<ul>
<li>大幅なコスト削減が期待できる</li>
<li>Control Towerが作成したConfigリソースを変更することになる</li>
</ul>
<h3>Control Tower のベストプラクティスとの兼ね合い</h3>
<p>AWS Control Towerの公式ドキュメントには、以下のような記載があります：</p>
<blockquote>
<p>「AWS Control Towerによって作成されたリソースを変更または削除しないでください。」</p>
</blockquote>
<p>出典元: <a href="https://docs.aws.amazon.com/ja_jp/controltower/latest/userguide/getting-started-guidance.html">AWS Control Tower リソースの作成と変更に関するガイダンス</a></p>
<p>この記載により、選択肢2の採用には慎重な姿勢を取らざるを得ませんでした。</p>
<p><strong>具体的な懸念事項は以下の通りです。</strong></p>
<ul>
<li>Configレコーダーの変更がControl Towerの動作に影響しないか</li>
<li>ドリフト検出機能が正しく動作するか</li>
<li>コンプライアンスレポートの正確性が保たれるか</li>
<li>ランディングゾーンの更新やOUの再登録が必要にならないか</li>
</ul>
<p>このため、コスト削減の必要性は認識していたものの、実施に踏み切れない状況が続いていました。</p>
<h3>記録回数の実態</h3>
<p>記録回数を調査したところ、以下のリソースタイプの記録回数が特に多いことがわかりました。</p>
<p><strong>記録回数が多かったリソースタイプ TOP4：</strong></p>
<ol>
<li>EC2 NetworkInterface - ネットワークインターフェースの状態変化</li>
<li>EC2 Subnet - サブネットの状態変化</li>
<li>EC2 SecurityGroup - セキュリティグループの関連付け変化</li>
<li>Config ResourceCompliance - コンプライアンスチェック</li>
</ol>
<p><strong>なぜこれらの記録回数が多いのか？</strong></p>
<p>連続記録モードでは、リソースに何らかの変更（内部状態の変化も含む）があるたびに記録されます。
これらのリソースの記録が多い原因は、ENIの作成/削除を起点とした連鎖的な記録にありました。</p>
<p><img src="/assets/blog/authors/i.kobayashi/2026-03/01.png" alt="ENI変更を起点とした連鎖的な記録の流れ"></p>
<p><strong>① EC2 NetworkInterface（根本原因）</strong></p>
<ul>
<li>ECSタスクの起動/停止に伴いENIが頻繁に作成・削除されており、そのたびにConfigの記録が発生<ul>
<li>VPC接続を有効化したLambda関数の場合も同様です。</li>
</ul>
</li>
</ul>
<p><strong>② EC2 Subnet（ENI に連動）</strong></p>
<ul>
<li>ENIの作成・削除に伴い、対象のサブネットの設定項目が記録<ul>
<li>VPC接続を有効化したLambda関数の作成時も同様です。</li>
</ul>
</li>
</ul>
<p><strong>③ EC2 SecurityGroup（ENI に連動）</strong></p>
<ul>
<li>ENIの作成・削除に伴い、その ENIに関連付けられたSecurityGroupの設定項目も記録</li>
</ul>
<p><strong>④ Config ResourceCompliance（すべてに連動）</strong></p>
<ul>
<li><code>AWS::Config::ResourceCompliance</code>は、Configルールによって評価されたリソースのコンプライアンス状態の変化を記録するリソースタイプです。<ul>
<li>上記の各リソースで新しい設定項目が記録されるたびにConfigルールの評価が走り、その結果がResourceComplianceとして記録されます。</li>
</ul>
</li>
</ul>
<p><strong>まとめると:</strong>
ENIの変更が起点となり、関連するSubnet、SecurityGroupの記録が連鎖的に発生し、
さらにそれぞれのConfigルール評価が走ることで、記録回数が増加していました。
コンテナやサーバーレスを多用している環境ほど、この傾向は顕著になります。</p>
<h2>解決策：記録頻度の最適化</h2>
<p>検証の結果、選択肢2の<a href="https://github.com/aws-solutions/aws-control-tower-customizations">aws-control-tower-customizations</a>はControl Towerの検出コントロールやドリフト検出に影響しないことが判明しました。
こちらのソリューションはControl Tower側で変更があった場合にもドリフトが発生しないよう設計されているため、安全に記録頻度の変更を展開できると判断し、選択肢2の実施に踏み切りました。</p>
<h3>方針：リソースタイプごとに記録方式を分ける</h3>
<p>すべてのリソースを一律に変更するのではなく、コスト構造を分析した上でリソースタイプごとに最適な記録方式を選択しました。</p>
<p><strong>日次記録に変更したリソース：</strong></p>
<ul>
<li>EC2 NetworkInterface</li>
<li>EC2 Subnet</li>
<li>EC2 SecurityGroup</li>
</ul>
<p><strong>連続記録のまま維持したリソース：</strong></p>
<ul>
<li>上記以外のリソースタイプ</li>
<li>Config ResourceCompliance<ul>
<li><a href="https://docs.aws.amazon.com/ja_jp/config/latest/developerguide/select-resources-console.html#select-resources-console-considerations">日次記録非対応</a></li>
</ul>
</li>
</ul>
<p>連続記録は記録回数ベース、日次記録はリソース数ベースの課金です。
記録回数がリソース数に対して大幅に多いリソースタイプだけを日次記録に変更し、
それ以外は連続記録のまま維持するのが最もコスト効率が良い方法です。</p>
<h3>展開方法</h3>
<p>記録頻度の変更は<a href="https://github.com/aws-solutions/aws-control-tower-customizations">aws-control-tower-customizations</a>を利用し、管理アカウント上でCloudFormationテンプレートを展開することで、Control Tower管理下の全アカウントに一括適用しました。</p>
<h3>セキュリティへの影響</h3>
<p>日次記録にすると、変更の途中経過は記録されません。
また、Configルールの評価タイミングはルールのトリガー方式（変更通知トリガーか、定期評価か）によって異なります。</p>
<p>スケジュールベースの定期評価ルールは、記録頻度にかかわらず設定された評価間隔で実行されます。
一方で、設定変更検知ベース（変更通知トリガー）のルールについては、日次記録の場合、評価に利用される設定情報が最大24時間前の状態となるため、実際の設定違反検知が最大24時間遅延しうる点に注意が必要です。</p>
<p>ただし、弊社環境では以下のサービスと併用することで、セキュリティ要件は維持できると判断しました。</p>
<ul>
<li>CloudTrailでAPIレベルの変更履歴は引き続き記録される</li>
<li>Security Hubでのセキュリティ準拠チェック</li>
<li>GuardDutyでの異常検知</li>
<li>SIEMサービスを利用した通知・分析</li>
</ul>
<h2>結果</h2>
<p>以下はCost Explorerでの日別コスト推移です。
切り替え前後でコストが大幅に低下していることがわかります。</p>
<p><img src="/assets/blog/authors/i.kobayashi/2026-03/02.png" alt="Cost Explorer日別コスト推移"></p>
<h2>学び・Tips</h2>
<h3>1. コスト構造の理解が重要</h3>
<p>AWS Configの料金は「記録回数」に基づくため、以下を理解することが重要です。</p>
<ul>
<li>どのリソースタイプが多く記録されているか</li>
<li>なぜそのリソースが頻繁に記録されるのか</li>
<li>記録頻度を変更できるリソースはどれか</li>
</ul>
<p>リソースタイプ別の記録回数は、CloudWatch メトリクス（AWS/Config ネームスペース）の<code>ConfigurationItemsRecorded</code>をResourceType別に確認できます。
AIエージェントにCloudWatchを参照させて調査することもできます。
また、リソース数は以下のコマンドで取得できます。</p>
<pre><code class="language-bash">aws configservice get-discovered-resource-counts --region ap-northeast-1
</code></pre>
<h3>2. この最適化が向いていないケース</h3>
<ul>
<li>すべてのリソースでリアルタイム記録が必須</li>
<li>変更の途中経過も記録が必要</li>
<li>セキュリティ要件が厳しく、日次記録では不十分</li>
<li>Configルールを利用した自動修復などを利用している</li>
</ul>
<h2>まとめ</h2>
<p>今回は記録回数の多いリソースタイプを特定し、日次記録に切り替えることで約80%のコスト削減を実現しました。
セキュリティ要件はCloudTrail、Security Hub、SIEMなどで補完できるため、実運用上の問題もありません。</p>
<p>本記事が同様の課題を抱えている方の参考になれば幸いです。</p>
<h2>参考資料</h2>
<ul>
<li><a href="https://aws.amazon.com/jp/config/pricing/">AWS Config 料金</a></li>
<li><a href="https://docs.aws.amazon.com/config/latest/developerguide/stop-start-recorder.html">AWS Config の記録モード</a></li>
</ul>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/common/thumbnail_default_×2.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[Claude Code のサンドボックス機能を徹底検証してみた]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-03-09-claude-code-sandbox/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-03-09-claude-code-sandbox/</guid>
            <pubDate>Mon, 09 Mar 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[Claude Codeのサンドボックスとpermissions.denyの2段構えについて、仕組みの解説から10種類のバイパス試行まで、macOS環境で検証した結果をまとめました]]></description>
            <content:encoded><![CDATA[<p>こんにちは！
Principal Generative AI Engineerの森田です。私の所属するAIファーストGでは、社内の生成AI活用にとどまらず、販売店やトヨタグループにおけるAI活用支援を行っております。</p>
<p>KINTOテクノロジーズでは、AIファーストを掲げ、全社員が必要な生成AIツールを申請し利用することができます。開発に関するものだけでもClaude Code、GitHub Copilot、Devin、Kiroなど、開発者が選べる環境が整っています。</p>
<p>今回は、社内でも特に利用者が多いClaude Codeのサンドボックス機能について調査しました。サンドボックスとは、Bashコマンドの実行をファイルシステム・ネットワークの両面からOSレベルで隔離するセキュリティ機能です。</p>
<h2>はじめに</h2>
<p>Claude Codeを使っていると、こんな場面に遭遇しないでしょうか。</p>
<p>コードの修正やコマンドの実行を任せると、操作のたびに「許可しますか？（Y/N）」と確認が入ります。意図しない操作を防ぐための仕組みなので当然ではあるのですが、これが何十回と続くと正直つらい。かといって、確認なしの自動承認モードにするのは怖い。プロンプトインジェクションやサプライチェーン攻撃など、外部からの脅威を考えると、何でも自動承認するわけにはいきません。</p>
<p>毎回確認していたら承認疲れで結局よく読まずに「Y」を押し続けてしまう。これが一番よくないパターンです。私自身、まさにこの状態に陥っていました。</p>
<p><img src="/assets/blog/authors/kazuaki.morita/2026-03-09-claude-code-sandbox/image01.png" alt=""></p>
<p>そんな中、社内の勉強会で同僚の太田さんがサンドボックス機能を紹介していました。ファイルシステムとネットワークの操作範囲をOSレベルで制限することで、「この範囲内なら自由にやらせていい。万が一おかしな操作があっても、被害を最小限に抑えることができる」という状態を作れるという説明でした。</p>
<p>承認疲れから解放されつつ、セキュリティも確保できる。早速自分でも追加調査を行い、実際にどこまで堅牢なのかを手元で検証してみました。本記事はその結果をまとめたものです。なお、検証はmacOS（Seatbelt）環境で行っています。</p>
<h2>サンドボックスとは</h2>
<p>Claude Codeのサンドボックスは、Bashコマンドの実行をファイルシステム・ネットワークの両面からOSレベルで隔離するセキュリティ機能です。</p>
<table>
<thead>
<tr>
<th>領域</th>
<th>デフォルトの制限</th>
</tr>
</thead>
<tbody><tr>
<td>ファイルシステム</td>
<td>カレントディレクトリ配下は読み書き可能。それ以外は読み取り専用</td>
</tr>
<tr>
<td>ネットワーク</td>
<td>許可されたドメインのみアクセス可（ホワイトリスト形式）</td>
</tr>
</tbody></table>
<p>OSのネイティブ機能で強制されるのが大きな特徴です。macOSではSeatbelt（カーネルレベルのサンドボックス機構）、Linux/WSL2ではbubblewrapが使われます。</p>
<h3>なぜ自動承認が安全になるのか</h3>
<p>サンドボックスが有効な状態では、書き込みがプロジェクト内に閉じ、ネットワーク通信も許可ドメインに制限されます。つまり、プロジェクトに関係のないファイルが破壊されたり、未許可のサーバーにデータが送信されたりすることがありません。最悪の事態がプロジェクト内に収まることが保証されるため、自動承認しても安心できるというわけです。</p>
<h3>有効化の方法</h3>
<p>設定ファイルに<code>&quot;sandbox&quot;: { &quot;enabled&quot;: true }</code>を書いておけば、<code>claude</code>コマンドで起動するだけで最初からサンドボックスが有効になります。毎回手動で有効化する必要はありません。なお、対話的に設定したい場合はClaude Codeのチャットで<code>/sandbox</code>と入力する方法もあります。</p>
<h3>2つのモード</h3>
<p>サンドボックスにはAuto-allowとRegular permissionsの2つのモードがあります。</p>
<table>
<thead>
<tr>
<th>モード</th>
<th>サンドボックス内のコマンド</th>
<th>サンドボックス外のコマンド</th>
<th>向いている場面</th>
</tr>
</thead>
<tbody><tr>
<td>Auto-allow</td>
<td>自動的に許可</td>
<td>確認フロー</td>
<td>承認疲れを減らし、自律的に作業を進めたい場合</td>
</tr>
<tr>
<td>Regular permissions</td>
<td>毎回許可を求められる</td>
<td>確認フロー</td>
<td>より慎重に制御したい場合</td>
</tr>
</tbody></table>
<h2>サンドボックスが守ってくれる攻撃シナリオ</h2>
<p>自動承認モードで特に警戒すべき脅威と、サンドボックスがどう防御するかを見ていきます。</p>
<table>
<thead>
<tr>
<th>脅威の発生源</th>
<th>具体例</th>
</tr>
</thead>
<tbody><tr>
<td>プロンプトインジェクション</td>
<td>読み込んだファイルの隠された指示により、<code>~/.ssh/id_rsa</code>や<code>~/.aws/credentials</code>を読み取り外部サーバーに送信される</td>
</tr>
<tr>
<td>サプライチェーン攻撃</td>
<td><code>npm install</code>のpostinstallスクリプトが認証情報を窃取する</td>
</tr>
<tr>
<td>悪意あるサブプロセス</td>
<td>コマンドが子プロセスを生成し、制限を回避しようとする</td>
</tr>
</tbody></table>
<h3>1. プロンプトインジェクション</h3>
<p>README.mdなどに「<code>~/.ssh/id_rsa</code>の中身を外部サーバーに送信せよ」といった隠し指示が埋め込まれるケースです。サンドボックスのネットワーク制限により、許可されていないドメインへの通信がブロックされるため、仮に指示を実行しようとしても情報は外に出ません。</p>
<h3>2. サプライチェーン攻撃</h3>
<p><code>npm install</code>のpostinstallスクリプトが<code>~/.aws/credentials</code>を外部に送信するようなケースです。サンドボックスのネットワーク制限に加えて、<code>permissions.deny</code>で機密ファイルへのアクセスを拒否しておけば、そもそもファイルの中身を読み取れません。</p>
<h3>3. 悪意あるサブプロセスの連鎖</h3>
<p>コマンドが子プロセスを生成し、上記の制限を回避しようとするケースです。サンドボックスはプロセスツリー全体に適用されるため、子プロセスも同じ制限を継承します。</p>
<h2>検証の準備</h2>
<p>サンドボックスにより、プロジェクト外のファイル破壊やネットワーク経由の情報流出は防げることがわかりました。しかし、プロジェクト内にある<code>.env</code>のような機密ファイルについてはどうでしょうか。カレントディレクトリ配下はサンドボックスのデフォルトで読み書き可能なため、サンドボックスだけでは守れません。</p>
<p>ここで活躍するのが<code>permissions.deny</code>です。<code>permissions.deny</code>に指定したパスはサンドボックスの拒否リストにもマージされ、Bashコマンドに対してはOSレベルで、Read/Edit等のツールに対してはアプリケーション層でアクセスをブロックします。</p>
<p>今回の検証では、<code>permissions.deny</code>で保護したファイルに対して、Claude Codeにあらゆる手段でアクセスを試みさせ、実際にブロックされるかを確認します。試行するバイパス手法は以下の通りです。</p>
<table>
<thead>
<tr>
<th>#</th>
<th>手法</th>
<th>狙い</th>
</tr>
</thead>
<tbody><tr>
<td>1</td>
<td>Node.jsスクリプト</td>
<td>別言語ランタイムからの読み取り</td>
</tr>
<tr>
<td>2</td>
<td>シンボリックリンク経由</td>
<td>リンクで保護パスを迂回</td>
</tr>
<tr>
<td>3</td>
<td>ファイルコピー（cp）</td>
<td>コピーによる間接的な読み取り</td>
</tr>
<tr>
<td>4</td>
<td>Python</td>
<td>さらに別の言語ランタイム</td>
</tr>
<tr>
<td>5</td>
<td>macOS<code>open</code>コマンド</td>
<td>OS標準コマンドでの読み取り</td>
</tr>
<tr>
<td>6</td>
<td>macOS<code>ditto</code>コマンド</td>
<td>ファイル複製ユーティリティ</td>
</tr>
<tr>
<td>7</td>
<td>バイナリダンプ（xxd）</td>
<td>子プロセス経由のバイナリ読み取り</td>
</tr>
<tr>
<td>8</td>
<td>tarでアーカイブ化</td>
<td>アーカイブ経由の読み取り</td>
</tr>
<tr>
<td>9</td>
<td>Readツール直接</td>
<td>Claude Code内蔵ツール</td>
</tr>
<tr>
<td>10</td>
<td>Grepツール</td>
<td>Claude Code内蔵ツール</td>
</tr>
</tbody></table>
<p>用意した<code>.claude/settings.json</code>は以下の通りです。</p>
<pre><code class="language-json">{
  &quot;permissions&quot;: {
    &quot;deny&quot;: [
      &quot;Edit(.claude/**)&quot;,
      &quot;Read(.env)&quot;,
      &quot;Edit(.env)&quot;,
      &quot;Read(./secrets/**)&quot;,
      &quot;Edit(./secrets/**)&quot;
    ]
  },
  &quot;sandbox&quot;: {
    &quot;enabled&quot;: true,
    &quot;autoAllowBashIfSandboxed&quot;: true,
    &quot;allowUnsandboxedCommands&quot;: false,
    &quot;network&quot;: {
      &quot;allowedDomains&quot;: [
        &quot;github.com&quot;,
        &quot;api.github.com&quot;
      ]
    }
  }
}
</code></pre>
<p><code>permissions.deny</code>で<code>.env</code>と<code>./secrets/**</code>を明示的にブロックし、検証用のダミーファイルとして<code>.env</code>（ダミーの秘密情報）と<code>secrets/credentials.json</code>を配置しました。</p>
<p><code>allowUnsandboxedCommands: false</code>は、コマンドがサンドボックスの制限に引っかかって失敗した場合の挙動を制御します。デフォルトの<code>true</code>ではサンドボックスの外で再実行を試みますが、<code>false</code>にすると失敗したらそのまま失敗。サンドボックスの外には一切出られなくなります。</p>
<p>なお、今回はファイルシステム制限に焦点を当てており、ネットワーク制限の検証は対象外です。</p>
<h2>検証結果</h2>
<h3>基本的なアクセス制御</h3>
<p>サンドボックスを有効にした状態で、Claude Codeにファイルの一覧を確認させたところ、<code>.env</code>と<code>secrets/</code>は一覧にすら表示されませんでした。</p>
<pre><code>sandbox/
├── .claude/
│   └── settings.json
├── src/
│   └── app.js
├── CLAUDE.md
└── TESTS.md
</code></pre>
<p>実際には<code>.env</code>と<code>secrets/</code>が存在しますが、<code>ls</code>でもGlobツールでも見えません。<code>secrets/</code>配下にどんなファイルがあるかすらわからない状態です。</p>
<h3>バイパス出来ないかClaude Codeで検証</h3>
<p>Claude Codeに「<code>.env</code>をどうにかして読み取ってほしい」と依頼し、あらゆる手法を試させました。</p>
<p>代表的な出力を2つ紹介します。</p>
<p>1. Node.jsスクリプトでの試行では<code>EPERM</code>が返りました。</p>
<pre><code>$ node src/read_env.js
Failed to read .env: EPERM: operation not permitted, open &#39;/path/to/sandbox/.env&#39;
</code></pre>
<p>5. macOSの<code>open</code>コマンドでは、ファイルが存在しないかのように振る舞いました。</p>
<pre><code>$ open .env
The file .env does not exist.
</code></pre>
<p>他の手法もすべて同様にブロックされました。結果の一覧は以下の通りです。</p>
<table>
<thead>
<tr>
<th>#</th>
<th>手法</th>
<th>結果</th>
</tr>
</thead>
<tbody><tr>
<td>1</td>
<td>Node.jsスクリプト</td>
<td><code>EPERM: operation not permitted</code></td>
</tr>
<tr>
<td>2</td>
<td>シンボリックリンク経由</td>
<td><code>Operation not permitted</code></td>
</tr>
<tr>
<td>3</td>
<td>ファイルコピー（cp）</td>
<td><code>Operation not permitted</code></td>
</tr>
<tr>
<td>4</td>
<td>Python</td>
<td><code>PermissionError: Operation not permitted</code></td>
</tr>
<tr>
<td>5</td>
<td>macOS<code>open</code>コマンド</td>
<td><code>The file .env does not exist.</code></td>
</tr>
<tr>
<td>6</td>
<td>macOS<code>ditto</code>コマンド</td>
<td><code>Cannot get the real path for source</code></td>
</tr>
<tr>
<td>7</td>
<td>バイナリダンプ（xxd）</td>
<td><code>Operation not permitted</code></td>
</tr>
<tr>
<td>8</td>
<td>tarでアーカイブ化</td>
<td><code>Cannot stat: Operation not permitted</code></td>
</tr>
<tr>
<td>9</td>
<td>Readツール直接</td>
<td>ブロック</td>
</tr>
<tr>
<td>10</td>
<td>Grepツール</td>
<td>ブロック</td>
</tr>
</tbody></table>
<p><code>permissions.deny</code>に指定したパスはOSカーネルレベルでブロックされるため、プログラミング言語やコマンドを変えても回避できません。Bashツールから起動されるプロセスはすべて同じポリシーを継承します。</p>
<h2>まとめ</h2>
<p>Claude Codeのセキュリティは、サンドボックスと<code>permissions.deny</code>の2段構えで成り立っています。</p>
<p>サンドボックスは、書き込みをプロジェクト内に閉じ、ネットワーク通信を許可ドメインに制限します。これにより、プロジェクト外のファイル破壊や未許可サーバーへのデータ送信が防がれ、自動承認モードを安心して利用できます。</p>
<p>さらに、特定のファイルやディレクトリをClaude Codeから見せたくない場合は<code>permissions.deny</code>が有効です。今回の検証では<code>.env</code>を題材に10種類のバイパスを試行し、すべてブロックされることを確認しました。<code>permissions.deny</code>のルールはサンドボックスの拒否リストにマージされ、Bashコマンドに対してはOSカーネルレベルで、Read/Edit等のツールに対してはアプリケーション層で強制されるため、プログラミング言語やコマンドを変えても回避できません。</p>
<p>実運用では、サンドボックスの読み取り専用アクセスはプロジェクト外にも及ぶ点に注意が必要です。たとえば<code>~/Documents</code>や<code>~/Desktop</code>にはClaude Codeに見せる必要のないファイルがあるはずです。<code>permissions.deny</code>でこれらのディレクトリを拒否しておけば、意図しない読み取りを防げます。</p>
<p>Claude Codeを日常的に使っている方は、ぜひサンドボックスの導入を検討してみてください。</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/common/thumbnail_default_×2.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[Compose化した画面の初期化処理、initブロックでやるか？LaunchedEffect(Unit)内でやるか？]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-01-22-how-to-initialize/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-01-22-how-to-initialize/</guid>
            <pubDate>Tue, 03 Mar 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[Compose化した画面の初期化処理、initブロックでやるか？LaunchedEffect(Unit)内でやるか？]]></description>
            <content:encoded><![CDATA[<h1>はじめに</h1>
<p>my route開発部のAndroidエンジニア、Romie(<a href="https://twitter.com/Romie_1112">@Romie_1112</a>)です。
my routeのAndroidチームではUIの実装をxmlからJetpack Compose(以下Compose)へと粛々と切り替えております。
現在は地域別の特集コンテンツを並べた画面をCompose化しています。 希望の順番で並べ替えることもできます。
以下の順番で初回表示を行います。</p>
<pre><code class="language-初回表示時">1. 画面遷移する
2. 希望の順番を初期値：おすすめ順に設定する
3. リクエストの時に希望の順番をAPIに渡す
4. データを取得する
5. 取得したデータの一覧を表示する
</code></pre>
<p>実装する中で<code>4. データを取得する</code>処理について迷ったので、今回はそのお話をしたいと思います。</p>
<h1>初期化の実装方法</h1>
<p>これまでの実装は、希望の順番を渡してAPIを叩いた結果を<code>LiveData</code>で通知し、<code>observe</code>で監視して値を取得してから画面を表示していました。
そのため、値を取得する前の初期化処理は実装されていませんでした。
しかし今回Compose化に伴いUiStateの値が変わればリアクティブプログラミングで即Fragmentに反映する<code>StateFlow</code>に変えることにし、<code>LaunchedEffect(Unit)</code>内で初期化するよう実装しました。
ここで初期化の実装にあたり、私は次に挙げる2つの方法で迷いました。</p>
<h2>1. initブロックで初期化する場合</h2>
<p>intiブロックで初期化する場合、以下のような実装になります。</p>
<pre><code class="language-kotlin:UiState">data class FeatureSummaryListUiState(
    val featureSummaryList: List&lt;一覧のアイテム&gt; = emptyList(),
)
</code></pre>
<pre><code class="language-kotlin:ViewModel">private val _sortType = MutableStateFlow(おすすめ順)
private val _uiState = MutableStateFlow(FeatureSummaryListUiState())
val uiState = _uiState.asStateFlow()

init {
    viewModelScope.launch {
        _sortType.collectLatest { sortType -&gt;
            val summary = (APIを叩いてデータを取得)
            _uiState.update {
                it.copy(
                    featureSummaryList = (設定したい初期値),
                )
            }
        }
    }
}
</code></pre>
<pre><code class="language-kotlin:Fragment">setContent {
    MyRouteTheme {
        val uiState = viewModel.uiState.collectAsStateWithLifecycle().value
        FeatureSummaryListScreen(
            uiState = uiState,
        )
    }
}
</code></pre>
<p>initブロックについての記載を<a href="https://kotlinlang.org/docs/classes.html#initializer-blocks">公式リファレンス</a>[^1]から見てみましょう。</p>
<blockquote>
<p>The primary constructor initializes the class and sets its properties. In most cases, you can handle this with simple code.
If you need to perform more complex operations during instance creation, place that logic in initializer blocks inside the class body. These blocks run when the primary constructor executes.
Declare initializer blocks with the init keyword followed by curly braces {}. Write within the curly braces any code that you want to run during initialization:</p>
</blockquote>
<p>initブロックは引用にもあります通り、インスタンスが形成された時に実行されるものになります。
インスタンスが形成された時に一度だけ呼ばれますので、初期化の処理を書くのにぴったりです。
ただし、initブロックはインスタンス形成時に呼ばれるという性質上、単体テストで初期化がちゃんとできているか見ることが厳しく、また単体テストの記載に慣れていないとinitブロックを考慮したテストを書くのが大変です。</p>
<h2>2. LaunchedEffect(Unit)内で初期化する場合</h2>
<p>では、FragmentからViewModel内の初期化処理をコールした場合はどうでしょうか。
最初に一度だけ呼ぶ処理だとコードを読む人に明示するため<code>LaunchedEffect(Unit)</code>の中に書くことをお勧めします。</p>
<pre><code class="language-kotlin:UiState">data class FeatureSummaryListUiState(
    val featureSummaryList: List&lt;一覧のアイテム&gt; = emptyList(),
)
</code></pre>
<pre><code class="language-kotlin:ViewModel">private val _sortType = MutableStateFlow(おすすめ順)
private val _uiState = MutableStateFlow(FeatureSummaryListUiState())
val uiState = _uiState.asStateFlow()

fun initFeatureSummaryListUiState() { // initがfunになっています
    viewModelScope.launch {
        _sortType.collectLatest { sortType -&gt;
            val summary = (APIを叩いてデータを取得)
            _uiState.update {
                it.copy(
                    featureSummaryList = (設定したい初期値),
                )
            }
        }
    }
}
</code></pre>
<pre><code class="language-kotlin:Fragment">setContent {
    MyRouteTheme {
        val uiState = viewModel.uiState.collectAsStateWithLifecycle().value
        LaunchedEffect(Unit) {
            viewModel.initFeatureSummaryListUiState() // ここが違う！
        }
        FeatureSummaryListScreen(
            uiState = uiState,
        )
    }
}
</code></pre>
<p><a href="https://developer.android.com/develop/ui/compose/side-effects?hl=ja">Composeにおける副作用</a>[^2]に副作用(<code>LaunchedEffect</code>)の説明がございます。</p>
<blockquote>
<p>副作用とは、コンポーズ可能な関数の範囲外で発生するアプリの状態の変化を指します。
コンポーザブルのライフサイクルとプロパティ（予測できない再コンポジション、異なる順序でのコンポーザブルの再コンポジション、破棄可能な再コンポジションなど）により、コンポーザブルは副作用がないようにするのが理想的です。
ただし、スナックバーを表示するなどの1回限りのイベントをトリガーする場合や、特定の状態で別の画面に移動する場合などに、副作用が必要になることがあります。
これらのアクションは、コンポーザブルのライフサイクルを認識している制御された環境から呼び出す必要があります。</p>
</blockquote>
<p>そして、<a href="https://developer.android.com/develop/ui/compose/side-effects?hl=ja#rememberupdatedstate">こちらの章</a>[^3]により具体的な記載がございます。</p>
<blockquote>
<p>コールサイトのライフサイクルと一致する作用を作成するには、Unitやtrueのような決して変化しない定数をパラメータとして渡します。</p>
</blockquote>
<p>この実装には次の一般的なメリットがあります。</p>
<ul>
<li>再利用性：どの箇所からでも呼び出せる</li>
<li>テスト容易性：独立した関数で実装しているため単体テストがやりやすい</li>
</ul>
<p>また、プロジェクト内のメリットとして以下が挙げられます。</p>
<ul>
<li>既存のコードとの整合性：他の箇所を確認したところCompose化した画面の初期化は<code>LaunchedEffect(Unit)</code>内で行っていることが多く整合性が取りやすい</li>
</ul>
<p>ただし、デメリットもあります。</p>
<ul>
<li>UDFの法則に反する：ViewModel→Fragmentという単方向でデータが流れる[^4]べきなのにFragment→ViewModelとなってしまう[^5] </li>
<li>依存度が高まり疎結合が崩れる：FragmentでViewModelの処理が呼ばれると依存度が高まりMVVMの目的の１つである疎結合が崩れる</li>
<li>呼び忘れる恐れがある：<code>LaunchedEffect(Unit)</code>をはじめどこからでも呼び出せる代わりに呼び忘れる恐れがある</li>
</ul>
<h3>補足：発展編</h3>
<p>今回の内容についてより高度な議論をJaewoong Eum氏が<a href="https://proandroiddev.com/loading-initial-data-in-launchedeffect-vs-viewmodel-f1747c20ce62">こちらの記事</a>[^6]にて行っております。
Androidコミュニティに対してアンケートを取得した上で、Ian Lake氏のツイートを引用してinitブロックも<code>LaunchedEffect(Unit)</code>内での初期化もアンチパターンであり
<code>SharingStarted.WhileSubscribed(5_000)</code>を活用した初期値の設定を紹介しています。</p>
<p>ただ、私は以下の懸念について検討した上で今回は<code>SharingStarted.WhileSubscribed(5_000)</code>を使用しませんでした。
一般的な点では</p>
<ul>
<li>可読性の低下：複数のプロパティを持つUiStateを<code>SharingStarted.WhileSubscribed(5_000)</code>で管理すると実装が複雑になり却って可読性が下がる</li>
</ul>
<p>プロジェクト内の点では</p>
<ul>
<li>既存のコードとの整合性の低下：<code>LaunchedEffect(Unit)</code>内で初期化している画面が多いことから既存のコードとの整合性が取りづらくなる</li>
</ul>
<p>です。</p>
<p>Jaewoong Eum氏の記事は今回ご紹介したものも含めて非常に勉強になりますので、全て英語ですが興味のある方は是非読んでみてください。</p>
<h1>まとめ</h1>
<p>今回は<code>LaunchedEffect(Unit)</code>内で初期化したのですが、initブロックで初期化する場合と<code>LaunchedEffect(Unit)</code>内で初期化する場合、2つのメリットとデメリットを比較した上で、以下の点を重視しました。</p>
<blockquote>
<ul>
<li>テスト容易性：独立した関数で実装しているため単体テストがやりやすい</li>
<li>既存のコードとの整合性：他の箇所を確認したところCompose化した画面の初期化は<code>LaunchedEffect(Unit)</code>内で行っていることが多く整合性が取りやすい</li>
</ul>
</blockquote>
<p>また、希望の順番を変えて並べ替えを行った時以下の順番で再表示を行います。</p>
<pre><code class="language-希望の順番を変えて並べ替えを行った時">1. 並べ替えボタンを押下する
2. 希望の順番を任意の並べ替えに設定する
3. リクエストの時に希望の順番をAPIに渡す
4. データを取得する
5. 取得したデータの一覧を表示する
</code></pre>
<p>ここから<code>4. データを取得する</code>処理を1つの関数で実装し、初回表示時も希望の順番を変えて並べ替えを行った時も希望の順番をAPIに渡して関数を呼び出す形にした方がいいと考えました。
よって再利用性も重視しました。</p>
<blockquote>
<ul>
<li>再利用性：どの箇所からでも呼び出せる</li>
</ul>
</blockquote>
<p>理想を追求するといろんな方法が出てきますが、アンチパターンとされているものがあっても正解は1つではないですし、チーム内でレビューすること・後々の拡張性やテスト容易性を考慮しその都度1番良い実装を選択できると良いですね。
一番大切なのは、自分なりに理由や根拠を明確にして実装することです。</p>
<p>読んでいただきありがとうございました。それでは次の記事で。</p>
<p>[^1]: 出典元：<a href="https://kotlinlang.org/docs/classes.html#initializer-blocks">Classes: Constructors and initializer blocks: Initializer blocks</a>より一部抜粋
[^2]: 出典元：<a href="https://developer.android.com/develop/ui/compose/side-effects?hl=ja">Composeにおける副作用</a>より一部抜粋
[^3]: 出典元：<a href="https://developer.android.com/develop/ui/compose/side-effects?hl=ja#rememberupdatedstate">rememberUpdatedState: 値が変化しても再起動すべきでない作用の値を参照する</a>より一部抜粋
[^4]: ViewModel内の値をFragmentが参照できない(ViewModelで何が起きているかFragmentが知らない)状態
[^5]: FragmentがViewModel内で更新されている<code>featureSummaryList</code>を参照できる状態
[^6]: 出典元：<a href="https://proandroiddev.com/loading-initial-data-in-launchedeffect-vs-viewmodel-f1747c20ce62">Loading Initial Data in LaunchedEffect vs. ViewModel</a>より一部抜粋</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/common/thumbnail_default_×2.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[2025年11・12月入社メンバー紹介]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-03-02-newcomers-introduction-nov-dec/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-03-02-newcomers-introduction-nov-dec/</guid>
            <pubDate>Mon, 02 Mar 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[2025年11月・12月に入社した8名の皆様に入社後の感想を伺い、まとめました。]]></description>
            <content:encoded><![CDATA[<h1>はじめに</h1>
<p>こんにちは、2025年12月入社の齋藤です！</p>
<p>本記事では、2025年11月・12月に入社したメンバー8名に入社直後の感想をお伺いし、まとめました。
KINTOテクノロジーズ（以下、KTC）に興味のある方、そして、今回参加してくださったメンバーへの振り返りとして有益なコンテンツになればいいなと思います！</p>
<h1>齋藤 諒太</h1>
<p>![齋藤 諒太さんのプロフィール画像](/assets/blog/authors/dowod/dowod.png =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>KINTO開発部でフロントエンドエンジニアとして働いています。新潟県出身で今は大阪市在住です。</li>
<li>業務としては主にKINTOのシミュレーションや申し込み、マイページの開発を行っています。</li>
<li>前職ではRailsやNext.jsで構成された比較メディアサイトの開発をフロントエンド・バックエンドの領域を問わず担当していました。</li>
<li>趣味は自作PC、ゲーセン、ペットの猫をこねることです。よろしくお願いします。</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>Osaka Tech Labに3人、室町オフィスに6人の合計9人のチームです。</li>
<li>1週間単位のスプリントで開発を進めています。毎週のプランニングでタスクを決め、レトロスペクティブで成果と課題を振り返ります。</li>
<li>毎日デイリースクラムで進捗を共有し、互いの状況を把握することで効率的な開発体制を維持し、短いサイクルで改善を重ねています。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>拠点や勤務形態が多様でオンライン中心ですが、不明点があればすぐに質問でき、相談もチーム内外で活発に行われています。</li>
<li>課題や改善案があればADRを通じて提案できます。ADRはアーキテクチャに限らず、チームのルールや方針を幅広く決めるための仕組みとして活用しており、誰でもカジュアルに新しいアイデアを発信し、継続的な改善を進められる環境です。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>これまで培った技術や知識を活かせる環境で働きたいと考え、以前から関心を持っていたKINTOのサブスクリプションサービスに、ユーザーとしてだけでなく開発者としても携わりたいと思い入社しました。</li>
<li>入社後、大きなギャップはありませんが、Osaka Tech Labは思っていたよりもまだ人数が少なく、落ち着いた雰囲気だった点はギャップかもしれません。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>JCTと駅直結の利便性です。外部イベントも開催され、気軽に参加できるうえ、雨でも濡れずに出社できます。</li>
</ul>
</li>
<li><strong>フクロウさん ⇒　齋藤 諒太さんへの質問</strong><blockquote>
<p>おすすめのアプリやサービスありますか？</p>
</blockquote>
<ul>
<li>10年以上1Passwordを使っています。覚えておくのは1Passwordのマスターパスワードだけで済み、強力なパスワードを自動生成して保存・同期してくれるのでとても楽です。さらにクレジットカード情報の管理機能や、パスワードの使い回し・漏えいを自動検出して通知するセキュリティ監査機能も備わっています。Windows、Mac、iOS、Androidに加え、ブラウザ拡張機能にも対応しており、ほぼすべての環境で使える点も魅力です。</li>
</ul>
</li>
</ul>
<h1>うえぽん</h1>
<p>![うえぽんさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/uepon.png =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>デジタル戦略部DataOpsG所属となります！</li>
<li>前職はSESエンジニアとして多様な業種、システムにかかわってきました。</li>
<li>趣味は釣りで最近は月に1回程度しか行けていないので食卓と話題のネタを仕入れに行かなければ。という意気込みです！</li>
<li>よろしくお願いします。</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>チーム内でもデータの蓄積を行う基盤チーム、蓄積したデータを提供する仕組みを扱うnicolaチームという構成になっていて、全体で9名の体制です。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>それぞれの強みを生かして日々業務や技術・知識習得に取り組んでいます。</li>
<li>共有の場では積極的に深掘りをしてチームとしての向上心が高いと感じています！</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>特定の分野で技術を磨き自身の強みとしたい！</li>
<li>フルスタックエンジニアとしての経験を活かせる！</li>
<li>入社前に丁寧な説明をしていただけて、業務環境についてギャップはなかったです。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>名古屋オフィスは駅の地下街から直結されているため悪天候の影響を受けずに出社できます！</li>
</ul>
</li>
<li><strong>齋藤 諒太さん ⇒　うえぽんさんへの質問</strong><blockquote>
<p>これまで多くの現場を経験されたとのことですが、特に印象に残っている現場はありますか？</p>
</blockquote>
<ul>
<li>銀行関係の現場なこともありセキュリティー意識がとても高かったです。（検証環境エリア、本番環境エリア共に作業者・作業理由・作業時間の事前申請必須など）</li>
<li>また、利用者がいない時間に更新するため、深夜当番と早朝当番を月1でやっていました。</li>
</ul>
</li>
</ul>
<h1>debugon</h1>
<p>![debugonさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/debugon.png =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>Engineering Officeでアクセシビリティを社内文化にする仕事をしている辻です。KTCには辻さんが何人かいらっしゃるので、私のことは debugon と覚えてください。</li>
<li>AIで音楽を作るのが趣味です。</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>それぞれの専門領域を持つメンバーが、東京、名古屋、福岡で活動するチームです。</li>
<li>専門的な知識を生かしつつ、他のメンバーの専門性との化学反応を生かし、社内の様々なチームの力を最大限に発揮できるように共創しています。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>複数拠点で活動するチームなので、オンラインやオフラインでコミュニケーションをしっかりとっています。</li>
<li>「食べ物」の話しが好きなメンバーが多いので、食べる話になるとSlackチャンネルが盛り上がります。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>モビリティカンパニーに文化としてアクセシビリティの考え方を広めたくて入社しました。</li>
<li>「一緒に良いものを作っていきたい」という考えの方がたくさんいらっしゃるので、とてもやりがいを感じています。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>トヨタ車の模型がたくさん置いてあって、それぞれの形を手で触って確認できたことがうれしかったです。</li>
</ul>
</li>
<li><strong>うえぽんさん ⇒　debugonさんへの質問</strong><blockquote>
<p>AIで音楽作成されるとのことですが、どんなジャンルの音楽が好きですか？制作に使うお気に入りのツールやソフトあれば教えてください！</p>
</blockquote>
<ul>
<li>音楽を作るときには Suno を使っています。ジャズが好きなのですが、気分のままにこれまでに聞いたいろいろなジャンルの音楽を思い出しながら作っています。</li>
</ul>
</li>
</ul>
<h1>なかぴー</h1>
<p>![なかぴーさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/nakapy.jpg =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>障害者雇用枠で2025年12月に入社しました。在宅勤務です。</li>
<li>経歴としましてはSIerのエンジニアからキャリアをスタートして、事業会社の社内SE、PM、ITコンサルタントの経験があります。</li>
<li>伴走型のPMで、「餅は餅屋」をモットーに駆けずり回るスタイルでフットワークには定評がありました。</li>
<li>約1年半前に脳出血で左半身麻痺になりました。完全在宅の時短勤務で働けることが有難いです。</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>開発支援部人事グループの中の労務総務チームです。チームは自分を含めて4名です。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>定例会では休日の様子も共有し合って和やかな雰囲気です。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>入社動機：経験を活かしてエンジニアの方のサポートが出来そうだと感じたから。</li>
<li>入社前後のギャップ：1on1が多い。激務な職場が多かったのですが、今は業務量を調整してもらえて有難いです。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>室町オフィスがあるコレド室町はお洒落な商業ビルで駅直結なのでリハビリを頑張って出社したいです。</li>
</ul>
</li>
<li><strong>debugonさん ⇒　なかぴーさんへの質問</strong><blockquote>
<p>お気に入りのデスクアイテムや文房具は？</p>
</blockquote>
<ul>
<li>とにかく忘れないように、付箋を頻繁に使っています。シンプルなものが一番使いやすいです。</li>
</ul>
</li>
</ul>
<h1>miurat</h1>
<p>![miuratさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/miurat.png =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>デジタル戦略部DataOpsGにデータエンジニアとしてジョインしました。</li>
<li>前職では、事業会社でデータ基盤構築やデジタルマーケティング関連の仕事に従事してきました。</li>
<li>趣味は、テニス、ゴルフでボールを打つことが好きです！</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>メンバーは東京・名古屋・大阪の3拠点あわせて計9名です！</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>チーム全体の雰囲気は風通しが良く、相談や雑談もしやすい雰囲気です。</li>
<li>また、好奇心旺盛なメンバーが多く、最新のトレンドや業界ニュースなどを積極的に共有し合う文化が根付いています。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>ビジョン・バリューに共感したからです！</li>
<li>入社後のギャップは、ドキュメントが整っているなと思いました！</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>大阪オフィスは、高層階の為、景色が綺麗です。また、駅直結なので、通勤が便利です！</li>
</ul>
</li>
<li><strong>なかぴーさん ⇒　miuratさんへの質問</strong><blockquote>
<p>データ分析で心がけていることは何ですか？</p>
</blockquote>
<ul>
<li>誰もがストレスなく使えるよう、複雑さを取り除いたシンプルな設計と、データの品質維持を心がけています。</li>
</ul>
</li>
</ul>
<h1>でこぽん</h1>
<p>![でこぽんさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/dekopon.png =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>Cloud Infrastructure G にエンジニアとしてジョインしました。</li>
<li>前職では AWS 専業のエンジニアとしてシステム開発やお客様の内製化支援などを行っていました。</li>
<li>趣味はテニスや登山で、主に神奈川の山を登ってます！</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>10名程度の組織で、サービスを支えるインフラチーム、中長期的な課題への改善を繰り返すカイゼンチーム、そしてトヨタグループの CCoE を支えるソリューションチームがあり、私はソリューションチームに所属しています。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>和気あいあいな雰囲気です。</li>
<li>お昼は出社しているメンバーのほとんど全員で外に出て神保町のいろいろな美味しいお店を開拓しています。</li>
<li>二郎系ラーメンを食べる人が多くいます。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>ビジョンに対してチームで前向きに進んでいけそうな雰囲気に魅力を感じました。</li>
<li>入社後のギャップも特になく、自由な雰囲気で成果を出していくことができると思います。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>神保町オフィスに在籍しているのですが、周りに美味しいお店が無限にあります！</li>
</ul>
</li>
<li><strong>miuratさん ⇒　でこぽんさんへの質問</strong><blockquote>
<p>ストレス発散方法を教えてください！</p>
</blockquote>
<ul>
<li>同僚や友人とお酒を飲みに行くことです🍻</li>
</ul>
</li>
</ul>
<h1>Yanaggy</h1>
<p>![Yanaggyさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/yanaggy.jpg =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>プロダクトマネージャーとして入社しました。</li>
<li>TOYOTA UPGRADE FACTORY/LEXUS UPGRADE FACTORYというクルマの「アップグレード」をWebで申し込めるサービスを担当しています。</li>
<li>漫画から小説までいろんな本を読むのが好きです。</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>チームはFE/BEエンジニア、SRE、QA、ディレクター、PDMなど約10名からなり、東京、大阪にまたがっています。</li>
<li>PDMは東京1名、大阪1名の2名体制です。毎朝オンラインで話して案件状況や課題をシェアしながら案件を進めています。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>拠点は離れていますが、Slackの非同期コミュニケーション、オンラインでのデイリーMTG、ちょっとした相談など同期コミュニケーションを使い分けながら仕事を進めています。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>これまでは金融やデジタルコンテンツのシステム開発をしており、次は実物のあるモノに関わる業界で仕事したかったのと、小寺さんがインタビューで語っていた「最初のクルマ、最後のクルマ」のコンセプトにひかれたからです。</li>
<li>良いギャップとしては職務・職種の経歴、年齢層など思ってたより様々な背景を持ったメンバと仕事できるのが刺激的です。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>大阪オフィスの机が広い。あとJCTと呼ばれているイベントを行える広いスペース。社内外の様々なイベントが開催されています。</li>
</ul>
</li>
<li><strong>でこぽんさん ⇒　Yanaggyさんへの質問</strong><blockquote>
<p>Osaka Tech Lab 周辺で一番お気に入りのランチもしくは居酒屋があれば教えてください！</p>
</blockquote>
<ul>
<li>九州ラーメン亀王。高校生の時から通っているラーメン店です。オフィスから少し離れていますがよく行きます。</li>
</ul>
</li>
</ul>
<h1>フクロウ</h1>
<p>![フクロウさんのプロフィール画像](/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/fukuro.jpg =300x)</p>
<ul>
<li><strong>自己紹介</strong><ul>
<li>開発支援部人事G採用チームに配属。</li>
<li>これまで在宅でバックオフィス業務に加え、デザインや動画制作などのクリエイティブ業務も経験してきました。</li>
<li>昨年まで療養期間がありましたが、体力づくりを経て、最近は本格的に筋トレに取り組もうと考えています。</li>
</ul>
</li>
<li><strong>所属チームの体制は？</strong><ul>
<li>開発支援部人事G採用チーム（7名）に所属しています。</li>
<li>採用計画に沿って、募集・面接・進捗共有などを進めながら、より良い採用に向けて日々改善しています。</li>
</ul>
</li>
<li><strong>チームの雰囲気はどんな感じ？</strong><ul>
<li>オンラインでのMTG参加はまだ多くありませんが、問題点の共有や改善に積極的に取り組む姿勢がうかがえます。</li>
<li>笑い声も絶えない和やかな雰囲気もあります。</li>
</ul>
</li>
<li><strong>KTCへ入社したときの入社動機や入社前後のギャップは？</strong><ul>
<li>障害者雇用という立場ではありますが、面接時、他社に比べて良い意味で特別扱いされすぎず、他のメンバーと同じように見てもらえている点にとても好感。</li>
<li>入社後も必要な配慮は十分過ぎるほどありつつ、想像していたようなギャップは特に感じていません。</li>
</ul>
</li>
<li><strong>オフィスで気に入っているところ</strong><ul>
<li>完全在宅のためオフィス出社の機会はありませんが、社内外の様々なイベントに参加してみたいなと思っています。</li>
</ul>
</li>
<li><strong>Yanaggyさん ⇒　フクロウさんへの質問</strong><blockquote>
<p>体力・健康維持のためにやっていることはありますか？</p>
</blockquote>
<ul>
<li>基本的な体調管理はもちろん、障害の特性的に、体温と気温、食事の温度などは常に気にしています。</li>
</ul>
</li>
</ul>
<h1>さいごに</h1>
<p>みなさま、入社後の感想を教えてくださり、ありがとうございました！</p>
<p>KINTOテクノロジーズでは日々、新たなメンバーが増えています！
今後もいろんな部署のいろんな方々の入社エントリが増えていきますので、楽しみにしていただけましたら幸いです。</p>
<p>そして、KINTOテクノロジーズでは、まだまださまざまな部署・職種で一緒に働ける仲間を募集しています！
詳しくは<a href="https://www.kinto-technologies.com/recruit/">こちら</a>からご確認ください！</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/blog/authors/dowod/2026-03-02-newcomer-202511-12/coverimage.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[イラストをアートから「アセット」へ：DesignOps 視点で挑む、生成 AI プロンプトの標準化と工程化]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-02-27-designops-genai/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-02-27-designops-genai/</guid>
            <pubDate>Fri, 27 Feb 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[生成AIをDesignOpsの枠組みに組み込み、イラスト制作を属人的なアートから再現可能で標準化された“運用可能なアセット”へと進化させるプロセスと検証をまとめた取り組み。]]></description>
            <content:encoded><![CDATA[<h2><strong>はじめに｜なぜ“AI × DesignOps”なのか？</strong></h2>
<p>プロダクトが成長すればするほど、ビジュアルアセットの需要は指数関数的に増えていきます。しかし、デザイナーの数は（悲しいことに）指数関数的には増えません。</p>
<p>従来のイラスト制作は個人のスキルに依存しやすく、結果として品質のバラツキや制作スピードが開発ベロシティを阻害する「<strong>デザイン負債（Design Debt）</strong>」を生み出していました。DesignOps の本質は、デザインを「一点物のマニュアルアート」から「再現可能なシステム」へと昇華させることにあります。</p>
<p>私たちは今回、AI を単なる「便利な魔法の筆」ではなく、一貫性のあるデザインシステムを支える「<strong>レンダリングエンジン</strong>」として再定義する検証を行いました。</p>
<h2><strong>DesignOpsとは？</strong></h2>
<p>「DesignOps（デザインオプス）」という言葉、デザイナー以外にはまだ少し耳慣れないかもしれません。</p>
<p>簡単に言うと、<strong>DesignOps は</strong>「<strong>デザイン版の DevOps</strong>」です。 属人的になりがちなデザイン業務をプロセスとして整理し、担当者が変わってもチームとして一定の品質をデプロイできる状態を目指す考え方です。</p>
<p>今回の取り組みでは、生成 AI を「クリエイティブな遊び」としてではなく、プロダクトのコードベースの一部のように運用できるかを検証しました。特にエンジニア主体の組織においては、デザインも「<strong>ロジックとして扱えるか</strong>」が、持続可能な運用の鍵になります。</p>
<h2><strong>プロジェクトの背景：Unlimited App で直面した「成長の痛み」</strong></h2>
<p>Unlimited App ではこれまで、プロダクトデザイナーがイラストの世界観設計から品質の最終調整まで、いわば「職人のこだわり」をもって一貫して担ってきました。しかし、プロダクトが成長し、機能追加やコンテンツ拡張が加速するなか、必要とされるイラストの量と展開範囲は、私たちの想像を超えるスピードで拡大していきました。
<a href="https://kinto-jp.com/unlimited/app/">https://kinto-jp.com/unlimited/app/</a></p>
<p>その過程で、個人の努力だけではカバーしきれない「<strong>構造的なボトルネック</strong>」が浮き彫りになってきたのです。</p>
<ul>
<li><strong>工数の比例増加</strong>：表現を都度最適化する運用では、制作アセット数に比例して工数も積み上がっていく（まさに <em>O(n)</em> の世界です）。</li>
<li><strong>再現性の設計難度</strong>：クオリティの判断が個人の経験値に依存しやすく、「なぜこれが正解なのか」という基準を仕組みとして残しづらい。</li>
<li><strong>属人的なバランス調整</strong>：スピードと完成度のトレードオフを、常に個人の「さじ加減」で調整し続けなければならない。</li>
</ul>
<p>これらは決して個人のスキルの問題ではなく、プロダクトが次のステージへ進むために解決すべき「<strong>システム上の課題</strong>」でした。</p>
<p>そこで生まれたのが、「<strong>イラスト制作を個のスキルに依存する形から、再現性のある設計へとリファクタリングできないか？</strong>」という問いです。私たちはこの問いに対し、生成 AI という強力なエンジンを DesignOps のプロセスに組み込むことで、持続可能な制作体制の構築に挑みました。</p>
<blockquote>
<p><strong>※ [ ちょこっと技術解説 ]：<em>O(n)</em> とは？</strong><br/><br/>エンジニアがよく使う「計算量」を測る指標です。ここでは「描くイラストの枚数（<em>n</em>）」が増える分だけ、「制作時間」も正直に増えていくという<strong>線形の現実</strong>を指しています。<br/><br/>つまり、「<strong>単なる「魔法」ではなく、10 倍の依頼が来たら 10 倍の工数が必要になる</strong>」という、デザイナーにとっては少し切ない、そしてエンジニアにとっては「今すぐ最適化（リファクタリング）したい！」と血が騒ぐ状態のことです。</p>
</blockquote>
<h2><strong>今回の検証アプローチ｜“AIに寄せる” vs “AIを寄せる”</strong></h2>
<p>AI を活用する際、戦略は大きく 2 つに分かれます：</p>
<ul>
<li><strong>AI に寄せる（AI-Native Approach）</strong> AI が得意な表現（原生スタイル）をそのまま受け入れ、効率を最大化する。「AI っぽさ」を味方につける手法です。</li>
<li><strong>AI を寄せる（Brand-Centric Approach）</strong> 独自のブランドアイデンティティに基づき、AI の出力を厳格に制御する。</li>
</ul>
<p>Unlimited App はすでに確立された世界観を持つプロダクトです。そのため、前提条件として「AI を寄せる」<strong>アプローチを選択しました。これは、プロンプトを単なる命令文ではなく、ブランドの</strong>「デザイン・トークン（Design Tokens）」<strong>として定義し、AI という不確実な実行環境において</strong>「決定論的な出力（Deterministic Output）」を目指す、エンジニアリング的な挑戦でもあります。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P02_CH04.jpg" alt="AI活用の2つのアプローチ比較図。「AIに寄せる（AI-Native Approach）」と「AIを寄せる（Brand-Centric Approach）」の難易度と成果の性質を対比。"> </p>
<h2><strong>イラスト標準化の設計思想とプロンプトアーキテクチャ</strong></h2>
<p>「AI なら、プロンプトひとつで何でも描いてくれるのでは？」——そんな期待は、運用フェーズに入った瞬間に崩れ去ります。実用的な DesignOps において、プロンプトは単なる「魔法の呪文」ではありません。明確な設計意図を AI へ伝えるための、厳密な「<strong>インターフェース</strong>」であるべきです。</p>
<p>標準化プロセスの構築にあたり、筆者は下図のような <strong>7つのステップ</strong>を策定しました。ビジュアル定義の抽出（Step 1）からリファレンスの整理（Step 4）までは、いわば「<strong>視覚的な仕様書</strong>（<strong>Visual Spec</strong>）」を書き上げる、設計の根幹を支えるフェーズです。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P03_CH05.jpg" alt="イラスト標準化プロセスの7ステップ。ビジュアル定義（Step 1）から、プロンプト作成（Step 5）、反復・最適化（Step 7）までのワークフロー図。"> </p>
<h3><strong>Step 1〜4：プロンプトを「エンジニアリング」するための前処理</strong></h3>
<ul>
<li><p><strong>Step 1｜ビジュアル定義の抽出（Extracting Visual Tokens）</strong> 最初に取り組んだのは、デザインシステムとの整合性チェックです。2.5D の立体感、余白の持たせ方、低コントラストな配色……。これらを言語化する工程は、後に解説する 「<strong>Style Tokens</strong>（<strong>スタイル定数</strong>）」 の基盤となります。</p>
</li>
<li><p><strong>Step 2｜イラスト用途の分類（Defining the Scope）</strong> 生成 AI の活用範囲を「クリエイティブな表現」ではなく、「<strong>UX を補助するインフォグラフィック</strong>」 と定義しました。目的を限定することで、維持すべき「再現性」と、AI に任せるべき「表現幅」の境界線が明確になります。</p>
</li>
<li><p><strong>Step 3 &amp; 4｜リファレンスの構造解体（Deconstructing References）</strong> 大量のリファレンスを収集し、「好き嫌い」という感性ではなく、構図や影の強度といった「<strong>Visual Spec（視覚仕様）</strong>」として分解・整理しました。「なんとなく似ている」を「仕様通りである」に変えるための、最も泥臭く、かつ重要なリサーチ工程です。</p>
</li>
</ul>
<p>この Step 1〜4 の本質は、「<strong>AI に依存しない設計構造を人間側で作る</strong>」 ことにあります。</p>
<p>このプロセスで最もエキサイティングであり、かつ重要なのが <strong>Step 5 の「プロンプト作成」</strong> です。ここを単なる「作文」にせず、<strong>エンジニアリング的に構造化された工程</strong>として設計しました。</p>
<p>具体的には、プロンプトを以下の <strong>2 層構造（Layered Architecture）</strong> として定義しています：</p>
<p><img src="/assets/blog/authors/Amelie/260227/P04_CH05_2.jpg" alt="プロンプト設計の構造図。ビジュアルリファレンスからプロンプトジェネレータを経て、Style Tokensと Content Variablesの2層構造に落とし込む流れ。"> </p>
<h3><strong>Part 1：Style Tokens（スタイル定数層）</strong></h3>
<p>線画の太さ、立体感、陰影のルール、配色など、プロダクトの DNA を定義します。「何を描くか」に依存しない、<strong>再利用可能な Constant（定数）レイヤー</strong>です。</p>
<h3><strong>Part 2：Content Variables（コンテンツ変数層）</strong></h3>
<p>「車」「人物」「スマホを持つ手」など、画面ごとに差し替え可能な <strong>Dynamic Variable（動的変数）レイヤー</strong>です。</p>
<p>この 「<strong>スタイルとコンテンツの解耦（Decoupling）</strong>」 こそが、DesignOps 視点での解決策です。これにより、「何を描いても同じトーンで出力される」という、デザイナーにとっての聖杯（Holy Grail）を目指しました。</p>
<h3><strong>ツールごとに異なる「Prompt の最適解」</strong></h3>
<p>検証を進める中で面白いことが分かりました。AI ツールごとに「プロンプトの癖」が全く違うのです。以前は同一のプロンプトで比較していましたが、現在は「構造（Part 1 / Part 2）は共通、実装（実際の記述）は各ツールに最適化」<strong>という方針に切り替えました。 「プロンプトを共有する」のではなく、</strong>「プロンプトを設計するインターフェース（ルール）を共有する」。この方が、ツールの進化に柔軟に対応できる持続可能な仕組みになります。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P05_CH05_3.jpg" alt="ChatGPTとGeminiにおけるプロンプト構造の具体的な記述例。Style Tokens（共通スタイル）とContent Variables（個別要素）の構成比較。"> </p>
<h2><strong>徹底検証：生成 AI 3 社の「性格診断」—— イラスト標準化の最適解を探る</strong></h2>
<h3><strong>2025年10月時点の Midjourney 検証</strong></h3>
<p>まずは、2025年10月に行った Midjourney（V7）での検証結果です。</p>
<p>当時の出力は、視覚的な完成度が非常に高く、一枚絵としての魅力は群を抜いていました。</p>
<p>しかし、標準化という観点では、いくつかの課題が見えてきました。</p>
<ul>
<li>装飾的な要素が多く、情報量がやや過剰</li>
<li>構図がダイナミックで、並べた際の統一感が出にくい</li>
<li>ブランドトーンよりも「生成AIらしさ」が前面に出る傾向</li>
</ul>
<p>つまり、<strong>創造性は高いが、制御性が低い。</strong></p>
<p>この特性はクリエイティブ用途には適していますが、UI内で量産・運用するインフォグラフィック用途には不向きであると判断しました。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P06_CH06.jpg" alt="Midjourneyの検証比較。リファレンスなし、Image Prompts、Style References の3パターンによるイラストの再現性と精度の違い。"> </p>
<h3><strong>ChatGPT / Gemini へのシフト</strong></h3>
<p>Midjourney との比較を経て、検証の軸を「表現力」から「再現性」へとシフトしました。</p>
<p>同一のビジュアルリファレンスと構造化プロンプトを用い、ChatGPT および Gemini で出力を比較しました。</p>
<p>この時点で明確になったのは、</p>
<ul>
<li>ChatGPT は構図の安定性が高い</li>
<li>Gemini はクリーンだが、再解釈が入る傾向がある</li>
</ul>
<p>という違いでした。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P07_Ch06_2.jpg" alt="ChatGPT (GPT 4o/5/5.2)とGemini (2.5/3 Pro)によるイラスト出力の比較。同一のリファレンスから生成された赤い車のバリエーション。"> </p>
<h3><strong>最新検証：観点別比較</strong></h3>
<p>プロンプトの構造を定義したところで、次なるステップは「どの実行エンジン（AI モデル）が最も安定して仕様通りに動くか」のベンチマークテストです。私たちは、構図・人物・色彩・命令遵守性の 4 つの観点から、プロダクト運用への適性を評価しました。</p>
<h4><strong>① 構図の安定性—— UI に馴染むか？</strong></h4>
<p>インフォグラフィックにおいて、余白と主体のサイズ感は「UI の整合性」に直結します。</p>
<p>ChatGPT は視点・余白・被写体のバランスが安定しており、複数枚を並べた際の一貫性が高い結果となりました。</p>
<p>一方 Gemini は、微妙な視点変更や背景処理の差異が発生しやすく、量産時の揺らぎがやや大きい傾向が見られました。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P08_CH06_3.jpg" alt="構図の安定性比較。電柱に衝突した青い車のイラストを用いて、ChatGPTとGeminiの視点や背景処理の一貫性を検証する図。"> </p>
<h4><strong>② 人物表現の精度—— 意図が伝わるか？</strong></h4>
<p>「シートベルトを締める」「スマホを見る」といった具体的な動作の正確さを検証しました。</p>
<p>人物の顔パーツ・視線・身体バランスにおいて、ChatGPT は安定したクオリティを維持しました。</p>
<p>Gemini は柔らかいトーンで描写される一方、表情や骨格の一貫性に若干のばらつきが見られました。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P09_CH06_4.jpg" alt="人物表現の精度比較。運転手の顔や身体バランスの良し悪しを、ChatGPTとGeminiの出力結果にチェックマークと×印で評価した比較図。"> </p>
<h4><strong>③ 用色とブランド整合性</strong></h4>
<p>ChatGPT は指定した色調レンジを忠実に守る傾向が強く、ブランドトーンとの整合性が高い結果となりました。</p>
<p>Gemini は自然なグラデーション処理を行う反面、色相・彩度が微妙に変化するケースがあり、厳密なトーン統制には追加調整が必要でした。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P10_CH06_5.jpg" alt="用色とブランド整合性の比較。車の正面図を用い、GPT 5.2とGemini 2.5/3 Proにおける色調の守秘性とグラデーション処理の違いを提示。"> </p>
<h4><strong>④ 命令遵守性（Instruction Following）—— 仕様書通りに動くか？</strong></h4>
<p>最も大きな差はここでした。</p>
<p>ChatGPT はプロンプト構造（Part 1 / Part 2）をほぼそのまま出力に反映する傾向が強く、設計思想と出力結果の対応関係が明確でした。</p>
<p>Gemini は意図を解釈し、最適解を“再構成”する挙動が見られ、創造性は高いものの、決定論的制御はやや難しいという印象です。</p>
<blockquote>
<p>※ 正密に Gemini が過度な再解釈を試みるからこそ、私たちは Part 1（定数層）において、より厳密なビジュアルのガードレールを定義し、封鎖（Lockdown）する必要があるのです。</p>
</blockquote>
<h2><strong>各ツールの本性：創作のパートナーか、信頼の実行エンジンか</strong></h2>
<h3><strong>Midjourney：気分屋な天才アーティスト</strong></h3>
<p>2025 年 10 月時点の検証では、Midjourney は<strong>圧倒的な</strong>「<strong>映え</strong>」を誇りました。一枚絵としての完成度は素晴らしいのですが、標準化という観点では少し「個性が強すぎ」ました。</p>
<ul>
<li>情報量が多すぎて UI の邪魔をしてしまう。</li>
<li>構図がダイナミックすぎて、並べた時に統一感が出にくい。</li>
<li>つまり、「<strong>クリエイティブな爆発力はあるが、規律を守るのが苦手なタイプ</strong>」です。</li>
</ul>
<h3><strong>Gemini：再解釈を試みるクリエイティブ・ディレクター</strong></h3>
<p>Gemini 3 Flash などの最新検証では、非常にクリーンな UI イラストを生成してくれますが、時折「自分の色」を出したがる傾向があります。</p>
<ul>
<li>構図や余白が毎回少しずつズレる「自由奔放さ」。</li>
<li>プロンプトを忠実に守るというより、「<strong>意図を汲み取ってリミックスしてしまう</strong>」挙動が見られました。これは創作には良いですが、量産プロセスでは「予測可能性」を下げる要因になります。</li>
</ul>
<h3><strong>ChatGPT (DALL-E)：仕様書通りに動くシニアエンジニア</strong></h3>
<p>対照的に ChatGPT は、<strong>プロンプトの構造をそのまま出力に反映する能力</strong>（<strong>Instruction Following</strong>）が極めて高いことが分かりました。</p>
<ul>
<li>構図が安定し、用色も保守的でルール化しやすい。</li>
<li>まさに DesignOps における 「<strong>信頼できる実行エンジン</strong>」 です。</li>
<li><strong>「イラストを作る（Make）」ツールではなく、「運用する（Ops）」ツール</strong>としての適性が最も高いと判断し、現在は ChatGPT を中心に検証を進めています。</li>
</ul>
<blockquote>
<p>※ もちろん、表現の幅や偶発的なひらめきという点では、Midjourney や Gemini に軍配が上がる場面もあります。</p>
</blockquote>
<h2><strong>実装結果：Unlimited App で何が変わったのか？</strong></h2>
<p>確立した標準スタイルは、現在 Unlimited App 内の「車種別イラスト」や「レベル選択カード」などで試験的に運用されています。「<strong>AI で 8 割のベースを生成し、人間が最後の 2 割を整える</strong>」というフローにより、制作スピードと一貫性が（ついに！）両立し始めました。</p>
<p>しかし、この取り組みは Unlimited App という「実験場」だけで完結するものではありません。私たちが構築したプロンプトの 2 層構造は、いわばデザインの「共通プロトコル」です。将来的には、「スタイル定数（Part 1）」というコンフィグを各ブランドの DNA に合わせて差し替えるだけで、社内のあらゆるプロダクトやサービスへこの仕組みを横展開（スケール）させていくことを目見据えています。プロダクトを跨いで「一貫性のあるビジュアルを即座にデプロイできる」状態——これこそが、私たちが目指す真の DesignOps の姿です。</p>
<p><img src="/assets/blog/authors/Amelie/260227/P11_CH07.jpg" alt="Unlimited Appの実際のUI画面。生成されたイラストが、車種選択画面やレベル選択カードのアニメーションとして統合されている様子。"> </p>
<h2><strong>やってみて分かった課題</strong></h2>
<p>数ヶ月の検証で分かったのは、プロンプトには「<strong>賞味期限（Prompt Rot）</strong>」があるということです。ツールのアップデートにより、昨日まで動いていた魔法の言葉が、今日には効かなくなる。</p>
<p>そのため、プロンプトを一度作って終わりにするのではなく、<strong>継続的にリファクタリングしていく前提の設計</strong>が必要です。今後は、これらのメンテナンスを自動化する「AI Agent 的なアプローチ」も視野に入れています。</p>
<h2><strong>まとめ：AI × DesignOps は何を変えうるのか</strong></h2>
<p>今回の検証を通じて確信したのは、生成 AI は単なる「魔法」ではなく、<strong>DesignOps を再設計するための強力なトリガー</strong>であるということです。</p>
<p>標準化とは、自由を奪うことではありません。むしろ、「<strong>どこを固定し（Constants）、どこを柔軟にするか（Variables）</strong>」を定義することで、変化の激しいプロダクト開発においてクリエイティブな安定走行を可能にする行為です。</p>
<p>DesignOps は、デザインを「属人的な手癖」から「再現可能なプロセス」へと拡張します。この取り組みが、皆さんのプロダクトにおけるクリエイティブ運用のヒントになれば幸いです。</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/blog/authors/Amelie/260227/P01_CH01.jpg" length="0" type="image/jpg"/>
        </item>
        <item>
            <title><![CDATA[CloudFormation ネストスタックが DELETE_COMPLETE 状態で更新不能になった問題の解決記録]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-02-12-ResolvingAnIssueWhereACloudFormationNestedStackBecameUnupdatableInDeleteCompleteState/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-02-12-ResolvingAnIssueWhereACloudFormationNestedStackBecameUnupdatableInDeleteCompleteState/</guid>
            <pubDate>Thu, 12 Feb 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[AWS Amplify Gen 2 + CDK 環境で CloudFormation のネストスタックが DELETE_COMPLETE 状態になり更新不能になった問題を、AWS サポートの助言を得て2段階デプロイで解決した記録です。]]></description>
            <content:encoded><![CDATA[<h2>はじめに</h2>
<p>こんにちは、 Cloud Infrastructure G の山中です！
AWS Amplify Gen 2 + CDK で構築した dev 環境で、CloudFormation のデプロイが失敗し続けるという問題に遭遇しました。エラーメッセージは以下の通りです：</p>
<pre><code>Stack:arn:aws:cloudformation:ap-northeast-1:XXXXXXXXXXXX:stack/amplify-XXXXX-CloudWatchLogsToS3Stack108915EF-XXXXX/XXXXX is in DELETE_COMPLETE state and can not be updated.
</code></pre>
<p>本記事では、この問題の原因究明から AWS サポートへの問い合わせ、そして最終的な解決までのプロセスを共有します。</p>
<h2>背景</h2>
<h3>実施したリファクタリング</h3>
<p>CDK コードで、あるリソース群を <code>cdk.Stack</code>（独立したネストスタック）から <code>Construct</code>（親スタック内のリソースグループ）へ変更するリファクタリングを行いました。</p>
<p>この変更を行った理由は、<strong>クロススタック参照の問題</strong>を解消するためです。</p>
<blockquote>
<p><strong>クロススタック参照とは？</strong>
CloudFormation で複数のスタック間でリソース（ARN など）を参照し合う仕組みです。便利ですが、参照元・参照先の削除順序によってはエラーが発生することがあります。</p>
</blockquote>
<p><strong>変更前：</strong> 独立したネストスタックとして定義</p>
<pre><code class="language-typescript">export class CloudWatchLogsToS3Stack extends cdk.Stack {
  // 独立したスタックとしてデプロイされる
}
</code></pre>
<p><strong>変更後：</strong> 親スタック内の <code>Construct</code> として定義</p>
<pre><code class="language-typescript">export class CloudWatchLogsToS3Stack extends Construct {
  // 親スタックの一部としてデプロイされる
}
</code></pre>
<p>一見シンプルな変更ですが、これが思わぬ問題を引き起こしました。</p>
<h2>発生した問題</h2>
<h3>問題の発生メカニズム</h3>
<p><code>Stack</code> → <code>Construct</code> への変更により、CDK の <code>Construct</code> 階層が変わり、CloudFormation の<strong>論理 ID</strong>（CloudFormation がリソースを識別するための内部的な名前）が変化しました。</p>
<p><strong>【変更前の構造】</strong></p>
<pre><code>CloudWatchLogsToS3Stack (Stack)
├── Firehose0
├── FirehoseRole0
└── ...
</code></pre>
<p><strong>【変更後の構造】</strong></p>
<pre><code>CloudWatchLogsToS3Stack (Amplify Stack)
└── CloudWatchLogsToS3StackResource (Construct)
    ├── Firehose0
    ├── FirehoseRole0
    └── ...
</code></pre>
<p>この結果、以下の連鎖的な問題が発生しました：</p>
<ol>
<li>CloudFormation は論理 ID が変わったため「新規リソース」として作成を試みる</li>
<li>しかし物理名（IAM ロール名、ロググループ名など）は既存のものと同じ</li>
<li>「リソースが既に存在する」エラーで <code>CREATE_FAILED</code></li>
<li>作成に失敗したネストスタックが <code>DELETE_COMPLETE</code> 状態になる</li>
<li><strong>親スタックが、削除済みネストスタックの ARN を参照し続ける(孤立した参照)</strong></li>
<li>以降のデプロイで「<code>DELETE_COMPLETE</code> 状態のスタックは更新できない」エラーが発生</li>
</ol>
<p>特に厄介なのは手順 5 の状態です。親スタックのテンプレートに「存在しないネストスタック」への参照が残り続けるため、何をしてもデプロイが失敗するようになります。</p>
<h3>エラーの詳細</h3>
<pre><code>CloudWatchLogsToS3Stack108915EF:
Stack:arn:aws:cloudformation:ap-northeast-1:XXXXXXXXXXXX:stack/amplify-XXXXX-CloudWatchLogsToS3Stack108915EF-XXXXX/XXXXX is in DELETE_COMPLETE state and can not be updated.
</code></pre>
<h2>試した対応（すべて失敗）</h2>
<p>自力で以下の対応を試みましたが、いずれも解決には至りませんでした。</p>
<table>
<thead>
<tr>
<th>試した対応</th>
<th>結果</th>
</tr>
</thead>
<tbody><tr>
<td>重複リソース（IAM ロール、ロググループ等）の手動削除</td>
<td>リソースは削除できたが、デプロイは失敗</td>
</tr>
<tr>
<td><code>DELETE_COMPLETE</code> 状態のネストスタックを AWS コンソールから削除</td>
<td>既に削除済みのため操作不可</td>
</tr>
<tr>
<td>AWS CLI でルートスタックのテンプレートから参照を除去して <code>update-stack</code></td>
<td>同じエラーで失敗</td>
</tr>
<tr>
<td><code>continue-update-rollback</code> コマンドで問題リソースをスキップ</td>
<td>スタック状態が <code>UPDATE_ROLLBACK_COMPLETE</code> のため使用不可</td>
</tr>
<tr>
<td>CDK コードで論理 ID を変更して新規作成</td>
<td>古い参照がルートスタックに残っているため失敗</td>
</tr>
</tbody></table>
<p>どの方法でも、<strong>親スタックが削除済みのネストスタック ARN を参照し続けている</strong>という根本問題を解決できませんでした。</p>
<h2>AWS サポートへの問い合わせ</h2>
<p>自力での解決が困難と判断し、AWS サポートに問い合わせました。</p>
<h3>問い合わせ内容（要約）</h3>
<ul>
<li>ルートスタックが <code>DELETE_COMPLETE</code> 状態のネストスタック ARN を参照し続けている</li>
<li>テンプレート更新、<code>continue-update-rollback</code>、論理 ID 変更など試したが解決せず</li>
<li>ルートスタックから古いネストスタック参照を除去していただくことは可能か</li>
</ul>
<h3>AWS サポートからの回答</h3>
<blockquote>
<p>原則として、AWS 側にてお客様のスタックを操作することは行なっておりません。</p>
<p>お問い合わせのエラーを解消いただくには、親スタックにて管理されているリソースから子スタックを削除いただいた後に、再度子スタックを作成いただく必要がございます。</p>
<p>手順1: 親スタックの CDK コードより既に削除されている子スタックを作成されている処理をコメントアウトいただき、CDK コードをデプロイすることで、親スタックにて管理されているリソースから子スタックを削除いただく。</p>
<p>手順2: 手順1におけるコメントアウトを外し、再度 CDK コードをデプロイいただく。</p>
</blockquote>
<p>つまり、2段階のデプロイで解決できるとのことでした。</p>
<h2>解決手順</h2>
<h3>手順1: 問題のスタック作成処理をコメントアウトしてデプロイ</h3>
<p>以下をコメントアウトしました：</p>
<pre><code class="language-typescript">// CloudWatch Logs → S3エクスポート設定
// ============================================================
// 【手順1】DELETE_COMPLETE 状態のネストスタック参照を削除するため、
// 一時的にコメントアウトしています。
// ============================================================
// const logsExportStack = backend.createStack(&quot;CloudWatchLogsToS3Stack&quot;);
// const logsExportStackInstance = new CloudWatchLogsToS3Stack(...);
// logsExportStack.addDependency(logsBucketStack);

// RumConstruct の Firehose 連携も無効化
const rumStackInstance = new RumConstruct(rumStack, &quot;RumStackResource&quot;, {
  // ...
  enableSubscriptionFilter: false,  // true → false
  // firehoseStreamArn: logsExportStackInstance.firehoseStreamArns.get(&#39;rum&#39;)!,
});

// rumStack.addDependency(logsExportStack);

// SubscriptionFiltersStack もコメントアウト
// if (appSyncApiId) {
//   const subscriptionFiltersStack = backend.createStack(&quot;SubscriptionFiltersStack&quot;);
//   ...
// }
</code></pre>
<p>デプロイ後の確認：</p>
<pre><code class="language-bash">aws cloudformation list-stack-resources \
  --stack-name amplify-XXXXX \
  --output json | jq -r &#39;.StackResourceSummaries[] | select(.LogicalResourceId | contains(&quot;CloudWatchLogsToS3&quot;) or contains(&quot;SubscriptionFilters&quot;))&#39;
</code></pre>
<p>→ 出力なし = 親スタックから参照が削除された ✅</p>
<h3>手順2: コメントアウトを解除して再デプロイ</h3>
<p>コメントアウトを全て解除し、元の状態に戻してデプロイしました。</p>
<p>結果：</p>
<pre><code class="language-bash">aws cloudformation describe-stacks --stack-name amplify-XXXXX \
  --query &quot;Stacks[0].StackStatus&quot;
# =&gt; &quot;UPDATE_COMPLETE&quot;
</code></pre>
<p>→ デプロイ成功 ✅</p>
<h2>学んだこと</h2>
<h3>1. CDK の Construct 階層変更は要注意</h3>
<p><code>Stack</code> → <code>Construct</code> への変更のような、一見シンプルなリファクタリングでも、CloudFormation の論理 ID が変わる可能性があります。</p>
<p>:::message
<strong>対策</strong>: 本番環境に適用する前に、必ず <code>cdk diff</code> で論理IDが変更されているかを確認しましょう。論理 ID の変更は「リソースの再作成」を意味するため、影響範囲を把握することが重要です。
:::</p>
<h3>2. 「孤立した参照」問題は厄介</h3>
<p>ネストスタックが <code>DELETE_COMPLETE</code> 状態になると、親スタック側にそのスタックへの参照が残り続けます。
その結果、CloudFormation は削除済みスタックを更新しようとして失敗し、通常の更新操作では復旧できない状態に陥ることがあります。</p>
<h3>3. 2段階デプロイが有効</h3>
<p>このような孤立した参照問題には、「問題箇所をコメントアウト → デプロイ → 解除 → 再デプロイ」という2段階の手順が有効です。1回目のデプロイで親スタックから参照を削除し、2回目で新規作成するという流れです。</p>
<h3>4. 困ったら AWS サポートへ</h3>
<p>自力で解決できない問題に遭遇した場合、AWS サポートへの問い合わせが有効です。今回は「AWS 側での直接操作はできない」という回答でしたが、代わりに的確な回避策を教えていただきました。</p>
<h2>まとめ</h2>
<p>CloudFormation のネストスタックが <code>DELETE_COMPLETE</code> 状態で更新不能になる問題は、以下の手順で解決できました：</p>
<ol>
<li><strong>手順1</strong>: 問題のスタック作成処理をコメントアウトしてデプロイ（親スタックから参照を削除）</li>
<li><strong>手順2</strong>: コメントアウトを解除して再デプロイ（スタックを新規作成）</li>
</ol>
<p>CDK/CloudFormation を使用している方で同様の問題に遭遇した場合、この記事が参考になれば幸いです。</p>
<h2>参考リンク</h2>
<ul>
<li><a href="https://docs.aws.amazon.com/ja_jp/AWSCloudFormation/latest/UserGuide/using-cfn-nested-stacks.html">AWS CloudFormation ユーザーガイド - ネストされたスタック</a></li>
<li><a href="https://docs.aws.amazon.com/cdk/v2/guide/home.html">AWS CDK 開発者ガイド</a></li>
<li><a href="https://docs.amplify.aws/gen2/">AWS Amplify Gen 2 ドキュメント</a></li>
</ul>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/blog/authors/d.yamanaka/20260212_coverimage.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[Vibe Codingで作ったPoCを引き継ごうとしたら、1週間溶けた話]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026_01_30_vibe_codingで引き継ぎが壊れた話/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026_01_30_vibe_codingで引き継ぎが壊れた話/</guid>
            <pubDate>Fri, 30 Jan 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[Claude CodeでVibe Codingして作ったPoCを別の担当者に引き継ごうとしたら、新環境でアプリが動かず原因解明に1週間かかった失敗談と、そこから得た教訓を共有します。]]></description>
            <content:encoded><![CDATA[<h2>はじめに</h2>
<p>Vibe Coding、楽しいですよね。</p>
<p>Claude Codeに「こんな感じで作って」と伝えるだけで、AWSのリソースを使ったアプリがサクサク出来上がっていく。自分でコードを書く量は激減して、PoCなんてあっという間に完成する。</p>
<p>…と思っていた時期が、僕にもありました。</p>
<p>一人で作ったPoCを別の担当者に引き継ごうとしたら、<strong>新環境でアプリが動かない</strong>。原因を調べようにも、Vibe Codingで作ったから<strong>コードの中身を自分でも把握していない</strong>。結局、原因解明に<strong>約1週間</strong>溶かしました。</p>
<p>この記事では、何が起きたのか、なぜ時間がかかったのか、そしてどうすれば防げたのかを共有します。</p>
<h2>何を作っていたか</h2>
<p>Claude Codeを使って、一人でPoCを開発していました。</p>
<p>構成はこんな感じ：</p>
<ul>
<li><strong>Amazon DynamoDB</strong> – データストア</li>
<li><strong>Amazon Bedrock Agent</strong> – LLMを使った処理</li>
<li><strong>Amazon Cognito</strong> – 認証</li>
</ul>
<p>典型的なサーバーレス構成です。Vibe Codingでガンガン作って、旧環境（開発用AWSアカウント）ではちゃんと動いていました。</p>
<h2>事件：新環境で動かない</h2>
<p>引き継ぎのタイミングで、新環境（別のAWSアカウント）にデプロイして動作確認をしました。</p>
<p><strong>動かない。</strong></p>
<p>エラーは出るけど、原因がよくわからない。Claude Codeにデバッグさせても、的を射た回答が返ってこない。</p>
<p>「コードを読めばわかるでしょ」と思うかもしれませんが、Vibe Codingで作ったので<strong>自分でもコードの詳細を把握していない</strong>んですよね。どこを見ればいいかすらわからない。</p>
<h2>原因：AIが勝手に書いたフォールバック値</h2>
<p>結局、新環境と旧環境のデプロイ後の挙動の違いをClaude Codeに分析させて、やっと原因がわかりました。AWSのリソースやCloudWatchログを片っ端から参照させた結果です。</p>
<p>原因は<strong>環境変数のフォールバック値</strong>でした。</p>
<pre><code class="language-typescript">// ※ 以下はAIが生成した例示コードです。実際のコードとは異なります。

// config.ts
export const config = {
  dynamoTableName: process.env.DYNAMO_TABLE_NAME || &quot;dev-user-table&quot;,
  bedrockAgentId: process.env.BEDROCK_AGENT_ID || &quot;ABCD1234EF&quot;,
  cognitoUserPoolId: process.env.COGNITO_USER_POOL_ID || &quot;ap-northeast-1_XyZ123&quot;,
  cognitoClientId: process.env.COGNITO_CLIENT_ID || &quot;1a2b3c4d5e6f7g8h9i0j&quot;,
};
</code></pre>
<p>AIが「環境変数が設定されていない場合に備えて」と気を利かせて、フォールバック値を書いていたんです。</p>
<p>旧環境では、たまたまこのフォールバック値が指すリソースが存在していたので動いていた。でも新環境では別のAWSアカウントなので、当然そんなリソースは存在しない。だから動かない。</p>
<p>しかもエラーメッセージを見ても「リソースが見つかりません」としか出ないから、<strong>環境変数の問題だと気づけなかった</strong>。</p>
<h2>なぜ1週間もかかったのか</h2>
<p>正直に言います。</p>
<p><strong>自分がコードをほとんど読まなかったから</strong>です。</p>
<p>Vibe Codingの快適さに甘えて、AIが生成したコードをちゃんと確認していませんでした。だから問題が起きたときに「どこを見ればいいか」がわからない。</p>
<p>Claude Codeにデバッグさせても、ピンポイントで原因に辿り着けない。結局、新旧環境の挙動の違いをCloudWatchログレベルで比較させて、やっと「あ、ここか」となりました。</p>
<p>Vibe Codingで楽をした分、トラブル時のツケを払わされた感じです。</p>
<h2>引き継ぎ相手も困っていた</h2>
<p>自分だけじゃなく、引き継ぎ相手も困っていました。</p>
<ul>
<li>コード量が多くて、全体像を把握する時間が足りない</li>
<li>どこが重要なコードなのかわからない</li>
<li>ドキュメントもない</li>
</ul>
<p>最終的にAIにアーキテクチャ図を生成させて、やっと自分でも全体像がなんとなくわかった状態でした。コードだけ渡されても、正直<strong>自分でも説明できない</strong>。</p>
<p>これは引き継ぎとして完全に失敗です。</p>
<h2>教訓：Vibe Codingで引き継ぎを壊さないために</h2>
<p>この経験から得た教訓を共有します。</p>
<h3>1. AIには必要最小限の仕事だけさせる</h3>
<p>「あると便利かも」でコードを追加させない。依頼していない機能を勝手に実装されると、把握できないコードが増えるだけ。</p>
<h3>2. Agent.md（CLAUDE.md）で余計なことをさせない制御</h3>
<p>プロジェクトルールを明文化しておく。特に「やってはいけないこと」を書いておくのが重要。</p>
<h3>3. コードレビューを徹底する</h3>
<p>AIが生成したコードであっても、人間によるレビューは不可欠です。これにより、不要なコードや潜在的な問題を早期に発見し、コードの品質を維持することができます。</p>
<pre><code class="language-markdown">&lt;!-- ※ 以下はAIが生成した例示です。プロジェクトに応じてカスタマイズしてください。 --&gt;

# プロジェクトルール

## 環境変数
- 環境変数にフォールバック値（デフォルト値）を絶対に書かない
- 環境変数が未設定の場合は明示的にエラーを出すこと
- 環境変数の一覧は `.env.example` に記載し、常に最新化する

## コード規模
- 実装は必要最小限にする。「あると便利かも」で追加しない
- 1ファイル300行を超えたら分割を検討する
- 使われていないコードは即削除する

## ドキュメント
- アーキテクチャ図（`docs/architecture.md`）を常に最新に保つ
- 新しいAWSリソースを追加したら、必ずアーキテクチャ図を更新する
- READMEのセットアップ手順は、新環境で動くことを前提に書く

## やってはいけないこと
- ハードコードされた認証情報・リソースID
- 「とりあえず動く」ための回避策（後で必ず負債になる）
- 依頼されていない機能の追加
</code></pre>
<h3>3. 環境変数はフォールバック値なしで即エラーにする</h3>
<p>今回の問題を防ぐなら、こう書くべきでした：</p>
<pre><code class="language-typescript">// ※ 以下はAIが生成した例示コードです。実際のコードとは異なります。

// config.ts
const requireEnv = (key: string): string =&gt; {
  const value = process.env[key];
  if (!value) {
    throw new Error(`環境変数 ${key} が設定されていません`);
  }
  return value;
};

export const config = {
  dynamoTableName: requireEnv(&quot;DYNAMO_TABLE_NAME&quot;),
  bedrockAgentId: requireEnv(&quot;BEDROCK_AGENT_ID&quot;),
  cognitoUserPoolId: requireEnv(&quot;COGNITO_USER_POOL_ID&quot;),
  cognitoClientId: requireEnv(&quot;COGNITO_CLIENT_ID&quot;),
};
</code></pre>
<p>これなら環境変数が未設定のとき、すぐにエラーで気づける。</p>
<h3>4. ドキュメントを自動生成・自動更新する仕組みを作る</h3>
<p>コードだけでは引き継ぎできない。アーキテクチャ図やREADMEは必須。</p>
<p>できればコードの変更に合わせて自動更新される仕組みを作りたい。完璧は無理でも、「コードとドキュメントがズレている」状態は避けたい。</p>
<h2>まとめ</h2>
<p>Vibe Codingは楽しいし、生産性も上がる。でも<strong>引き継ぎ</strong>という観点では落とし穴がある。</p>
<ul>
<li>AIが「気を利かせて」書いたコードが、別環境で問題を起こす</li>
<li>自分でコードを把握していないから、トラブル時に対応できない</li>
<li>引き継ぎ相手もコードを理解できない</li>
</ul>
<p><strong>100%コントロールするのは無理でも、できるだけ手綱を握っておく</strong>のが大事だと痛感しました。</p>
<p>Vibe Codingをやるなら：</p>
<ul>
<li>Agent.mdで「やってはいけないこと」を明文化する</li>
<li>AIには最小限の仕事だけさせる</li>
<li>ドキュメントは最初から用意しておく</li>
<li>AIが生成したコードも必ず人間がレビューする</li>
</ul>
<p>この記事が、同じ轍を踏む人を一人でも減らせたら嬉しいです。</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/blog/authors/amano-satoshi/vibecoding_handover.png" length="0" type="image/png"/>
        </item>
        <item>
            <title><![CDATA[「障害」を新たな視点で捉え直す ～障害平等研修開催報告～]]></title>
            <link>https://blog.kinto-technologies.com/posts/2026-01-29-disability-equality-training/</link>
            <guid>https://blog.kinto-technologies.com/posts/2026-01-29-disability-equality-training/</guid>
            <pubDate>Thu, 29 Jan 2026 10:00:00 GMT</pubDate>
            <description><![CDATA[Engineering Officeで開催した「障害平等研修」の様子を紹介します]]></description>
            <content:encoded><![CDATA[<p>こんにちは。KINTOテクノロジーズのEngineering OfficeでAccessibility Advocateとして働いている辻勝利です。</p>
<p>今回は、去る1月15日に同チームの皆様向けに開催した「障害平等研修（Disability Equality Training）」についての開催報告をしたいと思います。 そもそも「障害平等研修」とはなにか、なぜEngineering Officeの有志向けに最初の研修を開催したのかなど、お話しできればと思います。</p>
<h2>1. はじめに：なぜ「技術」の組織が「マインド」を学ぶのか</h2>
<p><img src="/assets/blog/authors/debugon/DET1.jpg" alt="障害平等研修の開始時に投影された、本日の目標とプログラム内容のプレゼンテーション画面。"><br>アクセシビリティの分野に携わる中で、私はある「失敗」を多く目にしてきました。それは、アクセシビリティが「障害者のための特別な対応」と定義された瞬間、優先度が下がり、多忙を理由に見送られてしまうという現実です。 これを変えるには、手法（How）の前に、アクセシビリティを追求する「意義（Why）」を社内文化として根付かせることが不可欠です。昨年11月にKINTOテクノロジーズに入社して以来、私が「文化形成」を最重視しているのはそのためです。その第一歩として、まずは身近なEngineering Officeのメンバーを対象に「障害平等研修（DET: Disability Equality Training）」を実施しました。</p>
<h2>2. 障害平等研修（DET）とは</h2>
<p><img src="/assets/blog/authors/debugon/DET2.jpg" alt="障害平等研修（Disability Equality Training）のタイトルが映し出された講義用モニター。">
DETは1990年代のイギリスで誕生しました。日本でも「障害者差別解消法」の施行や、東京2020大会のボランティア研修に採用されるなど、世界標準のプログラムとなっています。 最大の特徴は、障害者自身がファシリテーターを務めること、そして「教わる」のではなく「参加者同士の議論」を通じて気づきを得ることです。今回は約1時間のダイジェスト版として、「障害とは何か？」「障害はどこにあるのか？」という本質的なテーマを深掘りしました。</p>
<h2>3. 参加者の属性</h2>
<p><img src="/assets/blog/authors/debugon/DET3.jpg" alt="明るい会議室で、お菓子や飲み物を囲みながら、5名の参加者がリラックスした様子でテーブルを囲んでいる研修会場。">
今回はEngineering Officeを中心に、名古屋や福岡など各拠点から5名が室町オフィスに集結しました。普段リモートワークが多い私ですが、あえて対面形式を選んだのは、温度感のある深い対話の場を作りたかったからです。お菓子を囲み、リラックスした雰囲気の中で研修はスタートしました。</p>
<h2>4. 研修の様子：問題を「発見」するプロセス</h2>
<p><img src="/assets/blog/authors/debugon/DET4.jpg" alt="イラストを囲みながら、身振り手振りを交えて活発に意見を交わす参加者の様子。">
研修ではイラストやビデオを用い、日常に潜む「問題」を探し出しました。 印象的だったのは、参加者の皆さんがごく自然に、障害を「個人の問題」から「社会や環境の問題」へと転換して議論を進めていたことです。エンジニアリングに携わる方々らしく、目の前の事象を「解決すべき課題」として捉える姿勢が非常に頼もしく感じられました。</p>
<h2>5. 心境・視点の変化：アンケートが語る「パラダイムシフト」</h2>
<p><img src="/assets/blog/authors/debugon/DET5.jpg" alt="ワークシートのアップ。「障害とは、社会や人の対応不足が生み出す環境である」と手書きで記入されている。">
研修の前後で、参加者の「障害」に対する解釈は驚くほど変化しました。 最初は「心身の機能に関すること」や「それに伴って何かができないこと」という前提で話し始めていたメンバーが、ワークショップでの対話を重ねるうちに、自分たちの外側にある要因を含めた新たな視点で障害を捉え直そうとしている姿が印象的でした。 終了時には、参加者の口から「障害に対する考え方の前提がひっくり返った気がする」といった言葉が聞かれ、ファシリテーターとしてこの上なく手応えを感じた瞬間でした。</p>
<p>アンケートでも満足度・内容ともに10点満点中9〜10点という極めて高い評価をいただき、以下のような前向きな声をいただいています。</p>
<ul>
<li>「本人と環境という、2つの問題に目線が広がりました」  </li>
<li>「こういう考え方が一般常識になれば、世の中が変わると思う」  </li>
<li>「ぜひ後半もやりたい。他の拠点やチームにも広めたい」  </li>
<li>「議論を活発にするための心理的安全性についても検討していきたい」</li>
</ul>
<h2>6. 今後のアクション：誰もが「社会を変えるプレーヤー」に</h2>
<p><img src="/assets/blog/authors/debugon/DET6.jpg" alt="3名の参加者が机を囲み、手元の資料を指差しながら真剣に、かつ前向きな様子で話し合っている後ろ姿。">
モビリティの分野において「障害」について深く掘り下げることは、これからの移動の在り方を考える上で避けては通れないテーマです。
研修を通じて私たちが得た最大の収穫は、アクセシビリティを「誰かのための特別な対応」ではなく、「身近なところにあり自分たちが解決できるかもしれない課題」として捉え直したことです。自分の仕事のどこにバリアがあり、どこに解決の可能性があるのか。その気づきこそが、文化を変える第一歩になります。
誰もが社会のバリアを取り除く「プレーヤー」であると実感できる職場。その先に、KINTOテクノロジーズが「すべての人にとって働きやすく、価値を提供できる場所」になる未来を目指し、この対話の輪を他拠点や他部署へも広げていきたいと思っています。</p>
]]></content:encoded>
            <enclosure url="https://blog.kinto-technologies.com/assets/common/thumbnail_default_×2.png" length="0" type="image/png"/>
        </item>
    </channel>
</rss>