AI駆動型デジタルアセット管理:自動タグ付けとブランドコンプライアンス

Q3キャンペーンの「あのヒーロー画像──ほら、山が映ってる青いやつ」を45分かけて探して、結局final_v3_REAL_final.jpgという誤ったラベルで見つかった経験をしたことがあれば、デジタルアセット管理がなぜAIを必要としているのかは既に理解しているはずです。本気で。

私はエンタープライズクライアントのDAM統合に携わった際、アセットライブラリが230万ファイルに成長していて、メタデータがほぼ全くと言っていいほど一貫性がない状況に直面しました。マーケティングチームは既に存在するアセットを再作成していました。それらを見つけることは新しく作るより難しかったのです。これはワークフロー上の問題ではなく──資金の無駄遣いです。2026年には、AI駆動型DAMは「あったら良い」ではなく、規模でコンテンツを生産している組織にとって必須の条件となっています。

この記事では、自動タグ付け、ブランドコンプライアンスチェック、セマンティック検索を備えたAI駆動型デジタルアセット管理を実装(または統合)する方法を詳しく説明します。ベンダーピッチ版ではなく──実際のエンジニアリングとアーキテクチャ上の判断についてです。

目次

AI駆動型デジタルアセット管理:自動タグ付けとブランドコンプライアンス(2026年)

2026年におけるAI駆動型DAMの実際の意味

具体的に説明しましょう。「AI駆動型DAM」と言うとき、人々は通常、従来のアセット保存と取得の上に階層化された3つの異なる機能について話しています:

  1. 自動メタデータ生成 ──AIは各アセットをアップロード時に検査し、タグ、説明、色プロファイル、検出されたオブジェクト、テキスト(OCR)、さらには感情的トーンを生成します。
  2. セマンティック検索 ──キーワード照合ではなく、システムはあなたが何を意味するのかを理解します。「秋に屋外で幸せそうな人々」を検索すると、実際に機能します。
  3. ブランドコンプライアンスチェック ──AIはアセットをブランドガイドラインに対して検証します:ロゴの正しい使用、承認された色パレット、フォント準拠、制限されたイメージ、アクセシビリティ標準。

2025-2026年の重要な変化は、これらの機能がもはやAdobe Experience ManagerやBynderなどのモノリシックなDAMプラットフォーム内に閉じ込められていないということです。これらは、あらゆるヘッドレスアーキテクチャに接続できるコンポーザブルサービスとして利用可能です。これが、あなたがどのように構築するかについて、すべてを変えます。

市場数値

グローバルDAM市場は2025年におよそ61億ドルに達し、2028年までに98億ドルに達することが予想されています(MarketsandMarkets)。AI固有のDAM機能はさらに急速に成長しています──Gartnerは2026年末までに、エンタープライズDAM実装の70%がなんらかの形のAI駆動型タグ付けを含めることを推定しています。2024年の約35%から上昇しました。

自動タグ付け:基本的な画像認識を超えて

基本的な自動タグ付けは何年も前からありました。Google Vision APIは2018年時点で「この画像には犬が含まれている」と判断できました。今何が異なるのかは、タグ付けの深さとカスタマイズ可能性です。

最新の自動タグ付けでカバーされるもの

アセットタイプ AI タグ付け機能(2026年) 生成されたタグの例
画像 オブジェクト、シーン、顔、感情、色、テキスト(OCR)、スタイル、構成 mountain, sunset, warm-tones, landscape-orientation, no-people
ビデオ シーン検出、ショット境界、トランスクリプト、話者ID、B-roll対話頭部 product-demo, 0:45-1:12-feature-highlight, spokesperson-jane
PDF/ドキュメント トピック抽出、エンティティ認識、要約、言語 Q3-report, financial, contains-PII, english
オーディオ 文字起こし、話者の分離、感情、音楽検出 podcast, 2-speakers, positive-sentiment, contains-music
デザインファイル レイヤー分析、フォント検出、色パレット抽出、ブランド要素検出 uses-primary-logo, pantone-286C, helvetica-neue

カスタム分類マッピング

ほとんどのベンダーデモが示さないのはここです:汎用タグはエンタープライズワークフローではほぼ無用です。ペットフード企業が「スタジオ設定のゴールデンレトリバーの子犬」と「犬公園での雑種──ライフスタイル」を区別する必要がある場合、「犬」は役に立たちません。カスタム分類マッピングが必要です。

最も効果的なアプローチは2パスシステムです:

# パス1:汎用AIタグ付け(GPT-4o Vision、Claude 3.5、またはGoogle Gemini)
generic_tags = await vision_model.analyze(asset, prompt="""
  この画像を詳細に説明してください。以下を含めてください:
  - 主要被写体とその属性
  - 設定/環境
  - 気分/感情的トーン  
  - 色パレット(支配的な色とアクセント色)
  - 構成スタイル(クローズアップ、広角、フラットレイなど)
  - 見える任意のテキストまたはロゴ
""")

# パス2:会社の分類を使用して分類器にマッピング
custom_tags = taxonomy_mapper.classify(
  generic_tags,
  taxonomy=client_taxonomy,  # あなたのブランドの特定のタグ階層
  confidence_threshold=0.85
)

# パス3:信頼度が低いタグについて人間の判断を組み込む
if custom_tags.has_low_confidence_items():
  await review_queue.add(asset, custom_tags)

その信頼度閾値は非常に重要です。設定が低すぎるとゴミタグが発生してシステムへの信頼が失われます。高すぎるとアセットの半分が手動レビューキューに入り、目的が失われます。実際には、0.82-0.88がほとんどの視覚アセットライブラリにとって適切です。

ビデオ自動タグ付けが困難な部分です

画像は(比較的)解決されています。ビデオが大変な場所です。3分間のマーケティングビデオには15の異なるシーンが含まれている可能性があり、それぞれ異なるタグが必要です。2026年の技術の最先端には以下が関わります:

  • TransNetV2またはより新しいトランスフォーマーベースのアプローチを使用したシーン境界検出
  • マルチモーダルモデル(Gemini 2.0 ProまたはGPT-4oが強いここ)を使用したシーンごと分析
  • 時間的メタデータ ──タグは単なる「このビデオに何があるか」ではなく「このビデオの0:32から0:47に何があるか」
  • オーディオ視覚的融合 ──文字起こし分析と視覚分析の組み合わせがより豊かなコンテキストを提供

ビデオ処理は、計算とコストの両方で、画像処理当たりのアセットで8-15倍かかることを予想してください。

セマンティック検索:ファイル名ではなく意味でアセットを検索

キーワード検索は創作資産に対しては機能しません。人々はキーワードで考えていません──概念で考えています。「ラグジュアリーラインの発表にプレミアムでミニマリストな感じのものが必要」はキーワードクエリではありません。しかしベクトル埋め込みなら、それは完全に有効な検索です。

ベクトルベースのセマンティック検索の仕組み

アーキテクチャは次のようになります:

  1. アセットがアップロードされるとき、マルチモーダルモデル(CLIP、SigLIP、またはOpenAI/Googleからの独有埋め込みモデル)を使用してベクトル埋め込みを生成します
  2. 埋め込みを従来のメタデータと一緒にベクトルデータベースに保存します
  3. 検索時に、ユーザーの自然言語クエリを同じモデルを使用してベクトルに変換します
  4. ベクトル空間で最も近い隣接を見つけます
  5. メタデータフィルタとビジネスルールを使用して結果を再ランク付けします
// 例:Pinecone + OpenAIを使用したセマンティック検索の実装
import { Pinecone } from '@pinecone-database/pinecone';
import OpenAI from 'openai';

const openai = new OpenAI();
const pinecone = new Pinecone();
const index = pinecone.Index('dam-assets');

async function semanticSearch(query: string, filters?: AssetFilters) {
  // クエリ埋め込みを生成
  const embedding = await openai.embeddings.create({
    model: 'text-embedding-3-large',
    input: query,
    dimensions: 1536
  });

  // オプションのメタデータフィルター付きベクトルDBを検索
  const results = await index.query({
    vector: embedding.data[0].embedding,
    topK: 50,
    filter: {
      ...(filters?.assetType && { asset_type: { $eq: filters.assetType } }),
      ...(filters?.brand && { brand: { $eq: filters.brand } }),
      ...(filters?.campaign && { campaign: { $in: filters.campaign } }),
      brand_compliant: { $eq: true }  // 準拠したアセットのみを返す
    },
    includeMetadata: true
  });

  return results.matches;
}

// 使用
const assets = await semanticSearch(
  'エネルギッシュなライフスタイルの写真、多様な若い大人が屋外で',
  { assetType: 'image', brand: 'activewear-line' }
);

ハイブリッド検索は必須です

純粋なベクトル検索には汚い秘密があります:完全一致を見落とすことがあります。誰かが「SKU-4829-BLU」を検索したら、彼らは意味的相似性ではなく完全キーワード照合を望みます。すべての本番DAM検索システムはハイブリッド検索が必要です──ベクトル相似性と従来のキーワード/フィルターマッチングの組み合わせ。

2026年には、ほとんどのベクトルデータベースはこれをネイティブでサポートしています。Pineconeはスパース密ベクトルを持っています、Weaviateはハイブリッド検索が組み込まれており、Elasticsearch(kNNプラグイン経由と従来のBM25)は良好に処理します。

ベクトルデータベース ハイブリッド検索 価格(2026年) 最適な用途
Pinecone スパース密ベクトル $70/月から(Serverless) 管理の簡潔さ
Weaviate ネイティブBM25 + ベクトル $25/月から(Cloud) オープンソースの柔軟性
Qdrant スパース + 密ベクトル 自己ホスト無料、Cloud $30/月から コスト意識的なチーム
Elasticsearch kNN + BM25 融合 自己ホストまたはElastic Cloud $95/月から 既存のElasticインフラ
pgvector (Postgres) 手動実装が必要 あなたのPostgresインスタンスのコスト 小規模アセットライブラリ(<500K)

AI駆動型デジタルアセット管理:自動タグ付けとブランドコンプライアンス(2026年) - アーキテクチャ

ブランドコンプライアンスの自動化

これはDAMのAIが真に革新的になる場所です。手動ブランドコンプライアンスレビューは遅く、一貫性がなく、スケーリングしません。15人のブランドガバナンスチームがいるエンタープライズクライアントを見てきました。地域オフィスと代理店パートナーによって生産されるアセットの量に追いつくことができませんでした。

AIブランドコンプライアンスチェックの対象

  • ロゴの使用 ──正しいバージョン、最小クリアスペース、歪みなし、承認された色変種のみ
  • 色準拠 ──色は承認されたパレット内にありますか?アクセシビリティのための十分なコントラスト比はありますか?
  • タイポグラフィ ──ブランドガイドラインごとの正しいフォント、重み、サイズ
  • イメージガイドライン ──多様性表現、禁止コンテンツ、スタイルの一貫性
  • レイアウトルール ──マージン要件、グリッド準拠、階層
  • 法的/規制 ──必須免責事項、著作権表示、年齢ゲート

ブランドコンプライアンスパイプラインの構築

実装した最も効果的なアプローチは、確定的チェックとAI駆動型分析の組み合わせを使用しています:

class BrandComplianceChecker:
    def __init__(self, brand_guidelines: BrandGuidelines):
        self.guidelines = brand_guidelines
        self.vision_model = MultimodalModel('gpt-4o')
    
    async def check_asset(self, asset: Asset) -> ComplianceReport:
        checks = await asyncio.gather(
            self.check_colors(asset),          # 確定的:抽出と比較
            self.check_logo_usage(asset),       # AI:ロゴ検出、クリアスペース測定
            self.check_typography(asset),       # ハイブリッド:OCR + フォント検出
            self.check_imagery_guidelines(asset), # AI:コンテンツ分析
            self.check_accessibility(asset),    # 確定的:コントラスト比
            self.check_legal_requirements(asset) # AI:必須免責事項の検出
        )
        
        return ComplianceReport(
            asset_id=asset.id,
            overall_status=self._aggregate_status(checks),
            checks=checks,
            auto_fixable=[c for c in checks if c.can_auto_fix],
            requires_human_review=[c for c in checks if c.confidence < 0.9]
        )
    
    async def check_colors(self, asset: Asset) -> CheckResult:
        extracted = await extract_color_palette(asset)
        violations = []
        for color in extracted.dominant_colors:
            closest_brand = self.guidelines.find_closest_color(color)
            delta_e = color_difference(color, closest_brand)
            if delta_e > 5.0:  # CIE Delta Eしきい値
                violations.append(ColorViolation(color, closest_brand, delta_e))
        
        return CheckResult(
            check_type='color_compliance',
            passed=len(violations) == 0,
            violations=violations,
            can_auto_fix=True  # 色はプログラム的に調整可能
        )

can_auto_fixフラグに注目してください。いくつかのコンプライアンスの問題──微妙に外れたブランド色や不足している法的免責事項など──は自動的に修正できます。その他、不適切なイメージのような問題には、人間の判断が必要です。システムは両者を区別すべきです。

実世界の精度数

私たちの実装経験と公開されたベンチマークから:

  • ロゴ検出精度:ファインチューニングされたモデルで94-97%(小さい/部分的なロゴの場合は~85%に低下)
  • 色準拠:99%以上(これはほぼ確定的です)
  • タイポグラフィ検出:88-92%(フォント識別はまだ完全ではありません)
  • コンテンツガイドライン準拠:85-91%(最も曖昧な категория──「これはブランド的に感じますか」は本質的に主観的です)
  • 誤検知率:フラグが付いた違反の8-12%が不正である可能性があります。人間レビューワークフローを計画します。

AI駆動型DAMレイヤーの構築アーキテクチャ

2つのパスがあります:組み込みAI機能を備えたDAMプラットフォームを購入するか、既存のストレージおよび配信インフラストラクチャの上にAIレイヤーを構築するかです。ほとんどのエンタープライズクライアントに対して、私は後者を推奨しています。理由は次の通りです。

モノリシックなDAMプラットフォームは、それらのAI機能、それらの価格設定モデル、およびそれらのリリーススケジュールにあなたを閉じ込めます。コンポーザブルなアプローチを使用すると、より良いモデルが出荷されるときに(そしてそれらは常に出荷されます)それらを交換でき、コストを細粒度で制御でき、あなたが既に使用しているあらゆるヘッドレスCMSとフロントエンドフレームワークと統合できます。

リファレンスアーキテクチャ

┌─────────────────────────────────────────────────┐
│                  フロントエンドレイヤー            │
│   (Next.js / Astro / React)                     │
│   アセットブラウザ、検索UI、コンプライアンスダッシュボード │
├─────────────────────────────────────────────────┤
│                  APIゲートウェイ                  │
│   (Node.js / エッジ機能)                         │
├──────────┬──────────┬──────────┬────────────────┤
│  検索    │  取り込み │ コンプライアンス│  配信        │
│  サービス │  パイプライン│  サービス   │  (CDN)      │
├──────────┴──────────┴──────────┴────────────────┤
│                  データレイヤー                    │
│  ベクトルDB │ Postgres │ オブジェクトストレージ │ キャッシュ  │
│  (Pinecone)│ (メタデータ)│ (S3/R2/GCS)    │ (Redis) │
├─────────────────────────────────────────────────┤
│              AIサービスレイヤー                   │
│  OpenAI API │ Google Vision │ カスタムモデル  │
│  埋め込み    │ 自動タグ付け   │ ブランドコンプライアンス │
└─────────────────────────────────────────────────┘

取り込みパイプラインはこのシステムの心臓です。すべてのアセットアップロードは非同期ワークフローをトリガーします:

  1. 元のアセットをオブジェクトストレージに保存
  2. 画像(サムネイル、Web最適化バージョン)を生成
  3. AIタグ付けパイプラインを通す
  4. ベクトル埋め込みを生成
  5. ブランドコンプライアンスチェックを実行
  6. 検索レイヤーにすべてをインデックス化
  7. コンプライアンスの問題について関連チームに通知

これはイベント駆動型である必要があります。単一のビデオアセットのタグ付けとコンプライアンスチェックには30-90秒かかる可能性があるため、アップロード時にそれを同期的に実行しないでください。

AIモデルとサービスの選択

2026年のモデルランドスケープは、より良く、より混乱しています。DAM特有の実際の見方は:

機能 最良のオプション(2026年) 1000アセットあたりのコスト 注釈
画像タグ付け GPT-4o、Gemini 2.0 Flash、Claude 3.5 Sonnet $2-8 Gemini Flash最高の価格/パフォーマンス
ビデオ分析 Gemini 2.0 Pro(長コンテキスト)、GPT-4o $15-60 ビデオは高価、バッチ処理
埋め込み OpenAI text-embedding-3-large、Cohere embed v4 $0.50-2 セマンティック検索品質に重要
画像埋め込み SigLIP、OpenCLIP、Jina CLIP v3 $0.20-1(自己ホスト) オープンソースのオプションは優れています
OCR Google Document AI、Azure Document Intelligence $1.50-5 Googleは混合レイアウトで少し良い
ブランドコンプライアンス ファインチューニングGPT-4oまたはClaude +確定的チェック $5-15 あなたのブランドガイドラインがコンテキストとして必要

重要なコスト削減のヒント:すべてのアセットで最も高価なモデルを実行しないでください。階層化されたアプローチを使用してください──最初は安い/速いモデルで基本的なタグ付け、必要な場合のみ高価なモデル(高価値アセット、コンプライアンスエッジケース、信頼度低結果)。

ヘッドレスCMSとフロントエンドフレームワークとの統合

AI駆動型DAMは、コンテンツ作成と公開ワークフローに深く統合されている場合にのみ有用です。ここがヘッドレスアーキテクチャが本当に輝く場所です。

ヘッドレスCMSセットアップを実行している場合、DAMはCMSがアセット選択、検索、およびコンプライアンス検証のために呼び出すことができるクリーンなAPIを公開するべきです。エディターはコンテンツ編集インターフェースを離れてアセットを見つけて検証するべきではありません。

フロントエンド配信については、通常Next.jsまたはAstroでアセットブラウザコンポーネントを構築し、DAMの検索APIに直接接続します:

// CMS統合用のアセットピッカーコンポーネント
export function AssetPicker({ onSelect, filters }: AssetPickerProps) {
  const [query, setQuery] = useState('');
  const { data: assets, isLoading } = useSemanticSearch(query, {
    ...filters,
    brandCompliant: true, // デフォルトでは準拠したアセットのみを表示
  });

  return (
    <div className="asset-picker">
      <SearchInput
        value={query}
        onChange={setQuery}
        placeholder="あなたが探しているものを説明してください..."
      />
      {!isLoading && (
        <AssetGrid
          assets={assets}
          onSelect={(asset) => {
            trackAssetUsage(asset.id); // アナリティクス!
            onSelect(asset);
          }}
          showComplianceBadge
        />
      )}
    </div>
  );
}

brandCompliant: trueデフォルトフィルターは微妙ですが重要です。デフォルトでは、エディターはコンプライアンスチェックに合格したアセットのみを表示します。彼らは適切な権限でこれをオーバーライドできますが、安全なパスはデフォルトパスです。

コストの現実とパフォーマンスベンチマーク

実数で話しましょう。500,000の既存アセットと月に5,000の新しいアップロードを持つ中規模エンタープライズの場合:

コンポーネント 月間コスト(推定) 注釈
初期バックフィル(500Kアセット) $3,000-8,000(1回限り) より安いモデルのバッチ処理
継続的なAI処理(5K/月) $200-600 階層化されたモデルアプローチ
ベクトルデータベース $70-200 Pinecone ServerlessまたはWeaviate Cloud
オブジェクトストレージ(10TB) $230(S3) / $150(R2) Cloudflare R2は出力料金がありません
CDN配信 $100-500 トラフィック量に大きく依存
計算(取り込みパイプライン) $150-400 サーバーレス機能またはコンテナ
合計継続的 $750-1,900/月 初期バックフィル後

$50,000-200,000/年の典型的エンタープライズDAMプラットフォームライセンスとAIアドオンを比較すると、コンポーザブルアプローチは非常に魅力的に見え始めます。もちろん、あなたはお金をエンジニアリング時間と交換しています──これを自分で構築し維持することは無料ではありません。それは専門の代理店と協力すると、フルタイムML エンジニアリングチームを雇いたくないチームにとって経済学が機能する場所です。

パフォーマンスベンチマーク

実装から:

  • セマンティック検索レイテンシ:p50 = 85ms、p95 = 210ms(Pinecone Serverless、500Kベクトル)
  • 画像自動タグ付け:画像当たり2-4秒(Gemini 2.0 Flash)
  • ビデオ処理:1.5-3xリアルタイム(30秒ビデオは45-90秒かかる)
  • ブランドコンプライアンスチェック:画像アセット当たり3-8秒
  • 完全取り込みパイプライン(画像):8-15秒エンドツーエンド
  • 完全取り込みパイプライン(ビデオ):60秒クリップで2-5分

FAQ

2026年のデジタルアセット用AI自動タグ付けの精度はどのくらいですか? 標準オブジェクトとシーン認識については、GPT-4oやGemini 2.0などの現在のマルチモーダルモデルの精度は一貫して95%以上です。カスタム分類マッピング──あなたのビジネスに固有のタグが必要──は通常、適切なファインチューニングまたはフューショットプロンプティングで88-94%の精度を達成します。残りのエッジケースは、ほとんどの本番システムに含まれている人間ループレビューキューで最良に処理されます。

DAMでのキーワード検索とセマンティック検索の違いは何ですか? キーワード検索は完全な用語と一致します──「秋のランドスケープ」を検索すると、これらの正確な単語でタグ付けされたアセットのみが見つかります。セマンティック検索は、あなたのクエリとすべてのアセットメタデータをベクトル埋め込みに変換し、意味を捉えます。したがって「温かい色の秋のシーン」を検索すると、言葉は異なりますが「秋のランドスケープ」というタグが付いたアセットと一致します。実際には、時々SKUまたはファイル名の完全一致が必要なため、両方(ハイブリッド検索)を望みます。

AIは本当にブランドコンプライアンスを自動的にチェックできますか? はい、ただし注釈があります。色パレット準拠とコントラスト比のような確定的チェックはほぼ100%正確です。ロゴクリアスペース検出やイメージガイドライン準拠のようなAI駆動型チェックは、ガイドラインがどの程度具体的かに応じて85-95%の精度に達します。最良のアプローチは自動チェック、フラグが付いたの問題と実装でのレビューです。ほとんどの組織は手動ブランドレビュー作業で60-80%の削減を見ています。

既存のDAMにAI機能を追加するのにいくらかかりますか? 中規模な組織(500Kアセット、月5K以上のアップロード)の場合、初期バックフィル処理で$3,000-8,000、継続的なAI処理、ベクトルデータベース、インフラストラクチャで月$750-1,900を期待してください。これは組み込みAIを備えたエンタープライズDAMプラットフォーム(通常年$50K-200K)よりかなり少ないです。トレードオフは、コンポーザブルアプローチが構築と維持するためのエンジニアリング努力を必要とするということです。

DAM自動タグ付けに最適なAIモデルは何ですか? Google のGemini 2.0 Flashは2026年の画像タグ付けで最高の価格対パフォーマンス比を提供しています。複雑な分析やブランドコンプライアンスについては、GPT-4oとClaude 3.5 Sonnetより細かい結果を生成します。ビデオについて、Gemini 2.0 Proの長いコンテキストウィンドウはマルチ分単位のクリップをよく処理します。ベクトル埋め込みを生成するために、OpenAIの text-embedding-3-largeおよびオープンソースオプションSigLIPは両方とも強力です。

多言語アセットライブラリのセマンティック検索を処理する方法は? text-embedding-3-largeやCohere埋め込みv4のような最新の埋め込みモデルは本質的に多言語です。ドイツ語でタグ付けされたアセットはベクトルが言語を超えて意味をキャプチャするため、英語のクエリで見つけることができます。これはグローバル組織のキーワード照合上のベクトルベース検索の最大の実践的な利点の1つです。テストでは、クロス言語検索精度は同言語精度の5-8%以内です。

カスタムAI DAMを構築するか、既存プラットフォームを購入するべきですか? それはあなたのスケールと技術的機能に依存しますします。100,000未満のアセットを持ち、小さなチームを持っている場合、Bynder、Brandfolder、またはCloudinary の組み込みAI機能を備えたDAMなどのプラットフォームは意味があります。数百万のアセットを管理し、カスタムコンプライアンスルールが必要であるか、既に統合したいヘッドレスアーキテクチャを既に持っている場合、コンポーザブルAIレイヤーを構築するとより多くの制御と一般的に低い長期コストが得られます。ハイブリッドアプローチ──ストレージ/配信のための軽量DAMの使用と、カスタムAIサービスの追加──がますます人気になっています。

AI駆動型DAM機能の実装にはどのくらいの時間がかかりますか? AI APIとベクトルデータベースの経験を持つチームの場合、自動タグ付けとセマンティック検索を備えた基本的な実装は6-8週間で本番対応できます。ブランドコンプライアンスチェック追加は追加4-6週間追加します。特定のブランドガイドラインをエンコードし、エッジケースを処理する必要があるためです。初期アセットバックフィル(既存アセットをAIパイプラインを通す処理)は、ライブラリサイズに応じて通常1-3週間実行します。特定のタイムラインについて話し合いたい場合、複数のエンタープライズチームはこれらの実装をプランニングと実行するのを支援しました。