2025年6月4日にIAB テックラボがなかなかに面白い取り組みを公開した。
特に興味深いのは「webパブリッシャーさん、AIに好き勝手コンテンツを持っていかれるのはやめにしましょう、その規格を我々(IAB)が考えますね」というものだ(以下の1番)。本件を取り上げたDigidayの記事の内容も交えながら記していく。
Contents
発表の内容
- LLM Contents Ingest API Initiative
- 生成AI/LLMがパブリッシャーの記事を取得する入口を「許可制のAPI」に一本化し、以下を実現する技術フレームワーク策定するためのワークショップを開始。
• 取得ログの記録で利用透明性を確保
• 使用量に応じた従量課金で“フェアバリュー”を実現
• ブランド情報の誤表⽰を防ぐメタデータ管理を組み込む
一言でいうと:AI botに対する自動改札機(切符買ってくれたら通すよ。)
- 生成AI/LLMがパブリッシャーの記事を取得する入口を「許可制のAPI」に一本化し、以下を実現する技術フレームワーク策定するためのワークショップを開始。
- Containerization Project
- Open RTBの基盤をコンテナ技術で標準化し、以下のような次世代プログラマティック広告の効率と持続可能性を高めるワークショップを開始。
• SSP/DSPがリアルタイムで外部サービス(入札評価、詐欺検知など)を差し替え可能に
• ライブイベント等で発生するスケール/レイテンシー問題を緩和
• ネットワークプロトコル、計測、セキュリティ要件を“共通イメージ”として定義
一言でいうと:バラバラだったローカル線のレール幅、信号、規格を “全国統一の新幹線ネットワーク” に置き換える大工事
- Open RTBの基盤をコンテナ技術で標準化し、以下のような次世代プログラマティック広告の効率と持続可能性を高めるワークショップを開始。
個人的には特に1番のLLM Contents Ingest API Initiativeに注目したい
なぜ今APIか
生成AIは膨大な高品質コンテンツを燃料に急成長してきた。その裏でパブリッシャーは15%超のトラフィック減少に直面し、それに応じて広告収益も減ってしまっている話もある。IABも本発表内で以下のように述べている、影響はもはや看過できない。
-
AI検索要約により、パブリッシャーのトラフィックが最大90%減少
-
広告収益は年間約20億ドルの損失
-
ボットトラフィックが117%増加(1サイトあたり約505万件)
-
非表示のスクレイピングも多数(約189万件/サイト)
-
Googleからのリファラルが95.7%減少(8.63% → 0.37%)
-
広告収益の80.8%が上位10社に集中、11〜25位も11.0%を占有
そして、既存の著作権法ではスクレイピングを抑止できず、法廷闘争はコストと時間がかさむ。問題は「無断利用」ではなく「市場の失敗」だ。
-
- パブリッシャーの収益と権利をその場で即座に守る必要があるから
- 無制限クロールで広告・サブスク収益が流出中。
- ライセンス料を自動精算できる標準 API が止血剤となりえる。
- robots.txt では細かな条件も監査も無理だから
- 有料記事・速報・アーカイブごとに閲覧ルールや課金設定ができない。
- API ならアクセスログ・トークン化で「誰が何を読んだか」を可視化し、請求・真正性証明まで一括管理が可能
- 規制対応と AI 側の効率を同時に満たせるから
- EU AI Act (*) などで “出典の説明責任” が加速
- 構造化された API にすれば LLM の取り込みコストも帯域も激減し、削除要請も即反映――両者にメリット。
(*)EU AI法(EU AI Act)とは、EUが制定した世界初の包括的なAI規制法であり、2024年8月1日に発効。AIシステムの開発・運用を規制し、安全性を確保しながらAIの発展を促進することを目的とした枠組み
- パブリッシャーの収益と権利をその場で即座に守る必要があるから
APIのメカニズムといくつかの観点別Before After
-
アクセス統一:AI事業者は、botではなくAPI経由でコンテンツを取得。クローリングは許諾制へ移行。
-
利用ログ:誰が何を学習に使ったかをトークン単位で追跡。透明性が担保される。
-
課金モデル:使用量×品質指標で従量課金。RTBの考え方をデータライセンスに応用。
結果、AI企業は“質の良いデータを買うほどモデルが伸びる”インセンティブを得る。
| 観点 | 既存モデル | LLMインジェストAPI後 |
|---|---|---|
| 価値移転 | AI→パブリッシャーへ報酬ほぼ皆無 | 双方向。データが“商品”として価値を見出す |
| 競争軸 | データ量の囲い込み | データ品質と供給網の最適化 |
| ガバナンス | 統制の取れていない国別規制のつぎはぎ | 業界標準による自己規律(インフラ規制) |
パブリッシャーは“広告在庫の売り手”から“データプロバイダー”への転身を早々に検討すべきかもしれない。AIbotからの徴収に加え、自ずと大量の良質なデータを広告マーケットプレイス上に送ることになるので、DSPからのより高値の買付も期待できる。
ステークホルダー別インパクト
-
パブリッシャー:API実装コストは発生するが、従量課金収入+ブランド露出でLTV向上。中小は業界団体を通じ共同交渉するのが現実解。
-
AI開発者:ライセンス料上昇は避けられない。広く浅くの大量データ戦略から狭く深くの“データブティック”戦略へ舵を切る必要。
-
広告主/ブランド:出所の明確なデータに基づく生成コンテンツでブランドセーフティ向上。AIハルシネーションによる炎上リスクを抑制。
新たな競争優位の源泉
-
First-Partyコンテンツ在庫を多層タグで構造化し、API経由で提供。結局これが迫られる運命・・・
-
利用ログ×広告ログを突合し、AI由来ビジビリティを可視化。Ad Verification事業者の奮闘に期待。
-
データクリーンルーム連携で、API課金と広告効果を一枚のP/Lで把握。
LLM コンテンツ・インジェストAPIは、単なる“スクレイピング対策”ではない。
これはウェブの取引ルールを「広告在庫」中心から「コンテンツ在庫」中心へひっくり返す装置だ。そのインパクトは大きく分けて三つに集約できる。
考察
価格の主戦場が「インプレッション」から「ナレッジグラフ」へ
-
これまで広告の値段を決めてきたのは “誰に何回表示したか” だったが、これからは token/context/freshness といった「コンテンツの質と鮮度」が値札になる。
-
SEOも広告運用も、“インデックスに載せる速さ”より“インジェストさせる質”がKPIになる。
ウォールドガーデン vs. オープンウェブ、勢力図が再描画
-
Meta、OpenAI、Googleなど巨大プラットフォームは、API準拠を「ブランド信用」と「訴訟リスク回避」のコストとして抱え込む。
-
対抗して、NYTやNews Corpのようないわゆるプレミアムパブリッシャーが“プレミアム・データ連合”を組むシナリオが現実味を帯びる。
-
中小メディアは単独で渡り合えない。共同窓口で規模をかさ増しし、交渉力を増すしかない。
規制は“追認型”に変わり、標準を握った者がゲームを制す
-
APIが事実上の標準になれば、EU AI Actなどの法律も「API経由が原則」と書き込む流れになるのではなかろうか。民間の技術標準がそのまま事実上のルール化する構図だ。
- もし“APIを使わない=不当利用”という解釈が定着したら、日本勢は出遅れる。
早期に国際標準づくりへ参加し、ルール形成のテーブルに席を確保することが肝要である。


