
博報堂DYホールディングスは2024年4月、AI(人工知能)に関する先端研究機関「Human-Centered AI Institute」(HCAI Institute)を立ち上げた。
HCAI Instituteは、生活者と社会を支える基盤となる「人間中心のAI」の実現をビジョンとし、AIに関する先端技術研究に加え、国内外のAI専門家や研究者、テクノロジー企業やAIスタートアップなどと連携しながら、博報堂DYグループにおけるAI活用の推進役も担っている。
本格的なスタートを切ったHCAI Instituteを管掌する、博報堂DYホールディングスのCAIO(Chief AI Officer)である森正弥が、AI業界をリードするトップ人材と語り合うシリーズ対談を「Human-Centered AI Insights」と題してお届けする。
第7回は、AIセーフティ・インスティテュート所長 兼 SOMPOホールディングス株式会社執行役員常務 グループChief Data Officer 兼 損害保険ジャパン株式会社 執行役員 Chief Data Officerの村上 明子氏をお招きし、AIセーフティの必要性と日本のAI活用における可能性、人間とAIの関係性について語り合った。
保険とAIセーフティ・インスティテュートにおける活動の関連性
―――まず、村上さんのキャリアについて教えてください
村上
私のキャリアは、自然言語処理の研究者としてスタートしました。大学では物性物理を専攻していたのですが、卒業後に入社した日本アイ・ビー・エムでは、新たな研究テーマとして自然言語処理を選ぶことになりました。当時、情報系の専門知識を持っていなかったため、再度大学にも行かせてもらい、その頃、隣の研究室に松尾豊先生がいらっしゃって、一緒に輪読なども行いました。
日本アイ・ビー・エムでは、ちょうどAIシステム「Watson」の研究が始まった時期でもあり、私はその基礎的な部分を支援するとともに、SNSからの情報抽出やネットワーク分析などにも取り組みました。当時はディープラーニング前夜といえる時期で、ネットワーク分析がむしろ主流だったと思います。
それと並行して個人活動として行っていたのが「IT×災害」というテーマです。2011年の東日本大震災をきっかけとして「自分はITの人間なのだから、ITで役に立ちたい」と考えるようになり、ITエンジニアを災害支援に巻き込む取り組みを進めてきました。

損保ジャパンに参画したのも、このIT×災害というテーマに関連して、損害保険という仕事に興味を持ったからです。災害に遭われた方の一番のモチベーションは「元の生活に1日でも早く戻りたい」というものです。保険でお支払いする保険金は、元の生活に戻るための中核となります。保険金をお支払いするのに半年かかるのではなく、1週間でお支払いすることができれば、生活再建のスピード感も上がりますよね。そのような保険の効率化を、ITやデジタルといった私の専門性で支援できればと思いました。
森
IT×災害は災害対応の高度化にとどまらず、未来の防災社会をどう構築していくかにもかかわるテーマだと思います。保険とも結び付きますし、保険だからこそ入手できる情報を社会に還元できる可能性があるわけですね。

村上
どんなに安全に配慮しても、リスクをゼロにすることはできません。車の運転は事故が避けられません。一方で、リスクがありながらも、例えば車であれば早く移動できる、自分の好きな時間に移動できるという利便性もあります。そのリスクと利便性を天秤にかけつつ、もし万が一のことがあったときの費用をカバーし、安心を提供するのが保険の役割だと私は思っています。
実はこの「リスクと利便性」という構図は、AIにも通じるところがあります。AIを使うことで、皆さんの生活が便利になったり、できることが増えたりという利点がありますが、一方でリスクもあるわけですね。具体的にどのようなリスクがあり、どうやれば避けられるのか、もし避けられないとしたらどのような事態が発生するのかが分かれば、もっと積極的にAIを使えるようになります。
AIに関するガイドラインが必要とされるのは、「これを守れば安心して使える」という道しるべを示すためだと考えています。
西村
博報堂DYグループでも、「AIは使わないほうがいい」ではなく、できるだけビジネス実務の実態に即した注意点を踏まえて活用を推進する、というアプローチで動いています。
村上
「AIの一番のリスクとは何ですか?」という質問をよく受けるのですが、その答えは「AIのリスクを恐れてAIを使わないこと」だと答えています。会社であれば、他社がAIを活用しているのに自社だけ使わなければ効率も悪くなり、イノベーションも起こらなくなります。
森
確かにそうですね。19世紀後半にイギリスで「赤旗法」という法律が作られたのですが、この法律は当時発明されたばかりであった車が危険だということで、赤旗を持った人が車の前を歩き、その後ろをついていく形でなければ車は運転できないというものでした。このような法律を制定した結果、イギリスはモータリゼーションの世界的な潮流から遅れてしまい、アメリカが自動車産業においてブレークすることとなりました。
リスクがあるから使わない、ではなく、リスクをどうやって引き受け、マネジメントして安全を作り出していくかが重要ですよね。
広島AIプロセスからAIセーフティ・インスティテュートの設立へ
―――AIセーフティ・インスティテュートの設立背景や村上さんが所長に就任された経緯を教えていただけますでしょうか
村上
それまで「AIは技術者のもの」という認識が強かったのですが、2023年に「生成AI元年」と呼ばれるほど急激に広がりを見せました。実際に、2023年の1月に当時の当社CEOから「ChatGPTを使ってみたい」という相談を受け、保険会社のトップがAIを意識する時代となったことに衝撃を受けたことをよく覚えています。
同年5月に広島でサミットが開催される予定であり、ちょうど生成AI元年のタイミングであったことから「AIの安全性について整理して提言しましょう」ということで、岸田総理(当時)が広島AIプロセス(注)を提唱しました。
そこからイギリス・アメリカが相次いでAIセーフティの組織を設立し、日本でも岸田総理(当時)の指示の下、2024年2月にAIセーフティ・インスティテュートを立ち上げました。
注:2023年のG7広島サミットで立ち上げられた、AIに関するルール形成を協議する国際枠組み
森
イギリスでは、2025年2月に「AIセーフティ・インスティテュート」から「AIセキュリティ・インスティテュート」へと組織の名称を変更しました。これに併せて、フェイクニュースや表現の自由への対応についてプライオリティを落とすという動きも見られますが、どのようにとらえられていますか?
村上
イギリスでは、もともとAIセーフティ・インスティテュートの活動にナショナルセキュリティ(国家安全保障)に関する内容が含まれていませんでした。新たにナショナルセキュリティに取り組むためにこれらの優先度が下がってしまったというもので、フェイクニュースや表現の自由への対応の重要性が低くなったわけではないと考えています。
一方で、日本のAIセーフティ・インスティテュートでは、立ち上げ時点よりナショナルセキュリティについても考慮されています。
森
もともとヨーロッパはGDPR(General Data Protection Regulation:EU一般データ保護規則)の流れもありますし、ヨーロッパや日本、またアメリカのAIやデータ規制、あるいはガバナンスの在り方などは三者三様的に少しずつ異なりますね。
村上
今、様々な国がAIセーフティに関する組織の立ち上げを進めており、例えばフランスでは所長に国防省の関係者が就任しており、ナショナルセキュリティを特に重視しています。AIセーフティに関しては各国の考え方の違いが出やすいかなと思います。
西村
国防のような分野では安全が最重視されますが、当社の「生活者発想」という考え方では「安心」をどう提供するかも重視しています。
生活者が安心してAIを利用するためには、事業者側が適切に提供することが大切です。例えば人種や宗教、貧富の差による分断を煽らないような使い方や、権利者を尊重した使い方などをケアする必要があります。

村上
AIの安全性を考えるときに、ユースケースを先に考えるか、技術を先に考えるのかの違いを意識する必要がありますね。実は技術の領域だけでいえば、国防にAIを利用するのも、フェイクニュースに利用するのも同じです。
その技術のユースケースとして、国防に利用するのか、国民に還元するのかというのが、おそらく各国のAIセーフティ・インスティテュートの建付けにより異なるのだと思います。
ユースケースを考えたときに、日本の政府が目指しているのは、やはり人間中心のAIです。
森
AIの性能が上がっていくと、それに伴い新しいリスクも生まれます。例えば推論AIでは、サブタスクを行う中で当初の意図を曲解して違うことをやってしまったり、言われたことを実行するために想定していなかったことまでやってしまったりといったリスクがあります。
安全なAIの利用のためには、このような新たなリスクに対してアジャイルに対応していかなければならないと思うのですが、日本のAIセーフティ・インスティテュートではどのように進められているのでしょうか。
村上
前提として、AIが進化してもガードレールは必要だと考えています。例えば130キロや140キロのスピードを出した車がガードレールに突っ込んだら谷底に落ちてしまいますが、だからといって谷沿いを走る道にガードレールはなくていい、というわけはありませんよね。ガードレールは、普通に道路を走る方にとってはよい道しるべとなります。
一方で、130キロ出せる車が生まれたときにどうやって警鐘を鳴らすのかは、どうしてもいたちごっこになるのは仕方がありません。
そのため、「すでに顕在化しているリスクへの対処」と「今から起こるリスクを早く見つけるための体制づくり」という両輪が必要です。このうち前者は各種ガイドラインやAIセーフティに関するレッドチーミング手法ガイド(注)のような形で提供しています。AIセーフティに関するレッドチーミング手法ガイドについては、想定外のリスクを洗い出すことにも近しいので、後者の役割もありますね。
注:レッドチーミングとは、AIシステムの開発者や提供者が、対象のAIシステムに施したリスクへの対策を攻撃者の視点から評価する手法のこと

西村
技術の進化とともに人のユースケースも変わっていきます。従来、機械学習のAIであれば利用するのはエンジニアだけでしたが、生成AIは誰でも利用できてしまいます。ユーザーも使い方も制約がない中で、ガードレールの在り方は今までよりも難しいのではないでしょうか?
村上
その通りです。2024年2月にAIセーフティ・インスティテュートを設立した際によく聞かれたのが、「AIセーフティ・インスティテュートは認証を行う機関となるのか」というものです。しかし、これだけ速くAIの技術が進化している現在、不可能に近いと言えます。
物理的な製品であればある程度抑制できますが、ソフトウェアアップデートで変化していくAIに対しては更新の頻度も高く認証は効力を発揮しませんし、アップデートするたびに認証を取るというのも難しい話です。
もし認証をやるにしても、「透明性の高い組織で開発していること」「データの使い方を明らかにすること」「実施しているテスト方法」といった観点で、開発チームの健全性を見ることの方が有効と思われます。
西村
体制やプロセス、リソースのかけ方など、そこはやはり、ガバナンス全体の話になるわけですね。
村上
そうですね。気を付けなければならないのが、ガバナンスという言葉に嫌な印象を持つ方もいるということですね。IT技術者からは、ガバナンスは利用促進のための方法だと捉えられますが、一般市民や技術者ではない方にとっては異なります。「ガバナンス=統制」というネガティブなイメージではなく、AI活用を推進するための前向きなルール整備が求められます。
AI分野における日本の立ち位置とは?
―――AI領域における日本の立ち位置や、日本としての強みをどう生かしていくかについてお伺いできますでしょうか?
村上
私はやはり日本の強みは物理的なモノの技術力や生産能力、あともう一つはコンテンツ力だと思っています。例えば、ヨーロッパでは絵は写真の代わりに利用されていましたが、日本では絵を楽しむために描いていました。世界最古の小説を紫式部が書いたように、コンテンツを作るということにモチベーションをもつのは日本人の特性だと考えています。だからこそ、日本のアニメやサブカルチャーが注目されていて、それとAIが組み合わさることによる強みは必ずあると思います。
そのためには、AIを作った人だけが利益を得るのではなく、コンテンツを作った人の権利も保証できるようにしなければなりません。これはAIセーフティ・インスティテュートの活動というよりも、個人的に考えていることですね。
森
生成AIの学習データでも、権利の所在やクリアランスの問題は重要ですね。データに正当に対価を払って広く活用できる環境が整わないと、コンテンツの質も落ちてしまう恐れがあると思います。
村上
そうですね。例えば日本の声優さんの声質のまま英語やベトナム語になったりするアニメを作れれば、日本のアニメの世界観のまま海外でも楽しめるはずです。さらに、声優さんにも権利の対価が支払われる仕組みがあればいいと思うんですよね。
生成AIが生まれてからこの数年、整理が進んでいませんが、今後1、2年の間にこれらを整理するチャンスがあると思います。
森
一方で、AIが生成したコンテンツが氾濫すると、それとは別の「リアリティある作品」や「人間が作った価値」のほうがより求められるという現象も起きていますよね。
村上
時代は繰り返している気がしています。写真が発明されたら宮廷画家の仕事はなくなりますが、今の世の中に画家がいなくなったわけではありません。写実的な記録として絵を描く必要性はなくなったものの、芸術としての絵画が残っています。
これと同じで、記録としての文章を人間が作り出す必要はなくなったかもしれませんが、文学的な文章や詩には人間が作成する価値があるのではないでしょうか。
ただ、絵も詩も、私はAIが作ったものに人間が心を打たれてもいいのではないかと思うんですよね。

西村
著作権を管理する団体のように、AIで生成されたコンテンツにも適切なルールと仕組みを設けることで、創作者が報酬を得られるようにする道筋が作れればいいですよね。
村上
そうですね、日本は品質管理が得意な国民性もあって、この先、技術力とコンテンツ力を掛け合わせた強みを発揮できるんじゃないかと期待しています。
森
その他では、ものづくりのノウハウやデータの活用もポイントだと考えています。現状の推論AIは、数学や化学、物理学の因果関係のデータやロジックを学習し、学術領域、特に科学の領域においては優れた性能を示しています。ですが、ものづくりの現場で求められるエンジニアリングのデータは十分に入っていません。日本の製造業が持つデータを整備して、世界トップの品質をもった推論AIを作ることは、一つの勝ち筋ではないかと思います。そのためには、実際に作業を行っている方の暗黙知を可視化・形式化して、リアリティのあるデータ体系・論理体系として整備する取り組みも必要となりますね。
村上
職人技をどこまでデータ化して再現できるかは面白い問題で、例えば日本酒造りの責任者である杜氏(とうじ)の感覚をデータとして集めて工場生産している日本酒のメーカーさんもあります。日本の職人技が、職人さんが不在となってもAIの力で継続する社会ですね。
AIが作ったものに人は感動してもよい、という話をしましたが、今の職人さんの役割をAIが継承していくように、人とAIの関係性は興味深いと思います。
AIの利用において求められる人間のコントロール
森
人間とAIの関係について特に思われていることはありますか?
村上
日本人は、AIを「友達」のように捉える気質があると思います。たとえば『鉄腕アトム』や『ドラえもん』のように、AI的な存在が家族とは別の"信頼できるバディ"として描かれてきました。AIが人間にとって良いパートナーになる時代はすでに来ていると思います。
すでに私も「AI無しで昔はどのように仕事していたのだろう」と思っているくらいです。AIが得意とする部分を任せれば、自分の苦手なところを補えますし、逆に英作文をAIに添削してもらうように「自分を高めるための先生役」にも使えます。一方で、その使い方を誤ると自分はまったく学ばずにただAIに依存するだけになる恐れもあり、そこに能力格差が生まれるのではないかと感じています。
やっぱりある程度のリテラシーを身につけるためには、AIの使い方にガードレールを作らなければならない。10代で分別がつかないときにSNS上での大人からの悪い誘いをガードするのが親の役目であるならば、AIも同様に子供の成長を妨げないような範囲でAIを利用させる必要があります。
AIとの共生は未来としては明るいものの、それをいつ適切に使うかはある程度人間がコントロールすべきだと思います。
森
発達段階や目的、社会的な分野に応じて、AIをうまく使う、もしくは使わないということですね。
村上
はい。文化や政治体制によって「適切なガードレール」の内容が変わるのがAIの難しいところです。
これらを認識したうえでAIを使う必要があり、AIの安全性に関するルールは「人を殺してはいけない」「スピードを出しすぎてはいけない」といったルールと比較するとかなり複雑だと思います。
西村
今のAIやSNSは、自分に偏った回答しか出てこないという面もありますね。例えば食事だと親から野菜など食べたくないものも食べさせられますが、情報も同じです。好きな情報ばかりに触れていると、主体的な意思決定や判断が歪められるリスクがあります。こうした考え方は、アカデミアの先生方は「情報的健康」という概念を提唱されています。技術的な仕様としても「あなたの質問に対してはこういう意見もありますが、別な意見としてこういうものもあります」といったように、必ずプランBを入れる仕組みがあってもよいのではと思います。

森
情報的健康はまさに研究テーマでもありますし、今後の人間とAIの関係性においても考慮に値するところがありますね。
村上
過去、レコメンデーションエンジンの研究をしていたときに、まさに「セレンディビティ」という考え方がありました。Amazonのような購買サイトでは自分の買った商品に関連するものしかおすすめ表示されなくなりますが、消費者としてはまだ購入していない新しい商品を知りたいという気持ちもあるため、思いもよらぬ情報の提供が有効です。
一方で、注意しなければ「そもそも欲しい情報しか受け取りたくない」という状態になってしまう可能性もあります。過去、メディアがプロパガンダに使われてきた歴史もありますよね。SNSやAIにおいても同様のリスクがあり、これは先ほどのナショナルセキュリティにも関連してきます。
また、先ほども触れましたがAIの利用においてはリテラシーの問題もあります。安く利用できるAIと、高いけれども品質が高く、透明性もありガードレールもついているAIがあったときに、両者の違いが伝わらずに安い方を選んでしまう可能性もあります。結果として、プロパガンダの被害を受けてしまう可能性もあるでしょう。
森
生活者のためのAIや人間とAIの関係にも、オプションが必要ということですね。ただし、オプションの中から適切に選択するためには、情報的健康やリテラシーがないといけない。だから単純にオプションを用意するだけでなく、適切な選択のための活動をやっていくのかが大事だという学びを得ました。
本日はありがとうございました。

村上 明子
AIセーフティ・インスティテュート 所長
SOMPOホールディングス株式会社 執行役員常務 グループChief Data Officer
損害保険ジャパン株式会社 執行役員 Chief Data Officer
1999年日本アイ・ビー・エム(株)入社、同社東京基礎研究所において研究に従事。
2021年に損害保険ジャパン株式会社に転職、損害保険のデジタル・データの利活用の推進をしている。
2022年4月より同社執行役員CDO(チーフデジタルオフィサー)としてDXを牽引。
2024年より同社CDaO(チーフデータオフィサー)となり、2025年4月からSOMPOホールディングス株式会社執行役員常務グループCDaOと兼務、データ戦略を担う。
2024年2月、AI Safety Instituteの設立とともに、初代所長となる。損害保険ジャパンとは兼任となる。

森 正弥
博報堂DYホールディングス執行役員Chief AI Officer、
Human-Centered AI Institute代表
1998年、慶應義塾大学経済学部卒業。外資系コンサルティング会社、グローバルインターネット企業を経て、監査法人グループにてAIおよび先端技術を活用した企業支援、産業支援に従事。
東北大学 特任教授、東京大学 協創プラットフォーム開発 顧問、日本ディープラーニング協会 顧問。
著訳書に、『ウェブ大変化 パワーシフトの始まり』(近代セールス社)、『グローバルAI活用企業動向調査 第5版』(共訳、デロイト トーマツ社)、『信頼できるAIへのアプローチ』(監訳、共立出版)など多数。

西村 啓太
株式会社博報堂DYホールディングス
Human-Centered AI Institute所長補佐
The University of York, M.Sc. in Environmental Economics and Environmental Management修了、およびCentral Saint Martins College of Art & Design, M.A. in Design Studies修了。
株式会社博報堂コンサルティングにてブランド戦略および事業戦略に関するコンサルティングに従事。株式会社博報堂ネットプリズムの設立、エグゼクティブ・マネージャーを経て、2018年より博報堂DYホールディングスにて研究開発および事業開発に従事。