来日したSalesforce 倫理的および人道的利用最高責任者のポーラ・ゴールドマンに聞く
AI、特に昨年から普及が進んでいる生成AIは、生産性とインサイトの提供という点において、ビジネスに大きなチャンスをもたらします。このようにAIには多くの利点がありますが、同時にビジネスにとってのリスク、社会にとってのリスク、そして国家安全保障にとってのリスクなど、様々なリスクももたらします。
ポーラ・ゴールドマン(Paula Goldman)は、Salesforceが倫理的および人道的利用オフィスを設立した直後の2019年から、本オフィスの最高責任者として責任あるAIと企業にとってのテクノロジーのあり方を主導してきました。
AIのイノベーションの速度が加速する一方でリスクへの脅威が高まり、各国では、AI関連の規制を定める動きが活発化しています。当社のようなテクノロジー企業による取り組みに加え、政府とも足並みを揃えて信頼できるAIの実現を推進していくことは、AIの未来を確かなものにするために非常に重要です。
日本でもAI事業者に向けたガイドラインが公開されたり、AIの安全性の評価手法を検討する機関が設立されたり、開発に携わる国内外の大規模事業者を対象とした検討が始まるなど、信頼性のあるAIに対する注目が高まっています。2024年 World Tour Tokyoを機に日本を訪れたゴールドマンに、安心、安全、かつ信頼できるAIについて聞きました。
Q. 倫理や人道の観点から、SalesforceはAIのリスクをどのように捉え、対応していますか?
私は、5年以上前にSalesforceに入社し、信頼できるテクノロジーのパイオニアとして取り組んでいます。直近では生成AIが大きな注目を集めていますが、私たちは生成AIが市場を席巻する以前からイノベーションの倫理的な意味合いについて考え、未来のAIの安全性と信頼性を確保するために取り組んできました。
高度なAIのリスクに対する多くの不安が生み出され、AIに対する議論が深まるなか、私たちのチームでは、特に以下の3つの取り組みに注力しています。
- 提供するプロダクトが安全性を担保する設計となるよう、製品チームやエンジニアリングチームと連携
- お客様が当社のプロダクトを使っていただく際にも、責任あるAIを実現するため、AIが搭載されたプロダクトの利用規定を策定
- 障がいのある方を含めた、さまざまな人々にテクノロジーのメリットを享受いただけるようにすること
そして、製品チームがAIのリスクを理解し、軽減できるよう、ガイドラインとして「信頼されるAIの原則」を策定しました。また、AIの利用規定(AUP:Acceptable Use Policy)の新しいガードレールや、倫理的に複雑な問題を理解し検討するための倫理的利用諮問委員会といった、ビジネス全体を通してこれらの業務を導くためのポリシーやプロセスを立ち上げました。
昨年には「信頼されるAIの原則」を更新し、企業が安全にAIを構築・導入できるよう、「責任ある生成AI開発のための5つのガイドライン」を作成しており、この急速に進化するテクノロジーと歩調を合わせ、新しいイノベーションを安心して採用するために必要なガイドラインやガードレールをお客様に提供し、信頼を確保するよう努めています。
Q. 日本でもAIのリスクに関する議論が始まっています。日本のAIの信頼性に対する考え方や信頼性のあるAIを実現するための施策をどのように見ていますか?
日本はAIに対する見方で米国や欧州と異なる部分もあり、それを興味深く感じています。たとえば、米国ではAIが人々から雇用を奪うといった懸念があがっていますが、一方、日本では同様の懸念がありつつも、少子高齢化社会においてAIを有効に活用して社会課題に取り組もうという期待感も高いと聞きます。
信頼性のあるAIを実現するための国の施策については、AI企業のイノベーションを柔軟に認めつつ、安全・安心を強調するガイドラインによる指針の提示や、自主的なリスクベースのアプローチを歓迎します。また、日本がAIガバナンスにおいて世界をリードする役割を果たすことを支持します。
日本政府が目指す、責任あるAI開発と利用という目標達成に向けて、当社の持つAIの知識をもって寄与できる機会があれば、それは喜ばしいことだと思っています。
Q. AIについて国が規制をかける動きが各国で出ています。この世界的な傾向についてはどのように見ていますか?
全世界的に各国政府がAIについての規制をかけていこうという意図は歓迎しますし、そのようなアクションを取っていることも歓迎します。AIの安全性を担保するためには政府の関与が必要になってくると考えています。特に以下の4つの点を強調したいと思います。
- リスクベースのアプローチ:深刻な結果をもたらすリスクが最も高い領域を見極め、有害なリスクが最も高いところに注意を払うことが求められます。
- AIシステムとAIモデルの区別:AIエコシステム全体を見た時に、モデルを作っている企業、アプリを作っている企業、AIアプリをユーザーに提供している企業など、色々な立場の企業や組織が存在しています。それぞれの責任範疇や立ち位置が異なるため、責務と役割を明確に分担することが必要です。
- データプライバシーに注意を払うこと。
- 法規制の制定は各国で実施しつつ、国を超えた全世界的な方針に沿って、グローバルで調整が取れた形で法規制を展開していくこと。
EUのAI規制法は、上記4点全てをカバーできる適切なものだと思います。リスクベースのアプローチもそうですし、それぞれのエコシステムにおける立ち位置について共有している点も含んでいます。EUではGDPRを設けていることもあり、データプライバシーを高いレベルで実施していることを全世界に示しています。責任あるデータがあってはじめて、責任あるAIを推進することができるので、データプライバシーの担保はAIにとっても最優先事項だと考えています。
また、米国において大統領令が出たことは喜ばしいことだと思います。なぜなら、政府機関が調達を含めた日々の業務を行う現場で、この大統領令で示された水準に沿ってAIが使用されていくようになるからです。この基準を満たしていない企業は入札に参加できず、政府機関でも採用されなくなるため、官民の両面で信頼できるAIがますます確立されますし、政府が率先することで民間企業に良い影響を与えると考えています。
Q. AIソリューションを提供している企業としてどのように国に働き掛けていく必要があると思いますか?
Salesforceは、AIテクノロジーの開発や提供を業界に先駆けて行うことよりも、安全、安心、信頼できる方法でイノベーションを実現することを最優先にしています。
私たちは、法規制や安全措置、ガードレールが設置されてもイノベーションを妨害することにはならないと考えています。むしろ、このような保護的な手段があることによって、さらにイノベーションが活性化していくと強く信じているのです。
Salesforceは、政府がこのようなアクションを取っていることを歓迎していますし、企業としてコミットメントしていくこと、自発的に政府の法規制づくりに賛同する民間企業となっていることも喜ばしい状況だと思います。私自身、Salesforceの倫理的および人道的利用最高責任者としての経験や知見を活かし、米政府の国家AI諮問委員会のメンバーとして、AIに関する助言を行っています。
さまざまな日本のAI企業も政府との対話を進めていると聞き、非常に喜ばしいことだと思っています。日本や米国に限らず、政府との対話の場において、企業や市民団体などの声を反映させることは重要ですし、政府側にAIに精通した人材が増えてきている動きも見えています。イノベーションと信頼を確保する最適な成果を導くためには、このように様々な側面から多くの方々が会話の場に関わっていくことがとても大事だと思います。