※本記事は2025年4月11日に米国で公開された Salesforce execs on guilt over AI use at work – Salesforceの抄訳です。本記事の正式言語は英語であり、その内容および解釈については英語が優先されます。
AI(英語)と自律的にタスクを実行できるAIエージェントは、現代の従業員にとって急速に不可欠なツールになりつつあります。しかし、調査によれば多くの従業員がAI活用に不安を感じ、後ろめたささえ感じていることが示されています。Slackが17,000人のデスクワーカーを対象に実施した最近の調査では、大多数(76%)がAIのエキスパートになりた
いと回答している一方で、ほぼ半数(48%)が、職場の一般的な業務でAIを使用することを上司に伝えることにためらいがあると回答しています。
調査によれば、従業員は職場でAIを使用していることを上司が認識した場合、「ズルをしている」「怠けている」「力量不足」とみなされることを懸念しています。エグゼクティブの99%が来年のAI投資を計画しているなか、企業は従業員がAIを活用して効率性や生産性を高め、その他のメリットを得られるようにするには、どのような権限を与えたり、活用を後押しする環境を整えていけばよいのでしょうか。
混沌とした状態
このような懸念に対処していくためには、デジタル労働力 (24時間365日稼働し、自律的にタスクを完了するAIエージェント)の台頭と、それが労働力に与える影響を認識することが重要です。Salesforceの 人材育成および開発担当EVP、ロリ・カスティーリョ・マルティネス(Lori Castillo Martinez)は次のように述べています。「デジタル労働力は企業の運営方法を根本的に変えつつあり、私たちのすべての仕事に変化をもたらしています。不正行為をしているように感じたり、AIツールの精度に不安を感じたりと、人々が不確実性を感じていることは当然です。なぜなら、AIツールはすべて新しく、これまでとは大きく異なるからです」
AIのエキスパートでジャーナリストのクリス・ストーケル・ウォーカー(Chris Stokel-Walker)氏は、講演活動や著書「How AI Ate The World」の執筆を行っており、AIと仕事を取り巻くルールに関して「a vacuum of uncertainty(混沌とした状態)」があると指摘しました。「AIを使うべきかどうかについて、社会全体で確立された道徳規範が欠如している」とウォーカー氏は説明し、これは「企業や組織のAIに対する理解不足」に起因するとしています。
ウォーカー氏は、多くの企業で、この不確実性が混乱を招いていると指摘し、次のように述べています。「上司に知られたら、いわゆる”はみ出し者”のように扱われるのではないかと心配し、AIは秘密裏に利用されているというケースが多く確認されています」
透明性、トレーニング、信頼の文化を構築
マルティネスは、マネージャーがまず取り組むべきことはこの問題を解決することだと考えています。従業員がAIを安心して活用するためには、経験を通して学ぶことができる、オープンで透明性のある文化を築くことが不可欠だと述べています。マルティネスはSalesforceが四半期ごとに開催している「Agentforce Learning Days」を例に挙げました。これは、従業員が同僚と共に新しいAIツールを試すことができる、オープンで批判のない学習の日で、従業員の間でよくあるもう一つの懸念、つまりAIを安全かつ効果的に活用する方法を学ぶ時間が足りないという懸念を払拭することにも役立っています。
Salesforceのプロダクトリサーチ&インサイト担当バイスプレジデントで、Slack調査を監督したルーカス・プエンテ(Lucas Puente)もマルティネスに同意しています。プエンテは次のように述べています。「職場でAIツールやAIエージェントを効果的に活用するということは、AIの活用をオープンにし、自らがリーダーとしてどのように活用しているか、そして周囲にどう活用を促しているかを明確に示すことを意味します」
職場でAIツールやAIエージェントを効果的に活用するということは、AIの活用をオープンにし、自らがリーダーとしてどのように活用しているか、そして周囲にどう活用を促しているかを明確に示すことを意味します
Salesforce プロダクトリサーチ&インサイト担当バイスプレジデント、ルーカス・プエンテ(Lucas Puente)
プエンテは次のように述べています。「データから、信頼されていると感じている従業員と、AIを活用している従業員の間には、非常に明確な相関関係があることがわかりました。マネージャーとして、チームのメンバーが特定の業務においてAIを使っていても、それがあらかじめ合意されている内容であれば、『不正行為をしている』とは感じません」
プエンテは、アンケートの異なる回答を分類したり、後で逐語的な例を探したりするためにAIエージェントを活用することで、多くの時間を節約できたと明かしました。これらの措置は、「彼らが何らかの不正行為をしているとは思っておらず、チームや上司にも、AIをこのように活用していることを明確に伝えています。これはやましい秘密のようなものでもありません」と述べ、「人々が後ろめたさを感じないように、ある程度の安心感を与えること」の必要性を強調しました。
AIツールに割り当てるタスクをオープンに
マルティネスは、AIエージェントに割り当てるタスクを具体的に明確化すること、そしてプエンテと同様に、その使用についてもオープンにすることの重要性を強調しました。Salesforceの7万人の従業員のキャリア形成とスキル向上を支援する立場にあるマルティネスは、様々なタスクの効率化にAIツールを活用していますが、それは特定のタスクや周辺的なタスクに限られています。マルティネスは「実際には、これらのツールは人間のスキルや判断力と組み合わせて使用することで最も効果を発揮します」と指摘しました。
マルティネスはAgentforceを活用して、チームのパフォーマンス評価のためのエビデンス収集にかかる時間を節約し、「V2MOM」プロセス(Salesforce CEOのマーク・ベニオフが開発した戦略計画と目標設定のフレームワーク)の策定をしています。マルティネスは次のように述べています。「パフォーマンス評価はAIやエージェントから直接得られるものではありません。なぜなら、これらの評価は『複数の情報源と経験』に基づいているからです」しかし、Agentforceを使えば、適切なコンテキストとデータを活用することで、より情報に基づいた意思決定をより迅速に行うことができます。
例えば、マルティネスがV2MOMを作成する際、Agentforceは他のリーダーのV2MOMを自動的に検索し、共通のワークストリームと連携すべき領域を特定します。昨年は、このプロセスの手作業がはるかに多く、マルティネス自身が数百ものV2MOMを個別に検索して読む必要がありました。
さらにプエンテは次のように説明しています。「AIを使うべきか、使わないべきかという二者択一の問題ではなく、具体的にどのような仕事が遂行されるべきか、AIを活用して生産性を向上できる具体的なユースケースは何か、という点を非常に繊細に見極めることが重要だと思います」
プエンテは、AIに不得意なタスクを任せることは、経験の浅い従業員に仕事を与えるのと同じようなものだと例えました。プエンテは次のように述べています。「私たちはAIに『調査』分析全体を任せているわけではありません。AIはまだ分析全体が得意ではありません。しかし、特定のこと、特に非常に限定的なユースケース、例えばアンケートの質問のブレインストーミングや自由回答形式の回答の分析などを非常に得意としています。人間に得意と不得意があるように、AIも成功するように設定する必要があります。人間を成功に導くように、AIもそうする必要があります」
必要に応じて指示
最も利用されているAIチャットボットツールの一つ(英語)であるChatGPTのような大規模言語モデル(LLM)は、Google検索よりも強力な会話形式で、直接的な回答、要約、提案、説明を提供します。しかし、LLMは主に公開されているコンテンツからなる膨大なデータセットでトレーニングされているため、ビジネス用途での有用性は限られています。
さらに、ChatGPTはユーザーが入力したテキストを使用してモデルのトレーニングを行います。独自のデータがこれらのモデルに漏洩し、トレーニングに使用されないようにするため、ユーザーはアプリの設定でオプトアウトする必要があり、セキュリティ保護がされていないLLMに機密性の高いテキストを入力することが不適切な場合を認識する必要があります。
この共通のパラダイムこそが、プエンテが特定の種類のAI利用について明確で厳格なルールを定めることが不可欠だと考えている理由です。 プエンテは「マネージャーや企業のリーダーは、AIをどのような用途に使うべきか、そして使うにはまだ不安がある領域について、非常に明確な指示を出す必要があります」と警告し、プライバシーや機密データの利用といった問題を挙げ、状況に関わらず特定のAIツールの使用が許容されない場合もあると指摘しています。
Salesforceの長年にわたるパートナーであるCertiniaの最高製品技術責任者(CPTO)であるラジュ・マルホトラ(Raju Malhotra)氏によると、これほどのリスクレベルを考えると、従業員がAIに不信感を抱くのは当然としています。マルホトラ氏は次のように述べています。「これほど画期的な新技術に、ある程度の不信感を抱いても、誰も驚くべきではないと思います」
こうした不信感に対処するため、マルホトラ氏は透明性と堅牢な安全対策の必要性を強調しました。「これは、過去に登場した数多くの新技術を象徴するものです。しかし、SalesforceやCertiniaを含むすべてのテクノロジープロバイダーにとって、これはまさに警鐘であり、潜在的なリスクを真摯に受け止め、データプライバシー(英語)、データの信頼性、そしてデータが実際にどのように使用されるかについての明確なコミュニケーションを確実に行うべきと考えています」と、マルホトラ氏は述べています。
これは、過去に登場した数多くの新技術を象徴するものです。しかし、Salesforce
Certinia 最高製品技術責任者 ラジュ・マルホトラ(Raju Malhotra)氏
Certiniaを含むすべてのテクノロジープロバイダーにとって、これはまさに警鐘であり、潜在的なリスクを真摯に受け止め、データプライバシー(英語)、データの信頼性、そしてデータが実際にどのように使用されるかについての明確なコミュニケーションを確実に行うべきと考えています
Salesforceは、AIの倫理的かつ責任ある使用に関する明確な原則をいち早く公表(英語)し、「利用規約」では、人間による最終判断なしにハイリスクのユースケースにAIを使用することは適切ではないと、従業員への明確なガイドラインを定めています。また、当社独自のデジタル労働プラットフォームであるAgentforceには、Einstein Trust Layerが組み込まれています。このレイヤーは、CRMデータに基づいてAIの応答を検証することで精度を高め、有害性検出機能によって有害な出力を軽減します。そのため、従業員は推測する必要はなく、使用するツールそのものに安全のためのガードレールがが組み込まれています。
人間とAIが共に成功を牽引
多くの職場において、AIを活用するべきかどうかという二者択一の問いに対する答えは既に出ています。プエンテは次のように述べました。「私たちは一方通行の道を歩んでいます。AIがかつてないほど減少した時代に戻ることは決してないでしょう」
AIが人間の従業員に取って代わるかどうかという、不安を抱かせる問いについても同様です。マルティネスは次のように述べています。「『AIが人間の労働者に取って代わるのだろうか?』と懸念されることもあると思いますが、私はAIをむしろ役割の拡張として捉えています。エージェント型AIは人間に取って代わるものではなく、人間とAIがどのように協働するかを再定義するものなのです」
つまり、企業にとって喫緊の課題はAIの活用を開始するべきかどうかではなく、従業員やマネージャーがAIを活用してその影響力を倍増させることを推進することなのです。これまで見てきたように、AIを適切に活用するには、従業員が雇用主からAIツールの適切な使用に関する具体的な指導とトレーニングを受けることが重要です。そうして初めて、不正行為、怠慢、能力不足といった従業員の懸念は完全に払拭されるでしょう。
プエンテは次のように述べています。「スペルチェックを使う人がズルをしているとか、Googleマップを使って探している店を探す人が怠け者とか考える人はいません。こうした技術は私たちの生活や仕事に深く根付いています。AIはそこに近づいていますが、まだ完全には到達していないのです」
詳細情報:
本記事、または公式に言及されている未提供のサービスや機能は現在利用できないものであり、予定通りに、または全く提供されない可能性があります。お客様は、現在利用可能な機能に基づいて購入をご判断くださいますようお願いいたします。