AI で社内文書を書かれても許せるか? 進む DX と踊る AI

***

ビジネスメールを書いてください。

メールの目的は、上司に出張での接待を経費として認めてもらうことです。

フォーマルな文章で、「通常とは異なる申請で申し訳ございませんが」と添えてください。

***

 

これは、誰でも使える AI のチャットシステム「ChatGPT」へ私が書いた命令文である。上司へ通常ルール外の経費精算を申請するのは、部下としてもストレスのかかる状況だ。文面を考えるのも、通常であれば数10分かかってしまうかもしれない。

 

だが、ChatGPT は10秒程度で以下の文章を出してくれた。

もちろん、この文章が満点とは言いがたい。「尊敬する◯◯さん」なんて、日本のメールではまず使わない作法だろう。だが、少し手直しすれば十分使えそうだ。

 

このメール文は、単なる事例ではない。実際に営業や日程調整、謝罪などさまざまなシーンで、ChatGPT にメールを書かせる社員は増えている。

ChatGPT が見せる「本物のDX」

これまで、DX という言葉が空回りしてきた大手企業では、ひとまずツールを導入して、社内で使えるようにするまで数ヶ月以上の訓練を費やしてきた。トップダウンで DX を主導しようにも、きれいな箱物だけが導入され、形骸化したツールの保守管理コストだけを支払うケースもあった。

 

だが、AIツールの ChatGPT はその前提を覆す。どんな社員でも必ず出くわすであろう「文字を書く」という作業を、簡単に代行できるツールだからだ。しかもその文章はネットに落ちていないから、コピー&ペーストだとはバレずに済む。さらに、ChatGPT は最新版でなければ無料で使える。

 

今すでに、部下や後輩が送ってきたメールは、ChatGPT によって書かれているかもしれない。

アイディア出しの DX として便利な ChatGPT

とくに ChatGPT が得意とするのは、アイディア出しのシーンだ。

 

事例として、「来期の新製品『3秒で溶ける衣類用洗剤』を販売するうえで、考えうるユーザー像を書き出してみて」と ChatGPT へ依頼してみた。

 

すぐに5パターンもの潜在的なユーザー像が列挙された。その中には「忙しい共働き夫婦」などすぐに予想がつくものから、「敏感肌ですぐに溶ける洗剤でないと肌が荒れる人」など、はっとさせられるユーザー像も並んでいた。これまでであれば、マーケターがお金をかけて詳細にわたる調査をし、初めて仮説を立てられた対象だ。

 

これを見て「マーケターは滅びる職業になる」などと安直に言うつもりはないが、少なくとも上司がさらっと「で、この3秒で溶ける洗剤が開発できたとして、誰に売れるの?」といったメールには、「あくまで仮説ではありますが」と前置きさえすれば迅速に返信できるだろう。

 

私たちがデスクワークをするうえで悩む時間を取られてきたのは、こういった思考が必要な業務だった。上司や先輩から投げかけられたふとした疑問に答えるため、過去のフォルダを漁ったり、別の社員からヒアリングしたり。仮説を出すにも材料がいる。そういった手間を、ChatGPT は一瞬で消してしまった。

部下が ChatGPT を使っても、責める意味はない

これから、部下や後輩、あるいは生徒たちが ChatGPT で次々にクリエイティブなアイディアを出してくるだろう。それを「怠けている」と責められるだろうか。Excel のマクロすらズルいからやめろと言う上司がいるくらいだから、ChatGPT を許せない人も確実にいるだろう。そういう企業では、部下がこっそりと ChatGPT を使うことになるだけだ。眼の前に計算機があるのに、わざわざ筆算で答えを出す人がいるだろうか。作業モニターを常時監視でもしない限り、この流れは止まらない。

 

どうあがいても、ChatGPT が今後欠かせないツールになっていくことは間違いない。AI によるイラスト描画ツールで一世を風靡した「Stable Diffusion」と合わせれば、プレゼン資料からイベント告知ポスター、稟議にカスタマーサポートまでお手のものだ。

ChatGPT が持つ最大の課題1「正確性」

とはいえ、ChatGPT には大きく分けて2つのリスクがある。1つ目は、情報の正確性だ。すでにChatGPT を使ってみたことのある人ならば、ChatGPT の無料版はとくにポンコツな答えを返すことがあるのを知っているだろう。

 

たとえば、「日本の5大商社について教えて」と私が ChatGPT に命令したところ、伊藤忠商事、三菱商事、三井物産、住友商事、そして双日が挙がってきた。双日は素晴らしい会社だが、現時点で多くの人が認識する5大商社の最後は丸紅である。

 

これくらいならまだ可愛いほうで、先日は「鈴木涼美の小説『ギフテッド』のあらすじを教えて」と記入したところ、小洒落たボーイ・ミーツ・ガールの恋愛SF小説として紹介された。実際の『ギフテッド』は自分を虐待した母の死に直面した女性の葛藤を巡る物語であり、ボーイ・ミーツ・ガールどころの騒ぎではない。

 

ChatGPT が現時点でこのレベルの正確性しか持たないのであれば、自分で文章の正確性を確認できる専門性を持った人間にしか使うことができない。アイディア出しには優れているとしても、データのリサーチや分析には厳しいはずだ。

 

編集部注:ChatGPTは、すでに学習した情報から質問に対する回答を返します。そのため、学習していない情報や、最新のニュース、専門的な分野などについては回答の精度が低くなる可能性があります。

ChatGPT が持つ最大の課題2「セキュリティリスク」

ChatGPT の常用に向けた課題の最たるものは、「情報セキュリティの信頼性」だ。ChatGPT の生産元である OpenAI は、2023年3月に有料会員情報の1.2%が漏洩したと明らかにした。*1 これでは大元のサービスでセキュリティリスクがあると判明しているに等しい。

 

また、ChatGPT の利用規約にはこのように記されている。

We may use Content from Services other than our API (“Non-API Content”) to help develop and improve our Services.

訳:当社は、当社の API 以外のサービスのコンテンツ(以下「API 以外のコンテンツ」)を、当社のサービスの開発・改善に役立てるために利用することがあります。

 

つまり、ChatGPT に我々が記入した情報は、サービスの開発・改善目的で再利用されうるという意味だ。こちらから OpenAI社へ申請すれば除外してもらえるが、「除外」がデータの削除を意味するとは限らない。

 

したがって、顧客情報や社内機密を入力した場合、それが他人の ChatGPT 画面に表示されるリスクもあるわけだ。仮に……という話だが、私が花王の社員だったとしよう。競合他社を分析するために、P&G の強み・弱みの分析を依頼したとする。そこに花王のデータを記載していれば、逆に P&G の社員が花王を分析したときに、そのデータが出てしまうかもしれない。なぜなら、ChatGPT は人間が入力したデータをもとに学習するからだ。

 

こういった状況を反映し、JPモルガン・チェース など一部企業では、ChatGPT の使用を制限している。*2 とはいえ利用を永遠に制限することは難しいため、独自に ChatGPT にセキュリティチェックを噛ませた、独自の社内ツールを導入すると思われる。

 

また、DLP(Data Loss Prevention=データ損失防止)ソリューションを導入することで、機密情報の送信を阻止することは可能だ。ただし、DLP の導入にはセキュリティエンジニアの力が必要なため、社内に専門性を備えた IT部門がなければ厳しいだろう。

ChatGPT によって必要となる「プロンプター」

最後に、ChatGPT が「誰にでも使える」という体裁でこの記事を書いたが、実際には嘘だということも書かねばならない。ChatGPT を始めとする AI を使いこなすには、的確な指示文が必要だ。

 

たとえば「よしなにして」とか「がっちゃんこ」といった、ビジネスを円滑に回す婉曲表現は使えない。代わりに「フォーマルな文体で、社内稟議を通すための文書を作成してください。文書には最低でも、目的・背景事情・製品概要・製品のユーザー像・製品発売までのスケジュールを含んでください」といった、AI が働きやすくするための指示出しが求められる。

 

これができる社員は、意外と少ないはずだ。そのため、今後は指示文を書ける人材が求められていくだろう。この指示文をプロンプトと呼ぶため、職業名としてはプロンプターになるだろうか。掲題は「AI で社内文書を書かれても許せるか?」だが、実際には「AIで社内文書をまともに書ける人間が、どれほど自社にいてくれるだろうか?」のほうが、よほど頭を悩ませる課題になるかもしれない。