ChatGPTとは2022年11月にOpenAI社によって開発・リリースされた、対応するタスクの広さや精度の高さが特徴の「対話型の生成AI」です。
「ChatGPT」はビジネスシーンでどう使われているのか。
ChatGPTは、下記のようなビジネスシーンにおいて活用されています。
・契約書、規程類など各種書類のデータの回答
・社内での技術的なものや事業アイデアの生成
・デジタル広告のオペレーションの原案作成
・分析・考察を支援し、レポート本文案を生成することでレポート執筆の効率化
・EC関連サービスにおいてユーザーが登録した商品情報をもとに、SNSの集客に利用できるPR文や商品説明文を自動生成
・次世代金融アドバイスサービス内で家計や不動産・年金・保険などに対応し、LINE上でユーザーが質問をするとアドバイスサービスが自動で回答
・電話商談の内容を文章もしくは箇条書き形式で要約
・特許情報やニュース、SNSの投稿から既存商品の新規用途の候補を生成
・自社のTwitterアカウントでChatGPTを活用。従来の手動運用に加え、ChatGPTによるAIチャットボットを利用し、障害情報や海外の有益な情報などを発信
・社内で蓄積されているナレッジを検索する自社システムを開発
といったように、各企業においてChatGPTによる幅広い支援が実装されています。皆さんの会社でも活用できそうな支援内容があったのではないでしょうか。
ここまでは企業としての活用方法に触れてきましたが、実際に使用する社員(個人)レベルでのリスクについて考えていきたいと思います。
「ChatGPT」使用時のよくあるリスクについて
1.不適切な発言や情報拡散のリスク
膨大なデータや学習機能によって、ChatGPTの受け答えの精度は向上しつつありますが、必ずしも完璧な情報を得られるとは限りません。ChatGPTは、情報が事実であるか否かよりも、単語が出現する頻度や関連性によって文章を作成するため、フェイクニュースや真偽不明な情報が含まれている場合があります。
また、人間と同様の判断力や倫理的な考え方は兼ね備えていないのも気をつけるべき点です。基本的に倫理に背く質問には答えないよう設定されていますが、情報元によっては不適切な発言をする可能性はゼロではありません。人種差別発言や不適切情報の拡散を多くの人が目にすることで、社会的な風評被害を起こす危険性が考えられます。
2.情報漏洩のリスク
ChatGPTの利用規約には、ログインユーザーが入力した情報を学習データとして活用することについて記載されています。そのため、利用規約に同意してChatGPTを使い始めた後は、入力した情報が学習データに取り込まれ、ほかのユーザーに表示される恐れがあるでしょう。
入力した情報を利用されたくない場合は、ChatGPTの設定で「オプトアウト」を選択することもできますが、本当に入力した情報が消えているかは不明です。機密情報や個人情報を入力すると、漏洩するリスクがあるため、情報管理をきちんと行う必要があります。
「ChatGPT」はあくまでサポート
人間の目でチェックが必要な優秀なアシスタント
ChatGPTはフィッシング詐欺などにも利用されるほど優秀な機能を持ち合わせていますが、利用の際は個人任せにせずにチェック体制を構築すべきだと考えます。個人の判断にはバラつきがあり、新入社員からベテラン社員まで同じ目線で利用できるとは限りません。
先日の東京都知事選の政策にも「都庁職員がChatGPTを使用することに問題があるか」という内容がありましたが、これについても予測できるリスクをしっかりと洗い出しした上での使用が求められます。
AIに仕事を任せるのではなく、上手く使って共存していくのが現段階ではベターな方法ではないかと考えます。
筆者もこの原稿をChatGPTで原案を作成しようと試みましたが、上手く使いこなせていないせいか、自分で考えた方が早いと思ってしまう古いタイプの人間でした。早く共存できるように日々精進していこうと思った次第です。皆さんの会社でもChatGPTをはじめとするAI技術を上手く活用し、業績に繋げられる日が訪れるように共に学んでいきましょう。
AUTHOR著者
ブランド&PRコンサルティング事業部
チーフマネジャー
植田 晃正
大手CDショップチェーン・外資系出版・世界的ファッションチェーンなど多数の業界へノベルティの企画・販売経験を持ち、顧客の潜在需要を読み取りクリエイティブな価値の提案を得意としている。特にアイテムプレゼンテーションの販売促進を通じ、顧客体験価値の向上に定評があり、新規開拓してきた企業は多数にのぼる。