2023.08.07

ChatGPT(あるいはAI)との付き合い方。人材育成とAIのイマを考える。 – 田中淳子の『人材育成』応援ラジオ 書き起こし

本記事では、トレノケート株式会社で配信しているVoicy番組 「田中淳子の『人材育成』応援ラジオ」 から、好評をいただいた放送をピックアップして文字としてお届けします。

音声でお聞きになりたい方は、Voicy内チャンネル へアクセスしてください。

 

「田中淳子の『人材育成』応援ラジオ」 とは

パーソナリティは、人材育成に携わって37年、人材教育シニアコンサルタントの田中淳子が務めます。自社の人材育成を考える上でヒントとなるようなちょっとした知識やスキル、具体例など、人材育成にご興味・関心がある方向けに役立つヒントを毎日約15分でお話ししています。

 

今回は、#198 ChatGPT(あるいはAI)との付き合い方。人材育成とAIのイマを考える。【緊急鼎談:山下光洋/横山哲也/田中淳子(専門が異なる講師3人です)】 を取り上げます。

ChatGPTを中心に、AIと人材育成や研修の実施・運営との付き合い方について、田中淳子がファシリテーションを行い、IT講師の山下光洋と横山哲也の3人で鼎談を、GPT-4が公開されてから間もない2023年の4月前半に行いました。

 

※なお、読みやすさを意図して、会話の内容、趣旨を変えずに表現などを一部変更しています。

INDEX

目次

サブやパートナーして優秀なChatGPT

間違いがあるかもしれないAIの回答と、どう付き合うか

AIらしさと、人間らしさをそれぞれ活かす

サブやパートナーして優秀なChatGPT

田中

今日は「講師が考えるAIとの付き合い方」というテーマで、講師3人で会話をして行きます。よろしくお願いします。

横山

よろしくお願いします。トレノケートの横山哲也と申します。

私は1987年に入社した頃にちょうど当時第2次のブームが来ていた人工知能(AI)の研修をしていました。

現在はマイクロソフトのクラウド、Microsoft Azureについての研修を担当しています。

山下

トレノケートの山下光洋と申します。

AWSと、クラウドの一般的なコースなどのトレーニングを担当しています。

ChatGPT を使い始めて色々試しているので、出来ることや使いづらい点についてもお話をしたいなと思います。

よろしくお願いします。

田中

今回のこの3人の対談は山下さん起案なのですが、きっかけについてお話しいただけますか?

山下

はい。ChatGPTにつて、メディアやSNSなどで皆さんがどう使っているか、どう考えているかという話が溢れてきて、それはエンジニアの人たちばかりではなく、いろいろな専門職の人たちが使い方について試行錯誤されています。

その中で、我々講師や教師が研修や授業にも使えるのでは、という話や、いっそ教師はもういらなくなるのではといった発信も見られます。

それに対して、私たちトレノケートでも、きっと色々考えているのだろうなと思いまして、それについて皆さんで会話をしたいな、と社内のSNSに書いたところ、じゃあそれをVoicyで対談としてやろうじゃないか、話になりました。

田中

それで、AIに詳しい横山さんも呼んで3人でやろう、となりました。

では早速ですが、山下さんはChatGPTに限らず、AIと私たち講師は、どんな風に付き合っていくといいと現時点でお考えですか?

講師の仕事としては、研修そのもののほかに、テキスト開発や自分自身の勉強の為などいろいろあると思いますが。

山下

今の時点ではコパイロット(Copilot)としての使いかたかなと思っています。

コパイロットいう言葉は、直訳すると副操縦士ですね。自分が主で、それを助けてくれる役割としてAIを使っていきましょうという考え方です。

今は私が担当するコースの中でもいろいろチャレンジをしています。

例えば、受講者の方からの質問を、もちろん私にしてもらってもいいんですけれども、みんなが見える場所で書いていただければ、そのままChatGPTがまず返しますよ、という試みです。OpenAIのAPIがGPTエンジンで返答してくる仕組みを試しに使ってみています。

その中でこの感動したのが、電子テキストでbookshelfというソフトウェアがあるのですが、その使い方についての質問があったときに、すぐにChatGPTが答えてくれたんですね。私にとっては初めての受けた質問でした。答えるためには検索などいろいろしないといけないため、すぐに答えられずに休憩後に答えますね、ということになっていたと思いますが、素早く案内できて助かったなと思いました。自分でも確認したら、ChatGPTの回答の通りで正解でした。

田中

それは、優秀なサブ講師が一人ついているような感じですね。

山下

そうですね。

ただ、ときどき回答を間違えるんですよね。とはいえ人間のサブ講師だったとしても間違うことがあるので、ちゃんとメイン講師である我々がコントロールして、間違えたときに訂正したり補足したりということはどちらの場合でももちろんすべきです。

でもAIだとそこのスピードがすごく速いので、助かります。

田中

受講者の方は、山下さんとChatGPTだと、質問するときの違いは何かありましたか?

山下

見えるところで質問していただいているためか、質問の質や頻度はあまり変わらなかったですね。

というのも、私の見えないところでAIから間違えた答えが返ってきてしまうと補足やフォローができないので、その仕組みを使うのは、私が把握できる場所に限っているんです。

田中

なるほど、みんなが見ているところで質問するから、その相手が人間だろうとAIだろうと、抵抗感や質問内容はあまり変わらないということですね。

 

続いて横山さんは、AIの付き合い方で何か試していることはありますか?

横山

現時点では研修の際には使っていないですが、自分の調べものなどに利用しています。

コパイロットは副操縦士という意味ですが、上手い言葉ですよね。サブにはなるので、補助的な使い方、パートナーとしてはとても優秀なんです。でも、お客さまにそのまま提供するのはどうかな、と今のところは感じています。

なぜかというと、AIはたまに間違うんですよね。しかも、本当らしく、見てきたような嘘を言うんです。ほとんど大丈夫なのですが、そういうことがたまにあるので、お客さまに直接提供するのはためらいます。

山下

自信を持って断言した嘘つきますね。

人間は知らないことについては、この場では分からないので調べさせてください、と返せます。でもChatGPTに限って言うと、それをしてくれないんですね。知っている情報をとにかく本当のように言うんです。

横山

人間だったら、ちょっと自信がないなと思ったら、話している途中でも、「ごめんなさい。ちょっと自信がなくなってきました。」とか、「気付いたことがあるので、少しお待ちください。」といった反応ができるのですが、そういうのはしてくれないです。

田中

だから、受け手に「あれ?」と思われても「もう一回調べてみます。」と引き下がらないで、「私の答えはこれです。」と最後まで言い張ってしまうんですね。ちょっと扱いにくい頑固な後輩や部下みたい印象ですね。

山下

AIに対して多少制約をつければ、その辺りの問題をクリアできるかもしれません。

今でもChatGPTは、未来予測などは絶対答えてくれないんです。それはベースの制約としてあるので、「それには答えられません」と言ってくれます。

だから「これには答えないでください」という制約をAIに対して性格付けしておけば、もしかしたらコントロールできるかもしれません。やったことはないので、可能性の話ですが。

田中

なるほど、そういうこともできるのですね。

間違いがあるかもしれないAIの回答と、どう付き合うか

田中

受講者の方がAIを使って何か調べものすること自体は別に悪くないと思っていますし、実際にトレノケートでも今年(2023年)の新入社員研修で、調べものに使うのはOKとしています。

そうした利用の際に、学習者側へのアドバイスありますか? その回答が間違いかもしれないと疑うときの判断だったり、自分で調べたり考えたりした方が良い点など、もしあれば。

山下

そうですね。すべては「間違えている」ことを前提で受け取った方がいいです。

公式のドキュメントに当たること、実際に試す、検証することの二つは絶対やった方が良くて、その上で実際のビジネスの本番現場で活かして行くべきです。

田中

AIが返してきたことを鵜呑みにするのではなくて、公式ドキュメントに本当に書いてあるかなと確認するなり、ITであればちゃんと検証してみてから、OKかどうか判断する方がいい、ということですね。

横山

はい、マイクロソフトもチャット形式のAIサービスを提供していて、それは主な根拠を注釈として出してくれるのですが、そこをクリックすると、時々回答と違っていたりその情報が存在しなかったりします。

その原因の一つは、特にクラウドサービスだと頻繁に内容が変わるので、AIが学習して結果を出した時と今とで状況が違う可能性があるんです。

山下

AWSでは、2023年3月30日のアップデートで公式ドキュメントを自然言語で検索してくれる機能が追加されました。

AWSのことを聞きたかったら、ChatGPTよりこちらに聞いたほうが最新の情報が取れます。

横山

他には、質問の仕方が悪い場合もあります。質問する側が前提条件をきちんと明らかにしなかったので、回答する側は別の条件を仮定して答えるということは、人間でもありますよね。

田中

講師の場合は質問された時に、受講者の方が仰っていることは、こういうことですか?と確認しながら、質問の意図や意思を確認してから答えられるので、相手との間に齟齬が起こらないようにしていますよね。

対してAIの場合は聞かれた通りに答えるから、質問する時に条件をちゃんとつけないといけない、というわけですね。

AIらしさと、人間らしさをそれぞれ活かす

田中

まとめると、AIを学習の補助として使うのは全然構わないし、ゼロから調べるより早いなどの利点もあるけれど、鵜呑みにしたり、全部信じてしまったりは良い使い方ではない、と。

山下

はい。そしてここで水を差すようですが、公式ドキュメントでも間違えがあることもあるんです。

田中

それはもう、何を信じたらいいんでしょう?

山下

自分で試さないといけないですね。

田中

なるほど、その意味でも検証することが特に大事なんですね。

そしてその検証した内容が正しいかどうかは、人間が判断する。

横山

そうですね。

AIは検証結果だけではなくて検証する手順書まで提供してくれる場合もありますが、それが本当に求めるものとは限らないです。

例えば「Windowsの調子がおかしいです。何とかなりませんか?」と検索すると「Windowsを再インストールしなさい。」という回答が結構多いのです。確かにそれで直るのですが、時間がかかるし、今までのデータがうまく残らなかったりするし、この対処法が正しいと思わない人が多いのではないでしょうか。

田中

そうですね。それがやるべきことかどうかは、それぞれの業務や目指していること、目的・目標などと照らし合わせて、個別具体的に人が判断していかないといけない。そうすると、そういう知識や自分なりの哲学とか、思いとかいろいろ持ってないと、結局AIだけではどうにもなりませんね。

横山

今の時代の企業のミッションは、自分たちが良いと思うもの、独自の製品やサービスを提供することですよね。AIは世の中のいろいろな情報を集めて、確からしいものを答えているだけなので、独自のものはそもそも検索に引っかかりません。

だから企業独自の理念とかミッションを実現するためには自分たちで考える必要があるので、そこは人間の仕事だと思います。

田中

もう答えが出ているようなことはどんどんAIを使ってショートカット(近道)して、それでできた余剰の時間で自分がいかにクリエイティブに何かするかが大変だ、ということですね。

世の中に答えが全然まだ出回ってない、新しいものを作るぞっていう時は、一番人間が人間らしく活躍できる場になりそうです。

そう考えると、「DXしたいのですが、どんな風にトランスフォーメーションすればいいんでしょう。」と聞いても、どこかが既にやっていることしか出てこないですね。

 

では最後に、今後の研修にAIをどのように活用して行きたいか、山下さん、お願いします。

山下

いろいろ試していくしかないと思っています。

今回、質問への答えが間違うこともあるという話もしましたが、そうやってAIが会話の中に入ってくることによって、トンチンカンな回答を含めて印象付けができて、理解がさらに深まっていくようなこともあると思うんです。

もちろん間違いに対して講師がちゃんと補足するなどのコントロールは必要ですが、「〇〇だから、この回答は間違いなんだ」とか、そうした話ができると有益だと思います。そういった使い方も試していきたいです。

あとは我々がテキストや問題を作る時のたたき台にするのはすごくいいなと思います。

今のところそれで出てくるものがあまりいいものではないので、そのまま使うことはもちろんないです。ただ、自分だったらもっとこれを載せよう、こういう説明の仕方ができるな、という発想につながっていくと思うので、その発想の入り口やきっかけとして使いたいです。

田中

草案から考えなくていいので、そこに肉付けしたり、自分らしさを出したりすることに注力できますね。

山下

はい。

ほかには手作業をなくしていくために自動化していく際に、今だとルールがないとできない部分がありますが、AIによって、そのルールがない部分もうまく吸収して自動化がもう一歩進んでいける可能性があります。そうやってAIや自動化の使い方が拡がっていけば、AIを仕事の話で活かすべきという評価につながるのではないでしょうか。

田中

ありがとうございました。

【鼎談後記】

現時点のChatGPT、AIの実力から言うと、コパイロットとしての使い方が良さそうです、という結論でした。

2023年4月4日の毎日新聞夕刊の「特集ワイド」にも、大きく『どう付き合うChatGPT』という記事が掲載されていました。そこでAIで有名な新井紀子さんが、「理論上間違いがなくならない以上、自分の知識がないことに使うのはお勧めしない」と、この鼎談での話と同じようなことを仰っていました。

何故かといえば、自分が知っていることであれば、どこが間違っているかのファクトチェックも自分自身の知識で可能ですが、知らないことに使うとその正しさが自分の判断の外にあるため、あまりお勧めしません、といったコメントでした。

参考記事:「どう使うChatGPT」(毎日新聞、2023年4月4日)