ChatGPTは「理解して答えている」と思っていた
ChatGPTを使い始めた頃、
僕はなんとなく
「質問の意味を理解して、考えて答えてくれている」
と思っていました。
会話は自然だし、
聞いたことに対してそれっぽい返事が返ってきます。
だから無意識のうちに、
「問いに対して、適切な正解を出してくれる」
という認識を持っていました。
でも、本を読んで一番「へぇー」となったのが、
ChatGPTは理解して答えているわけではない、という点でした。
ChatGPTがやっているのは、
正解を考えて導き出すことではなく、
文章として自然につながりそうな言葉を、確率的に選び続けている
という仕組みです。
意味を理解したり、
意図を汲み取ったり、
意思を持って判断しているわけではありません。
それでも会話が成立するのは、
過去の大量の文章データをもとに、
「よく使われている言葉の流れ」を
超高速で組み合わせて出力しているからです。
その際、どの言葉を選ぶかは確率に基づいて決まるため、
毎回まったく同じ答えになるわけではありません。
この話を知って、
同じ質問をしても、
少しずつ答えが違う理由が、ようやく腑に落ちました。
文章として自然かどうかを基準に、
別の選択肢が選ばれているだけなんですよね。
逆に言えば、
「文章として自然そう」であれば、
内容としては正確でない情報が混ざることもあります。
以前、おすすめの本を聞いたときに、
実在しない本を紹介されたことがありました。
これも、
「文章として自然で、ありそうな答え」が
選ばれた結果なのだと思います。
「質問の意味を理解して、考えて答えてくれている」のではなく、
「文章として自然につながる言葉を、確率で選んでいる」。
ここが、
自分の中で一番印象に残った勘違いでした。
雑な質問ほど、無難な答えになると気づいた
ChatGPTを使っていて、
もう一つ大きな気づきだったのが、
質問の仕方で、返ってくる答えの質がかなり変わるということでした。
最初の頃は、
「〇〇について教えて」
「おすすめを教えて」
といった、かなりざっくりした聞き方をしていました。
返ってくる答えは、
一見するとちゃんとしているのですが、
どこか当たり障りがなく、
「まぁ、そうだよね」と感じることが多かった印象です。
でも本を読んで腑に落ちたのが、
質問が曖昧だと、回答も一般的になりやすい
という点でした。
回答がいまいちな場合は、
ChatGPTがダメなのではなく、
質問したこちらの伝え方に原因がある場合も多い
ということでした。
条件や詳細な情報が少ない質問だと、
AIは無難で平均的な答えを返します。
逆に言えば、
そこを具体的に伝えるほど、
回答も具体的になります。
このことに気づいてからは、
「自分の聞き方が雑だったな」
と思うようになりました。
ChatGPTは、
情報が足りなくても回答を返してしまいます。
それは便利でもあり、
同時に注意が必要な点でもあります。
だからこそ、
こちらの考えや状況を
具体的な言葉にして渡してあげる必要があるのです。
この前提知識を持てたことは、
自分にとってかなり大きな気づきでした。
ChatGPTは検索エンジンの代わりではなかった
僕は
「ChatGPTはいずれ検索エンジンの代わりになる」
と思っていました。
質問すると、
知りたい内容を、要点をまとめた形で説明してくれますし、
文章としても分かりやすい。
検索エンジンを使って、求めている記事を探す必要性は、
いずれなくなるんだろうと思っていました。
でも、本を読んで
「なるほど」と思ったのが、
ChatGPTはURLの中身をそのまま正確に読んでいるわけではない
という点でした。
リンクを渡しても、
そのページを開いて、
内容を把握してくれるわけではありません。
あくまで、
これまで学習してきた情報をもとに、
それっぽく要約・説明している
という立ち位置なんですよね。
実際に仕事で使ってみたときも、
一般論としては合っていそうな説明は返ってきました。
ただ、細かい条件やバージョンの違いによって、
間違っていたケースがありました。
この経験からも、
ChatGPTは
「正確な情報を提供」するわけではない
ということを実感しました。
一方で、使っていく中で、
「これは得意だな」と感じる使い方も
はっきりしてきました。
- 複雑な文章の要約
- 情報や考えの整理・構造化
- 文章構成のたたき台作成
- 考えを言語化するための補助
こういった場面では、
ChatGPTはとても頼りになります。
だから僕は、
ChatGPTの説明をヒントにしつつ、
最終的な確認は公式サイトや公式ドキュメントを見る、
という使い分けをするようになりました。
検索エンジンの代わりとして使うのではなく、
理解を助ける補助役として使う。
現時点では、この認識が必要かなと思います。
AIは「ブログを書いてくれる存在」ではなかった
ブログを書き始める前は、
「うまく指示を出せば、記事を自動生成してくれるんじゃないか」
と、少し期待していました。
でも本には、
ChatGPTは「記事を自動生成して完結させるのは難しい」と書かれていて、
人間の目で内容をチェックしながら使う前提だ
という説明でした。
正直、読んだ時点では
「なるほど、そういうものか」
くらいの理解だったと思います。
ただ、実際にブログで使ってみて、
その意味がはっきり分かりました。
確かにChatGPTは、
構成を考えたり、
文章をそれっぽく整えたりするのは得意です。
一方で、全部を書いてもらうと、
同じような構成になりやすく、
どこかで見たことのある内容になってしまう。
自分の体験や考えが、
うまく反映されていないと感じました。
なので今は、
下書きを作ってもらったり、
考えを整理するための相手として使う
という形に落ち着いています。
構成案を出してもらったり、
書き出しをいくつか考えてもらったり、
自分の考えを投げて、ズレていないか確認したり。
ブログを書く上でのChatGPTは、
下書き係や、考えを整理する壁打ち役
という立ち位置が一番しっくりきました。
この使い方は、
ChatGPTのバージョンが変わっても、
あまり変わらない部分なんじゃないかなと思っています。
まとめ
以上が、
僕がChatGPTに対して勘違いしていたことでした。
本を読んでみると、
すでに改善されている内容も見受けられました。
なので、今回書いた内容も、
AIの進化とともに変わっていく可能性はあると思います。
ただ、それでも
AIはあくまで補助や相談相手であって、
最終的にどう使うか、どう判断するかは、
自分で決めていく必要があるかと思ってます。
この記事は、
『ChatGPT 120%活用術』
『ChatGPTを使ったAI文章のすゝめ』を読みながら、
実際にChatGPTを使ってみた体験をもとに書いています。


コメント