プログラミング

ChatGPTも嘘をつくのはなぜ?

本日は少し志向を変えて、現在浸透してきたChatGPTについて少しお話ししてみたいと 思います。

以前はわからないことがあった場合は、まずググる!という言葉があったように、Googleで調べものをすることが多かったと思いますが、現在はSNSや種類のふえてきたAIで調べものをすることも多くなってきました。

このAIの中の1つとしてChatGPTがありますが、このような生成AIには「ハルシネーション」(幻覚)と呼ばれる現象があります。ハルシネーションとは誤った回答を出すことです。はい。生成AIが答えた回答は正しいとは限らないのです。この原因として言われているのが、「確率的な判断で出力しているから」です。これだけではわかりませんね。

ChatGPTのような大規模言語モデル(LLM)は、大量のデータとディープランニング(深層学習)技術によって構築された言語モデルですが、言語モデルは、文章や単語の出現確立を用いてモデル化され、自然言語処理などで活用されています。LLMが分析しているのは、言葉と言葉の関連性なのです。例えば、ある単語に続く単語はどれであるかを確率として算出し、その可能性が高く、次につながりそうな単語を探しているのです。言葉の持つ意味そのものを解釈しているのではなく、あくまでも「つながりそうな」言葉を回答として並べているにすぎない為、ハルシネーションが起こるというわけです。

ChatGPTを利用するときは、並行で他の検索サイトや回答の根拠を表示してくれるサイトもあります。そのようなものを複数利用しながら、調べ物をするのが正しい答えの近道かもしれませんね。



TOP