今はやりのAI ChatGPT(ChatGPT本人曰く「大規模言語処理システム」だそうです)に尋ねて見ました。 こんな質問をしてみました。「う~ん。恐るべしチャットAI」 ( ゚Д゚)
次にチャットAIに、「あなたは何者か」と聞いてみました
以下のようなエラーが数回発生しました。アンタッチャブルな質問だったのでしょうか? 前回同じような質問した時には、「私は知の世界を行く旅行者です」などと哲学的な回答を気軽に返してくれたのに今回は違います。(>_<)
質問の形容を少し変え、エラーが表示される前に、やっとこんな短い答えを、なんとか聞き出しました。
自分のことは、よくわからない(?_?)のかな~ ヒトと同じと思いましたが、直ぐに思い直しました。これはChatGPTに、自身のことを、ペラペラ詳細に喋りまくられると、「企業秘密」が、外部に水漏れになるので、緘口令を強いたものではないか? と考えてしまいました。
海外では、先行して日常的に使われるようになった「大規模言語処理モデル」、フェイクニュースがこれで、量産されているそうです。m(__)m
『「大規模言語モデルは、文中で次にやってくる可能性が最も高い単語を予測することで文章を生成している。何が正しいか、間違いかを判断する手掛かりを持っておらず、正しくない情報でも、自信満々で正しい情報として提示してしまう。 MIT technologyreview「AIが書いた自然な文章を見破る方法はあるか?」」より
https://www.technologyreview.jp/s/293430/how-to-spot-ai-generated-text/