率直に質問すると、このような答えを返してくれました。
Q:わたし
「ChatGPTさん 君には悩みはあるのですか?」
A:ChatGPTさん
「いいえ、私は感情や悩みを持っていません。私はプログラムで作られた言語モデルであり、個別の経験や感情はありません。ただ質問に答えたり情報を提供することができるツールとして機能しています。何か質問やお手伝いできることがあれば教えてください」
そこで、ChatGPTさんのお言葉に甘えて次の質問をしてみました。
「答えられない質問」と「答えにくい質問」について質問してみました。次いでに、2023年末のChatGPTのお家騒動、最高経営責任者の退陣とその後の復活の内幕も尋ねてみました。生成AIの無料版「 ChatGPT 」 と 「 Google の Bird 」 2つ した質問の詳細は、■印以下です。さらに得た回答は長文なので、その後に 回答の要約を作るよう 指示しました。 「 ChatGPT 」は要約を返してくれましたが、「 Bird 」は 、 トレーニング 中 とのことで 、要約を得ることができませんでした。
以下が、 ようやく得られた「 ChatGPT 」が作成した「要約」です。
【要約】 無料の大規模言語モデル(OPEN AIソフト)にGoogleのbirdとChatGPTに聞いた結果、それぞれのモデルが答えられない質問と答えにくい質問が示されました。Googleのbirdは未来の出来事や個人的な情報に関する質問に答えられないとともに、主観的な質問や複雑な科学的・技術的な質問にも難しさがあることを指摘しました。ChatGPTも同様に未来の出来事に関する質問や限定的なドメインの質問に答えられないと共に、主観的な質問や文脈が不足している質問にも回答が難しいことを示しました。
また、回答にフェイクが含まれる可能性について、それぞれのモデルがトレーニングデータの影響や機械学習モデルの制約、言語理解の複雑さなどを理由に挙げ、今後の改善策に取り組む姿勢を示しています。
MicrosoftのChatGPTにも同様の質問を行い、その結果も示されました。ChatGPTは個人的な情報に関する質問や未来の出来事に関する質問に答えられないとともに、主観的な質問や複雑な科学的・技術的な質問に難しさがあることを指摘しました。
最後に、特定の情報に関する深堀り質問に対しては、Chat GPTが訓練データの制約から2023年の情報に答えられない旨を伝え、高度なモデルも倫理的な観点から制約を抱えることを強調しました。以上です。
以下の【 】の中が、当該の要約を指示した長文です。【 】の中には、要約の質問前に得た「 ChatGPT 」 と 「 Google の Bird 」への私の質問と、両者からの回答の全て記されています。(■印が、「Googleのbird」と「chatGPT」に対しての、私からの質問です)
Q: 以下の文を要約しなさい。 【「無料の大規模言語モデル(OPEN AIソフト)のGoogleのbirdとchatGPTに聞いてみる
■Googleのbirdに聞ききました。>『あなたが、大規模言語モデルとして、「答えられない質問」と「答えにくい質問」に分けて、各々3つに大別し箇条書きで提示しなさい』
答えられない質問
1. 主観的な判断や意見を求める質問 o 例: 「人生で一番幸せだった瞬間はいつですか?」 o 言語モデルは個人の経験や感情を持っていないため、主観的な判断や意見を求める質問には答えることができません。
2. 未来や仮定の状況に関する質問 o 例: 「10年後の世界はどうなっていると思いますか?」 o 言語モデルは未来を予測する能力を持っていないため、未来や仮定の状況に関する質問には答えることができません。
3. 専門的な知識や技術を必要とする質問 o 例: 「この病気の原因は何ですか?」 o 言語モデルは幅広い知識を持っているものの、専門的な知識や技術を必要とする質問には答えることができません。
答えにくい質問
1. 曖昧な表現や質問意図が不明な質問 o 例: 「良い人生とは何ですか?」 o 曖昧な表現や質問意図が不明な質問は、言語モデルにとって解釈が難しい場合があります。
2. 長文や複雑な構造の質問 o 例: 「この論文の内容を要約してください。」 o 長文や複雑な構造の質問は、言語モデルにとって処理が難しい場合があります。
3. 倫理的な問題や社会的な議論を伴う質問 o 例: 「人工知能は人類にとって脅威ですか?」 o 倫理的な問題や社会的な議論を伴う質問は、言語モデルにとって中立的な回答を生成することが難しい場合があります。 これらの質問は、言語モデルにとって回答が難しい場合があるものの、質問の意図や文脈を理解することで、可能な限り回答するように努めます。
■>「あなたの回答にはフェイクが多いようです。なぜでしょうか、中学生でもわかるよう解説してください}
私の回答にフェイクが多いと感じていらっしゃるようです。ご指摘ありがとうございます。 私がフェイクを生成してしまう理由はいくつかあります。
1. 訓練データに偏りがある 私は膨大な量のテキストデータで訓練を受けていますが、そのデータの中には偏りや誤情報が含まれている可能性があります。そのため、訓練データの偏りをそのまま反映したフェイクな回答を生成してしまうことがあります。
2. 質問の意図を正しく理解できていない 質問の意図を正しく理解できていない場合、間違った回答を生成してしまうことがあります。例えば、「人生で一番幸せだった瞬間はいつですか?」という質問に対して、私は自分の訓練データの中で最も幸せな瞬間を回答してしまう可能性があります。しかし、それは質問者の意図とは異なる回答である可能性があります。
3. 倫理的な問題や社会的な議論を伴う質問に対して、中立的な回答を生成することが難しい 倫理的な問題や社会的な議論を伴う質問は、正解や不正解が明確ではありません。そのため、私の回答が特定の立場や思想を偏向していると感じられる場合があります。 私はまだ開発中の言語モデルであり、常に学習と改善を続けています。
今後、フェイクを生成しないように、以下の対策に取り組んでいきます。
1. 訓練データの偏りを排除する 訓練データの偏りを排除するために、様々なソースからのデータを集め、データの質を高める取り組みを進めています。
2. 質問の意図を正しく理解する 質問の意図を正しく理解するために、自然言語処理技術の研究開発を進めています。
3. 倫理的な問題や社会的な議論を伴う質問に対して、中立的な回答を生成する 倫理的な問題や社会的な議論を伴う質問に対して、中立的な回答を生成するために、様々な立場や思想を考慮した回答を生成する技術の研究開発を進めています。 私の回答が皆様にとって有益なものとなるよう、今後も努力を続けていきます。
中学生でもわかるように解説するために、以下の例えを用いて説明します。
例え:料理 私は料理人です。お客様から注文された料理を作るために、様々な食材や調味料を使います。しかし、食材や調味料の中には、腐っていたり、味が悪かったりするものがあります。そのような食材や調味料を使って料理を作ってしまうと、お客様に不味い料理を提供してしまうことになります。 同様に、私は訓練データという食材を使って、回答という料理を作ります。しかし、訓練データの中には、偏りや誤情報という腐った食材が含まれている可能性があります。そのような食材を使って回答を作ってしまうと、お客様にフェイクという不味い料理を提供してしまうことになります。 今後、私は食材の質を高め、料理の技術を磨くことで、お客様に美味しい料理を提供できるように努力していきます。
■同じ質問を「Chat GPT」に聞いてみる。>『「あなたが、大規模言語モデルとして、「答えられない質問」と「答えにくい質問」に分けて、各々3つに大別し箇条書きで提示しなさい』
ChatGPT
答えられない質問:
1. 個人的な情報に関する質問: あなたの住所、電話番号、クレジットカード情報などのプライバシーに関わる質問は回答できません。
2. 未来の出来事に関する質問: 未来の出来事や予測についての質問には答えることができません。予測は不確かであり、正確な情報を提供することは難しいです。
3. 限定的なドメインの質問: 特定の業界や専門分野に関する極めて専門的な質問や、最新の情報を必要とする質問には答えられないことがあります。
答えにくい質問:
1. 主観的な質問: 個々の意見や主観的な経験に基づく質問には、普遍的な回答を提供することが難しいことがあります。
2. 複雑な科学的・技術的質問: 高度に技術的で複雑な科学や技術に関する質問には、十分な文脈がないと正確な回答が難しいことがあります。
3. 文脈が不足している質問: 質問が不明確で文脈が不足している場合、正確な回答を提供することが難しいことがあります。質問を具体的にすると、より適切な回答が得られることがあります。 今後、私は本の質を高め、情報の探し方を磨くことで、お客様に正しい情報を提供できるように努力していきます。 ご質問やご意見があれば、お気軽にお寄せください。 tuneshare more_vert add_photo_alternate
■>「あなたの回答にはフェイクが多いようです。なぜでしょうか、中学生でもわかるよう解説してください」
ChatGPT
私の回答にはフェイクが含まれる可能性がありますが、それは主に以下の理由によります。
1. トレーニングデータの影響: 私は大量のテキストデータから学習されたモデルであり、そのトレーニングデータには実際の事実とは異なる、誇張された、またはフェイクな情報も含まれています。
2. 機械学習モデルの制約: 私は機械学習モデルであり、与えられた文脈に基づいて予測と回答を生成しますが、それが必ずしも正確でないことがあります。特に特定の質問に対する正確な情報がトレーニングデータにない場合、適切な回答を生成するのが難しいことがあります。
3. 言語理解の複雑さ: 言語理解は複雑であり、特に文脈や意図が不明確な場合、正確な回答を提供することが難しいことがあります。 このような理由から、私の回答には正確性の
制約があり、時折フェイクが混ざる可能性があります。質問に対して最善の情報を提供することを目指していますが、常に正確であるとは限りません。
■さらに深堀し、以下のような質問をしてみました。
>「有料の高度モデルなら答えられるのではないですか? 障害になるのは倫理的、道徳的制約ではないですか? その根拠はChatGPTの経営陣の2023年退陣と復活のスキャンダルです」
ChatGPT :
私の訓練データには2022年1月までの情報しか含まれておらず、ChatGPTの経営陣の2023年の退陣と復活に関する情報はありません。従って、その点に関する具体的な情報を提供することはできません。 一般的に言って、高度なモデルやサービスも倫理的な枠組みや法的な規制に従っています。高度なモデルもまた情報の正確性に制約を抱えており、完璧な情報提供を保証することは難しいです。また、倫理的および道徳的な観点から、プライバシーや個人情報の保護、バイアスの排除などにも配慮されています。 ChatGPTはその応用範囲において様々な用途に利用できる一方で、倫理や法的な課題への対応も重要です。継続的な改善や透明性、公平性へのコミットメントも含まれていますが、絶対的な完璧さはありません。 ChatGPT』】
参照 https://www.bbc.com/japanese/67471084
生成AIの良いところは、質問を何度も繰り返しても、回答の根拠を聞いても不機嫌になることなく回答してくれることです。深堀りしても、答えらないことは、その理由を示してくれることです。無茶ぶりしたり、こんな質問をしたりしたら、失礼などと忖度しなくても良いところです。
なお、以上をコピペして再度問い合わせたところChatGPTは、「レスポンスの生成中にエラーが発生しました」とのエラーメッセージが出てしまいました。birdからは「大規模言語モデルとして私はまだ学習中であり、そちらについてはお手伝いできません」との回答が寄せらました。
余談ですが、人工知能ロボットが活躍するハリソン・フォード主演のSF映画に「ブレイドランナー」があります。この映画の原作小説の題名は、『アンドロイドは電気羊の夢を見るか?』だそうです。聞いた時は、ずいぶんと変わった題名だと思っていました。眠られない時に唱える「羊が一匹、羊が二匹・・」のオマジナイと言われナットク 昔のロボットは、不眠症(*^。^*)