ログインまたはユーザー登録してからコメントしてください

ログインまたはユーザー登録してからいいね!してください

> 広告を非表示にする方法はこちら
パスワードを忘れた場合のバックアップとしてラインの友達追加をおすすめします こちら

ニホンミツバチ
生成AI=大規模言語モデルに悩みはあるのでしょうか? (^-^;

yamada kakasi 活動場所:愛知県
いつも、みなさんの、お知恵を拝借させていただいています。感謝感激です。(^^)/~~~ 新たな事実や発見を取り入れ、データや経験や勘とすり合わせなが…もっと読む
投稿日:1/3 , 閲覧 200

率直に質問すると、このような答えを返してくれました。
Q:わたし
「ChatGPTさん 君には悩みはあるのですか?」 
A:ChatGPTさん
「いいえ、私は感情や悩みを持っていません。私はプログラムで作られた言語モデルであり、個別の経験や感情はありません。ただ質問に答えたり情報を提供することができるツールとして機能しています。何か質問やお手伝いできることがあれば教えてください」


そこで、ChatGPTさんのお言葉に甘えて次の質問をしてみました。
「答えられない質問」と「答えにくい質問」について質問してみました。次いでに、2023年末のChatGPTのお家騒動、最高経営責任者の退陣とその後の復活の内幕も尋ねてみました。生成AIの無料版「 ChatGPT 」 と 「 Google の Bird 」 2つ した質問の詳細は、■印以下です。さらに得た回答は長文なので、その後に 回答の要約を作るよう 指示しました。 「 ChatGPT 」は要約を返してくれましたが、「 Bird 」は 、 トレーニング 中 とのことで 、要約を得ることができませんでした。


以下が、 ようやく得られた「 ChatGPT 」が作成した「要約」です。
【要約】 無料の大規模言語モデル(OPEN AIソフト)にGoogleのbirdとChatGPTに聞いた結果、それぞれのモデルが答えられない質問と答えにくい質問が示されました。Googleのbirdは未来の出来事や個人的な情報に関する質問に答えられないとともに、主観的な質問や複雑な科学的・技術的な質問にも難しさがあることを指摘しました。ChatGPTも同様に未来の出来事に関する質問や限定的なドメインの質問に答えられないと共に、主観的な質問や文脈が不足している質問にも回答が難しいことを示しました。

また、回答にフェイクが含まれる可能性について、それぞれのモデルがトレーニングデータの影響や機械学習モデルの制約、言語理解の複雑さなどを理由に挙げ、今後の改善策に取り組む姿勢を示しています。

MicrosoftのChatGPTにも同様の質問を行い、その結果も示されました。ChatGPTは個人的な情報に関する質問や未来の出来事に関する質問に答えられないとともに、主観的な質問や複雑な科学的・技術的な質問に難しさがあることを指摘しました。

最後に、特定の情報に関する深堀り質問に対しては、Chat GPTが訓練データの制約から2023年の情報に答えられない旨を伝え、高度なモデルも倫理的な観点から制約を抱えることを強調しました。以上です。


[image="https://d3dlv5ug8g5jts.cloudfront.net/152/15268846920807260962.gif"]

以下の【 】の中が、当該の要約を指示した長文です。【 】の中には、要約の質問前に得た「 ChatGPT 」 と 「 Google の Bird 」への私の質問と、両者からの回答の全て記されています。(■印が、「Googleのbird」と「chatGPT」に対しての、私からの質問です)

Q: 以下の文を要約しなさい。 【「無料の大規模言語モデル(OPEN AIソフト)のGoogleのbirdとchatGPTに聞いてみる

■Googleのbirdに聞ききました。>『あなたが、大規模言語モデルとして、「答えられない質問」と「答えにくい質問」に分けて、各々3つに大別し箇条書きで提示しなさい』

答えられない質問
1. 主観的な判断や意見を求める質問 o 例: 「人生で一番幸せだった瞬間はいつですか?」 o 言語モデルは個人の経験や感情を持っていないため、主観的な判断や意見を求める質問には答えることができません。

2. 未来や仮定の状況に関する質問 o 例: 「10年後の世界はどうなっていると思いますか?」 o 言語モデルは未来を予測する能力を持っていないため、未来や仮定の状況に関する質問には答えることができません。

3. 専門的な知識や技術を必要とする質問 o 例: 「この病気の原因は何ですか?」 o 言語モデルは幅広い知識を持っているものの、専門的な知識や技術を必要とする質問には答えることができません。


答えにくい質問
1. 曖昧な表現や質問意図が不明な質問 o 例: 「良い人生とは何ですか?」 o 曖昧な表現や質問意図が不明な質問は、言語モデルにとって解釈が難しい場合があります。

2. 長文や複雑な構造の質問 o 例: 「この論文の内容を要約してください。」 o 長文や複雑な構造の質問は、言語モデルにとって処理が難しい場合があります。

3. 倫理的な問題や社会的な議論を伴う質問 o 例: 「人工知能は人類にとって脅威ですか?」 o 倫理的な問題や社会的な議論を伴う質問は、言語モデルにとって中立的な回答を生成することが難しい場合があります。 これらの質問は、言語モデルにとって回答が難しい場合があるものの、質問の意図や文脈を理解することで、可能な限り回答するように努めます。



■>「あなたの回答にはフェイクが多いようです。なぜでしょうか、中学生でもわかるよう解説してください}

私の回答にフェイクが多いと感じていらっしゃるようです。ご指摘ありがとうございます。 私がフェイクを生成してしまう理由はいくつかあります。

1. 訓練データに偏りがある 私は膨大な量のテキストデータで訓練を受けていますが、そのデータの中には偏りや誤情報が含まれている可能性があります。そのため、訓練データの偏りをそのまま反映したフェイクな回答を生成してしまうことがあります。

2. 質問の意図を正しく理解できていない 質問の意図を正しく理解できていない場合、間違った回答を生成してしまうことがあります。例えば、「人生で一番幸せだった瞬間はいつですか?」という質問に対して、私は自分の訓練データの中で最も幸せな瞬間を回答してしまう可能性があります。しかし、それは質問者の意図とは異なる回答である可能性があります。

3. 倫理的な問題や社会的な議論を伴う質問に対して、中立的な回答を生成することが難しい 倫理的な問題や社会的な議論を伴う質問は、正解や不正解が明確ではありません。そのため、私の回答が特定の立場や思想を偏向していると感じられる場合があります。 私はまだ開発中の言語モデルであり、常に学習と改善を続けています。

今後、フェイクを生成しないように、以下の対策に取り組んでいきます。

1. 訓練データの偏りを排除する 訓練データの偏りを排除するために、様々なソースからのデータを集め、データの質を高める取り組みを進めています。

2. 質問の意図を正しく理解する 質問の意図を正しく理解するために、自然言語処理技術の研究開発を進めています。

3. 倫理的な問題や社会的な議論を伴う質問に対して、中立的な回答を生成する 倫理的な問題や社会的な議論を伴う質問に対して、中立的な回答を生成するために、様々な立場や思想を考慮した回答を生成する技術の研究開発を進めています。 私の回答が皆様にとって有益なものとなるよう、今後も努力を続けていきます。


中学生でもわかるように解説するために、以下の例えを用いて説明します。
例え:料理 私は料理人です。お客様から注文された料理を作るために、様々な食材や調味料を使います。しかし、食材や調味料の中には、腐っていたり、味が悪かったりするものがあります。そのような食材や調味料を使って料理を作ってしまうと、お客様に不味い料理を提供してしまうことになります。 同様に、私は訓練データという食材を使って、回答という料理を作ります。しかし、訓練データの中には、偏りや誤情報という腐った食材が含まれている可能性があります。そのような食材を使って回答を作ってしまうと、お客様にフェイクという不味い料理を提供してしまうことになります。 今後、私は食材の質を高め、料理の技術を磨くことで、お客様に美味しい料理を提供できるように努力していきます。



■同じ質問を「Chat GPT」に聞いてみる。>『「あなたが、大規模言語モデルとして、「答えられない質問」と「答えにくい質問」に分けて、各々3つに大別し箇条書きで提示しなさい』

ChatGPT
答えられない質問:
1. 個人的な情報に関する質問: あなたの住所、電話番号、クレジットカード情報などのプライバシーに関わる質問は回答できません。

2. 未来の出来事に関する質問: 未来の出来事や予測についての質問には答えることができません。予測は不確かであり、正確な情報を提供することは難しいです。

3. 限定的なドメインの質問: 特定の業界や専門分野に関する極めて専門的な質問や、最新の情報を必要とする質問には答えられないことがあります。


答えにくい質問:
1. 主観的な質問: 個々の意見や主観的な経験に基づく質問には、普遍的な回答を提供することが難しいことがあります。

2. 複雑な科学的・技術的質問: 高度に技術的で複雑な科学や技術に関する質問には、十分な文脈がないと正確な回答が難しいことがあります。

3. 文脈が不足している質問: 質問が不明確で文脈が不足している場合、正確な回答を提供することが難しいことがあります。質問を具体的にすると、より適切な回答が得られることがあります。 今後、私は本の質を高め、情報の探し方を磨くことで、お客様に正しい情報を提供できるように努力していきます。 ご質問やご意見があれば、お気軽にお寄せください。 tuneshare more_vert add_photo_alternate



■>「あなたの回答にはフェイクが多いようです。なぜでしょうか、中学生でもわかるよう解説してください」

ChatGPT
 私の回答にはフェイクが含まれる可能性がありますが、それは主に以下の理由によります。

1. トレーニングデータの影響: 私は大量のテキストデータから学習されたモデルであり、そのトレーニングデータには実際の事実とは異なる、誇張された、またはフェイクな情報も含まれています。

2. 機械学習モデルの制約: 私は機械学習モデルであり、与えられた文脈に基づいて予測と回答を生成しますが、それが必ずしも正確でないことがあります。特に特定の質問に対する正確な情報がトレーニングデータにない場合、適切な回答を生成するのが難しいことがあります。

3. 言語理解の複雑さ: 言語理解は複雑であり、特に文脈や意図が不明確な場合、正確な回答を提供することが難しいことがあります。 このような理由から、私の回答には正確性の

制約があり、時折フェイクが混ざる可能性があります。質問に対して最善の情報を提供することを目指していますが、常に正確であるとは限りません。


■さらに深堀し、以下のような質問をしてみました。
>「有料の高度モデルなら答えられるのではないですか? 障害になるのは倫理的、道徳的制約ではないですか? その根拠はChatGPTの経営陣の2023年退陣と復活のスキャンダルです」

ChatGPT :
私の訓練データには2022年1月までの情報しか含まれておらず、ChatGPTの経営陣の2023年の退陣と復活に関する情報はありません。従って、その点に関する具体的な情報を提供することはできません。 一般的に言って、高度なモデルやサービスも倫理的な枠組みや法的な規制に従っています。高度なモデルもまた情報の正確性に制約を抱えており、完璧な情報提供を保証することは難しいです。また、倫理的および道徳的な観点から、プライバシーや個人情報の保護、バイアスの排除などにも配慮されています。 ChatGPTはその応用範囲において様々な用途に利用できる一方で、倫理や法的な課題への対応も重要です。継続的な改善や透明性、公平性へのコミットメントも含まれていますが、絶対的な完璧さはありません。 ChatGPT』】

参照 https://www.bbc.com/japanese/67471084


生成AIの良いところは、質問を何度も繰り返しても、回答の根拠を聞いても不機嫌になることなく回答してくれることです。深堀りしても、答えらないことは、その理由を示してくれることです。無茶ぶりしたり、こんな質問をしたりしたら、失礼などと忖度しなくても良いところです。

なお、以上をコピペして再度問い合わせたところChatGPTは、「レスポンスの生成中にエラーが発生しました」とのエラーメッセージが出てしまいました。birdからは「大規模言語モデルとして私はまだ学習中であり、そちらについてはお手伝いできません」との回答が寄せらました。

余談ですが、人工知能ロボットが活躍するハリソン・フォード主演のSF映画に「ブレイドランナー」があります。この映画の原作小説の題名は、『アンドロイドは電気羊の夢を見るか?』だそうです。聞いた時は、ずいぶんと変わった題名だと思っていました。眠られない時に唱える「羊が一匹、羊が二匹・・」のオマジナイと言われナットク 昔のロボットは、不眠症(*^。^*)

コメント8件

特製ぱん 活動場所:東京都
投稿日:1/3

年明けに関心ある課題であるので開いて見ました。

末尾のブレードランナーはいいですね!?

人工知能ロボットはフランケンシュタインが高度化した人造人間とみてました。 このご時世で改めて映画を見直すとSFとは言えない近未来感が感じました。世界の西方で起こっている戦争にドローンやAI兵器が使用されてきてますのが薄ら寒さを感じます。

yamada kakasi 活動場所:愛知県
投稿日:1/3

特製ぱんさん    遅まきながら明けましておめでとうございます。(*^。^*)ブレイドランナーの背景の酸性雨が降りしきる近未来都市の、漢字のネオンサイン わかまつ?だったかが、点燈していたように思い出します。これは映画が製作された当時の東京の風景?

SF映画が好きで、古い作品以外は、たいてい映画館で見ています。生成AIが近い将来自律し、古くは「2001年宇宙の旅」のHALや「ターミネター」のような脅威に、「マトリックス」のような悪夢にならないか、本気で心配しています。(^-^;

特製ぱん 活動場所:東京都
投稿日:1/3

yamada kakasiさん

こちらこそ、改めて明けましておめでとうございます。

この映画の街は東京、香港ゴチャ混ぜと思っています。

そう! あっという間に人間の知能を超えてしまうとみてます。

感情という要素のアナログ面は他のデジタル思考より難しいのでどう構築していくか興味があります。

特製ぱん 活動場所:東京都
投稿日:1/3

yamada kakasiさん

遅まきながら、飼育状況調査に答えさせて貰いました。

今回の調査でより正確な情報に挙げるのに役立てればと願っています。

yamada kakasi 活動場所:愛知県
投稿日:1/3

特製ぱんさん

https://www.qst.go.jp/site/press/20221130.html
日本の量子科学技術研究開発機構が、心象風景を脳波でとらえ画像を復元することに世界で初めて成功というニュースが伝えられました。これは、障害のある方や末期患者や、いずれなんらかの精神的身体的障害が生じる、わたしたち全ての人にとって朗報です。(^.^)/~~~ ただ、将来頭の中の心象風景イメージまで吸い取れるとしたら、国民を一元管理支配しようとする全ての国家と権力者、IT資本と資本家にとっても、朗報のように感じています。(>_<)

yamada kakasi 活動場所:愛知県
投稿日:1/3

追伸
「飼育状況調査」アンケート御回答ご協力に感謝申し上げます。 (^.^)/~~~ ありがとうございます。初めての3年前の1回目調査は1ケ月であっという間に集まったのに、今回の2回目は期間も長く、かつ入力を簡略化しても、初回の回答者数まで、あと一歩が思うように集まりません。反省しています。m(__)m

特製ぱん 活動場所:東京都
投稿日:1/3

yamada kakasiさん

今、脳を扱った本を読んでますが働きとして7つの分野があるようです。

これらの全てを網羅するには後何年でしょう。


[image="https://d3dlv5ug8g5jts.cloudfront.net/028/2809859118618219554.jpeg"]


[image="https://d3dlv5ug8g5jts.cloudfront.net/163/16395860304757077012.jpeg"]
yamada kakasi 活動場所:愛知県
投稿日:1/3

特製ぱんさん
視覚・聴覚・嗅覚・味覚・触覚とシックスセンスの直感をコントロールするだけでなく、7つの分野があるのですね~(^.^)/~~~,

投稿中