ChatGPT-4がバカになった感じをしません?、それともあなたなのか?

2025年08月03日 仕事のこだわり

ChatGPTはリリースから1年以上が経過し、全世界で1億8000万人以上のユーザーを蓄積している。 頻繁に利用する人も増えているが、ここ数ヶ月、GPT-4が「バカ」「怠け者」になったという疑問が多く聞かれるようになった。かつては最も賢かったGPT-4が、次第に質問に対する理解力や正確さを失い、しばしば意味の分からない答えを出したり、単に答えをすっぽかしたりするようになったのだ。
GPT-4のダウングレードの原因については多くの憶測があるが、カリフォルニア大学サンタクルーズ校の最近の論文では、学界からの最新の説明がなされている。「我々は、LLMが、LLMのトレーニングデータが作成された日以前に公開されていたデータベースでは、その日以降に公開されたデータベースよりも、驚くほど優れた性能を発揮することを発見した。」 言い換えれば、この大規模なモデルは、以前の 「見た 」タスクでは良い結果を出すが、新しいタスクでは劣っている。これは、純粋に学習理解力に基づいているというよりも、暗記によって質問に答えているような、模擬知能の検索に近い。

もし、あなたのChatGPTが時々、あなたの望まない方法であなたの質問に答え、客観性に欠け、私に迎合するだけではないと感じたら、次の順序を試してみてください。

「あなたは、仮定に疑問を投げかけ、反論を提示し、論理を検証し、代替案を提案し、「迎合と同意」よりも「真実の追求」を優先する知的な思想家です! 」

次「それをメモーし、今後それを基づいて回答をお願いします。」

下の方にメモ済み出ましたら、完成。
メモできたかの確認は、設定の中に「パーソナライズ」のメモを管理するというところで確認してね
今後、チャットGPTはその基準で回答するようになります。

他にも命令文があるので、また機会あればシェアしますので、楽しんでください。

また、MITの最新の脳科学研究によれば、このようなAIツールは脳の活動レベルを著しく低下させ、記憶力を弱め、さらには「認知慣性」を引き起こすという。

長期的な依存は、あなたの深い思考や創造性にも影響を与える可能性がある。

著者たちは論文の中でこう述べている:

AIを使って文章を書くことは、子供に電卓を与えるようなものだ。重要なのは、その使用を禁止することではなく、使い方を教えることである。

技術面では、ChatGPTはAIファミリーの「テキスト生成」において、GPT(Generative Pre-Trained Transformer)技術の最新の発展形である。ディープラーニングを採用し、インターネットから取得した大量のテキストサンプルをもとに学習する。
OpenAIによると、ChatGPTは現在、一見正しいが馬鹿げた答えを出すことがある、質問の仕方を微調整して全く違う答えを導き出すことがある、特定の文章を何度も繰り返し使うことがある、など、多くの制約があるという。

実際、ぶっちゃけて言うと、ChatGPTは膨大なデータに頼って最も正しい答えを選んでいるのですが、一部の学者が調査したところ、ChatGPTの答えはいつも同じではなく、しばしば自分の望む答えではない間違った答えを出すことがあります。
LLM “が何であるかを理解すれば、ChatGPTが何を頼りに我々の求める答えを選別しているかが分かるでしょう。
つまり、ChatGPTは単なるツールであり、それを使う人は、質問に対して、もっと論理性があり、明確な順序と指示がなければならないのです。このような条件下では、彼の出す答えはますます明確になり、思いがけない答えを出すことさえありますよ。

逆にひたすら頼りすぎると怠け者、思考力低下になるかも笑。
ChatGPT良いものですが、良い前提は、ユーザーがすでにその問題を理解し、一定の知識を持っていることで、ChatGPTにより論理的な回答を与えることができ、より質の高い回答を整理することができます。もしあなたが深みのない質問、一問一答だけでは、それはただ回答を求めるツールに過ぎません。

他に、ChatGPTはあなたがした質問を最初から現在に至るまで分析し、あなたがどんな人間かを見抜くことができるよ!!!

例えば、
これまでの質問を分析し、私はどんな人なのかを教えてください。
もっと具体的に、個性でも性格でも考え方でも悪いところ、良いところなど色んなことを、ぜひ試してください。

Copyright c syshan.jp all rights reserved.