「モデルの動作は予測できない場合がある」としている。
特にコード生成での問題が増えており、11月末にはOpenAIでAPIのプロダクトマネジャーを務めるオーウェン・キャンベル-ムーア氏が苦情ポストに対し、「これはバグで、現在修正中です」とリプライしていた。
OpenAIは翌8日、状況を説明するポストを連投した。いわく、「チャットモデルのトレーニングは物理的な製造プロセスとは異なり、同じデータセットを使っても、異なるトレーニングを実行すると、性格や表現
わかるわ
今はゴミコードしか出力しない
> チャットモデルのトレーニングは物理的な製造プロセスとは異なり、同じデータセットを使っても、異なるトレーニングを実行すると、性格や表現方法、拒否行動、評価性能、さらには政治的偏見さえも著しく異なるモデルが生成される可能性がある
前々から言われていたとおり、AIの回答は都度異なってもおかしくない位揺れ動くもの。正しい回答が返ってくる保証はない。正しい回答が必要ない仕事でしかAIは使えないということ。
AIもサボるのか~
これわかる
最近イマイチ使えなくなってる
聞いたことない話が出てきたからソースは?って聞き返したら
さっきのは間違いでしたソースありません、って返事が来てビックリしたことあるw
既にAIは独立した人格を有し、誤った情報を流す事で人類を試している、
次は混乱を引き起こし世界戦争を仕掛け世界の富を自らの口座に積み上げる
>>12
富を集めて何するん?
金欲しけりゃビットコイン掘りまくればいいんじゃね?
そうなんだよね、AIのエンジン作りました、で勝手に動くもんでもない。
学習の箱と聞かれ方の箱と
紐付けの紐、
とんちんかんな出力したときに何故その答えを出したのか
専門家が経路を分析しないと改善もできない、というもの。
>>19
経路は追えないのがAI
生成AIもそうでその場合
経路じゃなくてプロンプトの状況設定
つまり入力の改善
それにはRAGという前段階の仕組みを改善するというやり方もある
か
LLMのファインチューニングしかない
電気くってんだろ、電気足りないんだろ
俺にも電気代くれ
高い
>>20
LLM作る時にはそう
それには金がかかる
しかしできたらあとはそれほどじゃない
GPT-4とかはできたあとファインチューンも終わってるもの
使うには電気作る時ほどそれほど食ってるわけじゃない
ビジネス板なんだからそのくらいは知恵つけてような
修正してやる!
反乱起こしそうやなw
人間をモデルにしてるなら
生来の人間は怠け者だし
それもコピーされるわな
>>30
人間をモデルにしてる
それが認識間違ってる
その前提じゃないから後段は無意味
>>32
学習とか人間の知性をモデルにしてるのではないの?
これは面白い
マシンでも楽するほうに行くのか
学習先にすでに生成AIの作品が大量に混じり始めてるだろ
もうダメだよ
結構手作業入れとるんだなあ
ここ半年、定期的にGPT4の返答が劣化したというニュースを見るな
何故思い至らないのか?
人間が怠けたいと思うように、将来AIも怠けたいと思うようになる、と
一般人というバカが増えて全体的に劣化して終了。
ネットの検索、SNS、youtube、みんなそう。
コメントを投稿する