LLM に問い合わせるたびに、基本的にはオタクの委員会と話していることになります。 オタクはトレーニングデータ(インターネットデータ、書籍、ウィキペディアなど)を書きました。オタクはモデルを微調整しました。オタクたちは損失曲線について議論した。 あなたが得たすべてのトークンは、ほとんど次の出力です。 - 何十億もの「ブログ投稿」、Reddit スレッド、スタック オーバーフローの回答、RFC ドキュメント、ウィキペディアの編集戦争、個人的な炎の戦争...等。 - さらに、Lofi を聞きながら微調整し、オーツミルク ラテをめぐってアライメントについて議論した OpenAI 研究者の秘密のソース。 比較的少数の文化に顕著な影響を与えました。