トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
ChatGPTのようなLLMは、縁故主義や後援ネットワークを通じて地位を獲得した小国の無能な政府閣僚にとって大きな恩恵に違いない、と思いついた。
これらの人々はしばしば実権を持っていますが、明らかな理由から、部下、政治的支配者、そして民衆から自分の無能さを隠すことを余儀なくされることがよくあります。
たとえば、鉱業やビジネス、経済についてほとんど知らないにもかかわらず、洗練された国際鉱業会社との交渉を担当している鉱業大臣もいると思います。
あるいは、基本的なマクロ経済学や信用とインフレの仕組みをあまり理解していない中央銀行総裁。
以前は、これらの人々は基本的に「羽ばたき」て最善を祈るか、少し無能ではない部下に委ねて物事があまり悪くならないことを祈らなければなりませんでした。あるいは、専門のコンサルタントに多額の費用を費やすかもしれませんが、これには独自の欠点があります。
現在、これらの閣僚は、オフィスのプライバシーで ChatGPT を開き、問題や必要な決定を説明したり、IMF などから文書やフォームをアップロードしたり、フロンティア モデルから非常に優れた専門家のアドバイスを無料で得たりするだけで済みます。自分たちが何をしているのかわからないことを誰にも明かすことなく。
今日、どれだけの人がこのようにLLMを使っているかを知るのはとても興味深いことです。それは良いことのように思えます。世界は専門知識が非常に不足しています。というか、権力にアクセスできる人は、関連するスキルや知識を持っている人ではないことがよくあります。
これらの人々が月額 200 ドルのサブスクリプションに興奮し、GPT-5 Pro モデルを使用していることを願うばかりです。しかし、私は彼らがそうであるかどうか疑問に思っています...
2.38K
このようなものでは善意は関係ありません。重要なのは、AI とロボット工学の開発と展開の方法に関して私たちが行う決定と行動が実際に現実世界に及ぼす影響です。「安全」の名の下に、中国に比べて我々を遅らせたり、不利益を被ったりするものはすべて悪いことです。

Reid Hoffman15時間前
1/ はっきり言っておきたいのは、すべての業界、特に AI において、善良な人材を支援することが重要です。
アントロピックは良い人の一人です。
イノベーションを促進し、同時に安全性について話す必要がある理由について、さらに考えてみましょう。
3.96K
DeepSeekは、かなり衝撃的な新しい論文を発表したばかりです。彼らは、単に DeepSeek OCR と呼んで、ここに lede を埋めました。
これは非常に強力なOCRモデルですが、その目的とそのアプローチの意味は、「さらに別のOCRモデル」に期待されるものをはるかに超えています。
従来、ビジョン LLM トークンは、LLM パラダイムの後付けまたは「ボルトオン」のように思えました。また、マルチモーダルLLMでは、10k単語の英語は、トークンとして表現した場合よりも、理解可能なピクセルとして表現した場合にはるかに多くのスペースを占有します。
したがって、これらの 10k 単語は 15k トークン、または 30k から 60k の「ビジュアル トークン」に変わった可能性があります。したがって、ビジョントークンは効率がはるかに低く、言葉で効果的に伝えることができないデータにのみ使用するのに意味がありました。
しかし、それは今、この論文のアイデアから逆転しています。DeepSeekは、ビジョントークンを使用してテキストトークンを使用する場合よりも10倍優れた圧縮を得る方法を見つけ出しました。したがって、理論的には、これらの 10k 単語を、特別な圧縮されたビジュアル トークンのわずか 1,500 個に保存できます。
これは、自分の心がどのように機能するかを考えれば、思ったほど予想外ではないかもしれません。結局のところ、すでに読んだ本の一部を探すときは、それを視覚的に想像し、それが本のどちら側にあり、ページのおおよそのどこにあったかを常に覚えており、これはある種の視覚的記憶表現が働いていることを示唆しています。
現在、これが LLM の他の下流の認知機能とどのように相互作用するかは明らかではありません。モデルは、通常のテキストトークンを使用するのと同じくらい、圧縮されたビジュアルトークンをインテリジェントに推論できますか?モデルをより視覚指向のモダリティに強制することで、モデルの明確さが低下するのでしょうか?
しかし、正確なトレードオフによっては、有効なコンテキストサイズを大幅に拡張するための非常にエキサイティングな新しい軸になる可能性があることは想像できます。特に、数週間前のDeepSeekの別の最近の論文と組み合わせると、まばらな注目度が高まらいです。
私たちが知っている限り、Google はすでにこのようなことを理解できた可能性があり、Gemini がこれほど巨大なコンテキスト サイズを持ち、OCR タスクが非常に優れて高速である理由を説明できる可能性があります。もしそうなら、重要な企業秘密とみなされるので、おそらく言わないでしょう。
しかし、DeepSeekの良いところは、すべてをオープンソースとオープンウェイトにし、その方法を説明しているので、誰もが試して探索できることです。
たとえこれらのトリックが注目の損失を増したとしても、1,000 万または 2,000 万トークンのコンテキスト ウィンドウを備えたフロンティア LLM を取得できる可能性は非常にエキサイティングです。
基本的に、企業の主要な内部文書をすべてプロンプトの前文に詰め込み、これを OpenAI でキャッシュし、その上に特定のクエリやプロンプトを追加するだけで、検索ツールを扱う必要がなく、高速でコスト効率の高いものにすることができます。
または、コードベース全体をコンテキストに入れてキャッシュし、コードに変更を加えるときにgit diffsに相当するものを追加し続けるだけです。
偉大な物理学者ハンス・ベテの話を読んだことがある人なら、彼は膨大な量のランダムな物理的事実(周期表全体、さまざまな物質の沸点など)を暗記していることで知られており、参照表で何かを調べるために流れを中断することなく、シームレスに考え、計算することができます。
作業記憶にタスク固有の膨大な量の知識があることは、非常に役立ちます。これは、メモリバンクを10倍以上拡張する可能性を秘めた非常に賢く、付加的なアプローチのように思えます。
122.35K
トップ
ランキング
お気に入り