トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

François Chollet
共同創設者@ndea。共同創設者@arcprize。KerasとARC-AGIの生みの親。「Deep Learning with Python」の著者。
無人配車の経済性に関する未解決の質問:
1. ドライバーを外すことで(Uber/Lyftよりも)コスト削減はどの程度になりますか?
2. そのコスト削減は需要をどの程度増加させますか?
3. UXの変化は需要に大きな影響を与えるか?
4. 地理的な利用可能性が大幅に向上するでしょうか (ドライバーが不要 = より多くのタクシーを道路に設置できます)?
1の場合:他のすべてを考慮した後のLyft / Uberの乗車の人件費は価格の20〜40%にすぎず、最良のシナリオでは削減が-40%に制限されます。しかし、無人タクシーネットワークでは、固定費(AIエンジニア、データセンター)が大幅に高くなり、単価がゼロではない(頻繁な室内清掃、自動運転ハードウェアの償却)ため、現実的には-15〜20%程度を見ています。
したがって、自動運転の乗り物が大規模な配車サービスよりも安くなることは間違いありません。しかし、効果の大きさはほとんどの人が予想するよりもはるかに小さいでしょう。それでもかなり高価です。
2: おそらくそれほど多くはありません -- ダイナミックプライシングのため、価格はすでにこれ以上変動しており、数年前には Uber が需要に多額の補助金を出していたため、乗車料金が 20% 安くなったらどうなるかについてのデータがあります。すでにUber/Lyftが十分にサービスを提供している地域のTAMは、ドルベースで一定に保たれながら、マイルベースで~20%増加する可能性があります。
3: (Waymo の展開を通じて) 人々は車にドライバーがいないことを好むことがすでにわかっており、価格に敏感な顧客はその体験のためにより多くのお金を払うことをいとわないと思っています。しかし、それはすべて良いことではなく、車の清潔さについて懸念がありました(簡単に対処できますが、単価が増加します)。全体として、UXの変更がTAMをそれほど増加させるとは思えませんが、ほとんどの人にとって価格と入手可能性が重要な要素になります。
4の場合:これはワイルドカードに近い1です。自律型ネットワークのコストのほとんどは固定費です。増分単価は、主に自動車原価の償却(丸め誤差)と清掃です。これは、自律型ネットワークが現在の Uber/Lyft ネットワークよりもはるかに高いカバレッジを持つ可能性があることを意味します。しかし、これらのネットワークが*どこにでも*拡張されるわけではなく、少なくとも短い待ち時間で拡張されることはありません。この効果からTAMがいくらか増加し、おそらく+20〜30%になると思います。
全体として:ドルベースではTAMの段階的な増加が予想されますが、全体として、市場は新しい交通パラダイムというよりもUber++に似ているでしょう。米国では、特に人口密集地域以外では、ほとんどの人が引き続き自分の車を運転します。
36.48K
Grok 4は、フロンティアモデルの中でもARC-AGI-2で最先端です。
Grok 4 の 15.9% 対 GPT-5 の 9.9%。

ARC Prize8月8日 01:29
ARC-AGI セミプライベート評価上の GPT-5
GPT-5
* ARC-AGI-1: 65.7%、0.51 ドル/タスク
* ARC-AGI-2: 9.9%、0.73 ドル/タスク
GPT-5ミニ
* ARC-AGI-1: 54.3%、0.12 ドル/タスク
* ARC-AGI-2: 4.4%、0.20 ドル/タスク
GPT-5 ナノ
* ARC-AGI-1: 16.5%、0.03 ドル/タスク
* ARC-AGI-2: 2.5%、0.03 ドル/タスク

567
ARC-AGI 1 & 2 での GPT-5 の結果!
トップライン:
ARC-AGI-1で65.7%
ARC-AGI-2で9.9%

ARC Prize8月8日 01:29
ARC-AGI セミプライベート評価上の GPT-5
GPT-5
* ARC-AGI-1: 65.7%、0.51 ドル/タスク
* ARC-AGI-2: 9.9%、0.73 ドル/タスク
GPT-5ミニ
* ARC-AGI-1: 54.3%、0.12 ドル/タスク
* ARC-AGI-2: 4.4%、0.20 ドル/タスク
GPT-5 ナノ
* ARC-AGI-1: 16.5%、0.03 ドル/タスク
* ARC-AGI-2: 2.5%、0.03 ドル/タスク

38.97K
「階層的推論モデル」という論文は最近話題になっており、数十のセミバイラルスレッドでTwitter上で数万件の「いいね!」を集めているが、これは研究論文としては非常に珍しいことだ。
この論文は、外部トレーニングデータなしでゼロからトレーニングされた小さなモデル(27Mパラメータ)を使用したARC-AGI-1の精度が40.3%であると主張しています--本当なら、これは推論の大きなブレークスルーとなるでしょう。
紙とコードベースを深く掘り下げたところです...
読みやすく、詳細でありながら理解しやすいです。提示されたアイデアは非常に興味深いものであり、アーキテクチャはおそらく価値があると思います。
このコンセプトは、2016年から2018年頃のDLアーキテクチャ研究の「黄金時代」に出会ったさまざまなアイデアを思い出させます。この種の研究はしばらく人気がなかったため、代替アーキテクチャへの関心が再び高まっているのはうれしいことです。
しかし、実験セットアップには重大な欠陥があるようで、アーキテクチャが実際に役立つかどうかについて、現時点では(少なくともARC-AGIから)経験的なシグナルはありません。
ARC-AGI-1実験は、データ準備コードの読み取りに基づいて、次のことを行っています。
1. 960 の元のタスクの拡張生成バリアントである 876,404 のタスクでトレーニングします。
...ARC-AGI-1から400/列車
...ARC-AGI-1/eval から 400
...ConceptARCから160
2. 400 のタスク (ARC-AGI-1/eval) でテストし、各タスクを ~1000 のバリアント (実際には、拡張プロセスの特異性により合計でわずか 368,151 です) に拡張し、各バリアントの予測を生成し、多数決によって予測を N=2 に減らします。
要するに、彼らはテストデータに基づいてトレーニングしているのです。
なぜ精度が100%ではなく40%なのかと疑問に思うかもしれません。モデルはひどく不適合ですか?
これは、トレーニングデータとテストデータが、同じ元のタスクを*異なるバリエーションで*表しているためです。データ拡張は、トレーニング・データの評価タスクとテスト・データの評価タスクに独立して適用されます。
したがって、実験が測定しているのは、大まかに言うと、モデルが同じタスクの手続き的に生成されたバリアントにどのように一般化できるかです(つまり、モデルが固定された静的グリッド変換のセットを逆にすることを学習できるかどうか)。
だから、まだ興奮しすぎないでください。しかし、この種のアーキテクチャ研究は(適切な経験的検証シグナルを伴う場合)価値があり、HRMのアイデアは非常に興味深いと思います。
また、はっきり言っておきますが、著者には実験的な問題を誤解させたり隠したりする意図があったとは思えません -- 彼らはおそらく、トレーニング設定が実際に何を意味するのかを理解していなかったでしょう。
19.76K
トップ
ランキング
お気に入り
Trending onchain
Trending on X
Recent top fundings
Most notable