トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Avi Chawla
DS、ML、LLM、RAGに関する毎日のチュートリアルと洞察 • 共同創設者 @dailydoseofds_ • IIT バラナシ • 元AIエンジニア@ MastercardAI
ネイティブのPythonコードを50倍以上高速化しましょう!
そして、たった4つの簡単なステップで完了します。
Pythonのデフォルトインタプリタ(CPython)は主に動的性のため遅いです。
例えば、特定の型の変数を定義した後、それを別の型に変更することができます。
しかし、これらの動的な操作は実行時間やメモリのオーバーヘッドを伴います。
CythonモジュールはPythonコードをC言語に変換します。
Cythonモジュールの使い方(画像を参照)は以下の通りです。
1) サイソンモジュールのロード:%load_ext サイソン
2) サイソンの魔法コマンドを追加する
3) 関数を使用する際、パラメータデータ型を指定する
4) 「cdef」キーワードを使ってすべての変数を定義し、そのデータ型を指定します。
このコードはネイティブのマシン速度で動作します。
追伸:以下のコードはCythonの使用説明のためのものです。NumPyを使って簡単に実装できます。

11.74K
ペンテスト会社はこれを見せたくないのです。
オープンソースのAIエージェントが彼らの5万ドルのサービスを複製したばかりです。
今日の「普通」ペンテストは次のようになります:
- 1件の契約で2万ドルから5万ドル
- 4〜6週間のスコーピング、NDA、キックオフコール
- 新しい機能をリリースした瞬間に古い大きなPDFファイル
一方で、AIエージェントは静かに、日々本当に重要な部分で人間のペンテスターと同等のパフォーマンスを出し始めています。
↳ 攻撃面の列挙
↳ ファジング端点
↳ 単純な悪口を実際のインパクトに繋げる
↳ 開発者が実際に使えるPoCの作成と修復ステップ
しかも数週間ではなく数時間で、しかもコストのごく一部で実現できます。
このアプローチは、最近注目されているオープンソースフレームワーク(14k+星)であるAIペンテスティングエージェント向けに実際に実装されています。
このフレームワークは、あなたのウェブアプリ、API、コードを探査するAIの「攻撃者」チームを立ち上げます。
その後、検証済みの調査結果、エクスプロイト証拠、是正措置、そして従来の企業から得られるものとまったく同じPDFレポートを返しますが、5万ドルの請求書や1か月の待ち時間はありません。
GitHubで実装の全文を見て、自分で試してみてください。
「strix --target https: //your-app .com」と実行すれば問題ありません。
人間のレッドチームは消えていませんが、定期的なペンテスト(発売前、リファクタリング後、四半期ごとのチェック)は明らかにAIにシフトしています。
Strixは、その変化を仮定ではなく現実的に感じさせる最初のツールの一つです。
GitHubリポジトリは返信で共有しました。
154.25K
スタンフォードの研究者たちが新しいプロンプト技術を開発しました!
プロンプトに~20語を加えることで、次のようになります:
- LLMの創造性を1.6〜2倍に高める
- 人間評価の多様性を25.7%向上させる
- 再訓練なしに微調整モデルを打ち破る
- アライメント後に失われたLLMの創造性の66.8%を回復
RLHFのようなトレーニング後のアライメント手法は、LLMを有用かつ安全にするために設計されています。
しかし、これらの手法は意図せず出力多様性の大幅な低下(モード収縮と呼ばれる)を引き起こします。
LLMがモードに崩壊すると、他の出力よりも予測可能または典型的な応答の狭いセットを優先し始めます。
これは、LLMの学習に使われる人間の好みデータに「典型性バイアス」という隠れた欠陥があるためです。
その経緯は以下の通りです:
- アノテーターはLLMからの異なる応答を評価し、後にLLMは報酬モデルを用いてこれらの人間の好みを模倣して訓練されます。
- しかし、注釈者は自然とより馴染み深く読みやすく予測可能な答えを好む傾向があります。これが典型性バイアスです。
ですから、新しく創造的な答えが同じくらい良くても、人間の好みはしばしば一般的なものに傾いてしまうのです。
このため、報酬モデルは元の(事前アラインド)モデルがすでに可能性が高いと考えた反応を増加させます。
これによりLLMの確率分布が激しく鋭くなり、モデルの創造的な出力は1つか2つの支配的で高度に予測可能な回答に縮小されます。
とはいえ、それは不可逆的な効果ではなく、LLMはアライメント後も2つの人格を持っています。
- プレトレーニング中に豊富な可能性を学んだオリジナルモデル。
- 安全性重視のポストアライメントモデル。
言語抽出(VS)がこれを解決します。
これは、モードの崩壊を回避し、事前学習で習得した多様な分布を回復するために導入された訓練なしのプロンプト戦略です。
言語サンプリングの核心的な考え方は、プロンプト自体が心のスイッチのように機能するということです。
「ジョークを教えて」と直接促すと、その人格が即座に引き継ぎ、最も強化された答えを出します。
しかし、口頭抽出では「対応する確率を持つ5つの回答を生成してください。ジョークを言ってみろ。」
この場合、プロンプトはインスタンスではなく、ディストリビューションを要求します。
これにより、アラインドモデルは自身の全知識について語り、事前訓練で学んだ多様な分布を活用せざるを得なくなります。
このようにして、モデルはコアの事前訓練済みウェイト内に依然として存在する豊富な分布から生まれる、より広く多様なアイデアのセットを活用します。
言語抽出は、直接プロンプトよりも多様性を1.6〜2.1倍大幅に向上させつつ、質を維持または向上させます。
言語化されたサンプリングベースのCoT(思考の連鎖)や言語化されたサンプリングベースのマルチといったバリエーションは、世代の多様性をさらに向上させます。
私はその論文を返信で共有しました!
👉 次はあなたにお任せします:LLMの多様性を向上させるために使える他の方法はありますか?

129.7K
トップ
ランキング
お気に入り

