AIが無頓着にメイクを始めると、@Mira_Network直接手を上げて頬を打つ 😂 興味深いことに、2023 年にニューヨークの上級弁護士が連邦裁判所に法的意見書を提出しました データには欠陥はないように見えますが、裁判官はそれを一目で見破り、記事に記載されているケースはどれも存在しませんでしたが、ChatGPT によって捏造されたとは予想していませんでした 2023 年から、OpenAI はオフィス学習の主流の生成ツールになりました これ以前は、情報を見つけるために Baidu と Google を調べる必要がありましたが、今では GPT だけで要約できます このようにして、私は食べ物に手を伸ばす習慣を身につけ、それが本物であるかどうか、そして直接採用するのが面倒です AIがでっち上げても、それが真偽か誰にもわからない、多くのウーロン事件が生まれるだろう なぜなら、言語が滑らかで論理的である限り、大多数の人々を欺くことができるからです しかし実際には、この種のことはAIに完全に依存することはできず、AIはますます出力しますが、検証能力はほぼ停滞しており、幻覚の問題は構造的なリスクになっています このような状況において、@Mira_Networkの AI 出力検証ネットワークが厳格なニーズとなっています @Mira_Network 複数のモデルで構成される検証ネットワークを構築し、システム間のクロス判定を利用して、単一のモデルでは自己認証できない問題を補う ▪️ 最初のステップは、ステートメントを分解することです 複雑な出力は、より基本的な一連の主張に分解されます たとえば、地球は太陽の周りを公転し、月は地球の周りを公転し、それぞれが真か偽かを別々に判断できます 次に、複数のモデルが検証プロセスに接続され、各モデルが独立して判断を下し、システムはそれらの間のコンセンサスの程度をカウントし、信頼度を評価します コンセンサスがしきい値を超えている場合、その主張は有効であると見なされます。 意見の相違が深刻な場合は、2回目のチェックまたは解雇がトリガーされます ▪️ Mira のテスト検証のデータによると、次のことがわかります。 > 3モデルコンセンサスメカニズムにより、精度が73.1%から95.6%に向上 > 全体のエラー率を84%削減 > 複数のモデル間の平均一貫性κ値は0.8に近く、安定した判断能力を持っています もちろん、ただ複数のモデルに投票して真実を判断させると、ランダムに推測しやすい ▪️Mira は、ゲームの仕組みをシステム構造に組み込んでいるため機能します 検証は無料の行為ではありません。 検証に参加する各モデルノードは、結果に対して責任を負う必要があります 他のノードの判断と頻繁に矛盾したり、論理的な軌道から大きく逸脱していることが検出されたりすると、検証権が失われ、ネットワーク内の経済的インセンティブが失われます 検証を実際に実装するために、Mira は実行アーキテクチャに多くのエンジニアリング最適化を行いました ▪️ 最も重要なのは、検証出力を単一のトークンに圧縮することです このクレーム変換テクノロジーにより、検証あたりのコストが大幅に削減され、スループットを低下させることなく大規模なユースケースでシステムを運用できるようになります ▪️ プライバシーレベルでは、Mira のバリデーターは全文に触れることはありません システムはコンテンツを自動的に分割して異なるノードに配布し、検証プロセス中のデータの還元不可能性を確保します 過去 1 年間で、AI はますます多くのシナリオに押し込まれ、生成速度は加速していますが、検証メカニズムは基本的に停滞しています AIは責任を問われないが、人間は責任を問われる 😭 だから@MiraNetworkCNの役割はAIが盲目的な一撃を何度も飛ばすと阻止することだ
2.16K