1/ はっきり言っておきたいのは、すべての業界、特に AI において、善良な人材を支援することが重要です。 アントロピックは良い人の一人です。 イノベーションを促進し、同時に安全性について話す必要がある理由について、さらに考えてみましょう。
私は通常、ハイパースケーラーについて直接コメントすることは避けるようにしています (私は OpenAI の第 1 ラウンドを主導し、Greylock は Anthropic の投資家です)。 しかし、ここでコメントすることが重要だと強く感じています。投資が存在しなかったとしても、以下は強く言えます。
Anthropic は、他の企業 (Microsoft、Google、OpenAI など) とともに、AI を正しい方法で、思慮深く、安全に、そして社会にとって非常に有益な方法で展開しようとしています。 だからこそ、私は彼らの成功を熱心に応援しています。
他のいくつかの研究所は、安全性と社会的影響を明らかに無視する決定を下しています(たとえば、時々完全なファシストになるボット)、それは選択です。 彼らを支持しないという選択も同様です。
問題のどちらかの側での極端な議論は、現実的で思索的で論理的な議論を払いのけるためによく使用されます。そんなことは知的に不誠実で愚かです。
AIテクノロジーの責任ある使用に関する社会レベルの会話であるべきことを、一連の決まり文句や警鐘に縮小することは、AIによって人生を変えられる何十億もの人間にとって役に立ちません(彼らのほとんどはこのツイートを決して読まないでしょう)。
今年の著書『SuperAgency』を含め、多くの場所で、私はイノベーションを優先し、新しいプレーヤーが平等な競争の場で競争できるようにする、軽い規制環境を強く提唱してきました。
例えば、バイオセキュリティやサイバーセキュリティには、議論が必要な重要なAIの安全性のトピックがあります。
私たちは産業革命の恩恵を享受していますが、歴史は移行期に人類が犯した大きな過ちも示しています。 今回は、移行をより良くナビゲートするために学び、革新しましょう。
基本的に、悪い未来を防ぐ最も確実な方法は、その存在によって、より悪い結果を達成するのをはるかに困難にするより良い未来に舵を切ることです。 言い換えれば、より良い未来に向けて取り組むことであり、想像上の特定の悪い未来を単に止めようとするのではありません。
AIのドゥーマーとブルマーの結果は、確実性ではなく、確率のセットです。私たちの行動は、常に良い結果または悪い結果に確率を傾けます
渓谷に住む私たち全員には、対話を通じて未来を「舵取り」し、安全、革新、ヒューマニズムのバランスをとる前進の道を見つける責任があります。
これは決して「過激な」見解ではありません。歴史は、より良い世界への道は対話、テクノロジー、反復的な展開を通じてあることを示しています。 Anthropic、OpenAI、その他多くの人が毎日これを生きています。
902.13K