【画像の日本語版】
ペンタゴンとの契約について、OpenAIが声明を発表。
OpenAIが言うにはペンタゴンに提供するのは噂されてるような無規制のガードレール無しAIとは全然違う。
我々はむしろAnthropicよりも安全性を高めた内容である。禁止項目は3つ。
①大規模国民監視に使わない
②自律兵器システムの指揮に使わない
③リスクの高い意思決定システム(例えば信用スコア監視)には使わない。
我々はAIの安全性の管理を放棄してない。
安全性に関する裁量権をちゃんと確保してる。
クラウドオンリーの提供で、自律兵器にローカルインストールとかはさせない。
OpenAIの担当者を送り込んで情報共有させる。
ペンタゴンに使わせるのはちゃんと安全性を訓練したモデルで、ガードレールも付ける。
この実装がちゃんと守られてる事も検証する。
ペンタゴンは合法的な目的になら何でもAIを使える。
ただしルールで人間が判断しなきゃならないとされてる事についてはAIは自律判断できない。
もしも自律判断させるとしても、あらかじめ想定シナリオでちゃんと動作する事をシミュレートでテストしておく。
情報を扱う活動については、これも法律などのルールに従う。国民監視にAIを使ってはいけない。
FAQ
「何でこんな事するの?」→敵に対抗するために強力なAIのサポートが絶対必要だから。
「何でAnthropicはペンタゴンと決裂したのにOpenAIは合意できたの?」→Anthropicが決裂した理由なんて知らんよ
「Anthropicはサプライチェーンリスクにされるべきだった?」→ノー。ああいうのは良くない
「ペンタゴンはOpenAIのAIを自律兵器に使えますか?」→ノー。既存の法律やルール、我々の安全体制、諸々から言って起きえないと確信する
「ペンタゴンはOpenAIのAIを国民大規模監視に使えますか?」→ノー。同様に起きえないと確信する
「セーフガード無しでモデルを使わせますか?」→ノー。セーフガードは付ける。
「ペンタゴンが契約に反する使い方したら?」→契約というものは違反された時には解除できる。
「政府が法律やルール変えちゃえば何でもできるわけ?」→我々の契約は現時点でのルールに基づくとしているので、将来ルールが変わってもAIの使い方は変更されない
当初の噂ではOpenAIはペンタゴンに完全無規制のガードレールを外したモデルを提供するとか言う話だったけど、こうして見ると割とちゃんと安全性を確保してると分かる。
ただし、サム氏がよく言うようなトリックが存在するかもしれない。
まずツイートにコミュニティノートが付けられてるのが、「ルールで許されてない限りは自律兵器には使えないって言うけど、ペンタゴンはルールでAIを自律兵器で使っていいとしてる。
じゃあ結局AIを自律兵器に使えるんじゃね?」という指摘。
そして僕が気付いた点はOpenAIは「完全自律兵器にはAI使わせない~」って言ってるけど、OpenAIが言う完全自律兵器ってのはオフラインのスタンドアロンで動くものって意味らしい。
「ウチはクラウド提供オンリーだからスタンドアロンじゃないから完全自律兵器じゃない」みたいな言い訳を言ってる。
という事はクラウド動作の自律兵器ならOKって事か?この点は怪しい