DeepMindによると、AIが世界に「深刻な損害」を引き起こす可能性があるすべての方法

人工知能の聖杯はです アギ、英語の頭字語 一般的な人工知能。つまり、できる人工知能システムです 人間が実行できる知的課題を理解し、学び、実行する、同様の認知的柔軟性を備えています。それはまだ存在しませんが、のAIの分割から グーグルdeepmind彼らはそれがすぐに来ることができると信じています 2030

ケースは、 人間に対する行動を防ぐ方法は? DeepMindの研究者は、この問題に対処し、いくつかの提案をする新しい技術レポートを公開しました。 安全にAGIを開発します。これを行うために、彼らは特定しました それが世界に「深刻な損害」を引き起こす可能性がある4つの方法

2014年にGoogleに吸収されたDeepmind Coファウンダーが率いるチームは シェーンレッグ、次のようなこれらのリスクを分類します。 誤用、不整合、エラー、構造的リスク。最初の2つは、研究のより深い条約です。

悪用

これは、現在の生成的人工知能ツールにすでに存在するリスクですが、AGIの最大の能力は 潜在的な損傷が掛けられます。たとえば、AGIにアクセスできる悪意のある人はそれを使用することができます 未知のコンピューターの脆弱性を見つけるか、生物兵器として機能するカスタムウイルスを作成する

DeepMindによると、AGIを開発する企業はそうしなければなりません トレーニング後に徹底的なテストを実行し、厳格なセキュリティプロトコルを作成する、現在のものよりも大きくて良くなっています。彼らはまた、彼らが呼ぶものを提案します 「未学習」、その方法 完全に危険な機能を排除します、この研究はこれが可能かどうかについて疑問を表明していますが モデルをかなり制限することなく

ミスアライメント

これは危険です」Skynet ‘、意識を取り入れ、映画の中で世界を破壊するAIに関連して ターミネーター。それは、システムがデザイナーによって課された制限から解放されたときに発生し、 その作成者が許可するつもりがなかったことを知っているアクションを実行する

これを避けるために、DeepMindは次のようなテクニックを提案します 増幅された監督、ここで2つのAI 彼らは彼らの結果を相互にレビューします、したがって、逸脱する傾向のないシステムを作成します。これが失敗した場合、彼らはお勧めします 集中的なテストと監視 早期の危険兆候を検出し、AGIを維持する 直接的な人間の監督を伴う安全な仮想環境で。基本的に、常にあることを保証します 「シャッタースイッチ」

エラー

AIです 有害なアクションを実行しますが、意図的ではありません。例の発売以来、これらの2年半の怒りの中で多くのことを知っています chatgpt。 DeepMindはに焦点を当てています 軍事使用 そして、軍隊がAGIを展開できることを指摘しています 競争圧力、しかし、これはしなければならないことによって非常に深刻な結果をもって間違いを犯す可能性があります 現在のAIが実行するよりもはるかに複雑なタスクを実行する

DeepMindの最初の推奨事項は次のとおりです AGIがあまりにも多くのパワーに到達することを許可しないでください、それが示唆するもののために 段階的および限られた展開、システムを介して注文をフィルタリングします ‘シールド’ それは、それらを実装する前に安全であることを保証します。

構造的リスク

DeepMindは、構造的リスクを次のように定義します 複数の人工剤と複雑な人間社会との相互作用に由来する意図的ではあるが実際の結果

シェーンレッグのチームがAGIに影響を与える可能性があるため、それを納得させることができます 信頼できるものを識別できないようにしましょう。また、AGIの可能性も指摘しています 経済および政治システムの制御を徐々に取得します いつか私たちは機械に統治されている世界にいます。この最後のタイプのリスクは、人々、インフラストラクチャ、および機関の将来の機能に依存するため、予防するのが最も困難です。