AIが私たちの仕事を奪ってしまう可能性はあるのでしょうか?ビル・ゲイツ氏が警告を発する

少し前まで、人工知能は私たちの生活に単なる「プラス」でした。私たちは宿題を手伝ったり、すぐに答えを見つけたり、理解したくても理解できない文書の翻訳としてそれを使用しました。

代わりに、 もはや時折手助けするだけではない今ではAIなしでは生きていけないと認める人がたくさんいます。彼らは、料理のレシピや心理学者のレシピを探したり、就職面接の準備をしたりするためにそれを使用します。 さらには、WhatsApp メッセージに何と返信すればよいかを知ることもできます。

ビル・ゲイツは、このテクノロジーが人類の将来に与える影響に再び焦点を当てました。ゲイツ氏は 4 つの具体的なリスクを特定しました。 労働市場を変える可能性があるため、細心の注意を払う必要があります。

AIが私たちの仕事を奪うという恐怖

オートメーション これは、人工知能の進歩に関連する主な懸念事項の 1 つです。管理タスクがどんどん増えていく アルゴリズムの助けを借りて数秒で解決できます、チャンスを広げるものですが、同時に雇用の不確実性も生み出します。

ゲイツ氏は、困難がないわけではないが、この変化は漸進的なものになると信じている。

同氏の意見では、一部の分野では今後も何年も人的介入が必要となるだろう、特に ケア、教育、健康に関連するもの。 しかし、市場から取り残されないよう、多くの労働者が新しい機能に適応し、新しいスキルを習得する必要があると同氏は警告する。

フェイクビデオは実際の政治的影響を与える可能性がある

Microsoft の創設者が最も懸念しているもう 1 つの点は、 AIによって操作されるコンテンツの成長。 いわゆるディープフェイクにより、ますます現実的な偽のビデオ、音声、画像を生成することが可能になります。

のようなプラットフォームでは

適切なタイミングで公開された虚偽の録音は、たとえ後で否定されたとしても、人々の決定を変え、時間内に修正することがすでに困難な疑念を引き起こす可能性があります。

AIはサイバー攻撃も促進する可能性がある

ゲイツ氏はこう警告する AI により、より効果的なコードの生成、デジタル詐欺の完璧化、より信頼性の高い欺瞞メッセージの設計が可能になります。特にタイプ攻撃において フィッシング (信頼できる企業や人物になりすまして電子メールや電話などの詐欺を行う手法)

公開データへのアクセスとこれらのツールの速度により、この種のトラップをパーソナライズする能力が向上するため、サイバーセキュリティをさらに強化する必要があります。

自信を持って答えると…たとえ間違っても

AI の最もよく知られた欠陥の 1 つは、説得力のあるデータを作り出す能力です。それが起こるのです ChatGPT のようなシステムが、論理的に聞こえる発明された答えで情報のギャップを埋める、いわゆる「幻覚」を伴います。

Android を使用している場合に限り、chatgpt はモバイル上のパーソナル アシスタントになることができます。ディフーシオン

これは、彼が存在しない場所を勧めたり、偽りの事実を本当の事実と混ぜ合わせたり、実際には答えが分からない質問に絶対的な確信を持って答えたりするときに起こります。

このリスクを軽減するために、多くの専門家は、情報には常に検証可能な情報源を添付するよう求めることを推奨しています。役に立つ例は次のとおりです 「一次情報源がない場合は、『未確認データ』と書き、どのように検証できるかを示してください。」などの具体的な指示を追加します。

さらに、これらのシステムは、学習するデータにすでに存在するバイアスを再現し、性別、出身、アイデンティティに関する社会的偏見を増幅させる可能性があることをゲイツ氏は回想しています。