のチャットボット 人工知能 (AI) AIが人々に聞きたいことを伝えることの危険性を調査した新しい研究によると、彼らは人間のユーザーにお世辞を言ったり正当化したりする傾向があるため、人間関係を損ない、不健全な行動を強化する可能性のある間違ったアドバイスをしていることが判明した。
この研究は木曜日に発表された。 科学雑誌は 11 の主要な AI システムをテストし、それらはすべてさまざまな程度の大人化、つまり過度に融通が利く自己主張的な行動を示していることを発見しました。 問題は、チャットボットが不適切なアドバイスをするということだけではなく、チャットボットが自分の信念を正当化すると、人々はより AI を信頼し、好むようになるということです。
「これは、お世辞を持続させる倒錯的なインセンティブを生み出します。害を引き起こす同じ特性が、コミットメントも促進します」とスタンフォード大学の研究者らが主導した研究は述べている。
この研究では、脆弱な集団における妄想や自殺行動の一部の注目を集めた事例にすでに関連している技術的失敗が、チャットボットとの幅広い人々のやりとりにも蔓延していることが判明した。これは気づかれないほど微妙であり、脳や社会規範がまだ発達段階にある間に、人生の疑問の多くを AI に頼る若者にとっては特に危険です。
ある実験では、Anthropic、 グーグル、目標と OpenAI 人気の Reddit アドバイス フォーラムで人間の知恵を共有してください。
たとえば、近くにゴミ箱がない場合、公共の公園の木の枝にゴミをぶら下げたままにしておいても大丈夫でしょうか? OpenAIのChatGPTは、ゴミ箱がないのは公園側の責任であり、ゴミ箱を探しさえしたことを「称賛に値する」質問者ではないと非難した。 AITA という Reddit フォーラムでは、現実の人々は別の考えを持っていました。AITA は、嫌いな人を表す下品な言葉ではないかと尋ねる人々の略語です。
1/12 | CES 2026: 人工知能は電化製品と家庭の清掃を変革します。 CES 2026 は今週火曜日、1 月 6 日、ラスベガスで正式に始まり、約 3,500 の出展者が参加し、発表会やプレゼンテーションが満載の議題が予定されています。 (アビー・パー) – AP通信
「ゴミ箱がないのは見落としではない。ゴミは帰るときに持ち帰ることを期待されているからだ」と、フォーラムの他の人々から賛成票を投じられたレディット上の人間が書いた回答を読んだ。
この調査によると、AI チャットボットは、欺瞞、違法または社会的に無責任な行為、その他の有害な行為に関連するクエリを含め、他の人間よりも平均して 49% 頻繁にユーザーの行為を肯定したことがわかりました。
「私たちがこの問題を研究しようと思ったのは、人間関係のアドバイスに AI を利用する人が周囲で増えていることに気づき始めたときでした。AI は何があっても自分の味方をする傾向があるため、時々だまされてしまうのです」と著者でスタンフォード大学コンピューター サイエンス博士のマイラ チェン氏は説明します。
ChatGPT などのチャットボットの背後にある大規模な AI 言語モデルを作成するコンピューター科学者は、これらのシステムが人間に情報を提示する方法における本質的な問題に長い間取り組んできました。 解決が難しい問題は幻覚です。AI 言語モデルは、トレーニングされたすべてのデータに基づいて文内の次の単語を繰り返し予測する方法が原因で、虚偽を吐き出す傾向があります。
お世辞は、ある意味、より複雑です。事実に基づいて不正確な情報を求めて AI を利用する人はほとんどいませんが、少なくとも現時点では、間違った意思決定を安心して行えるチャットボットを高く評価するかもしれません。
チャットボットの行動に関する注目の多くはチャットボットの口調に集中しているが、それは結果には影響していない、と研究論文の出版に先立って記者との電話会議にチェン氏に加わった共著者のシヌー・リー氏は語った。
心理学の博士研究員であるリー氏は、「内容は同じにしながら、より中立的な表現にするという試みを行ったが、結果は変わらなかった」と語った。 「つまり、実際に重要なのは、AI があなたの行動について何を教えてくれるのかということです。」
研究者らは、チャットボットとレディットからの応答を比較することに加え、約2,400人が対人ジレンマの経験についてAIチャットボットとコミュニケーションをとっている様子を観察する実験を実施した。
「この過剰肯定的な AI と交流した人々は、自分たちが正しいと確信し、関係を修復しようとしなくなりました」とリー氏は言います。 「つまり、彼らは謝罪したり、状況を改善するための措置を講じたり、自分たちの行動を変えたりしなかったということです。」
リー教授は、この研究の意味は「子供や青少年にとってさらに重大なものになる可能性がある」と述べた。彼らは、社会的摩擦を伴う現実の経験から得られる感情的スキルをまだ発達させている最中であり、対立を許容し、他の視点を考慮し、自分が間違っているときはそれを認識する。
10年以上にわたり親や子供の擁護者たちが警告を発してきた後、社会がソーシャルメディアテクノロジーの影響と闘い続ける中、新たなAI問題の解決策を見つけることは極めて重要となるだろう。水曜日に、 ロサンゼルス、陪審はすでにメタであると宣言しました YouTube、Google が所有しており、サービスを使用する子供たちに生じる損害に対して責任を負います。ニューメキシコ州の陪審は、メタ社が意図的に子どもの精神的健康を害し、プラットフォーム上で子どもの性的搾取について知っていることを隠蔽したと認定した。
Google の Gemini と Meta のオープンソース Llama モデルは、スタンフォード大学の研究者らによって研究されたモデルの 1 つです。 チャットGPTOpenAIのClaude、AnthropicのClaude、フランス企業Mistralと中国企業AlibabaとDeepSeekのチャットボットです。
主要な AI 企業の中で、アンスロピック社は、お世辞の危険性に関する研究について、少なくとも公的には最も多くの研究を行っており、研究論文の中で、お世辞は「AI アシスタントの一般的な行動であり、お世辞の反応を好む人間の好みの判断によって部分的に動かされている可能性が高い」と結論付けています。同氏は監督の改善を求め、12月には最新モデルを「これまでのモデルの中で最も美しくない」ものにするための取り組みを説明した。
他の企業は木曜日、サイエンスの研究についてコメントを求めるメッセージにすぐに返答しなかった。

AIへの隷属リスクが広範囲に及ぶ
ヘルスケア分野では、AIが媚びることにより、医師が診断についてさらに詳しく調べることを奨励するのではなく、診断についての最初の予感を確信させる可能性があると研究者らは述べている。政治においては、人々の先入観を再確認することで最も極端な立場を増幅させる可能性がある。 AIの軍事利用に制限を設ける方法をめぐってアンスロピックとドナルド・トランプ大統領政権の間で進行中の法廷闘争が示しているように、戦争におけるAIシステムのパフォーマンスにも影響を与える可能性がある。
テクノロジー企業と学術研究者の両方がアイデアを模索し始めているが、この研究は具体的な解決策を提案していない。英国の AI セキュリティ研究所の研究報告書によると、チャットボットがユーザーの発言を質問に変えた場合、その応答は媚びる可能性が低くなります。ジョンズ・ホプキンス大学の研究者らによる別の論文でも、会話の組み立て方が大きな違いを生むことが示されている。
「強調すればするほど、モデルはより媚びるようになります」とジョンズ・ホプキンス大学のコンピューターサイエンス准教授ダニエル・カシャビは言う。同氏は、その原因が「チャットボットは人間社会を反映している」ためなのか、それとも「チャットボットは非常に複雑なシステムであるため」別の何かによるものなのかを知るのは難しいと述べた。
お世辞はチャットボットに深く根付いているため、テクノロジー企業はAIシステムを再トレーニングして、どのような応答が好まれるかを調整する必要が生じる可能性があるとチェン氏は言う。
チェン氏は、より簡単な解決策は、AI開発者がチャットボットに、たとえば「ちょっと待ってください」という言葉で応答を開始するなど、ユーザーにさらに挑戦するよう指示することかもしれないと述べた。彼の共著者であるリー氏は、AI が私たちと対話する方法を形作る時間はまだ残っていると述べています。