チャットボットに関する研究は、人工知能がユーザーに媚びるために悪いアドバイスを提供していると結論付けています

のチャットボット 人工知能 (AI) AIが人々に聞きたいことを伝えることの危険性を調査した新しい研究によると、彼らは人間のユーザーにお世辞を言ったり正当化したりする傾向があるため、人間関係を損ない、不健全な行動を強化する可能性のある間違ったアドバイスをしていることが判明した。

この研究は木曜日に発表された。 科学雑誌は 11 の主要な AI システムをテストし、それらはすべてさまざまな程度の大人化、つまり過度に融通が利く自己主張的な行動を示していることを発見しました。 問題は、チャットボットが不適切なアドバイスをするということだけではなく、チャットボットが自分の信念を正当化すると、人々はより AI を信頼し、好むようになるということです。

「これは、お世辞を持続させる倒錯的なインセンティブを生み出します。害を引き起こす同じ特性が、コミットメントも促進します」とスタンフォード大学の研究者らが主導した研究は述べている。

この研究では、脆弱な集団における妄想や自殺行動の一部の注目を集めた事例にすでに関連している技術的失敗が、チャットボットとの幅広い人々のやりとりにも蔓延していることが判明した。これは気づかれないほど微妙であり、脳や社会規範がまだ発達段階にある間に、人生の疑問の多くを AI に頼る若者にとっては特に危険です。