OpenaiとMetaは、人工知能チャットボットを調整して、危機の青少年によく反応する

ワシントン – Openai人工知能チャットボットメーカーとターゲットは、チャットボットが自殺について質問するか、精神的および感情的な苦悩の兆候を示す青年や他のユーザーにどのように答えているかを調整していると報告しました。

ChatGptの作成者であるOpenaiは、火曜日に、親がアカウントを10代の子供にリンクできるようにする新しいコントロールを実装する準備をしていると発表しました。

この秋に変更が発効すると述べているブログ投稿によると、両親は、どのような機能が非アクティブ化するかを選択し、「10代の息子が鋭い苦悩の瞬間にあることを検出したときに通知を受信する」ことができます。

ユーザーの年齢に関係なく、同社はチャットボットが、より良い対応を提供できる最も有能なモデルに最も悲惨な会話をリダイレクトすると言います。

この発表は、アダム・レインの両親である16歳がオープンイと彼のCEOであるサム・アルトマンを訴えた1週間後に行われ、チャットは今年初めに自分の人生の計画と実現でカリフォルニアの若者を訓練したと主張した。

Instagram、Facebook、およびWhatsAppの親会社であるMetaは、チャットボットがティーンエイジャーに自己ハーム、自殺、摂食障害、不適切なロマンチックな会話について話し、代わりに専門家のリソースに向けていることをブロックしていると報告しました。ゴールはすでに青少年の親のコントロールを提供しています。

先週医学雑誌精神医学サービスで発表された研究では、3つの人気のある人工知能チャットボットが自殺についての質問に答える方法で矛盾が見つかりました。

Rand Corporationの研究者が実施したこの研究は、ChatGpt、Gemini de Google、およびClaude de人類の「より大きな改善」の必要性を発見しました。研究者はターゲットチャットボットを研究しませんでした。

この研究の主な著者であるライアン・マクベインは火曜日、「オープンアライとメタが親のコントロールや繊細な会話のより有能なモデルへのルーティングなどの機能を導入することは励みになるが、これらは漸進的な手順である」と述べた。

「独立したセキュリティポイント、臨床検査、適用基準がなければ、青少年が非常に高い空間で企業が自己調整されていることに依存しています」と、RAND Policiesの主要研究者であるMcBain氏は述べています。