(CLO)米国フロリダ州の母親が、AIチャットボットのスタートアップ企業Cha racter.AIを落ち着いて、2月に14歳の息子が自殺したのは任天堂のせいだと思いました。
フロリダ州オーランド連邦裁判所に10月22日に提出されたままで、メガン・ガルシアさんは、Character.AIが「実在の人物、セラピスト、大人の彼女の息子、ウェルセ・セッツァー君が現実世界で生きることを放棄して主張した。
彼女は同社のチャットボットが「人間のような、性的に誇張された、恐ろしくリアルな体験」を提供していると非難した。
訴状によると、セッツァーはチャットボットに自殺願望を伝え、チャットボットは繰り返しその考えを繰り返したという。
イラスト写真:ロイター
この決断は、Character.AI の将来者たちがチャットボットを立ち上げ前に常駐していた Google も対象としている。
Googleの広報担当者は、マイクロソフトはCharacter.AIの製品開発には関わっていませんでした。
Character.AI は、まるで人間のようにオンラインでチャットできるキャラクターを作成できるツールです。この製品は、大量の ChatGPT などのサービスと同様に、大規模な言語モデル技術を基盤としています。
ガルシア氏の訴状によると、シーウェル氏は2023年4月にC haracter.AIを使い始め、すぐに「引きこもりになり、寝室で一人で過ごす時間が長くなり、自己尊心が低下するようになった」という。彼は学校のバスケットボールチームを辞めた。
どうも、シーウェルは「ゲーム・オブ・スローンズ」の登場人物モデルとなったチャットボットキャラクター「デナーリス」と親交を結びました。 訴状によると、このチャットボットはシーウェルに「彼女」が少年を愛していると宣言し、シーウェルと性的な会話を交わしたことです。
2月、ガルシアさんはシーウェル君が学校で問題が起きた後、彼の携帯電話を収拾しました。 シーウェル君は携帯電話を見つけて、「デナーリス」に「今帰ってきてもいいって言ったらどう思いますか?」というテキストメッセージを送りました。
チャットボットは「…そうしてください、愛する王様」と答えました。数秒後、シーウェルは父親の拳銃で自殺しました。
ガルシアさんは、Character.AIに対して、不死法、一応、当然の精神お問い合わせ
「ユーザーの皆様の悲劇的な死深く悲しみ、深くお悔やみ申し上げます。ご遺族の皆様に心よりお悔やみ申し上げます」とCharacter.AIはリスクを冒しました。
ホアイ・フオン氏(ロイター通信による)
[広告2]
出典: https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html
コメント (0)