Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPTとDeepSeekが科学データを歪曲

ChatGPT や DeepSeek などの AI モデルは、特に医療分野において、要約時に科学的コンテンツを歪める傾向があることがわかっています。

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống08/07/2025

ドイツの研究者グループは最近、AIチャットボットを用いて研究内容を短縮する際にバイアスが生じるリスクについて警告を発しました。研究チームは、人間が執筆した4,900件の科学論文要旨を分析した後、複数のAIモデルを用いて、これらのシステムがどのように情報を処理するかを比較しました。その結果、ほとんどのチャットボットは、正確な要約を求められた場合であっても、過度に一般化してしまうことが明らかになりました。

AIチャットボットとは何か.jpg

AIは科学的研究を要約する際に偏りが生じやすい。

テストでは、AIモデルは、誘導を受けない場合、人間の専門家に比べて5倍のミスを犯しました。正確性が明確に求められた場合でも、エラー率は標準的な要約の2倍でした。「一般化は一見無害に思えるかもしれませんが、実際には元の研究の本質を変えてしまいます」と、研究チームの一人は述べています。「これは体系的なバイアスです。」

注目すべきは、チャットボットの新しいバージョンは問題を解決するどころか、むしろ悪化させていることです。AIが生成した要約は、滑らかで魅力的な言葉遣いによって信憑性がありそうに見えますが、実際の内容は歪められています。あるケースでは、DeepSeekは「安全で成功裏に実施できる」という表現を「安全で効果的な治療」に変更しました。これは、元の研究の結論を再解釈したものです。

別の例では、ラマモデルは、投与量、投与頻度、副作用を明記せずに、若者に糖尿病治療薬を推奨しました。読者が医師や医療専門家で、元の研究で情報を検証していない場合、このような要約は患者に直接的なリスクをもたらす可能性があります。

専門家によると、この現象はAIモデルの学習方法に根ざしているという。今日の多くのチャットボットは、ポピュラーサイエンスニュースなど、既に要約された二次データに基づいて学習されている。AIが要約されたコンテンツを要約し続けるにつれて、歪曲のリスクは高まる。

メンタルヘルス分野の AI の専門家は、AI の開発と使用の早い段階で技術的な障壁を構築する必要があると述べています。

099393800-1681896363-glenn-carstens-peters-npxxwgq33zq-unsplash.jpg

チャットボットはコンテンツを簡単に歪める可能性があるため、ユーザーは注意する必要があります。

ユーザーが科学を学ぶ際にAIチャットボットを利用する機会が増えるにつれ、解釈における小さな誤りが急速に蓄積・拡散し、広範な誤解につながる可能性があります。科学への信頼が低下している今、このリスクはさらに深刻化し、真剣な対応が必要です。

AIを研究と知識の普及に統合することは、もはや後戻りできない流れです。しかし、専門家は、科学的な内容を理解し検証する上で、テクノロジーが人間の役割を代替することはできないと断言しています。医療などのリスクの高い分野でチャットボットを利用する場合、スムーズな言語体験や応答速度だけに重点を置くのではなく、正確性を最優先に考えるべきです。


出典: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html


コメント (0)

No data
No data
ハノイで最も高価なお茶(1kgあたり1000万ドン以上)はどのように加工されるのでしょうか?
川沿いの地域の味
ベトナムの海に昇る美しい日の出
トゥランの雄大な洞窟アーチ
蓮茶 - ハノイの人々からの香り豊かな贈り物
今朝、全国1万8000以上の仏塔が鐘と太鼓を鳴らし、国の平和と繁栄を祈った。
漢江の空は「まさに映画のよう」
2024年のミス・ベトナムはフーイエン出身の少女、ハ・チュク・リンさんに選ばれた
DIFF 2025 - ダナンの夏の観光シーズンを爆発的に促進
太陽を追う

遺産

仕事

No videos available

ニュース

政治体制

地元

製品