กลุ่มนักวิจัยในเยอรมนีเตือนเมื่อไม่นานนี้เกี่ยวกับความเสี่ยงของอคติเมื่อใช้แชทบอท AI เพื่อย่อเนื้อหาการวิจัย หลังจากวิเคราะห์บทคัดย่อ ทางวิทยาศาสตร์ 4,900 ฉบับที่เขียนโดยมนุษย์ ทีมวิจัยใช้โมเดล AI หลายแบบเพื่อเปรียบเทียบวิธีที่ระบบเหล่านี้ประมวลผลข้อมูล ผลลัพธ์แสดงให้เห็นว่าแชทบอทส่วนใหญ่มีความผิดในการสรุปข้อมูลโดยรวมมากเกินไป แม้ว่าจะได้รับการขอให้สรุปข้อมูลอย่างถูกต้องก็ตาม
AI มีแนวโน้มที่จะมีอคติเมื่อสรุปผลการวิจัยทางวิทยาศาสตร์
ในการทดสอบ โมเดล AI ทำผิดพลาดมากกว่าผู้เชี่ยวชาญถึง 5 เท่าเมื่อไม่ได้รับคำแนะนำ แม้ว่าจะมีข้อกำหนดที่ชัดเจนเกี่ยวกับความแม่นยำ แต่อัตราข้อผิดพลาดกลับสูงกว่าการสรุปมาตรฐานถึงสองเท่า “การสรุปโดยทั่วไปบางครั้งอาจดูไม่เป็นอันตราย แต่ในความเป็นจริงแล้ว การสรุปโดยทั่วไปจะเปลี่ยนลักษณะของการวิจัยเดิม” หนึ่งในทีมกล่าว “นั่นคืออคติเชิงระบบ”
ที่น่าสังเกตคือ เวอร์ชันใหม่ของระบบแชทบ็อตไม่ได้แก้ไขปัญหา แต่กลับทำให้ปัญหารุนแรงขึ้น ด้วยภาษาที่ลื่นไหลและน่าดึงดูด ทำให้บทสรุปที่สร้างโดย AI ดูน่าเชื่อถือได้อย่างง่ายดาย ในขณะที่เนื้อหาจริงกลับบิดเบือนไป ในกรณีหนึ่ง DeepSeek ได้เปลี่ยนวลี “ปลอดภัยและสามารถทำได้สำเร็จ” เป็น “การรักษาที่ปลอดภัยและมีประสิทธิภาพ” ซึ่งเป็นการตีความข้อสรุปของการศึกษาดั้งเดิมใหม่
ในอีกตัวอย่างหนึ่ง แบบจำลองลามะแนะนำยารักษาโรคเบาหวานสำหรับคนหนุ่มสาวโดยไม่ระบุขนาดยา ความถี่ หรือผลข้างเคียง หากผู้อ่านเป็นแพทย์หรือผู้ประกอบวิชาชีพ ด้านการแพทย์ ที่ไม่ตรวจสอบข้อมูลกับการวิจัยดั้งเดิม บทสรุปเช่นนี้อาจก่อให้เกิดความเสี่ยงโดยตรงต่อผู้ป่วยได้
ผู้เชี่ยวชาญกล่าวว่าปรากฏการณ์ดังกล่าวมีรากฐานมาจากวิธีการฝึกโมเดล AI ปัจจุบันแชทบอตจำนวนมากได้รับการฝึกจากข้อมูลรอง เช่น ข่าววิทยาศาสตร์ยอดนิยม ที่ได้รับการย่อให้สั้นลงแล้ว เมื่อ AI ยังคงสรุปเนื้อหาที่ย่อลง ความเสี่ยงของการบิดเบือนก็เพิ่มขึ้น
ผู้เชี่ยวชาญด้าน AI ในด้านสุขภาพจิตกล่าวว่าจำเป็นต้องสร้างอุปสรรคทางเทคนิคในช่วงเริ่มต้นของการพัฒนาและการใช้งาน AI
ผู้ใช้ต้องระวังเนื่องจากแชทบอทสามารถบิดเบือนเนื้อหาได้อย่างง่ายดาย
เนื่องจากผู้ใช้พึ่งพาแชทบอต AI มากขึ้นในการเรียนรู้เกี่ยวกับวิทยาศาสตร์ ข้อผิดพลาดเล็กๆ น้อยๆ ในการตีความจึงอาจสะสมและแพร่กระจายได้อย่างรวดเร็ว ส่งผลให้เกิดการรับรู้ที่ผิดพลาดอย่างแพร่หลาย ในช่วงเวลาที่ความเชื่อมั่นในวิทยาศาสตร์ลดลง ความเสี่ยงนี้ก็ยิ่งน่ากังวลและสมควรได้รับความสนใจอย่างจริงจัง
การผสาน AI เข้ากับการวิจัยและการเผยแพร่ความรู้เป็นแนวโน้มที่ไม่อาจย้อนกลับได้ อย่างไรก็ตาม ผู้เชี่ยวชาญยืนยันว่าเทคโนโลยีไม่สามารถแทนที่บทบาทของมนุษย์ในการทำความเข้าใจและตรวจสอบเนื้อหาทางวิทยาศาสตร์ได้ เมื่อใช้แชทบอทในพื้นที่เสี่ยงสูง เช่น การแพทย์ ความแม่นยำควรมีความสำคัญสูงสุด แทนที่จะมุ่งเน้นเฉพาะประสบการณ์การใช้ภาษาที่ราบรื่นหรือความเร็วในการตอบสนองเท่านั้น
ที่มา: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html
การแสดงความคิดเห็น (0)