โมเดลดังกล่าวมีความสามารถในการใช้เหตุผล แก้ปัญหาทางคณิตศาสตร์ที่ซับซ้อน และตอบคำถามการวิจัย ทางวิทยาศาสตร์ ซึ่งถือเป็นก้าวสำคัญในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) หรือเครื่องจักรที่มีความสามารถในการรับรู้เช่นเดียวกับมนุษย์
OpenAI กล่าวว่าบริษัท “ระมัดระวัง” เป็นพิเศษเกี่ยวกับวิธีที่จะนำโมเดล o1 ออกสู่สาธารณะ เนื่องจากความสามารถขั้นสูงของโมเดลนี้ ภาพ: Getty Images
ไฟแนนเชียลไทมส์รายงานว่า OpenAI ประเมินความเสี่ยงของโมเดลใหม่เหล่านี้ไว้ที่ระดับ “ปานกลาง” สำหรับประเด็นที่เกี่ยวข้องกับอาวุธเคมี อาวุธชีวภาพ อาวุธรังสี และอาวุธนิวเคลียร์ (CBRN) ซึ่งเป็นระดับสูงสุดที่บริษัทเคยประเมินไว้ ซึ่งหมายความว่าเทคโนโลยีนี้ได้ “พัฒนา” ความสามารถของผู้เชี่ยวชาญในการสร้างอาวุธชีวภาพ “อย่างมีนัยสำคัญ”
ตามที่ผู้เชี่ยวชาญระบุ ซอฟต์แวร์ AI ที่มีความสามารถในการคิดเหตุผลอย่างละเอียด โดยเฉพาะในมือของผู้ไม่หวังดี อาจเพิ่มความเสี่ยงในการถูกละเมิดได้
ศาสตราจารย์โยชัว เบนจิโอ นักวิทยาศาสตร์ด้าน AI ชั้นนำของโลก จากมหาวิทยาลัยมอนทรีออล ได้เน้นย้ำว่าระดับความเสี่ยงปานกลางนี้ยิ่งเพิ่มความเร่งด่วนในการออกกฎระเบียบด้าน AI เช่น ร่างกฎหมาย SB 1047 ซึ่งกำลังอยู่ระหว่างการพิจารณาในรัฐแคลิฟอร์เนีย ร่างกฎหมายฉบับนี้กำหนดให้ผู้ผลิต AI ดำเนินมาตรการเพื่อลดความเสี่ยงที่โมเดลของตนจะถูกนำไปใช้ในทางที่ผิดเพื่อพัฒนาอาวุธชีวภาพ
ตามรายงานของ The Verge ความปลอดภัยของโมเดล AI กลายเป็นข้อกังวลสำคัญ เนื่องจากบริษัทเทคโนโลยี เช่น Google, Meta และ Anthropic กำลังเร่งสร้างและปรับปรุงระบบ AI ขั้นสูง
ระบบเหล่านี้มีศักยภาพในการให้ประโยชน์อย่างมากในการช่วยให้มนุษย์ทำงานให้สำเร็จและให้ความช่วยเหลือในด้านต่างๆ แต่ก็ก่อให้เกิดความท้าทายด้านความปลอดภัยและความรับผิดชอบต่อสังคมด้วยเช่นกัน
กาว ฟอง (ตามรายงานของ FT, Reuters, The Verge)
ที่มา: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
การแสดงความคิดเห็น (0)