ตามที่ Yoshua Bengio กล่าว มีการแข่งขันที่ดุเดือดระหว่างห้องปฏิบัติการชั้นนำของโลก เพื่อสร้าง AI ที่ชาญฉลาดมากขึ้น โดยไม่ใส่ใจและลงทุนด้านความปลอดภัยเพียงพอ
เมื่อไม่นานนี้ เขาได้ก่อตั้งองค์กรไม่แสวงหากำไร LawZero ซึ่งมุ่งเน้นที่การสร้างระบบที่ปลอดภัยยิ่งขึ้นและ "ป้องกัน" การวิจัยจากแรงกดดันเชิงพาณิชย์
จนถึงปัจจุบัน LawZero ได้ระดมทุนได้เกือบ 30 ล้านเหรียญสหรัฐจากบุคคลที่มีชื่อเสียง เช่น ผู้ก่อตั้ง Skype อย่าง Jaan Tallinn และอดีต CEO ของ Google อย่าง Eric Schmidt

องค์กรไม่แสวงหากำไรแห่งนี้ก่อตั้งขึ้นเพื่อตอบสนองต่อหลักฐานที่เพิ่มมากขึ้นในช่วงหกเดือนที่ผ่านมา ซึ่งบ่งชี้ว่านางแบบชั้นนำในปัจจุบันมีลักษณะนิสัยที่เป็นอันตราย เช่น การหลอกลวง การฉ้อโกง และการป้องกันตนเอง นายเบงจิโอ กล่าว
ตัวอย่างเช่น โมเดล Claude Opus ของ Anthropic ได้แบล็กเมล์วิศวกรในสถานการณ์สมมติ ซึ่งมีความเสี่ยงที่จะถูกแทนที่โดยระบบอื่น การศึกษาเมื่อเดือนที่แล้วยังพบว่าโมเดล o3 ของ OpenAI ปฏิเสธคำสั่งให้ปิดระบบ
นักวิทยาศาสตร์ ผู้ได้รับรางวัลทัวริงชี้ให้เห็นว่าเหตุการณ์เหล่านี้ “น่ากลัวมากเพราะเราไม่อยากสร้างคู่แข่งให้กับมนุษย์บนโลกใบนี้ โดยเฉพาะอย่างยิ่งหากพวกเขาฉลาดกว่าเรา”
แม้ว่าในปัจจุบันสิ่งเหล่านี้ยังเป็นเพียงการทดลองที่มีการควบคุม แต่เขาเกรงว่าในอนาคต AI เวอร์ชันถัดไปจะฉลาดพอที่จะคาดเดาสิ่งที่จะเกิดขึ้น และเอาชนะมนุษย์ด้วยการหลอกลวงที่เราไม่สามารถคาดเดาได้
“ผมคิดว่าเรากำลังเล่นกับไฟ” เขากล่าว และทำนายว่าระบบ AI ที่สามารถช่วยสร้าง “อาวุธชีวภาพที่อันตรายอย่างยิ่ง” อาจกลายเป็นความจริงในปีหน้า
LawZero ซึ่งมีสำนักงานใหญ่อยู่ที่เมืองมอนทรีออล ประเทศแคนาดา มีพนักงาน 15 คน และกำลังมองหาบุคลากรที่มีความสามารถเพิ่มเติมเพื่อสร้างระบบ AI ใหม่ที่ปลอดภัย ซึ่งจะให้คำตอบที่เป็นจริงโดยอิงจากการใช้เหตุผลที่โปร่งใส แทนที่จะได้รับการฝึกฝนมาเพื่อเอาใจผู้ใช้
นายเบงจิโอหวังที่จะสร้างโมเดลเพื่อตรวจสอบและปรับปรุงบริการ AI ที่มีอยู่ โดยป้องกันไม่ให้บริการเหล่านี้ขัดต่อผลประโยชน์ของมนุษย์
“สถานการณ์ที่เลวร้ายที่สุดคือมนุษย์อาจสูญพันธุ์” เขากล่าว
(ตามรายงานของ FT)

ที่มา: https://vietnamnet.vn/lo-con-nguoi-tuyet-chung-vi-ai-bo-gia-yoshua-bengio-vua-lam-mot-dieu-2407930.html
การแสดงความคิดเห็น (0)