กลุ่มผู้เชี่ยวชาญระดับนานาชาติที่มีชื่อเสียงได้ประชุมกันที่ปักกิ่งเมื่อสัปดาห์ที่แล้ว โดยพวกเขาได้ระบุถึง “เส้นแบ่ง” ในการพัฒนา AI ซึ่งรวมถึงการสร้างอาวุธชีวภาพและการโจมตีทางไซเบอร์
ในแถลงการณ์หลังการประชุมไม่กี่วัน นักวิชาการเตือนว่า จำเป็นต้องมีแนวทางร่วมกันในการรักษาความปลอดภัย AI เพื่อป้องกัน “ความเสี่ยงร้ายแรงหรืออาจถึงขั้นเป็นอันตรายต่อมนุษยชาติในช่วงชีวิตของเรา”
“ในช่วงที่สงครามเย็นถึงจุดสูงสุด ความร่วมมือระหว่าง วิทยาศาสตร์ และรัฐบาลระหว่างประเทศช่วยป้องกันภัยพิบัติทางนิวเคลียร์ได้ มนุษยชาติต้องร่วมมือกันอีกครั้งเพื่อป้องกันภัยพิบัติที่อาจเกิดขึ้นจากเทคโนโลยีที่ไม่เคยมีมาก่อน” แถลงการณ์ระบุ
ผู้เชี่ยวชาญจากการประชุมนานาชาติว่าด้วยความปลอดภัยของ AI ที่กรุงปักกิ่งได้ระบุถึง “เส้นแบ่ง” ในการพัฒนา AI ภาพ: FT
ผู้ลงนามได้แก่ Geoffrey Hinton และ Yoshua Bengio ซึ่งมักได้รับการกล่าวขานว่าเป็น “บิดา” ของ AI, Stuart Russell ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยแคลิฟอร์เนีย และ Andrew Yao หนึ่งในนักวิทยาศาสตร์คอมพิวเตอร์ที่มีชื่อเสียงที่สุดของจีน
แถลงการณ์ดังกล่าวออกมาภายหลังการประชุม International AI Safety Dialogue ที่ปักกิ่งเมื่อสัปดาห์ที่แล้ว ซึ่งเจ้าหน้าที่ รัฐบาล จีนเข้าร่วมการประชุมเพื่อแสดงความเห็นชอบต่อฟอรัมดังกล่าวและผลลัพธ์ที่ได้
ประธานาธิบดีโจ ไบเดนแห่งสหรัฐฯ และประธานาธิบดีสีจิ้นผิงแห่งจีน พบกันเมื่อเดือนพฤศจิกายนปีที่แล้ว และหารือเกี่ยวกับความปลอดภัยของ AI โดยตกลงที่จะจัดทำการเจรจาเกี่ยวกับประเด็นดังกล่าว นอกจากนี้ บริษัท AI ชั้นนำของโลก ยังได้พบปะกับผู้เชี่ยวชาญด้าน AI ของจีนเป็นการส่วนตัวในช่วงไม่กี่เดือนที่ผ่านมา
ในเดือนพฤศจิกายน พ.ศ. 2566 ประเทศต่างๆ 28 ประเทศ รวมทั้งจีน และบริษัท AI ชั้นนำ ตกลงที่จะมุ่งมั่นร่วมกันในการแก้ไขความเสี่ยงด้านการดำรงอยู่ที่เกิดจาก AI ขั้นสูงในการประชุมสุดยอดด้านความปลอดภัยด้าน AI ของ Rishi Sunak รัฐมนตรีกระทรวงการคลังของสหราชอาณาจักร
เมื่อสัปดาห์ที่แล้วที่ปักกิ่ง ผู้เชี่ยวชาญได้หารือเกี่ยวกับภัยคุกคามที่เกี่ยวข้องกับการพัฒนา “ปัญญาประดิษฐ์ทั่วไป (Artificial General Intelligence – AGI)” หรือระบบ AI ที่เท่าเทียมหรือเหนือกว่ามนุษย์
“ประเด็นสำคัญของการอภิปรายครั้งนี้คือเส้นแบ่งที่ระบบ AI ที่มีประสิทธิภาพไม่ควรก้าวข้าม และรัฐบาลทั่วโลกควรบังคับใช้ในการพัฒนาและการใช้งาน AI” Bengio กล่าว
เส้นสีแดงเหล่านี้จะทำให้แน่ใจได้ว่า “ไม่มีระบบ AI ใดที่สามารถจำลองหรือปรับปรุงตัวเองได้หากปราศจากการอนุมัติและการสนับสนุนจากมนุษย์อย่างชัดเจน” หรือ “ดำเนินการใดๆ ที่จะเพิ่มพลังและอิทธิพลของมันอย่างไม่สมควร”
นักวิทยาศาสตร์ยังกล่าวเสริมด้วยว่าไม่มีระบบใดที่จะ "เพิ่มความสามารถของผู้มีส่วนเกี่ยวข้องในการออกแบบอาวุธทำลายล้างสูง ละเมิดอนุสัญญาอาวุธชีวภาพหรืออาวุธเคมี" หรือสามารถ "โจมตีทางไซเบอร์โดยอัตโนมัติที่ส่งผลให้เกิดความสูญเสียทางการเงินอย่างร้ายแรงหรืออันตรายที่เทียบเท่า" ได้อย่างมีนัยสำคัญ
ฮวงไห่ (ตามรายงานของ FT)
แหล่งที่มา
การแสดงความคิดเห็น (0)