SGGP
បន្ទាប់ពីអឺរ៉ុបបានចាប់ផ្តើមពង្រាង ហើយមិនយូរប៉ុន្មានច្បាប់ដំបូង របស់ពិភពលោក ស្តីពីបញ្ញាសិប្បនិម្មិត (AI) ក្រុមហ៊ុនរុករកទិន្នន័យអ៊ីនធឺណេតឈានមុខគេទាំងបួនរបស់សហរដ្ឋអាមេរិក "យក្ស" ទើបតែចាប់ផ្តើមក្រុមមួយដែលមានឈ្មោះថា Frontier Model Forum ។
គោលដៅស្នូលនៃវេទិកា Frontier Model Forum គឺដើម្បីលើកកម្ពស់ AI ដែលមានទំនួលខុសត្រូវ។ រូបថត៖ THINKWITHNICHE |
ភាគីមកជាមួយគ្នា
ក្រុមដែលរួមមាន Anthropic, Google, Microsoft, និង OpenAI ដែលជាម្ចាស់ ChatGPT បាននិយាយថា គោលដៅស្នូលនៃវេទិកា Frontier Model គឺដើម្បីជួយកាត់បន្ថយហានិភ័យដែលបង្កឡើងដោយវេទិកា AI និងអភិវឌ្ឍស្តង់ដារឧស្សាហកម្ម។ វេទិកា Frontier Model Forum នឹងបង្កើតវេទិកាថ្មីមួយជាមួយនឹងគោលដៅចម្បងដូចខាងក្រោម៖ លើកកម្ពស់ការស្រាវជ្រាវសុវត្ថិភាព AI ដើម្បីគាំទ្រដល់ការអភិវឌ្ឍន៍ កាត់បន្ថយហានិភ័យ និងធ្វើស្តង់ដារការវាយតម្លៃ និងកម្រិតសុវត្ថិភាព។ កំណត់ការអនុវត្តល្អបំផុតសម្រាប់ការអភិវឌ្ឍន៍គំរូ និងការដាក់ឱ្យប្រើប្រាស់ ហើយជួយសាធារណៈជនឱ្យយល់អំពីធម្មជាតិ សមត្ថភាព ដែនកំណត់ និងផលប៉ះពាល់នៃបច្ចេកវិទ្យា។ និងសហការជាមួយអ្នកបង្កើតគោលនយោបាយ អ្នកសិក្សា សង្គមស៊ីវិល និងក្រុមហ៊ុននានា ដើម្បីចែករំលែកចំណេះដឹងអំពីហានិភ័យ និងសុវត្ថិភាព។
ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សបានទប់ទល់នឹងបទប្បញ្ញត្តិដែលកើនឡើងជាប្រពៃណី ប៉ុន្តែនៅពេលនេះ ឧស្សាហកម្មបច្ចេកវិទ្យាបានផ្លាស់ប្តូរជំហររបស់ខ្លួនយ៉ាងទូលំទូលាយលើហានិភ័យដែលបង្កឡើងដោយ AI ។ ក្រុមហ៊ុនដែលចូលរួមក្នុងគំនិតផ្តួចផ្តើមវេទិកា Frontier Model Forum បានសន្យាថានឹងចែករំលែកការអនុវត្តល្អបំផុតក្នុងចំណោមក្រុមហ៊ុន និងធ្វើឱ្យព័ត៌មានមានជាសាធារណៈដល់ រដ្ឋាភិបាល និងសង្គមស៊ីវិល។
ជាពិសេស វេទិកា Frontier Model Forum នឹងផ្តោតលើវេទិការៀនម៉ាស៊ីនខ្នាតធំ ប៉ុន្តែចាប់ផ្តើមដំបូង ដែលយក AI ទៅកាន់កម្រិតថ្មីនៃភាពទំនើប ដែលជាកត្តាហានិភ័យសក្តានុពលផងដែរ។ លើសពីនេះ វេទិកា Frontier Model Forum ក៏នឹងគាំទ្រដល់ការបង្កើតកម្មវិធីដែលដោះស្រាយបញ្ហាប្រឈមសំខាន់ៗក្នុងសង្គមដូចជា៖ ការកាត់បន្ថយ និងការបន្សាំនៃការប្រែប្រួលអាកាសធាតុ ការរកឃើញ និងការបង្ការជំងឺមហារីកដំបូង និងការការពារការគំរាមកំហែងតាមអ៊ីនធឺណិត។
បន្ទប់សម្រាប់ការបំផ្លាញសក្តានុពល
ការប្រកាសនៃវេទិកា Frontier Model Forum ដោយក្រុមហ៊ុនអាមេរិកកើតឡើងប៉ុន្មានថ្ងៃបន្ទាប់ពីសមាជិកព្រឹទ្ធសភាអាមេរិកកាលពីថ្ងៃទី 25 ខែកក្កដាបានព្រមានអំពីហានិភ័យនៃ AI ដែលត្រូវបានប្រើប្រាស់សម្រាប់ការវាយប្រហារដោយជីវសាស្ត្រនៅឯសវនាការមួយនៅចំពោះមុខអនុគណៈកម្មាធិការនៃគណៈកម្មាធិការតុលាការរបស់ព្រឹទ្ធសភាសហរដ្ឋអាមេរិក។ ថ្មីៗនេះ ក្រុមហ៊ុនបច្ចេកវិទ្យាធំៗចំនួន 7 រួមមាន OpenAI, Alphabet និង Meta បានប្តេជ្ញាចិត្តដោយស្ម័គ្រចិត្តទៅកាន់សេតវិមានក្នុងការអភិវឌ្ឍន៍ប្រព័ន្ធមួយដើម្បីដាក់ស្លាកមាតិកាទាំងអស់ពីអត្ថបទ រូបភាព សំឡេង រហូតដល់ វីដេអូ ដែលបង្កើតឡើងដោយ AI ដើម្បីផ្តល់ឱ្យអ្នកប្រើប្រាស់នូវតម្លាភាពព័ត៌មាន ដើម្បីធានាថាបច្ចេកវិទ្យានេះមានសុវត្ថិភាពជាងមុន។
ខណៈពេលដែល AI មិនទាន់មានសមត្ថភាពបង្កើតអាវុធជីវសាស្រ្តនៅឡើយ វាគឺជាហានិភ័យ "រយៈពេលមធ្យម" ដែលអាចគំរាមកំហែងយ៉ាងធ្ងន់ធ្ងរដល់សន្តិសុខជាតិរបស់សហរដ្ឋអាមេរិកក្នុងរយៈពេល 2 ទៅ 3 ឆ្នាំខាងមុខ នេះបើតាមការកត់សម្គាល់ Dario Amodei នាយកប្រតិបត្តិនៃ AI Anthropic ។ នោះក៏ព្រោះតែតួអង្គដែលធ្វើការវាយប្រហារជីវសាស្ត្រទ្រង់ទ្រាយធំមិនត្រូវបានកំណត់ចំពោះអ្នកដែលមានចំណេះដឹងឯកទេសក្នុងប្រធានបទនោះទៀតទេ។
ពិភពលោកកំពុងប្រឈមមុខនឹងការផ្ទុះនៃមាតិកាដែលបង្កើតឡើងដោយបច្ចេកវិទ្យា AI ជំនាន់។ ពីអាមេរិក ដល់អឺរ៉ុប ដល់អាស៊ី ចលនាបទប្បញ្ញត្តិកំពុងរឹតបន្តឹងបន្តិចម្តងៗ។ យោងតាម CNN ចាប់ផ្តើមនៅខែកញ្ញា ព្រឹទ្ធសភាអាមេរិកនឹងរៀបចំសិក្ខាសាលាចំនួនប្រាំបួនបន្ថែមទៀតសម្រាប់សមាជិកដើម្បីស្វែងយល់អំពីរបៀបដែល AI អាចប៉ះពាល់ដល់ការងារ សន្តិសុខជាតិ និងកម្មសិទ្ធិបញ្ញា។ មុនពេលអាមេរិក ប្រសិនបើកិច្ចព្រមព្រៀងមួយត្រូវបានសម្រេច សហភាពអឺរ៉ុបនឹងមានច្បាប់ទីមួយរបស់ពិភពលោកស្តីពីការគ្រប់គ្រង AI នៅឆ្នាំក្រោយ ដែលរំពឹងថានឹងចូលជាធរមាននៅឆ្នាំ 2026។
អត្ថប្រយោជន៍ដែល AI នាំមកជូនសង្គមគឺមិនអាចប្រកែកបាន ប៉ុន្តែមានការព្រមានកាន់តែខ្លាំងឡើងអំពីហានិភ័យដែលអាចកើតមាននៃបច្ចេកវិទ្យាថ្មីនេះ។ កាលពីខែមិថុនា អគ្គលេខាធិការអង្គការសហប្រជាជាតិ លោក Antonio Guterres បានគាំទ្រសំណើមួយពីនាយកប្រតិបត្តិ AI មួយចំនួនដើម្បីបង្កើតអង្គការឃ្លាំមើល AI អន្តរជាតិ ដែលស្រដៀងទៅនឹងទីភ្នាក់ងារថាមពលបរមាណូអន្តរជាតិ (IAEA)។
ត្រលប់ទៅវេទិកា Frontier Model Forum ប្រធានក្រុមហ៊ុន Microsoft លោក Brad Smith បាននិយាយថា គំនិតផ្តួចផ្តើមនេះគឺជាជំហានដ៏សំខាន់មួយក្នុងការនាំយកក្រុមហ៊ុនបច្ចេកវិទ្យារួមគ្នា ដើម្បីលើកកម្ពស់ការប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវរបស់ AI សម្រាប់ជាប្រយោជន៍ដល់មនុស្សជាតិទាំងអស់។ ដូចគ្នានេះដែរ អនុប្រធាន OpenAI នៃកិច្ចការសកលលោក Anna Makanju បាននិយាយថា បច្ចេកវិទ្យា AI កម្រិតខ្ពស់មានសក្តានុពលក្នុងការនាំមកនូវអត្ថប្រយោជន៍យ៉ាងជ្រាលជ្រៅដល់សង្គម ហើយនេះតម្រូវឱ្យមានការត្រួតពិនិត្យ និងអភិបាលកិច្ច។
ប្រភព
Kommentar (0)