កាលពីបីឆ្នាំមុន ការលើកឡើងពីលទ្ធភាពនៃ "ដឹងខ្លួន" AI គឺជាវិធីលឿនបំផុតក្នុងការបណ្តេញចេញពី Silicon Valley ។ ប៉ុន្តែឥឡូវនេះ ដោយសារប្រព័ន្ធ AI កាន់តែទំនើប ពិភពបច្ចេកវិទ្យាកំពុងចាប់ផ្តើមបើកចំហចំពោះប្រធានបទ។
ថ្មីៗនេះ AI startup Anthropic បានប្រកាសពីការចាប់ផ្តើមនៃគំនិតផ្តួចផ្តើមស្រាវជ្រាវថ្មីមួយដើម្បីស្វែងយល់ពីលទ្ធភាពនៃគំរូ AI ដែលជួបប្រទះនឹង "ការដឹងខ្លួន" នាពេលអនាគត ខណៈពេលដែល អ្នកវិទ្យាសាស្ត្រ នៅ Google DeepMind បានពណ៌នាប្រព័ន្ធបច្ចុប្បន្នថាជា "អង្គភាពស្រដៀងនឹងការស៊ើបការណ៍ចម្លែក"។
នេះគឺជាការផ្លាស់ប្តូរដ៏ធំមួយពីឆ្នាំ 2022 នៅពេលដែល Google បណ្តេញវិស្វករ Blake Lemoine បន្ទាប់ពីអះអាងថា LaMDA chatbot បង្ហាញសញ្ញានៃការយល់ដឹងដោយខ្លួនឯង ហើយខ្លាចការបិទ។ Google បានច្រានចោលការអះអាងនេះថា "គ្មានមូលដ្ឋានទាំងស្រុង" ហើយសហគមន៍ AI បានបញ្ឈប់ការជជែកដេញដោលយ៉ាងឆាប់រហ័ស។
Anthropic ដែលជាក្រុមហ៊ុននៅពីក្រោយ chatbot Claude និយាយថា ខ្លួនមិនបានអះអាងថា ម៉ូដែលបច្ចុប្បន្នរបស់វាដឹងខ្លួននោះទេ។ Kyle Fish ជាអ្នកវិទ្យាសាស្ត្រដែលធ្វើការលើ “សុខុមាលភាព AI” មានប្រសាសន៍ថា ប៉ុន្តែការសន្មត់ថា "ទេ" មិនមែនជាវិធីសាស្រ្តដែលទទួលខុសត្រូវទៀតទេ។
នៅក្នុង វីដេអូ ដែលបានចេញផ្សាយនៅថ្ងៃទី 25 ខែមេសា Fish បានប្រកែកថាយើងត្រូវពិចារណាឱ្យបានហ្មត់ចត់អំពីលទ្ធភាពដែលប្រព័ន្ធ AI អាចសម្រេចបាននូវទម្រង់នៃស្មារតីមួយចំនួននៅពេលដែលពួកគេអភិវឌ្ឍ។ ទោះជាយ៉ាងណាក៏ដោយ ទាំងនេះគឺជាសំណួរបច្ចេកទេស និងទស្សនវិជ្ជាដ៏ស្មុគស្មាញបំផុត ហើយយើងនៅតែស្ថិតក្នុងដំណាក់កាលដំបូងនៃការយល់ដឹងអំពីពួកគេ។
យោងទៅតាម Fish ក្រុមនៅ Anthropic បានប៉ាន់ប្រមាណថាប្រូបាប៊ីលីតេនៃ Claude 3.7 ដែលដឹងខ្លួនថាមានចន្លោះពី 0.15% ទៅ 15% ។ ពួកគេកំពុងធ្វើការពិសោធន៍ដើម្បីសាកល្បងសមត្ថភាពរបស់ម៉ូដែលក្នុងការបង្ហាញពីការចូលចិត្ត និងមិនចូលចិត្ត ក៏ដូចជាការបង្កើតយន្តការដែលអាចឱ្យ AI បដិសេធមិនធ្វើកិច្ចការ "មិនល្អ"។
នាយកប្រតិបត្តិ Anthropic លោក Dario Amodei ថែមទាំងបានស្នើគំនិតនៃការរួមបញ្ចូលប៊ូតុង "ខ្ញុំបដិសេធការងារនេះ" ទៅក្នុងប្រព័ន្ធ AI នាពេលអនាគត - មិនច្រើនទេសម្រាប់ AI ដែលដឹងខ្លួន ប៉ុន្តែដើម្បីសង្កេតមើលគំរូនៃអាកប្បកិរិយាបដិសេធ និងកំណត់អត្តសញ្ញាណសញ្ញានៃភាពមិនប្រក្រតី។
នៅ Google DeepMind ប្រធានអ្នកវិទ្យាសាស្ត្រ Murray Shanahan ប្រកែកថាវាដល់ពេលដែលត្រូវ "ពត់ឬបំបែក" និយមន័យប្រពៃណីនៃស្មារតីដើម្បីសម្រុះសម្រួលប្រព័ន្ធ AI ថ្មី។
Shanahan បាននិយាយនៅក្នុងផតឃែស្ថដែលបានចេញផ្សាយនៅថ្ងៃទី 25 ខែមេសាថា "យើងមិនអាចធ្វើអន្តរកម្មជាមួយពួកគេដូចដែលយើងចង់បានជាមួយសត្វឆ្កែ ឬរតីយាវហឺនោះទេ ប៉ុន្តែវាមិនមែនមានន័យថាគ្មានអ្វីនៅទីនោះទេ" ។
Google ក៏បានបង្ហាញការចាប់អារម្មណ៍យ៉ាងខ្លាំងចំពោះប្រធានបទនេះដែរ។ ការប្រកាសការងារថ្មីៗពីក្រុមហ៊ុនកំពុងស្វែងរកអ្នកស្រាវជ្រាវ "ក្រោយ AGI" (Artificial General Intelligence) ដែលមានភារកិច្ចរួមមានការសិក្សាអំពីស្មារតីម៉ាស៊ីន។
Google បានចាប់ផ្តើមបើកបន្ថែមទៀតអំពីប្រធានបទ "AI ដឹងខ្លួន"។ រូបថត៖ រ៉យទ័រ |
ទោះយ៉ាងណាក៏ដោយ មិនមែនគ្រប់គ្នានៅក្នុងសហគមន៍វិទ្យាសាស្ត្រយល់ស្របនឹងវិធីសាស្រ្តថ្មីនោះទេ។ លោក Jared Kaplan ដែលជាប្រធានផ្នែកវិទ្យាសាស្ត្ររបស់ Anthropic អះអាងថា AI ពូកែធ្វើត្រាប់តាម ហើយអាចធ្វើពុតជាដឹងខ្លួនបានដោយមិនចាំបាច់មានវា។
Kaplan បានប្រាប់ កាសែត New York Times ថា "យើងថែមទាំងអាចផ្តល់រង្វាន់ដល់ AI សម្រាប់ការអះអាងថាគ្មានអារម្មណ៍" ។
លោក Gary Marcus ដែលជាអ្នកវិទ្យាសាស្ត្រយល់ដឹងដ៏លេចធ្លោ និងជាអ្នករិះគន់ជាញឹកញាប់អំពីការបំផ្លើសនៅក្នុងឧស្សាហកម្ម AI អះអាងថា ការពិភាក្សាអំពី "ការយល់ដឹងអំពី AI" គឺជាទីផ្សារច្រើនជាងវិទ្យាសាស្ត្រ។
"អ្វីដែលក្រុមហ៊ុនដូចជា Anthropic ពិតជាកំពុងធ្វើគឺផ្ញើសារថា 'មើល ម៉ូដែលរបស់យើងគឺឆ្លាតណាស់ដែលវាសមនឹងទទួលបានសិទ្ធិ'" Marcus បានអត្ថាធិប្បាយទៅកាន់ Business Insider ។
ទោះបីជាមានការជជែកដេញដោលគ្នាយ៉ាងណាក៏ដោយ អ្នកស្រាវជ្រាវយល់ស្របថា នៅពេលដែល AI កាន់តែមានវត្តមាននៅក្នុងការងារ ជីវិតរបស់យើង និងសូម្បីតែអារម្មណ៍ផ្ទាល់ខ្លួនរបស់យើង សំណួរថា "តើ AI ជួបប្រទះអារម្មណ៍ដែរឬទេ?" នឹងកាន់តែមានសារៈសំខាន់។
Fish បាននិយាយថា "បញ្ហានេះនឹងកាន់តែលេចធ្លោ នៅពេលដែលយើងធ្វើអន្តរកម្មជាមួយប្រព័ន្ធ AI នៅក្នុងបរិបទកាន់តែច្រើន" ។
ប្រភព៖ https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Kommentar (0)