ក្រមសីលធម៌ AI បម្រើជាត្រីវិស័យសម្រាប់សុចរិតភាពក្នុងការច្នៃប្រឌិតបច្ចេកវិទ្យា។ វាបំផុសគំនិតអ្នកដឹកនាំអាជីវកម្មដើម្បីធានាថាភាពជឿនលឿននៃបច្ចេកវិទ្យាផ្តល់អត្ថប្រយោជន៍ដល់សង្គម គោរពសិទ្ធិមនុស្ស និងទប់ស្កាត់ការប្រើប្រាស់ AI សម្រាប់គោលបំណងបង្កគ្រោះថ្នាក់។

រូបភាព 44.png
ការប្រើប្រាស់ AI ប្រកបដោយក្រមសីលធម៌ និងការទទួលខុសត្រូវ។ រូបថត៖ Midjourney

នេះដាក់ទំនួលខុសត្រូវលើអ្នកដឹកនាំក្នុងការលើកកម្ពស់សីលធម៌។

បញ្ហាប្រឈមនៅក្នុងការដាក់ពង្រាយ AI ប្រកបដោយសីលធម៌

យុត្តិធម៌ និងការរើសអើង

AI ត្រូវការធានាថាក្រុមអ្នកប្រើប្រាស់ផ្សេងៗគ្នាត្រូវបានប្រព្រឹត្តដោយយុត្តិធម៌នៅពេលធ្វើការសម្រេចចិត្ត។ ទោះបីជាយ៉ាងណាក៏ដោយ ប្រព័ន្ធ AI ជាច្រើននាពេលបច្ចុប្បន្ននេះ នៅតែត្រូវបានរងផលប៉ះពាល់ដោយភាពលំអៀងពីទិន្នន័យបណ្តុះបណ្តាល ឬក្បួនដោះស្រាយដោយខ្លួនឯង ដែលនាំឱ្យមានអាកប្បកិរិយាលំអៀង។ នេះអាចបង្ហាញដោយខ្លួនវាផ្ទាល់នៅក្នុងការចាត់ថ្នាក់ទម្រង់លំអៀង ការផ្តល់ពិន្ទុឥណទានមិនយុត្តិធម៌ ឬភាពខុសគ្នានៃការថែទាំសុខភាព។

កំហុសច្រើនតែកើតចេញពីបរិស្ថានទិន្នន័យដែលមិនគ្របដណ្តប់ឱ្យបានគ្រប់គ្រាន់នូវសេណារីយ៉ូក្នុងពិភពពិត ឬទិន្នន័យដែលបំភ្លៃ។ ដូច្នេះ គំនិតផ្តួចផ្តើម AI គួរតែចាប់ផ្តើមដោយការរួមបញ្ចូលទិន្នន័យពីប្រភពជាច្រើន – មានរចនាសម្ព័ន្ធ គ្មានរចនាសម្ព័ន្ធ ពេលវេលាជាក់ស្តែង និងជាប្រវត្តិសាស្ត្រ – ដើម្បីធានាថាគំរូ AI ត្រូវបានបង្កើតឡើងនៅលើមូលដ្ឋាននៃទិន្នន័យដែលអាចទុកចិត្តបាន និងទាន់ពេលវេលា។

ភាពឯកជន និងការការពារទិន្នន័យ

AI ដែលមានប្រសិទ្ធភាពទាមទារទិន្នន័យជាច្រើន រួមទាំងព័ត៌មានរសើបរបស់អតិថិជន ឬព័ត៌មានផ្ទៃក្នុងរបស់ក្រុមហ៊ុន។ នេះបង្កើនការព្រួយបារម្ភអំពីឯកជនភាព ជាពិសេសនៅពេលដែល AI ត្រូវបានប្រើដើម្បីធ្វើការសម្រេចចិត្តសំខាន់ៗនៅក្នុងផ្នែកច្បាប់ ឬផ្នែក វេជ្ជសាស្ត្រ ។ សំណួរសួរថា តើ AI ទទួលបានទិន្នន័យពីណា ហើយតើវាប្រមូលដោយរបៀបណា?

វិធីសាស្រ្តដ៏រឹងមាំមួយគឺត្រូវប្រកាន់ខ្ជាប់នូវស្តង់ដារសុវត្ថិភាពទិន្នន័យដ៏តឹងរឹង។ ឧទាហរណ៍ ក្រុមហ៊ុនបកប្រែ AI DeepL ប្រកាន់ខ្ជាប់នូវស្តង់ដារដូចជា GDPR, ISO 27001, និង SOC 2 Type II ដើម្បីគ្រប់គ្រងដំណើរការអភិវឌ្ឍន៍ AI ទាំងមូលដើម្បីធានាសុវត្ថិភាពទិន្នន័យ។ ឥឡូវនេះ DeepL ត្រូវបានជឿទុកចិត្តដោយក្រុមហ៊ុនផលិតសម្រាប់ភាពត្រឹមត្រូវខ្ពស់ និងការប្តេជ្ញាចិត្តចំពោះសុវត្ថិភាព។

អភិបាលកិច្ច និងការទទួលខុសត្រូវ

អាជីវកម្មត្រូវតែធានាថាការប្រើប្រាស់ AI ត្រូវបានគ្រប់គ្រង និងអនុលោមតាមបទប្បញ្ញត្តិដែលមានស្រាប់។ សំណួរសំខាន់មួយគឺ “ប្រសិនបើ AI ធ្វើខុស តើអ្នកណាជាអ្នកទទួលខុសត្រូវក្នុងការជួសជុលវា?” ការផ្តល់ការទទួលខុសត្រូវដល់បុគ្គលម្នាក់គឺមិនគ្រប់គ្រាន់ទេ។ ការ​កំណត់​ការ​ទទួល​ខុស​ត្រូវ​គួរ​តែ​មាន​ភាគី​ច្រើន​ដើម្បី​ធានា​បាន​នូវ​ការ​ត្រួត​ពិនិត្យ​គ្រប់​ជ្រុងជ្រោយ។

ភាគីពាក់ព័ន្ធត្រូវបន្តធ្វើបច្ចុប្បន្នភាពជាមួយបទប្បញ្ញត្តិចុងក្រោយបំផុតដូចជា GDPR (ការការពារទិន្នន័យ) ឬច្បាប់ AI របស់សហភាពអឺរ៉ុប។ ជាឧទាហរណ៍ CUBE - ក្រុមហ៊ុនដែលផ្តល់នូវដំណោះស្រាយស៊ើបការណ៍ច្បាប់ដែលមានមូលដ្ឋានលើ AI - ប្រើប្រាស់ RegAI ដើម្បីបន្តតាមដាន និងដោះស្រាយការធ្វើបច្ចុប្បន្នភាពបទប្បញ្ញត្តិជាសាកល ដោយធានានូវសុវត្ថិភាព និងការទទួលខុសត្រូវនៃការប្រើប្រាស់ AI នៅក្នុងឧស្សាហកម្មហិរញ្ញវត្ថុ។

លើសពីនេះទៀត ដើម្បីបង្កើនតម្លាភាព និងគណនេយ្យភាព អាជីវកម្មគួរតែតម្រឹមប្រតិបត្តិការ AI របស់ពួកគេជាមួយនឹងគោលការណ៍ណែនាំប្រកបដោយក្រមសីលធម៌ដូចជា គោលការណ៍ណែនាំសីលធម៌របស់សហភាពអឺរ៉ុបសម្រាប់ AI ដែលគួរឱ្យទុកចិត្ត និងការរចនាប្រកបដោយក្រមសីលធម៌របស់ IEEE ។

ផលប៉ះពាល់បរិស្ថាន

AI មានជើង CO₂ ដ៏ធំ។ យោងតាម ​​H2OIQ ការបណ្តុះបណ្តាលគំរូ AI (ដូចជាគំរូភាសាធំ) អាចប្រើប្រាស់ថាមពលអគ្គិសនីរាប់ពាន់មេហ្គាវ៉ាត់ម៉ោង និងបញ្ចេញកាបូនរាប់រយតោន ដែលស្មើនឹងការបំភាយឧស្ម័នផ្ទះរាប់រយគ្រួសារក្នុងមួយឆ្នាំ។ Gartner ព្យាករថានៅឆ្នាំ 2030 AI អាចប្រើប្រាស់បានរហូតដល់ 3.5% នៃថាមពលអគ្គិសនីទូទាំងពិភពលោក។

ក្រុមហ៊ុនមួយចំនួនបានចាត់វិធានការរួចហើយ។ ជាឧទាហរណ៍ NVIDIA បានផ្តោតលើការរចនា GPU សន្សំសំចៃថាមពល ដោយ Blackwell GPUs របស់វាមានប្រសិទ្ធភាពថាមពលជាង CPU ចំនួន 20 ដង នៅពេលដំណើរការការងារ AI ជាក់លាក់។ មជ្ឈមណ្ឌលទិន្នន័យរបស់ NVIDIA ក៏ប្រើប្រាស់ភាពត្រជាក់រាវបិទជិត និងថាមពលកកើតឡើងវិញផងដែរ ដើម្បីអភិរក្សធនធានទឹក។

ផលប៉ះពាល់សម្រាប់អាជីវកម្ម

សម្រាប់​អ្នក​ដឹកនាំ​អាជីវកម្ម “អេ.អាយ.អាយ” មាន​ន័យ​ថា​ការ​កសាង និង​រក្សា​ទុក​ចិត្ត​លើ​ប្រព័ន្ធ AI។ នេះគឺជាវិធីសាស្រ្តចំនួនប្រាំ៖

ផ្តល់អំណាច មិនមែនជំនួសមនុស្សទេ។

បង្កើត AI ដើម្បីបង្កើនប្រសិទ្ធភាព មិនមែនជំនួសតួនាទីមនុស្សទេ។ ឧទាហរណ៍ អ្នកសរសេរកម្មវិធីអាចបង្កើនផលិតភាព 40% ដោយប្រើ Copilot ដើម្បីធ្វើស្វ័យប្រវត្តិកម្មការងារដដែលៗ។

ការធ្វើសវនកម្មដោយលំអៀង និងការត្រួតពិនិត្យរបស់មនុស្ស

ធ្វើសវនកម្មជាទៀងទាត់ ដើម្បីរកមើលភាពលំអៀង និងរក្សាការគ្រប់គ្រងរបស់មនុស្សក្នុងរង្វង់។ ជាឧទាហរណ៍ នៅពេលដែល AI វាយតម្លៃពិន្ទុឥណទាន សវនកររបស់មនុស្សត្រូវពិនិត្យមើលវាឡើងវិញ ដើម្បីធានាបាននូវភាពយុត្តិធម៌។

តម្លាភាពក្នុងការប្រើប្រាស់ទិន្នន័យ

តែងតែមានតម្លាភាពអំពីរបៀបដែល AI ប្រើប្រាស់ និងចែករំលែកទិន្នន័យផ្ទាល់ខ្លួន។ ជាឧទាហរណ៍ វេទិកាពាណិជ្ជកម្មអេឡិចត្រូនិកគួរតែពន្យល់ពីរបៀបដែលទិន្នន័យអតិថិជនត្រូវបានប្រើដើម្បីធ្វើការណែនាំផលិតផល។

បណ្តុះបណ្តាលក្រុមរបស់អ្នកអំពីក្រមសីលធម៌ AI

បង្កើតគោលការណ៍ណែនាំក្រមសីលធម៌ និងបណ្តុះបណ្តាលបុគ្គលិកឱ្យទទួលស្គាល់ភាពលំអៀងនៅក្នុង AI ។ ជាឧទាហរណ៍ ភ្នាក់ងារសេវាកម្មអតិថិជនត្រូវរៀនពីរបៀបរកមើលភាពលំអៀងនៅក្នុង AI chatbots។

ការតម្រឹម AI ជាមួយនឹងគោលដៅអភិវឌ្ឍន៍ប្រកបដោយចីរភាព

ធានាថាគំនិតផ្តួចផ្តើម AI រួមចំណែកដល់គោលដៅនិរន្តរភាពរបស់ក្រុមហ៊ុន។ ជាឧទាហរណ៍ ប្រើ AI ដើម្បីរៀបចំផែនការចែកចាយឆ្លាតវៃ ដើម្បីកាត់បន្ថយការបំភាយកាបូន។

ក្រមសីលធម៌ AI មិនត្រឹមតែជាសំណុំនៃគោលគំនិត និងបទដ្ឋានប៉ុណ្ណោះទេ ប៉ុន្តែក៏ជាការប្តេជ្ញាចិត្តពីអ្នកដឹកនាំក្នុងការដាក់ពង្រាយ AI ប្រកបដោយយុត្តិធម៌ សុវត្ថិភាព និងការទទួលខុសត្រូវផងដែរ។

(យោងតាមគេហទំព័រ Forbes.com)

ប្រភព៖ https://vietnamnet.vn/dao-duc-ai-nen-tang-xay-dung-niem-tin-trong-ky-nguyen-tri-tue-nhan-tao-2407517.html