
(SeaPRwire) – នៅថ្ងៃពុធ ក្រុមហ៊ុន OpenAI បានបោះពុម្ពអត្ថបទប្លុកមួយដែលពន្យល់ពី “ទស្សនវិជ្ជា និងការដំណើរការ” នៅពីក្រោយឯកសារ Model Spec របស់ខ្លួន។ ឯកសារនេះគឺជាឯកសារដែលកំណត់ឥរិយាបទរបស់ ChatGPT ដែលជាប្រព័ន្ធពិសោធន៍ជំនួសការនិយាយដែលមានការប្រើប្រាស់ជាទូទៅបំផុតនៅលើពិភពលោក។
យោងតាមអត្ថបទប្លុកនេះ Model Spec គឺមានបំណងជា “ចំណុចប្រទាក់”។ វាធ្វើឱ្យឥរិយាបទដែលបានគម្រោងរបស់ប្រព័ន្ធពិសោធន៍ជំនួសការនិយាយដែលមានការប្រើប្រាស់ជាទូទៅបំផុតនៅលើពិភពលោកលេចធ្លោ ដូច្នេះអ្នកស្រាវជ្រាវ អ្នកបង្កើតគោលនយោបាយ និងសាធារណជនអាច “អាន បម្រើប្រាស់ និងជជែកវែកញែក” ពីវា។ លទ្ធផលគឺជាឯកសារមានទំហំ 100 ទំព័រដែលកំណត់ពីរបៀបដែលម៉ូដែលរបស់ OpenAI គួរតែសម្របសម្រួលរវាងកាតព្វកិច្ចដែលអាចជាបញ្ហាជម្លោះចំពោះសង្គម ក្រុមហ៊ុន OpenAI អ្នកអភិវឌ្ឍដែលបង្កើតលើផលិតផលរបស់ OpenAI និងអ្នកប្រើប្រាស់ចុងក្រោយ។ ដើម្បីសំរេចបាននេះ Spec ត្រូវបានបង្កើតឡើងជុំវិញខ្សែសង្វាក់បញ្ជា ដោយមានការហាមឃាត់ “គ្រោះថ្នាក់ដែលមានសារៈធ្ងន់ធ្ងរខ្ពស់” ដែលមានអាទិភាពលើការណែនាំរបស់អ្នកអភិវឌ្ឍ ឬអ្នកប្រើប្រាស់ ហើយត្រូវបានធ្វើបច្ចុប្បន្នភាពជាទៀងទាត់។ កំណែថ្មីបំផុតគឺកាលពីខែធ្នូ។
“ខ្ញុំចាត់ទុកខ្លួនខ្ញុំជាមនុស្សថែរក្សា—ក្នុងស្មារតីនៃគម្រោងបន្ថែមប្រភពបើកចំហ” ព្រមានដោយ Jason Wolfe ដែលគ្រប់គ្រងការបញ្ចូលព័ត៌មានទៅក្នុង Model Spec ពីផ្នែកផ្សេងៗនៃក្រុមហ៊ុន OpenAI។ Wolfe និយាយថាអ្នកស្រាវជ្រាវបានចាប់ផ្តើមទាក់ទងទៅកាន់ OpenAI ដើម្បីសាកសួរអំពីរបៀបរចនា Model Spec ស្រដៀងគ្នា ដែលជំរុញឱ្យមានអត្ថបទប្លុកដែលពន្យល់ពីការគិតរបស់ក្រុមហ៊ុននៅពីក្រោយឯកសារនេះ។ “មានរបស់ជាច្រើននៅទីនេះដែលសង្ឃឹមថានឹងមានប្រយោជន៍ដល់មនុស្ស”។
ទោះបីជាយ៉ាងណាក៏ដោយ ឯកសារនេះគឺ “មិនមែនជាការអនុវត្ត” យោងតាមអត្ថបទប្លុកនេះ ដែលបង្កើតបញ្ហាអំពីថាតើឯកសារនេះតំណាងឱ្យអ្វីដែលពិតជាបង្កើតឥរិយាបទរបស់ ChatGPT ក្នុងអំឡុងពេលបណ្តុះបណ្តាល។ ដំណើរការដែល Spec មានឥទ្ធិពលលើឥរិយាបទម៉ូដែលគឺ “ស្មុគស្មាញ” យោងតាម Wolfe។ ក្នុងករណីខ្លះ អត្ថបទពី Spec ត្រូវបានប្រើដោយផ្ទាល់ក្នុង “ការបណ្តុះបណ្តាលសម្របសម្រួល” ដែលជាកន្លែងដែលម៉ូដែល AI ត្រូវបានបណ្តុះបណ្តាលឱ្យមានឥរិយាបទល្អ។ ប៉ុន្តែជាញឹកញាប់ដូចគ្នានេះ គោលការណ៍ដែលលេចធ្លោនៅក្នុង Spec គឺជាការសង្ខេបនៃការងារលម្អិតដែលធ្វើឡើងដោយក្រុមសុវត្ថិភាពនៅខាងក្នុងអង្គការ។ “ក្នុងករណីជាច្រើន Spec និងការបណ្តុះបណ្តាលគឺពិតជា… ដំណើរការស្របគ្នាដែលយើងកំពុងរក្សាស៊ីងchronize” និយាយ Wolfe។
មូលដ្ឋានអ្នកប្រើប្រាស់ដែលកំពុងលូតលាស់របស់ ChatGPT មានន័យថាគោលការណ៍នៅក្នុង Spec មានសក្តានុពលប៉ះពាល់ដល់មនុស្សរាប់រយលាននាក់នៅជុំវិញពិភពលោក។ គិតត្រឹមខែកុម្ភៈ ប្រព័ន្ធពិសោធន៍ជំនួសការនិយាយនេះមានអ្នកប្រើប្រាស់សកម្មប្រចាំសប្តាហ៍ប្រហែល 10% នៃចំនួនប្រជាជនពិភពលោក។ បញ្ហានេះកាន់តែស្មុគស្មាញឡើងដោយការលូតលាស់ខាងក្នុងយ៉ាងឆាប់រហ័សរបស់ OpenAI ដោយក្រុមហ៊ុនគ្រោងនឹងបង្កើតចំនួនបុគ្គលិកជិតពីរដងនៃចំនួនបច្ចុប្បន្ន 4,500 នាក់នៅចុងឆ្នាំ 2026។ អត្ថបទប្លុកបានបញ្ជាក់ថាមនុស្សរាប់សិបនាក់នៅទូទាំងអង្គការបានរួមចំណែកអត្ថបទដោយផ្ទាល់ទៅក្នុង Spec ដោយមានការបញ្ចូលព័ត៌មានពីក្រុមស្រាវជ្រាវ ផលិតផល និងច្បាប់។ Wolfe ធ្វើការស៊ីជម្រៅជាពិសេសជាមួយចៅហ្វាយនាយឥរិយាបទម៉ូដែល និងគោលនយោបាយ។
OpenAI មិនមែនជាក្រុមហ៊ុន AI តែមួយគត់ដែលប្រឈមមុខនឹងបញ្ហាអំពីរបៀបកំណត់ឥរិយាបទរបស់ម៉ូដែលរបស់ខ្លួន និងរបៀបសុំយោបល់នៅពេលដែលឥទ្ធិពលរបស់ AI លើសង្គមកំពុងកើនឡើង។ ក្នុងខែមករា ក្រុមហ៊ុន Anthropic បានបោះពុម្ព “រដ្ឋធម្មនុញ្ញ Claude” ដែលជាឯកសារមានទំហំ 80 ទំព័រដែលពិពណ៌នាអំពីប្រភេទអង្គធាតុដែលខ្លួនចង់ឱ្យ Claude ម៉ូដែលចម្បងរបស់ខ្លួនក្លាយជា។ រដ្ឋធម្មនុញ្ញរបស់ Anthropic និង Model Spec របស់ OpenAI មានលក្ខណៈខុសគ្នាយ៉ាងខ្លាំង៖ របស់អតីតនេះមានលក្ខណៈដូចជាអត្ថបទទស្សនវិជ្ជាសីលធម៌ ហើយរបស់ក្រោយនេះជិតនឹងសៀវភៅសេចក្តីព្រះរាជក្រឹត្យជាមួយឧទាហរណ៍នៃឥរិយាបទដែលចង់បាន។ “រដ្ឋធម្មនុញ្ញរបស់ Anthropic មានលក្ខណៈទស្សនវិជ្ជាជាង ហើយ Spec របស់ OpenAI មានលក្ខណៈឥរិយាបទជាង” និយាយ Sharan Maiya អ្នកស្រាវជ្រាវបណ្ឌិតផ្នែកសម្របសម្រួល AI នៅសាកលវិទ្យាល័យ Cambridge។
ឯកសារទាំងនេះក៏ត្រូវបានប្រើប្រាស់តាមរបៀបខុសគ្នាដោយក្រុមហ៊ុនទាំងពីរផងដែរ។ Spec របស់ OpenAI គឺ “ជាឯកសារសម្រាប់មនុស្សជាចម្បង” យោងតាម Wolfe ដែលមានប្រយោជន៍សម្រាប់ការបង្កើតការព្រមព្រៀងលើឥរិយាបទដែលចង់បានរបស់ម៉ូដែល ប៉ុន្តែឆ្ងាយពីអ្វីដែលម៉ូដែលរៀនយ៉ាងជាក់ស្តែង។ ផ្ទុយទៅវិញ Amanda Askell អ្នកទស្សនវិជ្ជាដែលទទួលខុសត្រូវចំពោះរដ្ឋធម្មនុញ្ញរបស់ Anthropic និយាយថា Anthropic បានផ្តល់រដ្ឋធម្មនុញ្ញរបស់ខ្លួនទៅ Claude “ដើម្បីបង្កើតសម្ភារៈបណ្តុះបណ្តាលដោយខ្លួនឯងដែលអនុញ្ញាតឱ្យវាដឹងពីឯកសារនេះ”។ កំណែដំបូងនៃរដ្ឋធម្មនុញ្ញរបស់ Anthropic ត្រូវបានអ្នកប្រើប្រាស់រកឃើញទាំងស្រុងនៅក្នុងការឆ្លើយតបរបស់ Claude មុនពេលបោះពុម្ពផ្លូវការ ដែលបង្ហាញថាម៉ូដែលបានរៀនអត្ថបទនៃរដ្ឋធម្មនុញ្ញ។ “ខ្ញុំពិតជាចង់ឱ្យឯកសារនេះមានលក្ខណៈល្អសម្រាប់ម៉ូដែល Claude” Askell បានប្រាប់ទស្សនាវដ្តី TIME ក្នុងខែមករា។
Google DeepMind, xAI, និង Meta មិនបានបោះពុម្ពឯកសារស្រដៀងគ្នាដែលពិពណ៌នាអំពីឥរិយាបទដែលសន្មត់របស់ម៉ូដែលរបស់ពួកគេឡើយ។
បន្ទាត់ក្រហមសម្រាប់ម៉ូដែល AI បានលេចធ្លោជាពិសេសក្នុងសប្តាហ៍ថ្មីៗនេះ។ កាលពីខែមុន OpenAI បានចុះហត្ថលេខាលើកិច្ចព្រមព្រៀងជាមួយនាយកដ្ឋានសង្គ្រាម បន្ទាប់ពី Anthropic បដិសេធមិនដកបន្ទាត់ក្រហមចំពោះការឃ្លាំមើលដ៏ធំធេងក្នុងស្រុក និងអាវុធដោយស្វ័យប្រវត្តិ។ បន្ទាប់មក OpenAI បានថយក្រោយ ជាមួយនឹងការសារភាពរបស់ Sam Altman ដែលថាកិច្ចព្រមព្រៀងនេះមើលទៅ “មានបំណងចំណូលចិត្ត និងមិនប្រក្រតី”។ កំណែថ្មីនៃកិច្ចព្រមព្រៀងបញ្ជាក់ថា “ប្រព័ន្ធ AI មិនត្រូវបានប្រើប្រាស់ដោយចេតនាសម្រាប់ការឃ្លាំមើលក្នុងស្រុករបស់ប្រជាជន និងជនជាតិអាមេរិក” ទោះបីជាអ្នកជំនាញច្បាប់មានភាពមិនស្របគ្នាលើកម្រិតនៃការធានានេះក៏ដោយ។
Model Spec បញ្ជាក់ថាម៉ូដែលរបស់ OpenAI គួរតែ “មិនដែល” ត្រូវបានប្រើប្រាស់ដើម្បីជួយសម្រួលការឃ្លាំមើលដ៏ធំធេង។
“ខ្ញុំសង្ឃឹមថា នៅកម្រិតដែលអាចធ្វើទៅបានដោយសារធម្មជាតិនៃការងារ ប្រសិនបើយើងធ្វើការសម្របខ្លួនគោលនយោបាយរបស់យើងសម្រាប់ [ការដាក់ពង្រាយដែលមានការរក្សាសម្ងាត់] យើងនឹងរកវិធីដើម្បីធ្វើឱ្យការសម្របខ្លួនទាំងនេះបង្ហាញដល់សាធារណជន” និយាយ Wolfe។
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។