ລິ້ງ ສຳຫລັບເຂົ້າຫາ

ວັນພະຫັດ, ໐໒ ພຶດສະພາ ໒໐໒໔

ການກຳນົດແບບແຜນ ຂອງກົດລະບຽບທາງດ້ານປັນຍາປະດິດ ຫຼື AI ຢູ່ໃນ ສະຫະລັດ


ແບບແຜນ ຂອງກົດລະບຽບທາງດ້ານປັນຍາປະດິດ ຫຼື AI ຕອນທີນຶ່ງ

ປັນຍາປະດິດ ຫລື AI ໄດ້ເຂົ້າມາສໍາພັດເກືອບໝົດທຸກແງ່ມຸມໃນຊີວິດທາງດິຈິຕອລຂອງພວກເຮົາແລ້ວ, ແຕ່ບໍ່ມີກົດໝາຍຫຼາຍປານໃດ ທີ່ຄວບຄຸມການນຳໃຊ້ມັນ. ໃນ​ສາລະຄະດີທາງເວັບ​ໄຊ​ທ໌​ກ່ຽວ​ກັບ AI ຂອງ​ພວກ​ເຮົາໃນມື້ນີ້, Tina Trinh ນັກ​ຂ່າວ​ວີ​ໂອ​ເອ​ ໄດ້​ເບິ່ງ​ວ່າ ​ພວກສະມາຊິກລັດຖະສະພາສະຫະລັດ ​ແລະ​ຜູ້​ພັດ​ທະ​ນາ​ເທັກ​ໂນ​ໂລ​ຈີ ​ກຳ​ລັງ​ສ້າງ​ກົດ​ລະ​ບຽບ​ເພື່ອ​ຄຸ້ມຄອງບາງ​ສິ່ງ​ບາງ​ຢ່າງ​ທີ່​ ປ່ຽນ​ແປງ​ໄປເກືອບ​ວ່າທຸກ​ມື້ ຄືແນວໃດ.

ປັນຍາປະດິດ ຫລື AI ໄດ້ເຂົ້າມາສໍາພັດເກືອບໝົດທຸກແງ່ມຸມໃນຊີວິດທາງດິຈິຕອລຂອງພວກເຮົາແລ້ວ, ແຕ່ບໍ່ມີກົດໝາຍຫຼາຍ ປານໃດທີ່ຄວບຄຸມການນຳໃຊ້ມັນ. ເທັກໂນໂລຈີມີວິວັດທະນາການຢູ່ຕະຫຼອດເວລາ ແລະສ້າງຄວາມເປັນໄປໄດ້ແບບໃໝ່ຫລາຍຢ່າງໃນໂລກຂອງພວກເຮົາ. ນຶ່ງໃນການພັດທະນາທີ່ຫນ້າຕື່ນເຕັ້ນ ແລະມີອິດທິພົນທີ່ສຸດ ກໍຄືການເກີດຂຶ້ນໃຫມ່ຂອງເຄື່ອງມືຕ່າງໆທີ່ຜະລິດອອກມານັ້ນ ໃຊ້ປັນຍາປະດິດ. ເຄື່ອງມືເຫຼົ່ານີ້, ເຊັ່ນ ແຊດຈີພີທີ (ChatGPT), ເຈມມີນາຍ (Gemini) ແລະ ລາມາ (Llama) 2 ໃຊ້ສູດການຄິດໄລ່ທີ່ທັນສະໄໝ ເພື່ອຜະລິດເນື້ອຫາທີ່ເປັນຕົ້ນສະບັບ ແລະເນື້ອຫາທີ່ປະດິດຄິດຄົ້ນຂຶ້ນມາ ໂດຍມີຄວາມສາມາດເຮັດໄດ້ສູງແບບບໍ່ເຄີຍມີມາກ່ອນ. ແຕ່ຜົນສະທ້ອນຕາມມາທີ່ຍັງບໍ່ທັນມີໃຜຮູ້ຈັກ ກ່ຽວກັບການຮຽນຮູ້ຂອງເຄື່ອງຈັກທີ່ວ່ານີ້ ກໍາລັັງນັບມື້ນັບຮຽກຮ້ອງໃຫ້ມີສິ່ງປ້ອງກັນຢ່າງແທ້ຈິງ ເພື່ອຊ່ວຍປົກປ້ອງຜູ້ບໍລິໂພກ.

ປະທານາທິບໍດີ ໂຈ ໄບເດັັນ ໄດ້ໃຊ້ດໍາລັດຂອງປະທານາທິບໍດີ ທີ່ວາງອອກມາໃນເດືອນຕຸລາຜ່ານມາ ເພື່ອສັ່ງໃຫ້ບໍລິສັດ AI ແບ່ງປັນຜົນຈາກການທົດສອບຄວາມປອດໄພຂອງເທັກໂນໂລຈີຂອງເຂົາເຈົ້າ ຂະນະທີ່ປັນຍາປະດິດ "ຂະຫຍາຍຂອບເຂດຄວາມເປັນໄປໄດ້ຂອງມະນຸດ ແລະທົດສອບຂອບເຂດຄວາມເຂົ້າໃຈຂອງມະນຸດ." ແຕ່ ພວກນັກຄົ້ນຄວ້າກ່ຽວກັບ AI ກ່າວວ່າ ບັນດາເຈົ້າຫນ້າທີ່ບໍ່ຄວນອີງໃສ່ແຕ່ການລາຍງານຂອງບໍລິສັດເອງ ໂດຍທັງໝົດ.

ທ່ານນາງເດບ ຣາຈີ (Deb Raji) ຈາກມູນນິທິໂມຊີລລາ (Mozilla) ກ່າວວ່າ:

“ພຽງແຕ່ຍອມຮັບສິ່ງທີ່ບໍລິສັດເວົ້າກ່ຽວກັບເທັກໂນໂລຈີຂອງພວກເຂົາເຈົ້າໂດຍທີ່ບໍ່ມີການໄຕ່ຕອງເທົ່ານັ້ນ ກໍເປັນສິ່ງທີ່ທ້າທາຍຫຼາຍຢູ່ແລ້ວ. ພວກເຂົາເຈົ້າໄດ້ຮັບຜົນຕອບແທນໃນຖານະເປັນບໍລິສັດທີ່ຮັບເອົາທ່າທີທີ່ມີຄວາມຫວັງໃນແງ່ດີ ກ່ຽວກັບ ເທັກໂນໂລຈີເຮັດວຽກໄດ້ດີແນວໃດ. // ຖ້າພວກເຂົາຢາກເພິ່ງພາອາໄສແຕ່ ບົດລາຍງານການທົດສອບຢູ່ພາຍໃນ, ການປະຕິບັດງານ ແລະບົດລາຍງານການກວດສອບຢູ່ພາຍໃນເທົ່ານັ້ນ ແລ້ວເຂົາເຈົ້າຕ້ອງໄດ້ກໍານົດມາດຕະຖານກ່ຽວກັບວ່າ ຂໍ້ມູນອັນໃດແດ່ທີ່ຈະເອົາໄປລາຍງານໃຫ້ພາຍນອກຮູ້. // ພວກທີ່ອອກກົດລະບຽບຄຸ້ມຄອງຂອງລັດຖະບານກາງ ຕ້ອງເປັນຜູ້ທີ່ກໍານົດຂອບເຂດ, ເຊັ່ນວ່າ, 'ນີ້ຄືສິ່ງທີ່ທ່ານຕ້ອງສະໜອງໃຫ້ພວກເຮົາ.'”

ມາດຕະຖານນຶ່ງທີ່ຕ້ອງໄດ້ພິຈາລະນາ ກໍຄືຈໍານວນຜູ້ໃຊ້ຢູ່ໃນສື່ສັງຄົມນຶ່ງ ແລະ ວິທີທີ່ພວກເຂົາໃຊ້ AI.

ທ່ານຄາສ໌ເທນ ຈຸງ (Carsten Jung) ຈາກສະຖາບັນຄົ້ນຄວ້ານະໂຍບາຍຂອງລັດຖະບານກ່າວວ່າ:

"ເພື່ອຈະເຂົ້າໃຈໄດ້ຢ່າງແທ້ຈິງວ່າ ຄວາມສ່ຽງທີ່ກໍາລັງປັບປ່ຽນນັ້ນ ຢູ່ບ່ອນໃດ, ເຊັ່ນວ່າ ຄວາມສ່ຽງຕໍ່ການມີຂໍ້ມູນທີ່ບິດເບືອນ, ທ່ານຈໍາເປັນຕ້ອງມີລາຍລະອຽດ ໃນການເຂົ້າເຖິງທີ່ແທ້ຈິງ ໂດຍບັນດາຜູ້ຄວບຄຸມ ເພື່ອຈະນຳໃຊ້ຂໍ້ມູນ.… ໃນເລື້ອງກ່ຽວກັບຕົວແບບຂອງ AI ຊັ້ນນໍານັ້ນ ມະຫາຊົນ ແລະພວກອອກກົດລະບຽບຄວບຄຸມທັງຫຼາຍ ແມ່ນຢູ່ໃນຄວາມມືດມິດເລີຍ....ພວກບໍ່ຮູ້ຈັກ ວ່າ GPT-4 ຖືກໃຊ້ຫຼາຍປານໃດ ໃນການສ້າງບົດຂ່າວ ທີ່ມີລັກສະນະເບິ່ງແລ້ວຄ້າຍຄືວ່າ ແມ່ນຂອງແທ້. ພວກເຮົາບໍ່ຮູ້ວ່າ ມັນຖືກໃຊ້ຫຼາຍປານໃດສໍາລັບກິດຈະກໍາທີ່ກ່ຽວຂ້ອງກັບອິນເຕີແນັດ."

ທ່ານນາງເດບ ຣາຈີ (Deb Raji) ຈາກມູນນິທິໂມຊີລລາ (Mozilla) ກ່າວເພີ້ມອີກວ່າ:

"ເມຕາ (Meta) ແມ່ນນຶ່ງໃນຕົວຢ່າງຫຼາຍໆອັນ ທີ່ຂ້າພະເຈົ້າໃຊ້ເບິ່ງກ່ຽວກັບບໍລິສັດດັ່ງກ່າວ ແມ່ນກະທັ້ງວ່າ ພວກເຂົາອ້າງວ່າ ຕົນເປັນແຫລ່ງທີ່ເປີດໃຫ້ຄົນເຂົ້າເຖິງໄດ້ຢ່າງສະບາຍ ຫລື open-source ສໍາລັບຜູ້ທີ່ເຮັດການຄົ້ນຄວ້າກ່ຽວກັບຕົວແບບເຫຼົ່ານີ້ - ແຕ່ໃນຄວາມເປັນຈິງກໍຄືວ່າ ພວກເຮົາເບິ່ງບໍ່ເຫັນອັນໃດຢູ່ໃນຂໍ້ມູນການຝຶກອົບຮົມ, ແລະພວກ​ເຮົາເບິ່ງບໍ່​ເຫັນອັນ​ໃດ​ ກ່ຽວ​ກັບ​ລະ​ຫັດ​ການ​ຝຶກ​ອົບ​ຮົມ, ພ້ອມທັງປິດ​ກັນ​ການ​ຕໍາໜິວິຈານບາງ​ຢ່າງອີກດ້ວຍ.”

ດໍາລັດ​ຂອງ​ປະທານາທິບໍດີ ໄບເດັນ ໄດ້ຮຽກຮ້ອງ​ໃຫ້​ມີ​ຄວາມ​ໂປ່​ງ​ໃສ​ເພີ້ມຂຶ້ນ, ​ແຕ່​ຄຳ​ຖາມ​ກ່ຽວ​ກັບ​ການ​ບັງຄັບ​ໃຊ້ ​ແລະ ຄວາມ​ຮັບຜິດຊອບ ​ແມ່ນຍັງ​ບໍ່ທັນປະຕິບັດໄດ້​ເທື່ອ.

ທ່ານນາງ ຊາຟີຢາ ໂນໂບລ (Safiya Noble), ຜູ້ກໍ່ຕັ້ງສູນຍຸຕິທຳດ້ານເຊື້ອຊາດ ແລະດິຈິຕອລກ່າວວ່າ:

"ພວກເຮົາກຳລັງເວົ້າເຖິງ ບາງເທື່ອກໍແມ່ນ 1,000 ຄົນໃນໂລກນີ້ ທີ່ກຳລັງທໍາການຕັດສິນໃຈທີ່ຈະມີຜົນກະທົບຕໍ່ຫລາຍຕື້ຄົນ. ສິ່ງ​ທີ່​ປອດ​ໄພ​ທີ່​ສຸດ ​ທີ່​ພວກ​ເຮົາ​ສາ​ມາດ​ເຮັດ​ໄດ້ກ່ຽວກັບເລື້ອງນີ້ ​ກໍແມ່ນໃຫ້ເອົາ ​ບັນ​ດາ​ບໍ​ລິ​ສັດ ແລະ​ຜູ້​ຖື​ຫຸ້ນ​ຂອງ​ເຂົາ​ເຈົ້າ, ຄະ​ນະ​ອໍານວຍການ​ຂອງ​ເຂົາ​ເຈົ້າ ມາຮັບ​ຜິດ​ຊອບ​ທາງ​ອາ​ຍາ ​ສຳ​ລັບ​ຜະ​ລິດ​ຕະ​ພັນ​ອັນ​ຕະ​ລາຍ​ທີ່​ເຂົາ​ເຈົ້າ​ໄດ້ອອກ​ແບບມາ.”

ຢູ່ໃນສະຫະລັດ, ອົງການຈັດຕັ້ງຕ່າງໆຂອງລັດຖະບານ ເຊັ່ນ: ສະຖາບັນດ້ານມາດຕະຖານ ແລະເທັກໂນໂລຈີແຫ່ງຊາດ, ກະຊວງຮັກສາຄວາມປອດໄພພາຍໃນ, ກະຊວງພະລັງງານ ແລະກະຊວງການຄ້າ ຈະຈັດຕັ້ງຄໍາແນະນໍາສໍາລັບບັນຫາ ທີ່ລວມທັງການເລືອກປະຕິບັດໂດຍໃຊ້ສູດຄິດໄລ່ຂອງຄອມພິວເຕີ ຫລື algorithmic discrimination ແລະການກວດສອບວ່າ ເນື້ອຫາຢູ່ທາງອອນໄລນ໌ທີ່ສ້າງຂຶ້ນໂດຍມະນຸດເປັນຂອງຈິງແທ້ໆ ທີ່ ບໍ່ແມ່ນເນື້ອຫາທີ່ສ້າງຂຶ້ນໂດຍ AI.

ທ່ານນາງຣາຈີ (Raji) ກ່າວຕໍ່ໄປວ່າ:

“ມັນ​ເປັນ​ເວ​ລາ​ຫລາຍ​ປີແລ້ວ ​ທີ່​ພວກ​ເຮົາ​ພະ​ຍາ​ຍາມ​ເບິ່ງ​ການ​ເຄື່ອນ​ໄຫວ​ທາງ​ດ້ານ​ກົດ​ໝາຍ. ແລະ ຍຸດທະສາດແບບໃຫມ່ນີ້ ໃນການເບິ່ງຝ່າຍບໍລິຫານ ຄືວ່າເປັນໂອກາດດີອັນນຶ່ງ ໃນການທີ່ຈະໃຫ້ບໍລິສັດທັງຫຼາຍເຫຼົ່ານີ້ ມີຄວາມຮັບຜິດຊອບໃນບາງຢ່າງ ຊຶ່ງຂ້ອນຂ້າງວ່າ ເປັນໄຊຊະນະຂອງຄວາມຍຸຕິທໍາແບບບໍ່ຄາດຄິດມາກ່ອນ, ເປັນການດໍາເນີນຄວາມພະຍາຍາມແບບຮອບດ້ານ ທີ່ຍາວນານເພື່ອຊຸກຍູ້ມາດຕະການບາງຢ່າງກ່ຽວກັບເລື່ອງນີ້ ໃຫ້ເຄື່ອນໄປ.”

ບັນດາສະມາຊິກສະພາຂອງຢູໂຣບ ໄດ້ບັນລຸຂໍ້ຕົກລົງທີ່ສຳຄັນໃນທ້າຍປີກາຍນີ້ ເພື່ອວາງຂໍ້ຫ້າມກ່ຽວກັບວິທີທີ່ AI ສາມາດຖືກນຳໃຊ້ໃນຢູໂຣບ. ເບິ່ງຄືວ່າ ອັງກິດເວົ້າເຖິງວິທີໃຊ້ທີ່ມີພາກປະຕິບັດຕົວຈິງຫຼາຍກວ່າ ໂດຍທີ່ລັດຖະບານຂອງນາຍົກລັດຖະມົນຕີ ຣິຊຊີ ຊູນາກ (Rishi Sunak) ລົງທຶນໃສ່ສະຖາບັນຄວາມປອດໄພຂອງ AI ທີ່ທ່ານກ່າວວ່າ ຈະປະເມີນ, ຕິດຕາມ ແລະທົດສອບຄວາມປອດໄພຂອງຕົວແບບ AI ຢ່າງເປັນອິດສະຫລະ.

ທ່ານຊູນາກ, ນາຍົກລັດຖະມົນຕີອັງກິດກ່າວວ່າ:

"ສິ່ງທີ່ພວກເຮົາບໍ່ສາມາດເຮັດໄດ້ ກໍຄື ການຄາດຫວັງໃຫ້ບັນດາບໍລິສັດ ລົງຄະແນນໃນວຽກບ້ານຂອງເຂົາເຈົ້າເອງ, ທ່ານຮູ້ບໍ່? ຂ້າພະເຈົ້າ ບໍ່ຄິດດອກວ່າ ຄົນຈະຕັ້ງຄວາມຄາດຫວັງນັ້ນ ສໍາລັບສາຂາວຽກງານອື່ນ, ມັນເປັນພາລະໜ້າທີ່ຂອງລັດຖະບານປະເທດຕ່າງໆ ທີ່ຈະປົກປ້ອງພົນລະເມືອງຂອງຕົນໃຫ້ປອດໄພ ແລະໄດ້ຮັບການປ້ອງກັນ, ແລະນັ້ນ ແມ່ນວິທີການທີ່ພວກເຮົາມີໃນດ້ານອື່ນໆ. ​ນັ້ນ​ແມ່ນ​ວິ​ທີ​ການ​ທີ່​ພວກ​ເຮົາ​ຈະ​ໃຊ້​ໃນ​ທີ່​ນີ້.”

ສະຫະປະຊາຊາດມີອົງການທີ່ປຶກສາສາກົນດ້ານ AI ທີ່ມີນັກຊ່ຽວຊານໃນທົ່ວຂະແຫນງການຄ້າ, ການສຶກສາ ແລະພາກລັດ ເພື່ອໃຫ້ຄໍາແນະນໍາກ່ຽວກັບການຄຸ້ມຄອງ AI ໃນໂລກ ແລະວິທີການທີ່ເທັກໂນໂລຈີສາມາດຊ່ວຍບັນລຸເປົ້າຫມາຍໃນດ້ານການພັດທະນາແບບຍືນຍົງຂອງອົງການສະຫະປະຊາຊາດໄດ້.

ອ່ານລາຍງານເປັນພາສາອັງກິດຂ້າງລຸ່ມນີ້:

Artificial intelligence touches nearly every aspect of our digital lives, but there are few laws governing its use. In this episode of our web series about AI, VOA’s Tina Trinh looks at how lawmakers and tech developers are making rules for something that is changing nearly every day.

Artificial intelligence touches nearly every aspect of our digital lives, but there are few laws governing its use. Technology is constantly evolving and creating new possibilities in our world. One of the most exciting and powerful developments is the emergence of generative artificial intelligence tools. These tools, such as ChatGPT, Gemini and Llama 2, use advanced algorithms to produce original and creative content with unprecedented capabilities. Yet the unknown consequences of machine learning are increasing calls for virtual guardrails to help protect consumers.

President Joe Biden used an October executive order to direct AI companies to share results from tests on the safety of their technologies, as artificial intelligence “expands the boundary of human possibility and tests the bounds of human understanding.” But AI researchers say authorities should not rely entirely on companies’ self-reporting.

Deb Raji, Mozilla Foundation:

“It's challenging to just accept what a company is saying about their technology at face value. They're incentivized as a corporation to adopt an optimistic position around how well the technology is working. // If they want to depend on internally reported testing, performance and internal audit reports, then they have to set standards about what information is going to be externally reported. // Federal regulators need to be the ones to set the scope of, like, ‘Here's all the things that you need to provide us.’

One standard to consider is the number of users on a platform and how they are using AI.

Carsten Jung, Institute for Public Policy Research:

“To really understand where risks are evolving, say misinformation risks, you need actual, really detailed access by supervisors to usage data. … With regards to the leading AI models, the public and regulators are completely in the dark. … We don’t know how much GPT-4 is being used for generating real-looking news articles. We don’t know how much it is being used for cyber-related activities.”

Deb Raji, Mozilla Foundation:

“Meta is one of the examples I look at of a company where even if they're claiming open-source accessibility for those that are doing research on these models — the fact that we don't have any visibility into the training data, and we don't have any visibility into the training code, also blocks a certain type of critique.”

President Biden’s executive order calls for greater transparency, but questions of enforcement and accountability remain.

Safiya Noble, Center on Race and Digital Justice:

“We’re talking about maybe 1,000 people on planet Earth who are making decisions that will affect billions of people. The most safe thing we can do around this is hold companies and their shareholders, their boards of directors, criminally liable for the harmful products that they design.”

In the United States, government agencies such as the National Institute of Standards and Technology, the departments of Homeland Security, Energy and Commerce will establish guidance for issues including algorithmic discrimination and the authentication of human-made online content versus AI-generated content.

Deb Raji, Mozilla Foundation:

“It's been years of us trying to see movement on the legislative front. And this sort of new strategy of looking to the executive branch as an opportunity to get some accountability for these companies had sort of this surprising win of just, a long kind of comprehensive effort to push forward some of the action on this.”
European lawmakers reached a landmark deal late last year to place curbs on how AI can be used in Europe. The United Kingdom appears to be taking a more hands-on approach, with Prime Minister Rishi Sunak’s government investing in an AI Safety Institute that he says will independently evaluate, monitor and test the safety of AI models.

Rishi Sunak, British Prime Minister:

"What we can't do is expect companies to mark their own homework, you know? I don't think people would expect that in other walks of life. It's incumbent on governments to keep their citizens safe and protected, and that's the approach we take to everything else. That's the approach we'll take here.”

The United Nations has an international AI advisory body of experts across the commercial, academic and public sectors to make recommendations on global governance of AI and ways in which the technology can help fulfill the U.N.'s Sustainable Development Goals.

ຟໍຣັມສະແດງຄວາມຄິດເຫັນ

XS
SM
MD
LG