ລາຍງານທີ່ອອກເມື່ອວັນພຸດວານນີ້ໂດຍບໍລິສັດ Google ພົບວ່າພວກລັກເຈາະ ຂໍ້ມູນຈາກຫຼາຍປະເທດ ໂດຍສະເພາະ ຈີນ, ອີຣ່ານ ແລະ ເກົາຫຼີເໜືອ ໄດ້ໃຊ້ ແຊັດບັອດ Gemini ຂອງບໍລິສັດຊຶ່ງມີລະບົບປັນຍາປະດິດ ເພື່ອເພີ່ມປະສິດ ທິພາບໃນການໂຈມຕີທາງໄຊເບີຕໍ່ເປົ້າໝາຍໃນ ສະຫະລັດ.
ບໍລິສັດໄດ້ພົບເຫັນ ຢ່າງໜ້ອຍທີ່ສຸດຈົນເຖິງຕອນນີ້, ແມ່ນການເຂົ້າເຖິງຕົວຢ່າງ ພາສາຂະໜາດໃຫຍ່ທີ່ເປີດເຜີຍຕໍ່ສາທາລະນະ ຫຼື LLM ເຮັດໃຫ້ຜູ້ໂຈມຕີທາງ ໄຊເບີມີປະສິດທິພາບຫຼາຍຂຶ້ນ ແຕ່ບໍ່ໄດ້ປ່ຽນແປງປະເພດຂອງການໂຈມຕີໂດຍ ທົ່ວໄປທີ່ເຂົາເຈົ້າມັກຈະເຮັດ.”
LLM ແມ່ນຕົວຢ່າງ AI ທີ່ໄດ້ຮັບການຝຶກຊ້ອມໂດຍໃຊ້ເນື້ອຫາທີ່ສ້າງຂຶ້ນ ກ່ອນໜ້ານີ້ຈຳນວນຫຼາຍ ເພື່ອລະບຸຮູບແບບໃນພາສາຂອງມະນຸດ ຊຶ່ງສິ່ງນີ້ ເຮັດໃຫ້ຕົວຢ່າງເຫຼົ່ານີ້ຊ່ຽວຊານໃນການສ້າງໂປຣແກຣມຄອມພິວເຕີທີ່ມີປະສິດທິພາບສູງ ແລະ ບໍ່ມີຂໍ້ຜິດພາດ.
ລາຍງານດັ່ງກ່າວພົບວ່າ “ແທນທີ່ຈະເປີດໂອກາດໃຫ້ເກີດການປ່ຽນແປງທີ່ກໍ່ ກວນ, AI ຈະຊ່ວຍໃຫ້ຜູ້ທີ່ກໍ່ໄພຄຸກຄາມສາມາດດຳເນີນການໄດ້ໄວຂຶ້ນ ແລະ ໃນປະລິມານທີ່ຫຼາຍຂຶ້ນ.
AI ໄດ້ສະໜອງຜົນປະໂຫຍດຈຳນວນນຶ່ງໃຫ້ພວກລັກເຈາະຂໍ້ມູນທີ່ມີທັກສະຕໍ່າ ແລະ ທັກສະສູງ, ລາຍງານໄດ້ກ່າວ.
“ແນວໃດກໍຕາມ LLM ໃນປັດຈຸບັນນັ້ນ ບໍ່ໜ້າຈະຊ່ວຍໃຫ້ຜູ້ກໍ່ໄພຄຸກຄາມມີ ຄວາມສາມາດໃນການປະສົບຄວາມສຳເລັດໄດ້. ພວກເຮົາຮັບຊາບວ່າຂອບ ເຂດຂອງ AI ນັ້ນມີການປ່ຽນແປງຢູ່ຕະຫຼອດເວລາ ໂດຍມີຕົວຢ່າງ AI ແລະ ລະບົບຕົວແທນໃໝ່ໆເກີດຂຶ້ນທຸກວັນ ເມື່ອວິດທະນາການນີ້ເກີດຂຶ້ນ ກຸ່ມສືບລັບ ໄພຂົ່ມຂູ່ຂອງ Google ຄາດວ່າຂອບເຂດຂອງໄພຄຸກຄາມຈະພັດທະນາໄປ ພ້ອມໆກັນ ເນື່ອງຈາກຜູ້ກໍ່ໄພຄຸກຄາມໄດ້ນຳເອົາເທັກໂນໂລຈີ AI ໃໝ່ໆມາໃຊ້ ໃນການປະຕິບັດງານ.”
ຜົນການຄົ້ນພົບຂອງ Google ເບິ່ງຄືວ່າຈະສອດຄ່ອງກັບການຄົ້ນຄວ້າກ່ອນ ໜ້ານີ້ທີ່ເຜີຍແຜ່ໂດຍ OpenAI ແລະ Microsoft ຊຶ່ງເປັນບໍລິສັດດ້ານ AI ລາຍໃຫຍ່ຂອງ ສະຫະລັດ ຊຶ່ງພົວເຫັນຄວາມລົ້ມແຫຼວທີ່ຄ້າຍຄືກັນໃນການ ບັນລຸກົນລະຍຸດການໂຈມຕີທາງໄຊເບີແບບໃໝ່ ໂດຍໃຊ້ຕົວຢ່າງ AI ທົ່ວໄປ.
ອ່ານຂ່າວນີ້ເປັນພາສາອັງກິດ
A report issued Wednesday by Google found that hackers from numerous countries, particularly China, Iran and North Korea, have been using the company’s artificial intelligence-enabled Gemini chatbot to supercharge cyberattacks against targets in the United States.
The company found — so far, at least — that access to publicly available large language models (LLMs) has made cyberattackers more efficient but has not meaningfully changed the kind of attacks they typically mount.
LLMs are AI models that have been trained, using enormous amounts of previously generated content, to identify patterns in human languages. Among other things, this makes them adept at producing high-functioning, error-free computer programs.
“Rather than enabling disruptive change, generative AI allows threat actors to move faster and at higher volume,” the report found.
Generative AI offered some benefits for low-skilled and high-skilled hackers, the report said.
“However, current LLMs on their own are unlikely to enable breakthrough capabilities for threat actors. We note that the AI landscape is in constant flux, with new AI models and agentic systems emerging daily. As this evolution unfolds, [the Google Threat Intelligence Group] anticipates the threat landscape to evolve in stride as threat actors adopt new AI technologies in their operations.”
Google’s findings appear to agree with previous research released by other large U.S. AI players OpenAI and Microsoft, which found a similar failure to achieve novel offensive strategies for cyberattacks through the use of public generative AI models.
The report clarified that Google works to disrupt the activity of threat actors when it identifies them.
ຟໍຣັມສະແດງຄວາມຄິດເຫັນ