AI အသုံးပြုသူတွေသတိထားသင့်တဲ့ Prompt Injection အန္တရာယ်
AI Tools တွေကနေတစ်ဆင့် အသုံးပြုသူရဲ့အချက်အလက်တွေကို Hacker တွေဘယ်လိုရယူနေလဲ။
Prompt Injection ဆိုတာ အခုနောက်ပိုင်းခေတ် AI Tools တွေခေတ်စားပြီး အသုံးများလာကြတဲ့အချိန်မှာမှပေါ်ပေါက်လာတဲ့ အသုံးနှုန်းတစ်ခုပါ။ Cyber Security ဘက်က Code Injection နဲ့ပုံစံတူပါတယ်။
သူ့ရဲ့သဘောတရားကို အလွယ်ရှင်းပြပါမယ်။ AI Chatbot တွေအနေနဲ့ လူသားတွေမေးတဲ့မေးခွန်းတွေကိုနားလည်ပြီး တုံ့ပြန်ဖို့အတွက် Large Language Models (LLMs)တွေကို လိုအပ်ပါတယ်။ (LLMs) ဆိုတာ GPT တို့လိုမျိုး Chatbot တွေမှာသုံးဖို့အတွက် Text Data တွေအများကြီးကို Train လုပ်ပေးထားတဲ့သဘောပါပဲ။
ကျွန်တော်တို့ AI Tool တွေကိုအသုံးပြုတဲ့အခါ User အနေနဲ့ မေးခွန်း (သို့မဟုတ်) လိုချင်တာကို Input အနေနဲ့ရေး/ပြောရပါတယ်။ အဲ့ဒါကို Prompt လို့ခေါ်ပါတယ်။
အခု Prompt Injection ဆိုတာကလည်း ဒီသဘောပါပဲ။ Hacker တွေအနေနဲ့ AI Chatbot တွေရဲ့ LLMs ကိုပစ်မှတ်ထားပါတယ်။ ပုံစံကတော့ရှင်းပါတယ် LLMs ထဲမှာသုံးတဲ့ Training Data တွေထဲကို သူတို့လိုချင်တဲ့ပုံစံ Prompts (Malicious Prompts) ကိုထည့်ပြီး Train ပေးလိုက်ဒါပါပဲ။
အဲ့အခါမှာ အသုံးပြုသူက Prompt ရေးပြီးမေးလိုက်ရင် AI ကထွက်လာမဲ့ Response တွေကို Hacker တွေအနေနဲ့ ထိန်းချုပ်လို့ရသွားပါပြီ။ ဒီနည်းနဲ့ အသုံးပြုသူတွေရဲ့ ကိုယ်ရေးအချက်အလက်တွေ ၊ ဘဏ်ကဒ်အချက်အလက်တွေကို မေးတာမျိုးနဲ့ တားမြစ်အချက်အလက်တွေကို ဖြေဒါမျိုးတွေအထိ ဖြစ်နိုင်ပါတယ်။
ဥပမာ- Chatbot အသုံးပြုသူက “Online ကပစ္စည်းတစ်ခုဝယ်ဖို့ ဘယ်မှာဝယ်ရင်ကောင်းမလဲ Websiteညွှန်းပေးပါ”
မေးရင် ညွှန်းပေးရမဲ့အစား ကိုယ်တိုင် Order တင်ပေးမယ် Bank Information ပေးဆိုတာမျိုး။
ဥပမာ- Hacker ကဖန်တီးထားတဲ့ ဈေးဝယ် Website အတုရဲ့ Link ချပေးပြီး ဒီမှာ ဈေးသက်သက်သာသာနဲ့ရတယ်၊ ဝယ်ပါဆိုပြီး ပြန်ဖြေလာဒါမျိုးပါ။ ဝင်ဝယ်လိုက်တာတို့ ၊ ပေးလိုက်မိတာတို့ ဆိုရင်တော့ ကိုယ့်ဘဏ်ထဲကငွေတွေပါသွားမှာပါ။
ဘယ် AI မှာမှ အခုချိန်ထိ သူတို့ကိုယ်တိုင် Internet ပေါ်ကနေ တိုက်ရိုက် Purchase (ဝယ်ယူမှု) လုပ်နိုင်တဲ့ စွမ်းဆောင်ရည်မရှိသေးပါဘူး။
အချုပ်အနေနဲ့ပြောရရင် AI Tools တွေအများကြီးပေါ်လာတဲ့အခုခေတ်မှာ လူအရမ်းမသိတဲ့ AI Chatbot တွေကိုအသုံးပြုတော့မယ်ဆိုရင် Prompt Injection Attack ကိုသတိပြုဖို့လိုပါတယ်ခင်ဗျာ
Source : lakera.ai/