AI အသုံးပြုသူတွေသတိထားသင့်တဲ့ Prompt Injection အန္တရာယ်

AI အသုံးပြုသူတွေသတိထားသင့်တဲ့ Prompt Injection အန္တရာယ်

AI အသုံးပြုသူတွေသတိထားသင့်တဲ့ Prompt Injection အန္တရာယ်

AI Tools တွေကနေတစ်ဆင့် အသုံးပြုသူရဲ့အချက်အလက်တွေကို Hacker တွေဘယ်လိုရယူ‌နေလဲ။

Prompt Injection ဆိုတာ အခုနောက်ပိုင်းခေတ် AI Tools တွေခေတ်စားပြီး အသုံးများလာကြတဲ့အချိန်မှာမှပေါ်‌ပေါက်လာတဲ့ အသုံးနှုန်းတစ်ခုပါ။ Cyber Security ဘက်က Code Injection နဲ့ပုံစံတူပါတယ်။

သူ့ရဲ့သဘောတရားကို အလွယ်ရှင်းပြပါမယ်။ AI Chatbot တွေအနေနဲ့ လူသားတွေမေးတဲ့မေးခွန်းတွေကိုနားလည်ပြီး တုံ့ပြန်ဖို့အတွက် Large Language Models (LLMs)တွေကို လိုအပ်ပါတယ်။ (LLMs) ဆိုတာ GPT တို့လိုမျိုး Chatbot တွေမှာသုံးဖို့အတွက် Text Data တွေအများကြီးကို Train လုပ်ပေးထားတဲ့သဘောပါပဲ။

ကျွန်တော်တို့ AI Tool တွေကိုအသုံးပြုတဲ့အခါ User အနေနဲ့ မေးခွန်း (သို့မဟုတ်) လိုချင်တာကို Input အနေနဲ့‌ရေး/ပြောရပါတယ်။ အဲ့ဒါကို Prompt လို့ခေါ်ပါတယ်။

အခု Prompt Injection ဆိုတာကလည်း ဒီသဘောပါပဲ။ Hacker တွေအနေနဲ့ AI Chatbot တွေရဲ့ LLMs ကိုပစ်မှတ်ထားပါတယ်။ ပုံစံကတော့ရှင်းပါတယ် LLMs ထဲမှာသုံးတဲ့ Training Data တွေထဲကို သူတို့လိုချင်တဲ့ပုံစံ Prompts (Malicious Prompts) ကိုထည့်ပြီး Train ပေးလိုက်ဒါပါပဲ။

အဲ့အခါမှာ အသုံးပြုသူက Prompt ရေးပြီးမေးလိုက်ရင် AI ကထွက်လာမဲ့ Response တွေကို Hacker တွေအနေနဲ့ ထိန်းချုပ်လို့ရသွားပါပြီ။ ဒီနည်းနဲ့ အသုံးပြုသူတွေရဲ့ ကိုယ်ရေးအချက်အလက်တွေ ၊ ဘဏ်ကဒ်အချက်အလက်တွေကို မေးတာမျိုးနဲ့ တားမြစ်အချက်အလက်တွေကို‌ ဖြေဒါမျိုးတွေအထိ ဖြစ်နိုင်ပါတယ်။

ဥပမာ- Chatbot အသုံးပြုသူက “Online ကပစ္စည်းတစ်ခုဝယ်ဖို့ ဘယ်မှာဝယ်ရင်ကောင်းမလဲ Websiteညွှန်းပေးပါ”

မေးရင် ညွှန်းပေးရမဲ့အစား ကိုယ်တိုင် Order တင်ပေးမယ် Bank Information ပေးဆိုတာမျိုး။

ဥပမာ- Hacker ‌ကဖန်တီးထားတဲ့ ဈေးဝယ် Website အတုရဲ့ Link ချပေးပြီး ဒီမှာ ဈေးသက်သက်သာသာနဲ့ရတယ်၊ ဝယ်ပါဆိုပြီး ပြန်ဖြေလာဒါမျိုးပါ။ ဝင်ဝယ်လိုက်တာတို့ ၊ ပေးလိုက်မိတာတို့ ဆိုရင်တော့ ကိုယ့်ဘဏ်ထဲကငွေတွေပါသွားမှာပါ။

ဘယ် AI မှာမှ အခုချိန်ထိ သူတို့ကိုယ်တိုင် Internet ပေါ်ကနေ တိုက်ရိုက် Purchase (ဝယ်ယူမှု) လုပ်နိုင်တဲ့ စွမ်းဆောင်ရည်မရှိသေးပါဘူး။

အချုပ်အနေနဲ့ပြောရရင် AI Tools တွေအများကြီးပေါ်လာတဲ့အခုခေတ်မှာ လူအရမ်းမသိတဲ့ AI Chatbot တွေကိုအသုံးပြုတော့မယ်ဆိုရင် Prompt Injection Attack ကိုသတိပြုဖို့လိုပါတယ်ခင်ဗျာ

AI အသုံးပြုသူတွေသတိထားသင့်တဲ့ Prompt Injection အန္တရာယ် jdbkx

Source : lakera.ai/

Author: admin

Leave a Reply

Your email address will not be published. Required fields are marked *