Shannon entropy ဟုလည်းသိကြသော Binary entropy သည် ရလဒ်နှစ်ခုဖြင့် binary random variable ၏မသေချာမရေရာမှု သို့မဟုတ် ကျပန်းကျပန်းဖြစ်မှုကို တိုင်းတာသည့် သတင်းအချက်အလက်သီအိုရီတွင် အယူအဆတစ်ခုဖြစ်သည်။ classical entropy နှင့် ကွဲပြားသည်မှာ binary variable များနှင့် အတိအကျ သက်ဆိုင်ပြီး ရလဒ်များ၏ အရေအတွက်နှင့် classical entropy များကို အသုံးချနိုင်သော်လည်း classical entropy နှင့် ကွဲပြားပါသည်။
binary entropy ကိုနားလည်ရန်၊ ကျွန်ုပ်တို့သည် entropy ကိုယ်တိုင်၏သဘောတရားကို ဦးစွာနားလည်ရပါမည်။ Entropy သည် ကျပန်းပြောင်းလဲမှုတစ်ခုတွင်ပါရှိသော ပျမ်းမျှအချက်အလက်ပမာဏ သို့မဟုတ် မသေချာမရေရာမှု၏ အတိုင်းအတာတစ်ခုဖြစ်သည်။ ၎င်းသည် ကျပန်းပြောင်းလဲမှုတစ်ခု၏ရလဒ်များမည်မျှကြိုတင်မှန်းဆ၍မရနိုင်ကြောင်း တွက်ချက်သည်။ တစ်နည်းဆိုရသော်၊ ကျပန်းပြောင်းလဲမှုတစ်ခု၏ရလဒ်များကိုလေ့လာသည့်အခါ ကျွန်ုပ်တို့မျှော်လင့်နိုင်သည့် "အံ့အားသင့်မှု" မည်မျှရှိသည်ကိုပြောပြသည်။
ရလဒ်နှစ်ခုပါသော binary ကျပန်း variable တစ်ခုတွင်၊ ဤရလဒ်များကို 0 နှင့် 1 အဖြစ်ဖော်ပြကြပါစို့။ H(X) အဖြစ်ဖော်ပြသော ဤကိန်းရှင်၏ binary entropy ကို ဖော်မြူလာဖြင့် တွက်ချက်သည်-
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
p(0) နှင့် p(1) တို့သည် 0 နှင့် 1 တို့၏ ရလဒ်များကို စောင့်ကြည့်ခြင်း၏ ဖြစ်နိုင်ခြေများဖြစ်သည်။ ရရှိလာသော အင်ထရိုပီတန်ဖိုးကို ဘစ်များဖြင့် တိုင်းတာကြောင်း သေချာစေရန်အတွက် လော့ဂရစ်သမ်ကို အခြေခံ 2 သို့ ခေါ်ဆောင်သွားပါသည်။
binary entropy ကို တွက်ချက်ရန်၊ ရလဒ်နှစ်ခု၏ ဖြစ်နိုင်ခြေများကို ဆုံးဖြတ်ရန် လိုအပ်သည်။ ဖြစ်နိုင်ခြေများ ညီမျှသည်ဆိုပါက p(0) = p(1) = 0.5၊ ထို့နောက် binary entropy သည် အမြင့်ဆုံးဖြစ်ပြီး အမြင့်ဆုံး မသေချာမှုကို ညွှန်ပြသည်။ ရလဒ်နှစ်ခုလုံးသည် တူညီနိုင်သောကြောင့်ဖြစ်ပြီး မည်သည့်ရလဒ်ဖြစ်လာမည်ကို ကျွန်ုပ်တို့ မခန့်မှန်းနိုင်သောကြောင့်ဖြစ်သည်။ ဤကိစ္စတွင်၊ binary entropy သည် H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 bit ဖြစ်သည်။
အခြားတစ်ဖက်တွင်၊ ရလဒ်တစ်ခုသည် အခြားတစ်ခုထက် ဖြစ်နိုင်ခြေပိုများပါက၊ binary entropy သည် လျော့ကျသွားပြီး မသေချာမရေရာမှုနည်းပါးကြောင်း ဖော်ပြသည်။ ဥပမာအားဖြင့် p(0) = 0.8 နှင့် p(1) = 0.2 ဖြစ်ပါက၊ ဒွိအင်ထရိုပီသည် H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 ဘစ်။ ဆိုလိုသည်မှာ၊ ပျမ်းမျှအားဖြင့်၊ ဤ binary random variable ၏ ရလဒ်များကို ကိုယ်စားပြုရန်အတွက် ပျမ်းမျှအားဖြင့် ကျွန်ုပ်တို့သည် အချက်အလက်အနည်းငယ်ထက်နည်းသော အချက်အလက် လိုအပ်ပါသည်။
binary entropy သည် အမြဲတမ်း အနုတ်လက္ခဏာမဟုတ်ကြောင်း သတိပြုရန် အရေးကြီးသည်၊ ဆိုလိုသည်မှာ ၎င်းသည် သုညထက် ကြီးသည် သို့မဟုတ် ညီမျှသည်။ ရလဒ်တစ်ခုသည် 1 ဖြစ်နိုင်ခြေရှိပြီး အခြားရလဒ်တစ်ခုသည် 0 ဖြစ်နိုင်ခြေရှိသောအခါတွင် ရလဒ်နှစ်ခု၏ဖြစ်နိုင်ခြေသည် တူညီပြီး အနိမ့်ဆုံးဖြစ်သည့်အခါ ၎င်းကို ချဲ့ထွင်သည်။
Binary entropy သည် ရလဒ်နှစ်ခုဖြင့် binary ကျပန်း variable ၏ မသေချာမရေရာမှု သို့မဟုတ် ကျပန်းကျပန်းကို တိုင်းတာသည်။ ၎င်းကို ဖော်မြူလာ -p(0) * log2(p(0)) – p(1) * log2(p(1)))၊ p(0) နှင့် p(1) တို့သည် ရလဒ်နှစ်ခု၏ ဖြစ်နိုင်ခြေများကို အသုံးပြု၍ တွက်ချက်ပါသည်။ . ရရှိလာသော အင်ထရိုပီတန်ဖိုးကို ဘစ်များဖြင့် တိုင်းတာပြီး မသေချာမရေရာမှု ပိုများကြောင်း ညွှန်ပြသော ပိုမြင့်သောတန်ဖိုးများနှင့် နိမ့်သောတန်ဖိုးများသည် မသေချာမရေရာမှုကို ဖော်ပြသည်။
အခြား လတ်တလောမေးခွန်းများနှင့် အဖြေများ ဂန္ထဝင် entropy:
- အင်ထရိုပီကို နားလည်ခြင်းသည် ဆိုက်ဘာလုံခြုံရေးနယ်ပယ်ရှိ ခိုင်မာသော ကုဒ်ဝှက်စနစ်ဆိုင်ရာ အယ်လဂိုရီသမ်များကို ဒီဇိုင်းနှင့် အကဲဖြတ်ရာတွင် မည်သို့အထောက်အကူပြုသနည်း။
- အင်ထရိုပီ၏ အမြင့်ဆုံးတန်ဖိုးသည် အဘယ်နည်း၊ ၎င်းကို မည်သည့်အချိန်တွင် အောင်မြင်သနည်း။
- မည်သည့်အခြေအနေများအောက်တွင် ကျပန်းပြောင်းလဲနိုင်သော အင်ထရိုပီသည် ကွယ်ပျောက်သွားသနည်း၊ ၎င်းသည် ကိန်းရှင်နှင့်ပတ်သက်၍ အဘယ်အရာကိုဆိုလိုသနည်း။
- အင်ထရိုပီ၏ သင်္ချာဂုဏ်သတ္တိများကား အဘယ်နည်း၊ ၎င်းသည် အဘယ်ကြောင့် အနုတ်လက္ခဏာမဟုတ်သနည်း။
- ဖြစ်နိုင်ခြေကို ရလဒ်တစ်ခုသို့ ဘက်လိုက်သောအခါနှင့် နှိုင်းယှဉ်ပါက ရလဒ်များကြားတွင် ဖြစ်နိုင်ခြေကို အညီအမျှ ခွဲဝေသည့်အခါ ကျပန်းပြောင်းလဲနိုင်သော အင်ထရိုပီသည် မည်သို့ပြောင်းလဲသွားသနည်း။
- ကုဒ်စကားလုံးများ၏ မျှော်မှန်းထားသော အရှည်နှင့် ပြောင်းလဲနိုင်သော အရှည်ကုဒ်တွင် ကျပန်း variable တစ်ခု၏ entropy အကြား ဆက်စပ်မှုမှာ အဘယ်နည်း။
- ထိရောက်သော သတင်းအချက်အလက် ကုဒ်ပြောင်းခြင်းအတွက် ရှေးရိုး အင်ထရိုပီ၏ သဘောတရားကို မပြောင်းလဲနိုင်သော အရှည်ကုဒ်ရေးနည်းများတွင် မည်သို့အသုံးပြုကြောင်း ရှင်းပြပါ။
- classical entropy ၏ ဂုဏ်သတ္တိများကား အဘယ်နည်း၊ ရလဒ်များ၏ ဖြစ်နိုင်ခြေနှင့် မည်သို့ဆက်စပ်နေသနည်း။
- ရှေးရိုးအင်ထရိုပီသည် ပေးထားသည့်စနစ်တစ်ခုရှိ မသေချာမရေရာမှု သို့မဟုတ် ကျပန်းဖြစ်မှုကို မည်သို့တိုင်းတာသနည်း။