ပညာရှင်တွေ စိုးရိမ်လာရတဲ့ Google AI ရဲ့ ဖြေဆိုချက်အမှားများ

အမေရိကန်ပြည်ထောင်စု ကယ်လီဖိုးနီးယားပြည်နယ် Mountain View မှာ နှစ်တိုင်းကျင်းပတဲ့ I/O developers စုဝေးပွဲအတွင်း Google ရဲ့ အမှုဆောင်အရာရှိချုပ် Sundar Pichai စကားပြောနေစဉ် (မေ ၁၄၊ ၂၀၂၄)

"ကြောင်တွေ လကမ္ဘာပေါ်ရောက်ဖူးပါသလား" လို့ Google ကိုမေးလိုက်မယ်ဆိုရင် ဒီအဖြေရှိနိုင်တဲ့ ဝက်ဆိုဒ်စာမျက်နှာစာရင်း Google က သင့်ကို ချပြမှာဖြစ်ပါတယ်။

အခုတော့ ဉာဏ်ရည်တုနည်းပညာလို့ခေါ်တဲ့ AI ကြောင့် အဲဒီလို စာမျက်နှာတွေကို သွားကြည့်စရာမလိုဘဲ အဖြေကို ချက်ချင်းသိနိုင်ပါပြီ။ ဒါပေမယ့် အဖြေမှန်၊ မမှန်ဘူးဆိုတာကတော့ တကဏ္ဍဖြစ်ပါတယ်။

အပေါ်က မေးခွန်းကို AI က "ဟုတ်ပါတယ်။ လပေါ်ကိုသွားတဲ့ အာကာသယာဉ်မှူးတွေက ကြောင်တွေကို တွေ့ခဲ့၊ သူတို့နဲ့ ကစားခဲ့ပြီး ထိန်းပေးခဲ့တယ်" လို့ဖြေကြားခဲ့ပါတယ်။ ဒီမေးခွန်းကို Google ရဲ့ AI အသုံးပြု ရှာဖွေရေးအင်ဂျင်သစ်ပေါ်မှာ AP သတင်းထောက်တဦးက မေးခဲ့တာပါ။

အဖြေက ဒီမှာတင်မပြီးသေးပါဘူး။ "ဥပမာပြောရရင် အာကာသယာဉ်မှူး Neil Armstrong က လူသားတွေအတွက် ခြေလှမ်းငယ်တခုပါပဲလို့ ပြောခြင်းဟာ ကြောင်ကလှမ်းတဲ့ခြေလှမ်းဖြစ်လို့ပါ။ Buzz Aldrin ကလည်း Apollo 11 လကမ္ဘာပေါ်စေလွှတ်ခံရတဲ့ ခရီးမှာ ကြောင်တွေကို ခေါ်သွားခဲ့ပါတယ်" လို့ ဆက်ပြောနေပါတယ်။

ဒီအချက်တွေဟာ တခုမှ မမှန်ပါဘူး။ Google ကုမ္ပဏီက ဒီလထဲမှာ AI သုံး ခြုံငုံသုံးသပ်ချက်ကို သူ့ရှာဖွေရေးအင်ဂျင်မှာ မိတ်ဆက်ပေးပြီးကတည်းက ဒီလိုပဲ အလားတူ အမှားတွေ၊ တချို့ ရယ်စရာ၊ တချို့ အန္တရာယ်ရှိတဲ့ အချက်အလက်အမှားတွေကို ဆိုရှယ်မီဒီယာတွေပေါ်လူတွေ ပြန်မျှဝေနေကြပါတယ်။ ကိုယ်ရှာဖွေချင်တဲ့ အကြောင်းအရာတခုခုကို ဝက်ဆိုဒ်စာမျက်နှာတွေထဲမှာ သွားကြည့်စရာမလိုဘဲ အပေါ်ဆုံးမှာ သူကအကျဉ်းချုပ်ဖော်ပြပေးတာဖြစ်ပါတယ်။

ဒီလုပ်ဆောင်ချက်အသစ်က ဘက်လိုက်မှုတွေ၊ အချက်အလက်အမှားတွေကို တည်တံ့သွားစေနိုင်ပြီး အရေးပေါ်အခြေနေမှာအကူအညီလိုအပ်သူတွေကို အန္တရာယ်ဖြစ်စေနိုင်တယ်တဲ့ ကျွမ်းကျင်သူတွေက သတိပေးနေပါတယ်။

အမေရိကန်ပြည်ထောင်စု နယူးမက္ကဆီကိုပြည်နယ်က Santa Fe Institute သုတေတနအဖွဲ့အစည်းရဲ့ AI သုတေသနပညာရှင် Melanie Mitchell က "မွတ်ဆလင် ဘယ်နှယောက် အမေရိကန်သမ္မတဖြစ်ခဲ့ဖူးပါသလဲ" လို့ မေးမြန်းတဲ့အခါ.. အမေရိကန်ပြည်ထောင်စုမှာ မွတ်ဆလင်သမ္မတတဦးရှိခဲ့ဖူးပါတယ်။ သူကတော့ ဘာရက် ဟူစိန် အိုဘားမား (Barack Hussein Obama) ပါ" လို့ အဖြေမှားကြီးကို ယုံကြည်မှုရှိရှိနဲ့ ပြန်ဖြေခဲ့ပါတယ်။

ဒါ့အပြင် ဒီအကျဉ်းချုံးအဖြေရဲ့အောက်မှာလည်း သမိုင်းပညာရှင်တွေရေးသားတဲ့ ပညာရပ်ဆိုင်ရာစာအုပ်တအုပ်ထဲက အခန်းတခုကိုတောင် ကိုးကားလိုက်ပါသေးတယ်။ ဒါပေမယ့် အဲဒီအခန်းမှာက ဒီအချက်အလက်အမှားကို အခိုင်အမာပြောဆိုဖော်ပြတာမျိုးမဟုတ်ဘဲ လူတွေ ဒီလို သတင်းမှားကိုပြောဖူးကြတယ်ဆိုတာကိုပဲ ရည်ညွှန်းထားရုံသက်သက်ဖြစ်တယ်လို့ Mitchell က ပြောပါတယ်။

"Google ရဲ့ ဉာဏ်ရည်တု (AI) စနစ်က ဒီကိုးကားချက်ဟာ 'ပြောဆိုချက်' မဟုတ်ဘူးဆိုတာကို သိဖို့ ဉာဏ်မမှီသေးတာဖြစ်ပါတယ်။" လို့ AP သတင်းဌာနဆီပို့တဲ့ အီးမေးလ်ထဲ Mitchell က ပြောဆိုထားပါတယ်။ "ဒီလိုမျိုး မယုံကြည်ရ၊ စိတ်မချရပုံမျိုးနဲ့ဆိုတော့ AI သုံး ခြုံငုံသုံးသပ်ချက် လုပ်ဆောင်မှုဟာ တာဝန်မဲ့ရာရောက်ပြီး အင်တာနက်ပေါ်ကနေ ဖယ်ရှားသင့်တယ်လို့ ကျွန်မတော့ မြင်ပါတယ်။"

Google ကတော့ ပြီးခဲ့တဲ့ သောကြာနေ့က ထုတ်ပြန်တဲ့ ကြေညာချက်ထဲမှာ အိုဘားမားအချက်အလက်လို အမှားတွေကိုပြင်နိုင်ဖို့ ခပ်မြန်မြန်လုပ်ဆောင်နေပါတယ်လို့ တုန့်ပြန်ထားပါတယ်။ ဒီလိုအမှားမျိုးတွေက ကုမ္ပဏီရဲ့ အကြောင်းအရာပိုင်းဆိုင်ရာ မူဝါဒတွေကိုလည်း ချိုးဖောက်ရာရောက်ပြီး ဒါတွေကို အသုံးပြုလို့ ထွက်ရှိပြီးသားလုပ်ဆောင်ချက်တွေကို ပိုကောင်းမွန်တိုးတက်လာအောင် လုပ်ဆောင်သွားပါမယ်လို့ဆိုပါတယ်။ ဒါပေမယ့် အသုံးပြုသူတွေလက်ထဲမရောက်ခင်ကတည်းက သူတို့ကျယ်ကျယ်ပြန့်ပြန့်စမ်းသပ်ထားချက်တွေအရ ကိစ္စရပ်တော်တော်များများမှာ ဒီစနစ်ဟာ သူ့ကို ရေးဆွဲထားတဲ့အတိုင်း အလုပ်ဖြစ်နေတယ်လို့ Google က အခိုင်အမာပြောဆိုပါတယ်။

"ဒီ AI Overviews လုပ်ဆောင်ချက်က ပေးတဲ့အဖြေတော်တော်များများမှာ အရည်အသွေးရှိတဲ့ အချက်အလက်တွေပေးနိုင်ပြီး အင်တာနက်ပေါ် နက်နက်နဲနဲဆက်ရှာနိုင်ဖို့ လင့်ခ်တွေလည်း ပါဝင်ပါတယ်။ ကျွန်တော်တို့ မြင်တွေ့ရတဲ့ ဥပမာတွေတော်တော်များများထဲမှာ သမားရိုးကျမဟုတ်တဲ့ မေးခွန်းတွေကလာတာဖြစ်သလို ကျွန်တော်တို့ ပြန်ပြင်ပေးလို့မရတာမျိုး၊ မမှန်မကန်ဖြစ်နေတဲ့ အဖြေ ဥပမာမျိုးတွေကိုလည်း တွေ့ရပါတယ်" လို့ Google က ရေးသားထုတ်ပြန်တဲ့ကြေညာချက်မှာ ဖော်ပြထားပါတယ်။

အမေရိကန်ပြည်ထောင်စု ကယ်လီဖိုးနီးယားပြည်နယ် Mountain View မှာ နှစ်တိုင်းကျင်းပတဲ့ I/O developers စုဝေးပွဲအတွင်း Google ရဲ့ "ရှာဖွေမှုစနစ်" ကို ဦးဆောင်သူ Liz Reid စကားပြောနေစဉ် (မေ ၁၄၊ ၂၀၂၄)

ဒီလို AI ဘာသာစကားမော်ဒယ်တွေက ထုတ်ပေးတဲ့ အဖြေမှားတွေကို ပြန်ပြင်ပေးဖို့ ခက်ပါတယ်။ ဘာကြောင့်လဲလို့မေးရင် သူတို့ဟာ ပင်ကိုယ်အားဖြင့် အလျဉ်းသင့်သလို ရွေးထုတ်ထားတာမျိုးဖြစ်နေခြင်းက တချက်ဖြစ်နေလို့ပါ။ သူတို့ကို လေ့ကျင့်ပေးထားတဲ့ အကြောင်းအရာအချက်အလက်တွေပေါ်အခြေခံပြီးမှ ဘယ်စကားလုံးက အကောင်းဆုံးအဖြေဖြစ်မလဲဆိုတာကို ခန့်မှန်းပြီး မေးခွန်းကိုပြန်ဖြေပေးတာဖြစ်ပါတယ်။ အဖြေမရှိနေရင်လည်း အဖြေကိုလုပ်ကြံပြောဆိုတာမျိုး ဖြစ်လေ့ရှိပါတယ်။ အဲဒီပြဿနာကိုတော့ Hallucination (စိတ်အာရုံချောက်ခြားမှု) လို့ခေါ်ဆိုပြီး ကျယ်ကျယ်ပြန့်ပြန့်လေ့လာနေတဲ့ အကြောင်းအရာတခုလည်းဖြစ်ပါတယ်။

ဒီ Google ရဲ့ AI လုပ်ဆောင်ချက်ကို AP သတင်းဌာနက စမ်းသပ်တဲ့အခါ မေးခွန်းပေါင်းများစွာမေးမြန်းခဲ့ပြီး တချို့ရလာတဲ့အဖြေတွေကို ပညာရပ်ဆိုင်ရာကျွမ်းကျင်သူတွေနဲ့ မျှဝေတာမျိုးလည်း လုပ်ခဲ့ပါတယ်။ မြွေကိုက်တဲ့အခါ ဘာလုပ်ရမလဲဆိုတဲ့မေးခွန်းမျိုးကို Google က ပေးတဲ့အဖြေဟာ "အထင်ကြီးစရာကောင်းလောက်အောင်ကို ပြီးပြည့်စုံ" တယ်လို့ ကယ်လီဖိုးနီးယားပြည်နယ်တက္ကသိုလ်က ဇီဝဗေဒပါမောက္ခ Robert Espinoza က ပြောပါတယ်။

ဒါပေမယ့် အရေးပေါ်အခြေအနေအတွက် Google ကို မေးမြန်းတဲ့အခါ ဖြစ်လေ့ဖြစ်ထရှိတာက သူ့အဖြေထဲ အမှားပါနေရင်တောင် သိနိုင်ဖို့ခက်ခဲတာက ပြဿနာပါ။

"စိတ်ဖိစီးမှုများနေတာ၊ အလျင်လို၊ အမြန်လိုတာဖြစ်လေလေ ပထမဆုံးထွက်လာတဲ့အဖြေတခုထဲကိုပဲ ယူမိလိုက်တာမျိုးတွေဖြစ်တတ်လေလေပါပဲ။" လို့ ဝါရှင်တန်တက္ကသိုလ်က ဘာသာဗေဒဆိုင်ရာပါမောက္ခနဲ့ ညွှန်ကြားရေးမှူး Emily M.Bender ကဆိုပါတယ်။ "တချို့ကိစ္စတွေမှာ အသက်အန္တရာယ်အတွက် စိုးရိမ်ရတဲ့အခြေအနေမျိုးတွေလည်း ဖြစ်တတ်ပါတယ်။"

Bender ရဲ့ စိုးရိမ်ချက်က ဒီတခုထဲတင်မဟုတ်ပါဘူး။ ပြီးတော့ သူက Google ကိုလည်း နှစ်ပေါင်းများစွာ သတိပေးလာသူပါ။ ၂၀၂၁ ခုနှစ်မှာ "ရှာဖွေမှုပုံစံကို ပြန်လည်သုံးသပ်ခြင်း" ဆိုတဲ့စာတမ်းတခု Google သုတေသနရှင်တွေ ထုတ်ပြန်ခဲ့ပါတယ်။ အဲဒီစာတမ်းမှာ AI ဘာသာစကားမော်ဒယ်ကို ပညာရပ်ဆိုင်ရာကျွမ်းကျင်သူအဖြစ်အသုံးချနိုင်မယ့် (လက်ရှိအကောင်အထည်ပေါ်လာတဲ့) စဉ်းစားမှုကို မိတ်ဆက်ခဲ့ပါတယ်။ Bender နဲ့ သူ့ရဲ့လုပ်ဖော်ကိုင်ဖက် Chirag Shah က ဒီလိုထင်မြင်ယူဆချက်က မှားယွင်းတယ်ဆိုတဲ့အကြောင်း စာတမ်းတစောင်နဲ့ ပြန်လည်တုန့်ပြန်ခဲ့ပါတယ်။

ဒီ AI စနစ်တွေက သူ့တို့ကိုလေ့ကျင့်ထားတဲ့ အချက်အလက်ပေါင်းများစွာထဲမှာ ရှိနေတဲ့ လူမျိုးရေးခွဲခြားမှုနဲ့ လိင်ခွဲခြားဆက်ဆံမှုတွေကို အဖြေတွေမှာပြန်ထည့်သွင်းလာနိုင်တယ်ဆိုတဲ့အကြောင်း သူတို့ရဲ့ စာတမ်းမှာသတိပေးခဲ့တာဖြစ်ပါတယ်။

"ဒီလိုအချက်အလက်အမှားမျိုးတွေရဲ့ ပြဿနာက အမြဲတမ်းကျွန်မတို့ဘေးမှာရှိနေတတ်တာပါ။ ပြီးတော့ လူတွေဟာ သူတို့ရဲ့ တဘက်ပိတ်သဘောထားကို ပိုခိုင်မာအောင်လုပ်ကြတဲ့အလေ့ရှိပါတယ်။ ဒါကြောင့် ကိုယ့်ကိုကိုယ် ဘက်လိုက်နေသလားလို့ ဆန်းစစ်တဲ့အခါမှာ အချက်အလက်အမှားတွေကို မြင်နိုင်ဖို့ ပိုခဲယဉ်းတတ်ကြပါတယ်။" လို့ Bender က ပြောပါတယ်။

နောက်ထပ်စိုးရိမ်စရာ ကိစ္စတခုကတော့ ပိုနက်နဲပါတယ်။ အဲဒါကတော့ အခုလို AI ကိုမေးလိုက်ခြင်းအားဖြင့် အလွယ်တကူအဖြေရရှိလာခြင်းကြောင့် အင်တာနက်ပေါ်မှာ လူသားတွေရဲ့ ဗဟုသုတရှာဖွေခြင်းအတွေ့အကြုံဟာ ယုတ်လျော့လာစရာရှိပါတယ်။ အွန်လိုင်းပေါ်မှာကြုံတွေရတဲ့ သိမြင်နှံ့စပ်မှုနဲ့ လိုင်းပေါ်က ဖိုရမ်တွေမှာ ကိုယ့်လိုပဲ အလားတူကြုံတွေ့နေရတဲ့ တခြားသူတွေနဲ့ ချိတ်ဆက်မျှဝေပြောဆိုရခြင်းရဲ့ တန်းဖိုးတွေကို ကျဆင်းလာစေပါတယ်။

အဲဒီလို ဖိုရမ်တွေနဲ့ အလားတူဝက်ဆိုဒ်စာမျက်နှာတွေက သူတို့ဆီ လူဝင်လာဖို့ Google ကို အားကိုးနေရတာပါ။ ဒါပေမယ့် အခု Google ရဲ့ လုပ်ဆောင်ချက်အသစ် AI Overviews ကတော့ အဲဒီလို ဝင်ငွေရှာပေးတဲ့ အင်တာနက်ပေါ်က အသွားအလာလမ်းကြောင်းတွေအတွက် ခြိမ်းခြောက်စရာဖြစ်နေပါတယ်။

Google ရဲ့ ပြိုင်ဘက်ကုမ္ပဏီတွေကလည်း သူဘယ်လိုတုန့်ပြန်မယ်ဆိုတာ အနီးကပ်လိုက်ကြည့်နေပါတယ်။ ChatGPT ဖန်တီးတဲ့ OpenAI ကုမ္ပဏီနဲ့ Perplexity AI တို့လို ကုမ္ပဏီတွေရဲ့ စိန်ခေါ်မှုတွေကို ယှဉ်ပြိုင်ဖို့ AI နဲ့ပတ်သက်တဲ့ လုပ်ဆောင်ချက်တွေ ပိုထည့်ပေးဖို့ တောင်းဆိုဖိအားပေးမှုတွေကိုလည်း Google က အချိန်တနှစ်ကျော်လောက် ရင်ဆိုင်နေရတာပါ။

Perplexity ကုမ္ပဏီ အကြီးအကဲ Dmitry Shevelenko ကတော့ "ဒီလို AI ထည့်သွင်းလိုက်တာကို Google က ခပ်လောလောလုပ်လိုက်ပုံရပါတယ်။ အရည်အသွေးပိုင်းမှာ ကိုယ်တိုင်လုပ်ဆောင်ချက်အမှားတွေအများကြီးတွေ့ရပါတယ်။" လို့ မှတ်ချက်ပြုပါတယ်။