ဆိုးလ် – Samsung Electronics က ၂၀၂၆ ခုနှစ် ပထမသုံးလပတ်တွင် ၎င်း၏ နောက်မျိုးဆက် HBM4 high-bandwidth memory ထုတ်ကုန်များကို စတင်တင်ပို့ရန် လမ်းကြောင်းမှန်ပေါ်ရောက်နေပြီဖြစ်ကြောင်း ပြောကြားခဲ့သည်။ ကုမ္ပဏီက HBM4 ထုတ်ကုန်များတွင် artificial intelligence server များနှင့် accelerator များတွင် အသုံးပြုသည့် memory ရောင်းချမှုကို တိုးချဲ့နေသောကြောင့် 11.7 gigabits-per-second စွမ်းဆောင်ရည်ရှိသော ထုတ်ကုန်များ ပါဝင်မည်ဟု ပြောကြားခဲ့သည်။ Samsung သည် ကနဦး HBM4 ပို့ဆောင်မှုများအတွက် ဖောက်သည်များ၏ အမည်ကို မဖော်ပြခဲ့ဘဲ ၎င်း၏ ဝင်ငွေဆိုင်ရာ အချက်အလက်များတွင်လည်း ပို့ဆောင်မှုပမာဏကို မဖော်ပြခဲ့ပါ။

၎င်း၏ စတုတ္ထသုံးလပတ်နှင့် ၂၀၂၅ ခုနှစ် တစ်နှစ်တာရလဒ်များတွင် Samsung က ၎င်း၏ မှတ်ဉာဏ်လုပ်ငန်းသည် သုံးလပတ်ဝင်ငွေနှင့် လည်ပတ်မှုအမြတ်ငွေတွင် စံချိန်တင်မြင့်မားခဲ့ပြီး HBM၊ server DDR5 နှင့် enterprise solid-state drives များအပါအဝင် တန်ဖိုးမြင့်ထုတ်ကုန်များ၏ ရောင်းအားမြင့်မားမှုကြောင့်ဖြစ်ကြောင်း ပြောကြားခဲ့သည်။ AI computing အတွက် ဝယ်လိုအားသည် ဒေတာစင်တာများတွင် အသုံးပြုသော အဆင့်မြင့်မှတ်ဉာဏ်နှင့် သိုလှောင်မှုသုံးစွဲမှုကို ဆက်လက်မြှင့်တင်ပေးနေသော်လည်း ထောက်ပံ့မှုရရှိနိုင်မှု အကန့်အသတ်ရှိခြင်းသည် အချက်တစ်ချက်အဖြစ် ဆက်လက်တည်ရှိနေကြောင်း ကုမ္ပဏီက ပြောကြားခဲ့သည်။
High-bandwidth memory ဆိုတာ သမားရိုးကျ DRAM နဲ့ နှိုင်းယှဉ်ရင် data throughput တိုးမြှင့်ဖို့ ဒီဇိုင်းထုတ်ထားတဲ့ vertical stacked DRAM နည်းပညာ တစ်ခုဖြစ်ပြီး HBM4 ဟာ HBM3E ပြီးရင် အသစ်ဆုံးမျိုးဆက်ဖြစ်ပါတယ်။ ဝင်ငွေထုတ်ပြန်မှုနဲ့အတူ ရင်းနှီးမြှုပ်နှံသူရဲ့ တင်ပြချက်မှာ Samsung က 11.7 Gbps ဗားရှင်းအပါအဝင် HBM4 “mass products” တွေကို စတင်ပို့ဆောင်ဖို့ စီစဉ်ထားတယ်လို့ ပြောကြားခဲ့ပြီး AI ဆက်စပ်ထုတ်ကုန်တွေအတွက် ရေတိုအလားအလာရဲ့ တစ်စိတ်တစ်ပိုင်းအဖြစ် HBM4 ကို “အချိန်မီပို့ဆောင်ခြင်း” လို့ ဖော်ပြခဲ့ပါတယ်။
AI data center accelerator တွေရဲ့ အကြီးဆုံး ပေးသွင်းသူဖြစ်တဲ့ Nvidia ဟာ သူ့ရဲ့ Rubin platform ကို မိတ်ဆက်ခဲ့ပြီး system configuration အများအပြားမှာ HBM4 ကို အသုံးပြုထားတယ်လို့ ဆိုပါတယ်။ Vera Rubin NVL72 rack-scale system အတွက် Nvidia ရဲ့ product specifications စာမျက်နှာမှာ ကုမ္ပဏီက Rubin GPU တစ်ခုအတွက် bandwidth 1,580 terabytes နဲ့ HBM4 288 gigabytes တို့ကို စာရင်းပြုစုထားပြီး single Rubin GPU တစ်ခုအတွက် bandwidth 22 terabytes နဲ့ HBM4 288 gigabytes တို့ကို ဖော်ပြထားပါတယ်။ ဒီကိန်းဂဏန်းတွေဟာ ကနဦးအဆင့်သာဖြစ်ပြီး ပြောင်းလဲနိုင်ပါတယ်။
Rubin ပလက်ဖောင်း မှတ်ဉာဏ် လိုအပ်ချက်များ
Samsung ရဲ့ ရလဒ်ထုတ်ပြန်ချက်မှာ AI computing နဲ့ ချိတ်ဆက်ထားတဲ့ အဆင့်မြင့် semiconductor ထုတ်လုပ်မှုနဲ့ ထုပ်ပိုးမှုဆိုင်ရာ ပိုမိုကျယ်ပြန့်တဲ့ လုပ်ငန်းတွေကိုလည်း ထောက်ပြထားပါတယ်။ သူ့ရဲ့ foundry လုပ်ငန်းဟာ ပထမမျိုးဆက် 2-nanometer ထုတ်ကုန်တွေကို အစုလိုက်အပြုံလိုက် ထုတ်လုပ်မှုကို စတင်ခဲ့ပြီး high-bandwidth memory stack တွေရဲ့ logic layer မှာ အသုံးပြုတဲ့ အစိတ်အပိုင်းတွေဖြစ်တဲ့ 4-nanometer HBM base-die ထုတ်ကုန်တွေကို တင်ပို့မှုတွေ စတင်ခဲ့တယ်လို့ ဆိုပါတယ်။ logic၊ memory နဲ့ အဆင့်မြင့် packaging နည်းပညာတွေ ပေါင်းစပ်ခြင်းအားဖြင့် အကောင်းဆုံး ဖြေရှင်းချက်တွေ ပေးအပ်ဖို့ စီစဉ်ထားတယ်လို့ Samsung က ပြောပါတယ်။
အခြားအဓိက မှတ်ဉာဏ်ထုတ်လုပ်သူများသည်လည်း ၎င်းတို့၏ HBM4 အသင့်ဖြစ်မှုအတွက် အချိန်ဇယားများကို ထုတ်ပြန်ခဲ့ကြသည်။ SK hynix က ၂၀၂၅ ခုနှစ် စက်တင်ဘာလတွင် HBM4 ၏ ဖွံ့ဖြိုးတိုးတက်မှုနှင့် ပြင်ဆင်မှုပြီးစီးခဲ့ပြီး အစုလိုက်အပြုံလိုက် ထုတ်လုပ်မှုစနစ်ကို အသင့်ဖြစ်နေပြီဟု ပြောကြားခဲ့သည်။ Micron က ၂၀၂၅ ခုနှစ် ဒီဇင်ဘာလတွင် ရင်းနှီးမြှုပ်နှံသူ ඉදිරියට တင်ပြချက်တွင် 11 Gbps ကျော် အမြန်နှုန်းရှိသော ၎င်း၏ HBM4 သည် ဖောက်သည်များ၏ ပလက်ဖောင်း အရှိန်မြှင့်တင်မှုအစီအစဉ်များနှင့်အညီ ၂၀၂၆ ခုနှစ် ဒုတိယသုံးလပတ်တွင် မြင့်မားသော အထွက်နှုန်းများဖြင့် အရှိန်မြှင့်တင်ရန် လမ်းကြောင်းပေါ်တွင် ရှိနေကြောင်း ပြောကြားခဲ့သည်။
ယှဉ်ပြိုင်နေသော HBM4 လမ်းပြမြေပုံများ
၎င်း၏ကိုယ်ပိုင် HBM4 ပရိုဂရမ်ကိုဖော်ပြရာတွင် Micron က ၎င်း၏ HBM4 သည် အဆင့်မြင့် CMOS နှင့် metallization နည်းပညာများကို အခြေခံ logic die နှင့် DRAM die များတွင် အသုံးပြုထားပြီး အိမ်တွင်းဒီဇိုင်းထုတ် ထုတ်လုပ်ထားပြီး packaging နှင့် test capability သည် စွမ်းဆောင်ရည်နှင့် ပါဝါပစ်မှတ်များအတွက် အရေးကြီးကြောင်း ထောက်ပြခဲ့သည်။ SK hynix က HBM4 ကို ultra-high performance AI အတွက်တည်ဆောက်ထားသော stacked memory တွင် မျိုးဆက်တစ်ခုတိုးတက်မှု၏ တစ်စိတ်တစ်ပိုင်းအဖြစ် ဖော်ပြခဲ့ပြီး bandwidth နှင့် power efficiency သည် data center လည်ပတ်မှုအတွက် အဓိကလိုအပ်ချက်များဖြစ်သည်။
Samsung ရဲ့ ဝင်ငွေဆိုင်ရာ အချက်အလက်တွေဟာ HBM4 ပို့ဆောင်ရေး အချိန်ဇယားကို AI processor program ဒါမှမဟုတ် customer deployment တစ်ခုခုနဲ့ ချိတ်ဆက်ထားခြင်း မရှိပါဘူး။ Nvidia ရဲ့ Rubin ကြေငြာချက်တွေနဲ့ ထုတ်ဝေထားတဲ့ သတ်မှတ်ချက်တွေမှာ HBM4 ပေးသွင်းသူတွေကို မဖော်ပြထားသလို Nvidia ကလည်း Rubin system တွေမှာ အသုံးပြုတဲ့ HBM4 အတွက် vendor တွေရဲ့ ခွဲဝေမှုတွေကို ထုတ်ဖော်ပြောကြားခြင်း မရှိပါဘူး။ Samsung ရဲ့ အတည်ပြုထားတဲ့ အချိန်ဇယားကတော့ HBM4 ပို့ဆောင်မှုတွေကို ၂၀၂၆ ခုနှစ် ပထမသုံးလပတ်အတွင်း စတင်ဖို့ မျှော်လင့်ရပါတယ်။ – Content Syndication Services မှ
AI တိုးတက်မှုအတွက် Samsung သည် ပထမသုံးလပတ် HBM4 ပို့ဆောင်မှုကို ပစ်မှတ်ထားသည့် ပို့စ်သည် UAE Gazette တွင် ပထမဆုံးပေါ်လာခဲ့သည်။
