ดูเหมือนว่า AMD กำลังพยายามเพิ่มความคาดหวังของตลาดสำหรับโปรเซสเซอร์ MI325X ที่กำลังจะมาถึง ชิปเหล่านี้ได้รับการออกแบบมาโดยเฉพาะสำหรับศูนย์ข้อมูลและสามารถรองรับเวิร์กโหลด AI ที่เข้มข้นได้ ตามรายงานใหม่จาก Bloomberg ซีอีโอของ AMD Lisa Su อ้างอย่างมั่นใจว่าชิปเหล่านี้จะทำงานได้ดีกว่าโปรเซสเซอร์ H100 ยอดนิยมของ Nvidia
คุณสมบัติที่โดดเด่นอย่างหนึ่งของ MI325X SoC คือการใช้หน่วยความจำ HBM3E ขนาด 256GB ซึ่งเพิ่มความจุหน่วยความจำได้ 1.8 เท่าเมื่อเทียบกับรุ่นก่อน MI300X นอกจากนี้ หน่วยความจำ HBM3E ยังมีแบนด์วิดท์ที่น่าประทับใจถึง 6 เทราไบต์ต่อวินาที (TB/s) ซึ่งมีความสำคัญอย่างยิ่งต่อการจัดการชุดข้อมูลขนาดใหญ่และการคำนวณที่ซับซ้อนที่เกี่ยวข้องกับงาน AI
โปรเซสเซอร์ H100 ของ Nvidia เปิดตัวในปี 2022 ดังนั้นจึง "มาพร้อมกับ" หน่วยความจำ HBM3 เท่านั้นแทนที่จะเป็น HBM3E รุ่นใหม่กว่า โดยรองรับแบนด์วิดท์ 3TB/s อย่างไรก็ตาม คาดว่าโปรเซสเซอร์รุ่นใหม่ที่ใช้สถาปัตยกรรม Blackwell ของ “Team Green” จะใช้หน่วยความจำ HBM3E ขนาด 288GB โดยมีแบนด์วิดท์สูงสุดประมาณ 13.8TB/วินาที

ความต้องการ SoC ขั้นสูงมีเพิ่มมากขึ้นในช่วงไม่กี่ปีมานี้ เนื่องจากบริษัทเทคโนโลยีชั้นนำหลายแห่งทั่วโลกต่างกำลังมองหาการฝึกอบรมโมเดล AI ใหม่และขั้นสูงยิ่งขึ้น เมื่อสัปดาห์ที่แล้ว Nvidia และ Foxconn ได้ประกาศโครงการร่วมกันในการสร้างโรงงานที่ใหญ่ที่สุดในโลกเพื่อผลิตซูเปอร์ชิป GB200 โดยใช้สถาปัตยกรรม Blackwell
Nvidia เริ่มจัดส่งตัวอย่างชิปเหล่านี้ให้กับพันธมิตรแล้ว และคาดว่าจะสร้างรายได้หลายพันล้านดอลลาร์ภายในสิ้นปีนี้ นี่ก็เป็นเหตุผลว่าทำไมหุ้นของบริษัทจึงพุ่งสูงขึ้นอย่างรวดเร็ว กลายเป็นบริษัทที่มีมูลค่าสูงเป็นอันดับ 2 ของโลก รองจาก Apple เท่านั้น
ในทางกลับกัน AMD ยังพยายามยึดส่วนแบ่งในตลาดที่กำลังเติบโตนี้อีกด้วย “Team Red” ยังไม่ได้ประกาศว่าโปรเซสเซอร์ MI325X ใหม่จะเปิดตัวเมื่อใด แต่คาดว่าจะเริ่มการผลิตจำนวนมากในช่วงปลายปี 2024 AMD กล่าวว่าตลาดชิป AI คาดว่าจะสูงถึง 500 พันล้านดอลลาร์ภายในปี 2028