November 10, 2025

Google เปิดตัวชิป AI – Ironwood TPU รุ่น 7 พร้อมซีพียู Axion ท้าชน Nvidia

Google Cloud ประกาศให้บริการชิป Ironwood TPU รุ่นที่ 7 อย่างเป็นทางการในอีกไม่กี่สัปดาห์ข้างหน้า หลังจากเปิดให้ทดสอบมาตั้งแต่เดือนเมษายน 2025 ชิปรุ่นใหม่นี้ถูกออกแบบมาเพื่อรองรับงาน AI Inference โดยเฉพาะ ซึ่งต่างจากรุ่นก่อนหน้าที่รองรับทั้ง Training และ Inference ไปพร้อมกัน ด้วยสถาปัตยกรรมที่เน้นประสิทธิภาพสูงสุด Ironwood สามารถเชื่อมต่อชิปได้ถึง 9,216 ตัวในระบบ Pod เดียว ให้กำลังประมวลผลรวมสูงถึง 42.5 ExaFLOPS ในโหมด FP8

สเปกสุดล้ำ เร็วกว่าเดิม 4 เท่า ประหยัดไฟ 2 เท่า

แต่ละชิป Ironwood มอบประสิทธิภาพ 4,614 TFLOPS พร้อมหน่วยความจำ HBM3E ขนาด 192 GB ต่อชิป ซึ่งมากกว่า Trillium (TPU รุ่น 6) ถึง 6 เท่า แบนด์วิธหน่วยความจำแตะ 7.37 TB/s ต่อชิป เร็วกว่าเดิม 4.5 เท่า ส่วน Inter-Chip Interconnect (ICI) ความเร็ว 1.2 TBps แบบสองทิศทาง เร็วกว่า Trillium 1.5 เท่า ที่สำคัญ Ironwood ประหยัดพลังงานกว่า Trillium ถึง 2 เท่า และประหยัดกว่า TPU v2 รุ่นแรกในปี 2018 ถึง 30 เท่า

Anthropic จ่อใช้ชิป 1 ล้านตัว มูลค่าหลักหมื่นล้านเหรียญ

Anthropic ผู้พัฒนา AI โมเดล Claude ประกาศขยายการใช้งาน TPU ของ Google Cloud อย่างมหาศาล โดยวางแผนเข้าถึงชิป TPU รวมถึง 1 ล้านตัว มูลค่ารวมหลักหมื่นล้านดอลลาร์สหรัฐ เพื่อ Training และรัน Claude รุ่นถัดไป คาดว่าจะใช้กำลังไฟฟ้ารวมเกิน 1 กิกะวัตต์ในปี 2026 การตัดสินใจนี้เกิดจากประสิทธิภาพต่อราคาที่ดีกว่า และประสบการณ์ที่ Anthropic ใช้งาน TPU มาหลายปีแล้

ซีพียู Axion ท้าชน x86

Google Cloud เปิดตัวอินสแตนซ์รุ่นใหม่ที่ผสมผสานซีพียู Axion บนสถาปัตยกรรม Arm Neoverse V2 ออกแบบเองของ Google กับ Ironwood TPU อินสแตนซ์ C4A ขับเคลื่อนด้วย Axion รองรับถึง 72 vCPUs และหน่วยความจำ DDR5 ขนาด 576 GB พร้อมแบนด์วิธเครือข่ายสูงสุด 100 Gbps ทดสอบเปรียบเทียบพบว่า Axion เร็วกว่า x86 CPU รุ่นปัจจุบัน 40-212% ในงาน AI Inference, HPC และฐานข้อมูล ด้านราคาให้ price-performance ดีกว่า x86 ถึง 65%

ลูกค้าระดับโลกเริ่มใช้แล้ว

นอกจาก Anthropic บริษัทอื่นๆ อย่าง Lightricks ก็เริ่มใช้ Ironwood TPU สำหรับ Training และให้บริการโมเดล LTX-2 แบบ multimodal ของตัวเอง ส่วนบริการ Google Cloud อย่าง AlloyDB และ Cloud SQL บน C4A ให้ price-performance ดีขึ้นเกือบ 50% เมื่อเทียบกับ N-series รุ่นเก่า

ท้าชนสนามรบชิป AI

การเปิดตัวครั้งนี้เป็นการชูธงท้าชน Nvidia โดยตรงในตลาดชิป AI Google อ้างว่า Ironwood Pod ให้พลังประมวลผล FP8 มากกว่าระบบ Nvidia GB300 NVL72 ที่ 0.36 ExaFLOPS อย่างมีนัยสำคัญ ขณะที่ Meta, Amazon และ Microsoft ต่างก็แข่งกันพัฒนาโครงสร้างพื้นฐาน AI ของตัวเอง Google เดิมพันด้วยชิปออกแบบเองทั้ง TPU และ Axion เพื่อลดการพึ่งพา Nvidia พร้อมเสนอราคาและประสิทธิภาพที่แข่งขันได้

ที่มา