'Google ท้าชน Nvidia' เล็งเปิดตัวชิป AI รุ่นใหม่
'Google ท้าชน Nvidia' เล็งเปิดตัวชิป AI รุ่นใหม่สำหรับงาน inference มุ่งเป้าเร่งความเร็วการประมวลผลคำสั่ง
22-4-2026
สำนักข่าว Bloomberg รายงานว่า บริษัท Google (กูเกิล) กำลังมุ่งความสนใจไปที่ชิปรุ่นใหม่เพื่อเร่งความเร็วในการประมวลผลลัพธ์ของปัญญาประดิษฐ์ (AI) ซึ่งถือเป็นการท้าทายโดยตรงต่อ Nvidia Corp. (เอ็นวิเดีย)
บริษัทตั้งเป้าที่จะต่อยอดความสำเร็จหลังจากบรรลุข้อตกลงสำคัญกับ Meta Platforms Inc. (เมตา) และ Anthropic PBC (แอนโทรปิก) โดยในช่วงเวลาเพียงไม่กี่เดือน ชิป AI ของ Google ได้กลายเป็นหนึ่งในสินค้าที่เป็นที่ต้องการมากที่สุดในภาคเทคโนโลยี แม้แต่เหล่านักพัฒนา AI ชั้นนำ ซึ่งรวมถึงคู่แข่งรายใหญ่ที่สุดบางรายของบริษัท ก็ยังกำลังกักตุนชิปเหล่านี้ไว้ใช้งาน
ปัจจุบันบริษัทภายใต้เครือ Alphabet Inc. (อัลฟาเบต) มีเป้าหมายที่จะสร้างโมเมนตัมอย่างต่อเนื่องด้วยความเป็นไปได้ในการเปิดตัวชิปรุ่นใหม่ที่ออกแบบมาเฉพาะสำหรับการทำ "Inference" หรือการรันโมเดล AI หลังจากที่พวกมันผ่านการฝึกฝน (Training) มาแล้ว ด้วยการรุกคืบในครั้งนี้ Google พร้อมที่จะท้าทายผู้นำตลาดอย่าง Nvidia ในหมวดหมู่เซมิคอนดักเตอร์ที่กำลังเติบโตอย่างรวดเร็ว ซึ่งได้รับแรงหนุนจากการนำซอฟต์แวร์ AI มาใช้อย่างแพร่หลาย
เจฟฟ์ ดีน (Jeff Dean) หัวหน้านักวิทยาศาสตร์ของ Google กล่าวในการให้สัมภาษณ์ว่า ในขณะที่ความต้องการประมวลผลคำสั่ง AI อย่างรวดเร็วเพิ่มสูงขึ้น “มันจึงสมเหตุสมผลที่จะผลิตชิปเฉพาะทางมากขึ้นสำหรับการฝึกฝน (Training) หรือสำหรับการประมวลผลแบบ Inference” เขายังเสริมด้วยว่า “เรากำลังพิจารณาสิ่งต่างๆ มากมาย” รวมถึงความเร็วของผลลัพธ์ AI ที่บริษัทต้องการขับเคลื่อน
Google วางแผนที่จะประกาศเปิดตัวชิปที่ออกแบบเองรุ่นใหม่ หรือที่รู้จักในชื่อ Tensor Processing Units (TPU) ในการประชุม Google Cloud Next ที่ลาสเวกัส (Las Vegas) สัปดาห์นี้ ขณะที่ อามิน วาดัต (Amin Vahdat) ผู้ดูแลโครงสร้างพื้นฐาน AI และงานด้านชิปของ Google ปฏิเสธที่จะให้ความเห็นเกี่ยวกับแผนผังชิป Inference ที่สามารถเร่งความเร็วการแสดงผล AI แต่ระบุว่าจะมีการแชร์ข้อมูลเพิ่มเติม “ในอนาคตอันใกล้”
แม้ชิปประมวลผลกราฟิก หรือ GPU ของ Nvidia จะยังคงเป็นมาตรฐานทองคำสำหรับ AI โดยเฉพาะสำหรับการฝึกฝนโมเดลขั้นสูง แต่บริษัทหน้าใหม่จำนวนมากขึ้นเรื่อยๆ กำลังพยายามแย่งชิงส่วนแบ่งการตลาดในการใช้งานด้าน Inference รวมถึงการเสนอชิปที่ช่วยลดเวลาการตอบสนองของแชทบอต (Chatbot) และตัวแทน AI (AI Agents) โดยเมื่อเดือนที่แล้ว Nvidia ได้เริ่มจำหน่ายชิปสำหรับการทำ Inference ความเร็วสูงตามเทคโนโลยีที่ได้มาจากบริษัท Groq ซึ่งเป็นส่วนหนึ่งของข้อตกลงลิขสิทธิ์ที่มีมูลค่ารายงานว่าสูงถึง 20,000 ล้านดอลลาร์สหรัฐฯ
Google ก้าวเข้าสู่สนามแข่งขันนี้ด้วยจุดแข็งที่ไม่เหมือนใคร รวมถึงประสบการณ์กว่าทศวรรษในการออกแบบชิป ทรัพยากรมหาศาลจากกำไรของธุรกิจเสิร์ชเอนจิน และข้อมูลเชิงลึกจากโมเดล AI ของตนเอง ในบรรดานักพัฒนา AI ชั้นนำ มีเพียง Google เท่านั้นที่ผลิตชิปของตัวเองในสเกลที่สำคัญ ซึ่งช่วยให้เกิดการแลกเปลี่ยนข้อมูลย้อนกลับระหว่างทีมเพื่อปรับแต่งฮาร์ดแวร์ให้ดีขึ้น (ขณะที่ OpenAI เพิ่งเริ่มเริ่มออกแบบชิปของตัวเอง)
เจนเซน หวาง (Jensen Huang) ประธานาธิบดีและซีอีโอของ Nvidia ได้เน้นย้ำถึงข้อดีของชิปจากบริษัทของเขาในการสัมภาษณ์พอดแคสต์เมื่อเร็วๆ นี้ โดยระบุว่าชิปของเขาสามารถทำงานได้ “หลากหลายแอปพลิเคชัน” ซึ่งเป็นสิ่งที่ “คุณทำไม่ได้ด้วยชิป TPU” ในส่วนของ Google เองก็ได้ใช้ทั้ง TPU และ GPU ผสมผสานกัน โดย เดมิส ฮัสซาบิส (Demis Hassabis) ซีอีโอของ Google DeepMind กล่าวกับบลูมเบิร์ก (Bloomberg) ว่า “หลายคนต้องการรันบนทั้งสองระบบ” และความสนใจใน TPU นั้นสูงเป็นพิเศษจากแล็บ AI ชั้นนำ
พาร์ธา รังคานาธาน (Partha Ranganathan) รองประธานและวิศวกรอาวุโสของ Google ระบุว่าบริษัทเคยพิจารณาการปล่อยชิปแยกส่วนระหว่าง Training และ Inference มาก่อนหน้านี้แล้ว แต่จนถึงขณะนี้ยังคงเลือกใช้แนวทางเดิม ทว่าสิ่งนี้อาจเปลี่ยนแปลงในไม่ช้า เมื่อกระแสการใช้จ่ายด้าน AI กำลังเปลี่ยนผ่านจากการฝึกฝนโมเดลไปสู่การรันโมเดล (Inference)
ชิรัก เดเกต (Chirag Dekate) นักวิเคราะห์จาก Gartner (การ์ทเนอร์) กล่าวว่า “สนามรบกำลังเปลี่ยนไปสู่ Inference” พร้อมตั้งข้อสังเกตว่าจากประสบการณ์ของเขา โมเดล Gemini ของ Google ตอบสนองต่อโจทย์การใช้เหตุผลที่ซับสอนได้เร็วที่สุด ซึ่งในสมรภูมินี้ Google มีข้อได้เปรียบด้านโครงสร้างพื้นฐาน
ความพยายามด้านชิปที่ Google บ่มเพาะมานานได้รับความสนใจเป็นพิเศษในเดือนตุลาคม เมื่อ Anthropic PBC หนึ่งในนักพัฒนา AI ที่ถูกจับตามองมากที่สุด ได้เปิดเผยข้อตกลงขยายความร่วมมือเพื่อเข้าถึง TPU จำนวนมากถึง 1 ล้านหน่วย ต่อมาในเดือนพฤศจิกายน Google ได้เปิดตัวโมเดล Gemini 3 ที่ล้ำสมัย ซึ่งฝึกฝนและรันบน TPU จนได้รับเสียงตอบรับในเชิงบวกอย่างล้นหลาม
ตั้งแต่นั้นมา ความต้องการชิปของ Google ในกลุ่มบริษัทขนาดใหญ่ก็พุ่งสูงขึ้น โดย Meta Platforms Inc. ได้ลงนามในข้อตกลงมูลค่าหลายพันล้านดอลลาร์เพื่อใช้ TPU ผ่าน Google Cloud เป็นเวลาหลายปี โดย ซานโตช จานาร์ดฮัน (Santosh Janardhan) หัวหน้าฝ่ายโครงสร้างพื้นฐานของ Meta ระบุว่าดูเหมือนชิปดังกล่าวจะมีข้อดีในด้าน Inference แม้ว่าแพลตฟอร์มใหม่จะมีความท้าทายในการเรียนรู้ช่วงแรกก็ตาม
นอกจากนี้ Anthropic ยังได้ลงนามในข้อตกลงกับ Broadcom Inc. (บรอดคอม) ซึ่งเป็นพาร์ทเนอร์ด้าน TPU ของ Google เพื่อจัดหาชิปที่จะช่วยให้สามารถเข้าถึงพลังการประมวลผลประมาณ 3.5 กิกะวัตต์ตั้งแต่ปี 2027 ขณะที่ Citadel Securities (ซิทาเดล ซิเคียวริตี้) และกลุ่มบริษัทเทคโนโลยี G42 จากอาบูดาบี (Abu Dhabi) ต่างก็แสดงความสนใจและอยู่ระหว่างการหารือในการนำ TPU มาใช้งานอย่างต่อเนื่อง
อย่างไรก็ตาม Google ยังคงเผชิญกับความท้าทายเช่นเดียวกับผู้ผลิตชิปรายอื่น นั่นคือวงจรการพัฒนาชิปที่ใช้เวลาประมาณ 3 ปี ในขณะที่โมเดล AI พัฒนาไปเร็วกว่ามาก ทำให้ยากต่อการคาดการณ์ความต้องการของลูกค้าในอนาคต อีกทั้งยังมีความเสี่ยงเรื่องข้อจำกัดด้านซัพพลาย (Supply Constraints) เช่นเดียวกับ Nvidia ซึ่ง Google จะต้องตัดสินใจว่าจะจัดสรรการใช้งาน TPU อย่างไรระหว่างบริการ AI ของตนเองกับกลุ่มลูกค้าที่เพิ่มขึ้น
อามิน วาดัต ปิดท้ายว่า “มีประโยชน์ในการผลิต TPU เพื่อใช้เฉพาะใน Google เท่านั้น แต่ก็มีข้อเสียมหาศาลเช่นกัน หากทำเช่นนั้น ในที่สุดคุณจะลงเอยด้วยการอยู่บนเกาะเทคโนโลยีที่เงียบเหงา ซึ่งอาจจะเป็นเกาะที่สวยงาม แต่มันจะถูกจำกัดทั้งด้านจำนวนคนและความหลากหลาย ซึ่งในท้ายที่สุดแล้ว ผลลัพธ์ที่ได้อาจจะไม่ดีเท่าที่ควร”
---
IMCT NEWS
ที่มา https://www.bloomberg.com/news/features/2026-04-20/google-eyes-new-chips-to-speed-up-ai-results-challenging-nvidia