หน้าแรกinvesting Fundamental Analysisหุ้นชิป 2 ตัวได้รับประโยชน์จากการขยายกลยุทธ์ชิปของ OpenAI

หุ้นชิป 2 ตัวได้รับประโยชน์จากการขยายกลยุทธ์ชิปของ OpenAI


  • งานในมือ 12 เดือนของ NVIDIA สำหรับชิป Blackwell ทำให้ OpenAI กำลังพิจารณาวิธีลดการพึ่งพาชิป AI ของ NVIDIA
  • OpenAI เปลี่ยนจากแผนเริ่มแรกในการสร้างเครือข่ายโรงหล่อทั่วโลก มาทำงานร่วมกับ Broadcom เพื่อออกแบบชิปเซิร์ฟเวอร์ AI ภายในองค์กร
  • ในระหว่างนี้ OpenAI พร้อมด้วย Microsoft, Meta Platforms และ Oracle ได้เลือกใช้ชิป AI ของ AMD

OpenAI ผู้พัฒนา ChatGPT เดิมมีแผนจะสร้างเครือข่ายโรงหล่อทั่วโลกเพื่อผลิตชิป AI แต่กลับเลือกที่จะทำงานร่วมกับบริษัทหลายแห่งในภาคส่วนคอมพิวเตอร์และเทคโนโลยี ชอบ อเมซอน.คอม (NASDAQ:) และ ตัวอักษร (NASDAQ:) Google และ OpenAI ยังปรารถนาที่จะผลิตชิป AI ของตัวเองเพื่อลดการพึ่งพา NVIDIA (แนสแด็ก 🙂– ชิป Blackwell ของ NVIDIA จำหน่ายหมดแล้วในอีก 12 เดือนข้างหน้า ซึ่งถือเป็นปีแสงที่นานเกินไปสำหรับการรอคอยในระหว่างการปฏิวัติ AI นี่คือหุ้นสองตัวที่ได้รับประโยชน์จากกลยุทธ์ของ OpenAI ในการพัฒนาชิป AI ของตัวเอง

1. Broadcom: ร่วมพัฒนาชิป AI ตัวแรกของ OpenAI

OpenAI ได้ว่าจ้างวิศวกรฮาร์ดแวร์จำนวนมากจากทีม Google Tensor Processing Unit (TPU) ซึ่งเป็นทีมพัฒนาชิป AI ของบริษัท วิศวกรเหล่านี้เคยร่วมงานด้วยในอดีต บรอดคอม (แนสแด็ก 🙂 ในการพัฒนา TPU ของ Google ซึ่งเป็นชิปเร่ง AI ที่ออกแบบมาสำหรับงานการเรียนรู้ของเครื่องโดยเฉพาะ รวมถึงโครงข่ายประสาทเทียมและการเรียนรู้เชิงลึก

การนำวิศวกรเหล่านั้นเข้ามาจะไม่แปลกใจเลยที่พวกเขาจะสนับสนุนให้ OpenAI ทำงานร่วมกับ Broadcom สำหรับชิป AI แบบกำหนดเอง OpenAI ต้องการชิปเซิร์ฟเวอร์ AI เพื่อรองรับปริมาณงาน AI ขนาดใหญ่ Broadcom มีประสบการณ์และประวัติในการสร้างตัวเร่งความเร็ว AI แบบกำหนดเองสำหรับไฮเปอร์สเกลเลอร์โดยเฉพาะ ซึ่งรวมถึงด้วย แพลตฟอร์มเมตา (NASDAQ:)

OpenAI จะเป็นสัญญาที่มีกำไรซึ่งจะช่วยสนับสนุนธุรกิจตัวเร่ง AI ของตนต่อไป Open AI ยังวางแผนที่จะจ้างบุคคลภายนอกเพื่อผลิตชิปให้ การผลิตเซมิคอนดักเตอร์ของไต้หวัน (NYSE:) เนื่องจากพวกเขาผลิตชิป AI ส่วนใหญ่ในตลาด

ในตอนแรกหุ้นของ Broadcom ปรับลดลง 15.8% เมื่อรายงานกำไรต่อหุ้นประจำไตรมาส 3 ปี 2024 ที่ 1.24 ดอลลาร์ ซึ่งแทบจะเอาชนะประมาณการฉันทามติเพียง 2 เซนต์เท่านั้น รายรับเพิ่มขึ้น 47.3% จากปีก่อนเป็น 13.07 พันล้านดอลลาร์ เทียบกับประมาณการที่เป็นเอกฉันท์ที่ 12.98 พันล้านดอลลาร์ ความผิดหวังมาจากคำแนะนำด้านลบสำหรับไตรมาสที่ 4 โดยคาดว่ารายรับจะอยู่ที่ประมาณ 14 พันล้านดอลลาร์ เทียบกับประมาณการที่เป็นเอกฉันท์ที่ 14.11 พันล้านดอลลาร์

Hock Tan ซีอีโอของ Broadcom ให้ความเห็นว่า “ผลประกอบการไตรมาสสามของ Broadcom สะท้อนให้เห็นถึงความแข็งแกร่งอย่างต่อเนื่องในโซลูชันเซมิคอนดักเตอร์ AI และ VMware (NYSE:) ของเรา เราคาดว่ารายได้จาก AI จะอยู่ที่ 1.2 หมื่นล้านดอลลาร์ในปีงบประมาณ 2024 ซึ่งขับเคลื่อนโดยเครือข่ายอีเทอร์เน็ตและตัวเร่งความเร็วแบบกำหนดเองสำหรับข้อมูล AI ศูนย์”

2. AMD: ชิป AI MI300 อาจไม่ใช่นายที่ถูก แต่ตอนนี้เป็นนายแล้ว

แม้ว่าชิป AI ของ NVIDA จะยังค้างอยู่ แต่แหล่งข่าวอ้างว่า OpenAI ได้ตัดสินใจใช้งานแล้ว อุปกรณ์ไมโครประยุกต์ (NASDAQ:) ชิป AI ในระหว่างนี้ แม้ว่า NVIDIA จะเป็นสุภาษิต “Mr. Right” เมื่อพูดถึงชิป AI แต่ AMD ก็คือ “Mr. Right Now” เนื่องจากชิป MI300 มีวางจำหน่ายแล้ว ซึ่งผลิตโดย Taiwan Semi เช่นกัน OpenAI ใช้ GPU AMD Instinct MI300 อยู่แล้ว ไมโครซอฟต์ (แนสแด็ก 🙂 โครงสร้างพื้นฐานของ Azure Microsoft เป็นหนึ่งในไฮเปอร์สเกลเลอร์รายใหญ่รายแรกๆ ที่ใช้ MI300 GPU AMD วางแผนที่จะเริ่มผลิตชิป MI325 AI ในปลายปี 2567 ให้ทันกับการเปิดตัวในปี 2568 โดยอ้างว่ามีประสิทธิภาพมากกว่า GPU ของ NVIDIA ถึง 1.3 เท่า ออราเคิล (NYSE:) ยังได้นำ MI300X มาใช้ใน Oracle Cloud อีกด้วย

ในขณะที่ AMD ถูกทิ้งให้จมอยู่ในฝุ่นโดย NVIDIA ในสงคราม GPU สำหรับศูนย์ข้อมูล แต่ก็มีความคืบหน้าเพียงเพราะชิปของมันมีจำหน่ายในขณะที่ NVIDIA ไม่มี ในรายงานไตรมาสที่ 3 ปี 2567 มีรายได้ 92 เซนต์ต่อหุ้น ซึ่งสอดคล้องกับประมาณการที่เป็นเอกฉันท์ รายรับเพิ่มขึ้น 17.6% เมื่อเทียบเป็นรายปี เป็น 6.82 พันล้านดอลลาร์ ซึ่งสูงกว่าประมาณการฉันทามติที่ 6.71 พันล้านดอลลาร์อย่างมั่นคง

ส่วนแบ่งการตลาดที่เพิ่มขึ้นของ AMD แสดงให้เห็นการเติบโตตามลำดับ 25% และการเติบโต 122% เมื่อเทียบรายปี โดยมีรายได้จากส่วนศูนย์ข้อมูล 3.5 พันล้านดอลลาร์ สาเหตุหลักมาจากโปรเซสเซอร์ AMD Instinct GPU และยอดขายซีพียู AMD EPYC ยอดขาย CPU ยังคงได้รับส่วนแบ่งการตลาดที่ศูนย์ข้อมูลอย่างต่อเนื่อง โดยอ้างว่าได้กลายเป็น CPU ทางเลือกสำหรับศูนย์ข้อมูลสมัยใหม่ Meta Platforms ได้ปรับใช้ CPU EPYC มากกว่า 1.5 ล้านตัวทั่วทั้งศูนย์ข้อมูล รวมถึงปรับใช้ MI300X เพื่อขับเคลื่อนโครงสร้างพื้นฐานการอนุมาน

Lisa Su ซีอีโอของ AMD ให้ความเห็นว่า “การเปลี่ยนมาสู่ธุรกิจ AI สำหรับศูนย์ข้อมูลของเรา รายได้จาก GPU สำหรับศูนย์ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว เนื่องจากการใช้งาน MI300X ขยายออกไปพร้อมกับลูกค้าคลาวด์, OEM และ AI Microsoft และ Meta ได้ขยายการใช้ตัวเร่งความเร็ว MI300X เพื่อขับเคลื่อนปริมาณงานภายในในไตรมาสนี้ ขณะนี้ Microsoft ใช้ MI300X ในวงกว้างสำหรับบริการนำร่องหลายบริการที่ขับเคลื่อนโดยตระกูลรุ่น GPT 4”

โพสต์ต้นฉบับ



     

คำแนะนำการอ่านบทความนี้ : บางบทความในเว็บไซต์ ใช้ระบบแปลภาษาอัตโนมัติ คำศัพท์เฉพาะบางคำอาจจะทำให้ไม่เข้าใจ สามารถเปลี่ยนภาษาเว็บไซต์เป็นภาษาอังกฤษ หรือปรับเปลี่ยนภาษาในการใช้งานเว็บไซต์ได้ตามที่ถนัด บทความของเรารองรับการใช้งานได้หลากหลายภาษา หากใช้ระบบแปลภาษาที่เว็บไซต์ยังไม่เข้าใจ สามารถศึกษาเพิ่มเติมโดยคลิกลิ้งค์ที่มาของบทความนี้ตามลิ้งค์ที่อยู่ด้านล่างนี้


Source link

RELATED ARTICLES
- Advertisment -
Technical Summary Widget Powered by Investing.com

ANALYSIS TODAY

Translate »