، مقالات،

ازدهار الذكاء الاصطناعي يغذي نقص ذاكرة الوصول العشوائي الديناميكية (DRAM) وارتفاع الأسعار


إذا كان يبدو الأمر هذه الأيام كما لو أن كل شيء في التكنولوجيا يدور حول الذكاء الاصطناعي، فهذا لأنه كذلك بالفعل. وليس هناك ما ينطبق على هذا الأمر أكثر من سوق ذاكرة الكمبيوتر. إن الطلب والربحية لنوع DRAM المستخدم لتغذية وحدات معالجة الرسومات والمسرعات الأخرى في مراكز بيانات الذكاء الاصطناعي ضخمة للغاية لدرجة أنها تحول إمدادات الذاكرة بعيدًا عن الاستخدامات الأخرى وتتسبب في ارتفاع الأسعار. وفقًا لشركة Counterpoint Research، ارتفعت أسعار DRAM بنسبة 80-90 بالمائة حتى الآن خلال هذا الربع.

تقول أكبر شركات أجهزة الذكاء الاصطناعي إنها قامت بتأمين رقائقها حتى عام 2028، لكن هذا يترك الجميع – صانعي أجهزة الكمبيوتر الشخصية، والأدوات الاستهلاكية، وكل شيء آخر يحتاج إلى تخزين مليار بت مؤقتًا – يتدافعون للتعامل مع العرض الشحيح والأسعار المتضخمة.

كيف دخلت صناعة الإلكترونيات في هذه الفوضى، والأهم كيف ستخرج؟ IEEE الطيف طلب من الاقتصاديين وخبراء الذاكرة أن يشرحوا ذلك. يقولون إن الوضع اليوم هو نتيجة الاصطدام بين دورة الازدهار والكساد التاريخية لصناعة DRAM وبناء البنية التحتية لأجهزة الذكاء الاصطناعي التي لم يسبق لها مثيل من حيث الحجم. وما لم يحدث بعض الانهيار الكبير في قطاع الذكاء الاصطناعي، فسوف يستغرق الأمر سنوات حتى تتمكن القدرات الجديدة والتكنولوجيا الجديدة من جعل العرض يتماشى مع الطلب. وقد تظل الأسعار مرتفعة حتى ذلك الحين.

لفهم طرفي الحكاية، تحتاج إلى معرفة السبب الرئيسي في تأرجح العرض والطلب، أو الذاكرة ذات النطاق الترددي العالي، أو HBM.

ما هو HBM؟

HBM هي محاولة صناعة DRAM لتقصير وتيرة تباطؤ قانون مور باستخدام تقنية تغليف الرقائق ثلاثية الأبعاد. تتكون كل شريحة HBM من ما يصل إلى 12 شريحة DRAM مخففة تسمى القوالب. يحتوي كل قالب على عدد من الوصلات الرأسية التي يتم استدعاؤها من خلال منافذ السيليكون (TSVs). يتم تكديس القوالب فوق بعضها البعض وتوصيلها بواسطة صفائف من كرات اللحام المجهرية المتوافقة مع TSVs. يتم بعد ذلك تكديس برج DRAM هذا – الذي يبلغ سمكه حوالي 750 ميكرومترًا، وهو عبارة عن مبنى مكتبي وحشي أكثر من كونه برجًا – فوق ما يسمى بالقالب الأساسي، الذي يقوم بنقل البتات بين قوالب الذاكرة والمعالج.

يتم بعد ذلك ضبط هذه القطعة التكنولوجية المعقدة على مسافة ملليمتر واحد من وحدة معالجة الرسومات أو أي مسرع ذكاء اصطناعي آخر، والتي ترتبط بها بما يصل إلى 2048 اتصالًا بمقياس ميكرومتر. يتم توصيل وحدات HBM على جانبي المعالج، ويتم تجميع وحدة معالجة الرسومات والذاكرة معًا كوحدة واحدة.

الفكرة وراء هذا الضغط المحكم والمترابط للغاية مع وحدة معالجة الرسومات هي تدمير ما يسمى بجدار الذاكرة. هذا هو العائق في الطاقة والوقت اللازم لجلب التيرابايت في الثانية من البيانات اللازمة لتشغيل نماذج لغوية كبيرة في وحدة معالجة الرسومات. يعد عرض النطاق الترددي للذاكرة محددًا رئيسيًا لمدى سرعة تشغيل LLMs.

كتقنية، كانت HBM موجودة منذ أكثر من 10 سنوات، وكان صانعو DRAM مشغولين بتعزيز قدراتها.

مع نمو حجم نماذج الذكاء الاصطناعي، زادت أيضًا أهمية HBM بالنسبة لوحدة معالجة الرسومات. ولكن هذا يأتي بتكلفة. تقديرات التحليل النصفي أن HBM تكلف عمومًا ثلاثة أضعاف تكلفة أنواع الذاكرة الأخرى وتشكل 50 بالمائة أو أكثر من تكلفة وحدة معالجة الرسومات المعبأة.

أسباب نقص شرائح الذاكرة

يتفق مراقبو صناعة الذاكرة والتخزين على أن DRAM هي صناعة دورية للغاية ذات طفرات هائلة وكساد مدمر. ومع تكلفة المصانع الجديدة التي تبلغ 15 مليار دولار أمريكي أو أكثر، فإن الشركات مترددة للغاية في التوسع وقد لا يكون لديها الأموال اللازمة للقيام بذلك إلا خلال أوقات الازدهار، كما يوضح توماس كوغلين، خبير التخزين والذاكرة ورئيس شركة Coughlin Associates. لكن بناء مثل هذه المصانع وتشغيلها يمكن أن يستغرق 18 شهرا أو أكثر، مما يضمن عمليا وصول القدرة الجديدة بعد فترة طويلة من الارتفاع الأولي في الطلب، مما يؤدي إلى إغراق السوق وانخفاض الأسعار.

يقول كوغلين إن أصول دورة اليوم تعود إلى ذعر إمدادات الرقائق المحيط بجائحة كوفيد-19. ولتجنب تعثرات سلسلة التوريد ودعم التحول السريع إلى العمل عن بعد، قام المتخصصون في التوسع الفائق – عمالقة مراكز البيانات مثل أمازون وجوجل ومايكروسوفت – بشراء مخزونات ضخمة من الذاكرة والتخزين، مما أدى إلى ارتفاع الأسعار، كما يشير.

ولكن بعد ذلك أصبح العرض أكثر انتظامًا وانخفض توسع مراكز البيانات في عام 2022، مما أدى إلى انخفاض أسعار الذاكرة والتخزين. استمر هذا الركود حتى عام 2023، وأدى حتى إلى قيام شركات الذاكرة والتخزين الكبرى مثل سامسونج بخفض الإنتاج بنسبة 50 بالمائة لمحاولة منع الأسعار من الانخفاض إلى أقل من تكاليف التصنيع، كما يقول كوغلين. لقد كانت خطوة نادرة ويائسة إلى حد ما، لأن الشركات عادة ما تضطر إلى تشغيل مصانعها بكامل طاقتها فقط لاستعادة قيمتها.

بعد أن بدأ التعافي في أواخر عام 2023، “كانت جميع شركات الذاكرة والتخزين حذرة للغاية من زيادة طاقتها الإنتاجية مرة أخرى”، كما يقول كوغلين. “وبالتالي لم يكن هناك استثمار يذكر في الطاقة الإنتاجية الجديدة أو لم يكن هناك أي استثمار على الإطلاق في عام 2024 وخلال معظم عام 2025”.

تصور الرسم البياني

ازدهار مركز بيانات الذكاء الاصطناعي

ويصطدم هذا النقص في الاستثمارات الجديدة بشكل مباشر مع زيادة كبيرة في الطلب من مراكز البيانات الجديدة. على الصعيد العالمي، هناك ما يقرب من 2000 مركز بيانات جديد إما مخطط له أو قيد الإنشاء في الوقت الحالي، وفقًا لـ Data Center Map. وإذا تم بناؤها جميعاً، فسوف يمثل ذلك قفزة بنسبة 20% في العرض العالمي، الذي يبلغ حوالي 9000 منشأة الآن.

وإذا استمر البناء الحالي بالوتيرة، تتوقع ماكينزي أن تنفق الشركات 7 تريليون دولار بحلول عام 2030، مع ذهاب الجزء الأكبر من هذا المبلغ – 5.2 تريليون دولار – إلى مراكز البيانات التي تركز على الذكاء الاصطناعي. وتتوقع الشركة أن يتم تخصيص 3.3 مليار دولار من هذا المبلغ للخوادم وتخزين البيانات ومعدات الشبكات.

المستفيد الأكبر حتى الآن من ازدهار مراكز بيانات الذكاء الاصطناعي هو بلا شك شركة Nvidia المصنعة لوحدات معالجة الرسومات. ارتفعت إيرادات أعمال مراكز البيانات الخاصة بها من مليار دولار فقط في الربع الأخير من عام 2019 إلى 51 مليار دولار في الربع المنتهي في أكتوبر 2025. خلال هذه الفترة، طالبت وحدات معالجة الرسومات الخاصة بالخادم ليس فقط بالمزيد والمزيد من غيغابايت من ذاكرة الوصول العشوائي الديناميكية (DRAM)، ولكن أيضًا عددًا متزايدًا من رقائق DRAM. يستخدم الطراز B300 الذي تم إصداره مؤخرًا ثماني شرائح HBM، كل واحدة منها عبارة عن مجموعة مكونة من 12 قالب DRAM. إن استخدام المنافسين لـ HBM يعكس إلى حد كبير استخدام Nvidia. على سبيل المثال، تستخدم وحدة معالجة الرسومات MI350 من AMD أيضًا ثماني شرائح مكونة من 12 قالبًا.

تصور الرسم البياني

ومع كثرة الطلب، يأتي جزء متزايد من إيرادات صانعي DRAM من HBM. أفادت شركة Micron – المنتج الثالث وراء SK Hynix وSamsung – أن HBM والذاكرة الأخرى المرتبطة بالسحابة ارتفعت من 17 بالمائة من إيرادات DRAM في عام 2023 إلى ما يقرب من 50 بالمائة في عام 2025.

ويتوقع ميكرون أن ينمو إجمالي سوق HBM من 35 مليار دولار في عام 2025 إلى 100 مليار دولار بحلول عام 2028، وهو رقم أكبر من سوق DRAM بأكمله في عام 2024، حسبما صرح الرئيس التنفيذي سانجاي ميهروترا للمحللين في ديسمبر. لقد وصل إلى هذا الرقم قبل عامين مما توقعه ميكرون سابقًا. وقال إنه في جميع أنحاء الصناعة، سيتجاوز الطلب العرض “بشكل كبير … في المستقبل المنظور”.

تصور الرسم البياني

إمدادات وتكنولوجيا DRAM المستقبلية

“هناك طريقتان لمعالجة مشكلات العرض مع DRAM: من خلال الابتكار أو من خلال بناء المزيد من المصانع،” يوضح مينا كيم، الخبير الاقتصادي في Mkecon Insights. “نظرًا لأن توسيع نطاق DRAM أصبح أكثر صعوبة، فقد تحولت الصناعة إلى التغليف المتقدم… والذي يستخدم المزيد من DRAM.”

تشكل شركات Micron وSamsung وSK Hynix مجتمعة الغالبية العظمى من أسواق الذاكرة والتخزين، ولدى الشركات الثلاث مصانع ومرافق جديدة قيد التنفيذ. ومع ذلك، فمن غير المرجح أن تساهم هذه الأمور بشكل ملموس في خفض الأسعار.

ميكرون تعمل شركة Micron على بناء مصنع HBM في سنغافورة والذي من المفترض أن يبدأ الإنتاج في عام 2027. كما تقوم بإعادة تجهيز مصنع تم شراؤه من PSMC في تايوان والذي سيبدأ الإنتاج في النصف الثاني من عام 2027. وفي الشهر الماضي، بدأت شركة Micron العمل على ما سيكون مجمع DRAM fab في مقاطعة Onondaga، نيويورك، ولن يتم إنتاجه بالكامل حتى عام 2030.

سامسونج وتخطط لبدء الإنتاج في مصنع جديد في بيونجتايك بكوريا الجنوبية في عام 2028.

إس كيه هاينكس تقوم شركة HBM ببناء مرافق التغليف والتعبئة في غرب لافاييت بولاية إنديانا، ومن المقرر أن تبدأ الإنتاج بحلول نهاية عام 2028، ومن المقرر أن يكتمل بناء مصنع HBM في تشيونغجو في عام 2027.

يتحدث عن إحساسه بسوق DRAM، الرئيس التنفيذي لشركة إنتل، ليب بو تان أخبر الحاضرين في قمة Cisco AI الأسبوع الماضي: “ليس هناك راحة حتى عام 2028”.

ومع عدم قدرة هذه التوسعات على المساهمة لعدة سنوات، ستكون هناك حاجة إلى عوامل أخرى لزيادة العرض. يقول شون دوبرافاك، كبير الاقتصاديين في الجمعية العالمية للإلكترونيات (المعروفة سابقًا باسم IPC): “سوف تأتي الإغاثة من مزيج من التوسعات الإضافية في القدرات من قبل قادة DRAM الحاليين، وتحسينات الإنتاجية في التغليف المتقدم، والتنويع الأوسع لسلاسل التوريد”. “ستساعد المصانع الجديدة على الهامش، لكن المكاسب الأسرع ستأتي من التعلم العملي، بشكل أفضل [DRAM] كفاءة التراص، والتنسيق الأكثر إحكامًا بين موردي الذاكرة ومصممي شرائح الذكاء الاصطناعي.

إذن، هل ستنخفض الأسعار بمجرد تشغيل بعض هذه المصانع الجديدة؟ لا تراهن عليه. يقول كيم: “بشكل عام، يجد الاقتصاديون أن الأسعار تنخفض بشكل أبطأ وعلى مضض من ارتفاعها. ومن غير المرجح أن تكون ذاكرة الوصول العشوائي الدرامية (DRAM) اليوم استثناءً لهذه الملاحظة العامة، خاصة في ضوء الطلب النهم على الحوسبة”.

وفي هذه الأثناء، هناك تقنيات قيد التنفيذ من شأنها أن تجعل من HBM مستهلكًا أكبر للسيليكون. يمكن أن يستوعب معيار HBM4 16 قالب DRAM مكدسًا، على الرغم من أن رقائق اليوم تستخدم 12 قالبًا فقط. الوصول إلى 16 له علاقة كبيرة بتقنية تكديس الرقائق. يعد توصيل الحرارة من خلال “كعكة طبقة” HBM من السيليكون واللحام والمواد الداعمة عاملاً رئيسيًا في تحديد الارتفاع وإعادة وضع HBM داخل الحزمة للحصول على المزيد من النطاق الترددي.

تدعي SK Hynix ميزة التوصيل الحراري من خلال عملية تصنيع تسمى MR-MUF المتقدمة (حشوة سفلية مصبوبة بإعادة التدفق الشامل). علاوة على ذلك، يمكن أن تساعد تقنية تكديس الرقائق البديلة التي تسمى الترابط الهجين في توصيل الحرارة عن طريق تقليل المسافة العمودية بين القالب والقالب إلى الصفر. في عام 2024، أثبت الباحثون في سامسونج أنهم قادرون على إنتاج 16 مكدسًا عاليًا مع روابط هجينة، واقترحوا أن 20 قالبًا لم يكن بعيدًا عن متناول اليد.

من مقالات موقعك

مقالات ذات صلة حول الويب

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى