دليلك للتقنيةمقالات

Intel وNvidia: شراكة الرقائق التي قد تعيد صياغة قواعد عالم التقنية

في إعلان مفاجئ، أعلنت Intel وNvidia عن صفقة استثمارية بقيمة 5 مليارات دولار، تُشير إلى تحالف استراتيجي جديد بين اثنتين من أكبر شركات تصنيع الرقائق في العالم. بعد عداءٍ قديم في عالم المعالجات الدقيقة، استخدمت كلتا الشركتين المعالجات ووحدات معالجة الرسومات الخاصة بهما في نفس أجهزة الكمبيوتر المحمولة والمكتبية لعقود. والآن، اشترت Nvidia حصةً بقيمة 5 مليارات دولار في Intel، لتستحوذ على حصة تتراوح بين 4% و5% من الشركة من خلال الأسهم العادية. لكن هذه ليست مجرد صفقة استثمارية.

أعلن الثنائي للتو عن تعاونهما في تطوير العديد من المنتجات الجديدة التي تجمع بين نقاط قوة الشركتين. ستصمم Intel وتصنع معالجات مخصصة قائمة على معمارية x86 لمراكز البيانات والبنية التحتية للذكاء الاصطناعي، والتي يمكنها استخدام تقنية توصيل معالجات NVLink من Nvidia. في الوقت نفسه، ستصنع الأخيرة شرائح وحدة معالجة الرسومات GeForce RTX لتتناسب مع معالجات SoC من Intel لأجهزة الكمبيوتر الشخصية.

لم تُعلن أيٌّ من الشركتين عن موعد طرح المنتجات الجديدة من هذه الشراكة في السوق. لكن في مؤتمر صحفي عُقد في 18 سبتمبر، كشف الرئيس التنفيذي لشركة Nvidia، جنسن هوانغ، أن فرقًا من الشركتين تعاونت بالفعل لمدة عام على التخطيط لبنية مشتركة لهذه الأنظمة على رقاقة (SoC) الجديدة. لذا، قد يتوفر السيليكون الناتج عن هذه الشراكة في وقت أقرب مما هو متوقع.

إذًا، كيف يمكن لهذا التعاون الجديد أن يُحدث ثورة في عالم أجهزة الكمبيوتر المحمولة والمكتبية. إذا كان هناك خط جديد من الرقاقات الهجينة بين Intel وNvidia قيد التطوير، فماذا يعني ذلك؟ كيف يمكن لتقنيات Nvidia المحددة أن تُسهم في أنظمة Intel الجديدة؟ وأين سيتناسب هذا النوع من المعالجات مع الفئات المألوفة لدى المشترين؟

تمتلك Nvidia العديد من التقنيات التي يُمكن أن تستفيد منها Intel في هذه الشراكة الجديدة، والتي سنُركّز عليها أدناه واحدةً تلو الأخرى.

أحد هذه التقنيات المذكورة صراحةً في الإعلان هو NVLink، وهي عبارة عن شريحة تدعم اتصال بينّي خاص من Nvidia يتميز بنطاق ترددي عالي وزمن وصول منخفض، ويدعم كميات هائلة من النطاق الترددي لنقل البيانات بين عناصر المعالج. تُعد NVLink، على نطاق أوسع، أيضًا تقنية تمكين رئيسية في استراتيجية Nvidia لمراكز البيانات.

مع وصول تطبيقات وحدة معالجة الرسومات الحالية إلى 1.8 تيرابايت في الثانية (وإن كان ذلك عبر 18 اتصالًا بسرعة 100 جيجابايت في الثانية)، فإن شريحة NVLink تتفوق على عرض النطاق الترددي لـ PCI Express 4.0، الذي يبلغ أقصى عرض نطاق ترددي إجمالي له 64 جيجابايت في الثانية، وPCI Express 5.0، الذي يضاعف ذلك. ونظرًا لعدم معرفة عدد الاتصالات التي ستستخدمها الشريحة الهجينة بالفعل، فقد يكون الفرق كبيرًا جدًا.

هنا، سيتم تنفيذ NVLink كوصلة بين شريحة رسومات Nvidia RTX على نظام SoC والشريحة التي تحتوي على أنوية المعالج من Intel. يعد هذا النوع من الاتصال المستقر من نقطة إلى نقطة بمثابة وعد بتقليل الاختناقات في الاستخدامات كثيفة البيانات، مثل أحمال عمل الرسومات، وقد يعني أداء أسرع لاستنتاج الذكاء الاصطناعي وتعدد المهام عند دمجه في نظام على رقاقة.

تعتمد وحدات معالجة الرسومات من Nvidia على أنوية معالجة CUDA، وهي معالجات متوازية متخصصة تُعالج بكفاءة آلاف العمليات المتزامنة اللازمة لعرض الرسومات الحديثة. كما يُمكنها أيضًا معالجة حسابات الفاصلة العائمة والأعداد الصحيحة، مما يجعلها مفيدة للغاية لأحمال عمل الذكاء الاصطناعي.

تُشكل أنوية Tensor بقية منتجات Nvidia من السيليكون. وهي مُسرّعات متخصصة لرياضيات المصفوفات اللازمة للذكاء الاصطناعي. فبينما تُعالج أنوية CUDA معظم العمليات الحسابية، تُسرّع أنوية Tensor مهام التعلم العميق والذكاء الاصطناعي، مما يُعزز سرعة وظائف مُحددة تتطلب تدريب الشبكات العصبية والاستدلال. كما تُمثل هذه الأنوية المتخصصة محرك الذكاء الاصطناعي الذي يُحرك تقنية DLSS من Nvidia.

من الممكن أن تعمل شريحة معالجة الرسوميات من Nvidia التي تتضمن تقنية CUDA و Tensor الأساسية على تعزيز قدرات الرسومات والذكاء الاصطناعي للمستهلك بشكل كبير، وتتجاوز بسهولة الرسومات المتكاملة التقليدية، وربما تحل محل أجهزة وحدة المعالجة العصبية (NPU) القوية تمامًا التي نراها في أحدث طرازات معالجات أجهزة الكمبيوتر المحمولة من AMD و Intel مثل سلسلة Ryzen AI 300 و Core Ultra 200V.

DLSS هي تقنية Nvidia لتحسين جودة الصور المدعومة بالذكاء الاصطناعي، ويضيف أحدث إصدار من DLSS 4 تقنية مُحسّنة لتوليد الإطارات تُعزز أداء وحدة معالجة الرسومات بشكل كبير. تستخدم هذه التقنية تقنية التعرف على الأنماط والتنبؤ بالذكاء الاصطناعي لإنشاء إطارات جديدة إضافية تتجاوز تلك التي تُقدمها أنوية معالجة الرسومات، مما يُحقق معدلات إطارات أسرع بدقة أعلى.

على الرغم من أن إصدارًا متوافقًا مع شرائح هذه التقنية لا يُضاهي ما تُقدمه وحدة معالجة رسومات مخصصة، إلا أن النتيجة قد تكون قيّمة للأنظمة الشائعة. فهي لن تُتيح تجربة ألعاب مُمتعة لشريحة من الجمهور لا ترغب في شراء جهاز كمبيوتر محمول للألعاب أو دفع مبالغ إضافية لوحدة معالجة رسومات مخصصة فحسب، بل قد تُعزز أيضًا الأداء المرئي لجميع جوانب الحياة تقريبًا، وخاصةً الأعمال الإبداعية.

Intel

Tegra هو معالج من Nvidia، وهو عبارة عن شريحة مبنية على معمارية Arm تجمع بين المعالج والبطاقة الرسومية ووحدة التحكم في الذاكرة ومُسرّع الشبكات العصبية في شريحة واحدة متكاملة. تُستخدم شرائح Tegra بشكل شائع في الأجهزة المحمولة (الهواتف والأجهزة اللوحية)، وأجهزة الألعاب المحمولة مثل Nintendo Switch، والتطبيقات غير الاستهلاكية مثل السيارات والروبوتات.

بناءً على معمارية Arm,، لن تظهر تقنية Tegra الفعلية في شرائح Intel بأي شكل من الأشكال. ومع ذلك، ستلعب مبادئ التصميم والدروس المستفادة من Tegra دورًا لا شك فيه في أي تصميمات تُنتجها Intel وNvidia معًا. ستكون خبرة Nvidia في مجال الوحدات النمطية، وإدارة الطاقة، وتسريع الذكاء الاصطناعي جزءًا لا يتجزأ من ما ستقدمه.

Intel

عادةً ما نتحدث عن المعالجات والبطاقات الرسومية بطريقتين. هناك معالجات رسوميات مدمجة (IGPs)، تستخدم أنوية البطاقات الرسومي المدمجة مباشرةً في المعالج، وتتشارك الشريحة نفسها. تعمل هذه البطاقات على أداء المهام البصرية الأساسية، مثل تصفح الويب أو تشغيل الفيديو، باستخدام نفس ذاكرة الرام المخصصة للمعالج.

من ناحية أخرى، تستخدم البطاقات الرسومية المنفصلة أجهزة معالجة رسومات مخصصة، وهي شريحة منفصلة بأنوية معالجة خاصة بها وذاكرة رام مخصصة للفيديو، مستقلة عن المعالج والرام الخاص بالنظام. تتميز هذه الشرائح المتخصصة بسرعة أكبر بكثير في الألعاب وتحرير الفيديو وغيرها من الاستخدامات كثيفة الرسومات. في السنوات الأخيرة، ومع استغلال البطاقات الرسومية لتشغيل تطبيقات الذكاء الاصطناعي، فقد وفرت القوة اللازمة لتشغيل نماذج الذكاء الاصطناعي المحلية بسرعة.

مع ذلك، فإن إنتاج شريحة جديدة تجمع بين Intel وNvidia لن تندرج تحت أيٍّ من هذين النوعين، وهي ليست الأولى من نوعها. فشرائح سلسلة M من Apple تعمل بطريقة مشابهة، حيث يتواجد المعالج مع وحدات الحوسبة الرسومية في نفس الحزمة، باستخدام مجموعات ذاكرة مشتركة وروابط ذات نطاق ترددي أعلى لتقديم أداء يرقى إلى مستوى البطاقة الرسومية دون الحاجة إلى شريحة رسومات منفصلة.

دمجت AMD مؤخرًا تكامل المعالج والبطاقة الرسومية بطريقة مماثلة، مع شرائح AMD Ryzen AI Max Plus أو بالأحرى (Strix Halo) التي تجمع بين معالج قوي وبطاقة رسومات Radeon وذاكرة موحدة تصل إلى 128 جيجابايت. وقد رأينا هذا النهج الهجين الفعال في جميع أنواع التطبيقات، من الأجهزة اللوحية المخصصة للألعاب إلى أجهزة الكمبيوتر المكتبية الصغيرة، وحتى أجهزة الكمبيوتر المحمولة المخصصة لمحطات العمل، كل ذلك بدون بطاقة رسومية منفصلة تقليدية.

هنا يغادر القطار محطة التكهنات ويصل إلى أرض الخيال. لا يكفي تخصيص عشرات المقالات من أجل تناول مقدار استفادة Intel من تقنيات Nvidia، وكيف ستتماشى قدراتهم سويًا ليٌقدما لنا أفضل ما في عالم التقنية. لا يوجد حدود للإمكانات المتاحة من هذا التعاون وخصوصًا أننا نتحدث عن شراكة تجمع بين شركتين عملاقتين، عزيزي المستخدم أنت أمام قدرات “Best of Both Worlds” قادمة قد لا نستوعبها، ومن المؤكد أن المستقبل يحمل في جعبته الكثير لنا، الكثير مما يفوق قدرات استيعابنا حتى!

Mohamed Hamed

عاشق للهواتف الذكية والتطبيقات والألعاب ومُلم بكل خبايا العالم السحري وفان بوي مُتعصب لآبل
زر الذهاب إلى الأعلى