استهلت شركة “ديب سيك” الصينية الناشئة في مجال الذكاء الاصطناعي عام 2026 بإعلان عن ابتكار تقني جديد قد يؤثر بشكل كبير على صناعة الذكاء الاصطناعي في العالم، حيث نشرت الشركة ورقة بحثية تتناول أسلوبًا جديدًا لتدريب النماذج اللغوية الكبيرة، وهو ما قد يمثل تطورًا في النماذج الأساسية ويعيد تعريف طرق تحسين الأداء دون التأثير على استقرار النموذج.
طرحت “ديب سيك”، تحت قيادة مؤسسها ليانغ وينفنغ، أسلوبًا أسمته “Manifold-Constrained Hyper-Connections” أو “الروابط الفائقة المقيدة بالتشعبات”، والذي يهدف إلى توسيع نطاق النماذج اللغوية الكبيرة مع الحفاظ على استقرارها ومنع انهيار التدريب، وذلك وفقًا لتقرير نشره موقع “بيزنس إنسايدر”.
عادةً، يسعى الباحثون لتحسين أداء النماذج من خلال السماح لأجزائها الداخلية بمشاركة المزيد من المعلومات، لكن هذه الخطوة قد تزيد من مخاطر عدم استقرار البيانات، ومع ذلك، فإن أسلوب “ديب سيك” الجديد يسمح بمشاركة اتصالات داخلية أكثر غنىً بطريقة مقيدة، مما يضمن استقرار التدريب وكفاءة استخدام الحوسبة حتى عند توسيع حجم النموذج.
ويعتبر هذا النهج الجديد “اختراقًا لافتًا” كما تقول وي صن، كبيرة محللي الذكاء الاصطناعي في شركة “كاونتربوينت ريسيرش”، حيث نجحت “ديب سيك” في دمج تقنيات مبتكرة لتقليل التكلفة الإضافية لتدريب النماذج، مما يحقق أداءً أعلى بكثير مع زيادة طفيفة في التكاليف.
تعتبر هذه الورقة البحثية دليلاً على القدرات الداخلية للشركة، حيث تعكس رؤيتها لإعادة تصميم منظومة التدريب بالكامل، مع دمج التجريب السريع والأفكار غير التقليدية، وأكدت صن أن “ديب سيك” قادرة على تجاوز اختناقات الحوسبة وتحقيق قفزات نوعية في الذكاء الاصطناعي، مشيرة إلى “لحظة سبوتنيك” التي شهدتها الشركة في يناير 2025 عندما كشفت عن نموذجها للاستدلال “R1”.
هذا النموذج أحدث صدمة في قطاع التكنولوجيا وسوق الأسهم الأمريكية، حيث أظهر أن “R1” يمكنه منافسة كبار اللاعبين مثل نموذج “O1” من “أوبن إيه آي”، وهو نموذج ذكاء اصطناعي متقدم من نفس الشركة المطورة لـChatGPT، ولكن بتكلفة أقل بكثير، مما يعزز مكانة “ديب سيك” كواحدة من الشركات الرائدة في مجال الذكاء الاصطناعي.

