لم يكن مهندسو DeepSeek بحاجة إلا إلى نحو 6 ملايين دولار لتطوير نموذج ذكاء اصطناعي هز العالم عند إطلاقه، وهو ما يعادل تقريبًا عُشر ما أنفقته ميتا في بناء أحدث تقنيات الذكاء الاصطناعي الخاصة بها.
وبنت شركة DeepSeek، وهي شركة ناشئة صينية، نموذج الذكاء الاصطناعي القوي DeepSeek R1 باستخدام تقنيات ذكية بتكاليف تعد جزءًا بسيطًا من المبالغ التي أنفقها منافسوها.
وقد تسبب ذلك في تقلبات في سوق الأسهم الأمريكية وأعاد تعريف التحديات في تطوير الذكاء الاصطناعي، ومع مفاجأة العالم بنظام الذكاء الاصطناعي الجديد، تواصل DeepSeek المضي قدمًا كلاعب رئيسي في مجال التكنولوجيا، مستفيدة من مواردها لتحقيق أقصى قدر من الكفاءة.
وقد أظهر التصميم المبتكر للنموذج الثاني الجديد للشركة DeepSeek-V3 المفتوح المصدر، الذي يحتوي على 671 مليار معلومة، أنه أكثر فعالية من منافسيه.
يرتبط الأداء الرائع لشركة DeepSeek باستخدام 2000 شريحة فقط، إذ تحقق ما تفعله الشركات الأخرى باستخدام 16000 شريحة، وهذا يترجم إلى استثمار نحو 6 ملايين دولار في قوة الحوسبة، وهو عُشر ما أنفقته ميتا على تقنيات الذكاء الاصطناعي المماثلة.
وتم تحقيق هذه الكفاءة على الرغم من القيود الأمريكية الثقيلة على التصدير، واضطرت DeepSeek إلى العمل مع وحدات معالجة الرسوميات H800 من NVIDIA.
لكن جوهر ابتكار DeepSeek يكمن في بنية Mixture of Expert (MoE) التي تم إصدارها في 26 يناير/كانون الثاني 2024، والتي تحتوي على 671 مليار معلومة.
ولكن الشيء المميز هو أنه لا يتم نشر جميع المعلومات دفعة واحدة، إذ ينشط النظام المكونات الضرورية فقط، ما يقلل كثيرًا من الهدر الحسابي.
ويتم دمج هذا النهج مع DeepSeekMLA، وهي تقنية تعمل على تحسين استخدام الذاكرة من خلال إعطاء الأولوية للمعلومات الأساسية.
أدى إعلان DeepSeek عن نظام الذكاء الاصطناعي في يناير/كانون الثاني 2025، إلى رد فعل كبير في الأسواق المالية، وانخفض سعر سهم NVIDIA مباشرة نتيجة لاختراقات DeepSeek والمخاوف المتزايدة بشأن المنافسة من شركات تصنيع الرقائق الأخرى مثل AMD وIntel والشركات الصينية.
وتظل استراتيجية التسعير الخاصة بـDeepSeek تنافسية بمعدل 0.27 دولار لكل مليون رمز، الذي تقول الشركة إنه لا يزال يمثل أفضل قيمة مقابل المال في السوق.