- التقطير ينتهك شروط الخدمة لشركات التكنولوجيا الأمريكية مثل OpenAI
- منع التقطير صعب بسبب النماذج مفتوحة المصدر وصعوبة الكشف عنه
- مرشح وزارة التجارة لوتنيك ينتقد DeepSeek في جلسة استماع بالكونغرس
29 يناير (رويترز) – أعرب مستشارو البيت الأبيض هذا الأسبوع عن قلقهم من أن شركة DeepSeek الصينية قد تكون استفادت من طريقة تُعرف باسم “التقطير”، والتي يُزعم أنها تعتمد على تقدم المنافسين الأمريكيين.
ووفقًا لمصادر تنفيذية ومستثمرين في وادي السيليكون، فإن هذه التقنية، التي تتضمن تعلم نظام ذكاء اصطناعي من نظام آخر، قد تكون صعبة الإيقاف.
أثارت DeepSeek هذا الشهر ضجة في قطاع التكنولوجيا بنموذج جديد للذكاء الاصطناعي يبدو أنه ينافس قدرات عمالقة التكنولوجيا الأمريكيين مثل OpenAI، ولكن بتكلفة أقل بكثير. والأكثر من ذلك، أن الشركة الصينية قدمت الكود مجانًا.
يعتقد بعض التقنيين أن نموذج DeepSeek قد يكون قد تعلم من النماذج الأمريكية لتحقيق بعض مكاسبه. تتضمن تقنية التقطير استخدام نموذج ذكاء اصطناعي قديم وأكثر تقدمًا لتقييم جودة الإجابات الصادرة عن نموذج جديد، مما ينقل بشكل فعال معرفة النموذج القديم إلى الجديد.
هذا يعني أن النموذج الجديد يمكنه الاستفادة من الاستثمارات الضخمة في الوقت وقوة الحوسبة التي تمت في بناء النموذج الأولي دون تحمل التكاليف المرتبطة به.
هذا الشكل من التقطير، الذي يختلف عن كيفية استخدام الباحثين الأكاديميين السابقين للمصطلح، هو تقنية شائعة في مجال الذكاء الاصطناعي. ومع ذلك، فإنه ينتهك شروط الخدمة لبعض النماذج البارزة التي أصدرتها شركات التكنولوجيا الأمريكية في السنوات الأخيرة، بما في ذلك OpenAI.
قال متحدث باسم OpenAI إن الشركة تعرف أن هناك مجموعات في الصين تعمل بنشاط على استنساخ نماذج الذكاء الاصطناعي الأمريكية عبر التقطير، وتقوم بمراجعة ما إذا كانت DeepSeek قد استخدمت التقطير بشكل غير لائق.
قال نافين راو، نائب رئيس الذكاء الاصطناعي في شركة Databricks ومقرها سان فرانسيسكو، والتي لا تستخدم هذه التقنية عندما تحظر شروط الخدمة ذلك، إن التعلم من المنافسين هو “أمر طبيعي” في صناعة الذكاء الاصطناعي، وقارن راو ذلك بشراء شركات السيارات لمحركات بعضها البعض وفحصها.
وأضاف: “لنكون منصفين تمامًا، هذا يحدث في كل سيناريو. المنافسة حقيقية، وعندما تكون المعلومات قابلة للاستخراج، ستقوم باستخراجها ومحاولة الفوز. نحن جميعًا نحاول أن نكون مواطنين صالحين، ولكننا نتنافس في نفس الوقت.”
هوارد لوتنيك، مرشح الرئيس دونالد ترامب لمنصب وزير التجارة، والذي سيشرف على ضوابط التصدير المستقبلية لتكنولوجيا الذكاء الاصطناعي، قال للجنة الشيوخ الأمريكية خلال جلسة استماع يوم الأربعاء إنه يبدو أن DeepSeek قد استولت بشكل غير قانوني على تكنولوجيا الذكاء الاصطناعي الأمريكية، وتعهد بفرض قيود.
وقال لوتنيك: “لا أعتقد أن DeepSeek عملت بشكل قانوني تمامًا. هذا هراء. سأكون صارمًا في سعينا لفرض القيود وإنفاذها للحفاظ على تقدمنا.”
كما أثار ديفيد ساكس، مسؤول الذكاء الاصطناعي والعملات المشفرة في البيت الأبيض، مخاوف بشأن تقنية التقطير التي تستخدمها DeepSeek في مقابلة مع قناة فوكس نيوز يوم الثلاثاء.
ولم ترد DeepSeek فورًا على طلب للتعليق على هذه الادعاءات.
وأضافت OpenAI أنها ستتعاون مع الحكومة الأمريكية لحماية التكنولوجيا الأمريكية، على الرغم من أنها لم تفصل كيفية ذلك.
وقالت الشركة في بيان: “بصفتنا البنائين الرائدين للذكاء الاصطناعي، نشارك في إجراءات مضادة لحماية حقوقنا الفكرية، بما في ذلك عملية دقيقة لتحديد القدرات المتطورة التي يتم تضمينها في النماذج التي نطلقها.”
تشبه هذه المخاوف الأخيرة في واشنطن بشأن استخدام الصين للمنتجات الأمريكية لتطوير قطاع التكنولوجيا لديها المخاوف السابقة بشأن صناعة أشباه الموصلات، حيث فرضت الولايات المتحدة قيودًا على تصدير الرقائق وأدوات التصنيع إلى الصين وتدرس تقييد العمل على بعض التقنيات المفتوحة.
قال التقنيون إن منع التقطير قد يكون أصعب مما يبدو
كانت إحدى ابتكارات DeepSeek هي إظهار أن عددًا صغيرًا نسبيًا من عينات البيانات – أقل من مليون – من نموذج أكبر وأكثر تقدمًا يمكن أن يحسن بشكل كبير قدرات نموذج أصغر.
عندما يكون لمنتجات شائعة مثل ChatGPT مئات الملايين من المستخدمين، قد يكون من الصعب اكتشاف مثل هذه الكميات الصغيرة من البيانات. وبعض النماذج، مثل Llama من Meta Platforms و Mistral من الشركة الناشئة الفرنسية، يمكن تنزيلها مجانًا واستخدامها في مراكز البيانات الخاصة، مما يعني أن انتهاكات شروط الخدمة قد تكون صعبة الاكتشاف.
قال أوميش بادفال، المدير الإداري في Thomvest Ventures: “من المستحيل إيقاف تقطير النماذج عندما يكون لديك نماذج مفتوحة المصدر مثل Mistral وLlama، فهي متاحة للجميع، ويمكنهم أيضًا العثور على نموذج OpenAI من خلال العملاء.”
وأضاف متحدث باسم Meta أن ترخيص نموذج Llama يتطلب من أولئك الذين يستخدمونه للتقطير الكشف عن هذه الممارسة.
وكشفت DeepSeek في ورقة بحثية أنها استخدمت Llama لبعض الإصدارات المقطرة من النماذج التي أطلقتها هذا الشهر، لكنها لم تتطرق إلى ما إذا كانت قد استخدمت نموذج Meta في وقت سابق من العملية، ورفض المتحدث باسم Meta الإجابة عما إذا كانت الشركة تعتقد أن DeepSeek قد انتهكت شروط الخدمة.
قال مصدر مطلع على تفكير مختبر ذكاء اصطناعي كبير إن الطريقة الوحيدة لمنع شركات مثل DeepSeek من تقطير النماذج الأمريكية هي فرض متطلبات صارمة لمعرفة العميل، تشبه تلك التي تستخدمها الشركات المالية لتحديد هوية العملاء.
ولكن لا يوجد شيء من هذا القبيل مؤكد حتى الآن، وفقًا للمصدر. كانت إدارة الرئيس السابق جو بايدن قد اقترحت مثل هذه المتطلبات، والتي قد لا يتبناها الرئيس دونالد ترامب.
ولم يرد البيت الأبيض فورًا على طلب للتعليق.
اتخذ جوناثان روس، الرئيس التنفيذي لشركة Groq، وهي شركة حوسبة للذكاء الاصطناعي تستضيف نماذج الذكاء الاصطناعي في سحابتها، خطوة بحظر جميع عناوين IP الصينية من الوصول إلى سحابتها لمنع الشركات الصينية من الاستفادة من نماذج الذكاء الاصطناعي التي تستضيفها.
وقال روس: “هذا ليس كافيًا، لأن الناس يمكنهم إيجاد طرق للالتفاف حوله. لدينا أفكار تسمح لنا بمنع ذلك، وسيكون الأمر لعبة قطة وفأر… لا أعرف ما هو الحل. إذا توصل أي شخص إليه، أخبرونا، وسننفذه.”
المصدر: Reuters