لماذا قد يتأخر تحسين أداء ChatGPT؟ إليك التفاصيل

تحديثات الذكاء الاصطناعي مثل ChatGPT أصبحت موضوعًا رئيسيًا في عالم التقنية، ولكن تحسين الأداء ليس دائمًا سريعًا كما يتوقع البعض. إذا كنت تتساءل عن سبب التأخر في تحسين قدرات ChatGPT أو ظهور ميزات جديدة، فهناك عوامل تقنية وتجارية تساهم في ذلك. في هذا المقال، سنوضح الأسباب التي قد تؤدي إلى هذا التأخير وما يمكنك توقعه في المستقبل.

لماذا قد يتأخر تحسين أداء ChatGPT؟ إليك التفاصيل - %categories

ملخص

  • يتباطأ إيقاع إصدار ChatGPT، ويتجه نحو التحديثات السنوية.
  • تتسبب تكنولوجيا المحولات والعائدات المتناقصة في تباطؤ تطوير LLM.
  • يشكل نقص بيانات التدريب ونماذج الربح غير المؤكدة تحديًا لمستقبل مشاريع الذكاء الاصطناعي مثل ChatGPT.

لقد غير ChatGPT الطريقة التي يعيش بها ويعمل بها العديد من الأشخاص حول العالم، ولكن أولئك الذين لديهم عين حريصة على إيقاع النموذج لاحظوا أنه تباطأ مؤخرًا. ما الذي يحدث مع تطوير LLM، وهل نتجه إلى عصر مظلم للذكاء الاصطناعي في عام 2025 وما بعده؟

ChatGPT: الجدول الزمني

عندما أطلقت OpenAI أول نموذج عام لها، ChatGPT 3.5، في نوفمبر 2022، اجتاح صناعات البحث والذكاء الاصطناعي. حتى إطلاق Meta Threads في عام 2023، كان ChatGPT أسرع تطبيق نموًا على الإطلاق، حيث أضاف 100 مليون مستخدم إلى قائمته في أقل من ثلاثة أشهر.

منذ ذلك الحين، انتقلت الشركة من إيقاع مدته ستة أشهر تقريبًا بين النماذج الجديدة، إلى الدفع الآن إلى التحديثات السنوية بدلاً من ذلك. وبينما كان هناك خمسة أشهر فقط بين إطلاق ChatGPT 3.5 وChatGPT 4.0، فقد استغرق الأمر من مارس 2023 حتى ديسمبر 2024 لإطلاق ChatGPT o1 بعد ذلك.

مع عدم وجود تاريخ إطلاق ثابت لـ o3، لا يوجد ما يشير حقًا إلى متى قد نرى النموذج الكبير التالي من OpenAI. لقد حصل بعض المختبرين الأوائل بالفعل على النسخة التجريبية، لكن هذا لا يعطي إشارة كبيرة حول متى يمكننا توقع التطور التالي في LLMs ليضرب أجهزة الكمبيوتر العامة. إذن ما هي بعض الأسباب التي أدت إلى تباطؤ تطوير LLM، وهل ستؤتي استثمارات عالم التكنولوجيا ثمارها في النهاية؟

اقرأ أيضا:  أهم عشرة أشياء يجب القيام بها مع Samsung Galaxy S20 و S20 +

الروبوتات الآلية، انطلق

المحولات هي التكنولوجيا الأساسية التي غيرت صناعة الذكاء الاصطناعي لأول مرة (لعدم وجود مصطلح أفضل)، بدءًا من عام 2017 تقريبًا. من خلال الاستفادة من بنية CUDA داخل وحدات معالجة الرسوميات كمنصة حوسبة كاملة بدلاً من عرض الصور فقط، تتمكن المحولات من تحويل حتى أبسط بطاقات الرسوميات إلى معالجات صديقة للذكاء الاصطناعي.

لماذا قد يتأخر تحسين أداء ChatGPT؟ إليك التفاصيل - %categories

ولكن في حين تمكنت العديد من أقدم نماذج نماذج اللغة الكبيرة (LLMs) ومدخلاتها الرمزية الأصغر من الاستفادة بشكل أكبر من بنية CUDA، فقد شهدنا مؤخرًا عوائد متناقصة. مثل النسخة المتسارعة من قانون مور – والذي يُعترف بأنه تبسيط جذري للتكنولوجيا في خدمة الإيجاز – بدأت وحدات معالجة الرسوميات في الوصول إلى ذروتها في إنتاج أداء الذكاء الاصطناعي على الرغم من زيادة الاستثمار في كثافة الترانزستور ومواصفات VRAM عامًا بعد عام.

حتى العرض الرئيسي لشركة إنفيديا في معرض CES هذا العام قوبل بردود فعل فاترة، حيث أصبح من الواضح أننا وصلنا بالفعل إلى المرحلة “التطورية” لأجهزة الذكاء الاصطناعي، بدلاً من القفزات “الثورية” التي كان البعض يتوقعها بالنظر إلى مسار السنوات القليلة الماضية.

لم نقترب بعد من نقطة دفع أجهزة الذكاء الاصطناعي القائمة على وحدة معالجة الرسوميات إلى حدها المادي النظري كما هو الحال مع بعض وحدات المعالجة المركزية الكلاسيكية. (ملاحظة؛ لا يشمل هذا النهج الأحدث القائم على الأبعاد الثلاثية). ومع ذلك، فإن المكاسب الرئيسية التي شهدناها على مدار السنوات الخمس الماضية في وحدات معالجة الرسوميات ودعم معماريات المحولات بدأت تتباطأ إلى حد كبير، بدلاً من التسارع الذي كان يأمله البعض في الصناعة على غرار الحوسبة الكلاسيكية بين الثمانينيات وأوائل العقد الأول من القرن الحادي والعشرين.

الوصول إلى قاع البرميل

هناك عقبة كبيرة أخرى تواجهها العديد من شركات LLM الآن، بما في ذلك OpenAI مع ChatGPT، وهي نقص بيانات التدريب. نظرًا لأن كل شركة LLM مدعومة من FAANG (Gemini وClaude وChatGPT) امتصت بالفعل وتدربت على ما يمكن اعتباره فعليًا مجمل المعلومات العامة المتاحة على الويب المفتوح، فإن الشركات تواجه جدارًا من عائدات المدخلات إلى المخرجات.

في ظل عدم وجود الكثير من البيانات الجديدة المتبقية لتدريب الجيل التالي من النماذج عليها، لجأ بعض المطورين إلى ما يُعرف بنموذج التدريب “التكراري”. في هذه الحالات، يتم استخدام الذكاء الاصطناعي لتدريب الذكاء الاصطناعي، ولكن النتائج كانت مختلطة في أفضل الأحوال. في حين يمكن تدريب المفاهيم والمهام الأكثر بساطة بشكل متكرر، فإن تحقيق نتائج أعظم من تلك التي شوهدت مع الذكاء الاصطناعي الذي تم تدريبه على المخرجات البشرية يمثل مشكلة هلوسة. إذا كنت تعتقد أن الذكاء الاصطناعي يمكن أن يهلوس من قبل، فحاول تغذية الذكاء الاصطناعي للذكاء الاصطناعي وانظر إلى نوع المخرجات التي تعود. باختصار، جزء غير ضئيل منه يتم صنعه على الفور.

اقرأ أيضا:  أفضل 10 طرق لإصلاح عدم تشغيل مقاطع الفيديو على Twitter في Google Chrome

من يتحمل الفاتورة؟

لقد أدى السباق على التفوق في مجال الذكاء الاصطناعي وبرنامج الماجستير في القانون إلى إشعال حريق هائل من الأموال التي يتم سكبها في الصناعة، ومن المقرر أن يتجاوز إجماليها تريليون دولار في السنوات القليلة المقبلة كما توقع تحليل حديث لشركة جولدمان ساكس. ومع ذلك، حتى مع كل هذه الأموال النقدية المتاحة، فإن التكلفة الغارقة لتدريب والحفاظ على برنامج ماجستير في القانون مثل ChatGPT لا تزال تبحث عن قناة ربحية لإبقاء الأضواء مضاءة.

إن تكاليف التدريب والتشغيل وطلبات السحب لـ LLMs أعلى بكثير من تكلفة البحث القياسي على Google. تشير بعض التقديرات إلى أن طلب ChatGPT واحد قد يستخدم عشرة أضعاف متطلبات الحوسبة والطاقة لاستعلام Google، على الرغم من أن الأرقام الحقيقية هي سر محفوظ جيدًا من قبل OpenAI. حتى وقت قريب، تعامل جميع اللاعبين الرئيسيين في FAANG مع الذكاء الاصطناعي باستخدام دليل التشغيل القياسي: “1. ضخ المزيد من أموال رأس المال الاستثماري أكثر من منافسيك 2. الاستحواذ على أعلى حصة سوقية ممكنة 3. ؟؟؟ 4. الربح”.

لكن عالم الذكاء الاصطناعي ليس قياسيًا على الإطلاق. نظرًا لأن تكاليف الحوسبة ارتفعت، وليس من قبيل المصادفة، جنبًا إلى جنب مع سعر سهم Nvidia، فإن نموذج الربح الفعلي لاسترداد هذه التكاليف لا يزال يبدو ضبابيًا في أفضل الأحوال.

تفرض ChatGPT رسومًا بقيمة 20 دولارًا شهريًا للوصول إلى أحدث وأحدث نماذجها. ولكن حتى مع وجود 11 مليون مشترك يدفعون، وفقًا لتقرير من The Information نقلاً عن مدير العمليات في OpenAI، لا تزال OpenAI تفكر في مستويات اشتراك جديدة لبرامج الماجستير في القانون الأكثر تقدمًا والتي قد تصل إلى 2000 دولار شهريًا، اعتمادًا على القدرة.

اقرأ أيضا:  WhatsApp الآن يخفي حالتك على الإنترنت من الغرباء

لماذا قد يتأخر تحسين أداء ChatGPT؟ إليك التفاصيل - %categories

وتتفاقم هذه المشكلة بسبب انخفاض العائدات في النتائج. نظرًا لأن العديد من الأشخاص يصلون إلى نقطة النماذج المجانية مثل ChatGPT 4o “جيدة بما يكفي” لما يحتاجون إليه – “الكافي” هو تجربة ذاتية لكل مستخدم وحالة استخدامهم بالطبع – تفقد نقطة البيع المتمثلة في الاشتراك الشهري قيمتها. أدى هذا الخوف من رأس المال المفقود المحتمل إلى تباطؤ الاستثمار في الذكاء الاصطناعي مقارنة بالسنوات السابقة، مما يعني تباطؤ إنتاج التطوير العيني.

متى ستحقق ChatGPT قفزتها التالية؟

مع استعداد ChatGPT لإطلاق نموذج o3 الخاص بها، يتوقع محللو الصناعة أن يكون هذا هو الإصدار العام الجديد الوحيد الذي سنراه من OpenAI في عام 2025 بالكامل. يسعد الكثيرون بإثبات خطأهم، ولكن بالنظر إلى المشكلات المذكورة أعلاه، يبدو أن هذا الأمر يزداد احتمالية يومًا بعد يوم.

ولكن في النهاية، هل هذا أمر سيئ؟ كما تظهر لوحة المتصدرين في Chatbot Arena، فإن تكرارات النموذج التي كانت تستغرق في السابق أشهرًا فقط للقفز مئات النقاط بين الإصدارات لم تتحرك إلا بالكاد أكثر من بضع عشرات في أكثر من عام. لقد وصلنا إلى ذروة ما يمكن أن تفعله LLMs حتى في بيئاتها الأكثر أداءً، وبينما لا تزال تطبيقات الشركات الموسعة جاهزة للاختيار، يبدو أن ما يمكن أن تفعله LLM للمستخدم العادي يقترب ببطء من حده النظري.

إذن، متى ستحصل على الإصدار التالي من ChatGPT؟ الوقت وحده هو الذي سيخبرنا بذلك. ولكن بينما ننتظر، لا تزال نماذج مثل ChatGPT o1 و4o قوية بما يكفي للتعامل مع إعداد قائمة البقالة المصنفة حسب الممرات، مما يساعدك على تذكر الكتاب الذي قرأت فيه اقتباسًا معينًا، أو أي شيء تحب استخدام روبوت الدردشة المفضل لديك فيه في أغلب الأحيان.

تحسين أداء ChatGPT يتطلب توازنًا بين التقدم التقني وتلبية احتياجات المستخدمين المتزايدة. على الرغم من أن التحديثات قد تستغرق وقتًا أطول من المتوقع، فإنها غالبًا تهدف إلى تقديم تحسينات مستدامة وتجربة أكثر فائدة. تابع التحديثات الرسمية واحرص على فهم رؤية الشركة لتطوير الأداة، مما يمنحك نظرة أعمق لما ينتظرك في المستقبل.

قد يعجبك ايضا