فك تشفير معلمات LLM، الجزء 2: أعلى P (أخذ عينات النواة)

قامت ما يمكن أن تسمى

مثل أي نموذج من تعلم الماكينة، لدينا نماذج كبيرة لللغة وهي تمتلك خصائص مختلفة تحكم في تنوع من خلال النتائج الناشئة للنص. بدأنا سلسلة متعددة الجزء لنشرح تأثير هذه الخصائص بالدقة. سننتهي بإحداث التوازن المثالي في توليد المحتوى باستخدام جميع هذه الخصائص التي تم مناقشتها في سلسلتنا المتعددة الجزءين.

مرحبا بك في الجزء الثاني حيث نتحدث عن المامور باسم “Top-P.”

Top-P (إختيار النوع)

إذا كان هدفك هو تحكم في تنوع ناتج النموذج، فإن Top-P من المناسب. تحت الTop-P المنخفض يجبر النموذج على استخدام الكلمات الأكثر احتمالًا، بينما ترتفع Top-P تجبر النموذج على استخدام كلمات أكثر تنوعًا، مما يزيد من الإبداع.

دعونا نرى Top-P في عمل مع البرمجيات التالية والناتج.

Python

 

الناتج:

PowerShell

 

الآن دعونا نفهم الناتج.

  • Top-P 0.1 – محافظين جداً: لأن النموذج يختار من خلال الـ10% الأعلى من الخيارات المحتملة للكلمة التالية، يوجد الكثير من التكرار في المحتوى المنتج. لذلك يفتقر هذا الرد إلى التنوع وغالبًا ما يكون غير مفهوم أيضًا.
  • توب-بي 0.3 – محافظي: النموذج يختار من بين 30% من الخيارات المحتملة للكلمة التالية، لذا فهو أقل محافظة بقليل من إعدادته السابقة للتوب-بي. كما ترون من الناتج، هذا لم يحسن التوليد المحتوياتي، وتم تكرار التعذيب طوال الإنجاز. في هذه الحالة، تعني أن التكرار في التعذيب يعني أكثر من المتواليات المحتملة بعد التعذيب للنموذج هي التعذيب ذاتها.
  • توب-بي 0.5 – متوازن: هذه هي المرة التي ترون النموذج يقدم بعدة استراتيجيات مرتدية رقمياً لأول مرة. ما يزال هناك بعض التكرار في هذه الإعدادة أيضًا. ولكن الجزء الأساسي هو أنه في هذه الإعدادة للتوب-بي، يبدأ النموذج بتضمين مجموعة أوسع من الكلمات. الناتج هو خلال مزيج من النصيحة القياسية مع بعض التناقضات. يسمح قيمة توب-بي هذه بتحسين الإبداع ومع ذلك يحاول بصعوبة معالجة عمق المعلومات.
  • توب-بي 0.7 – إبداعي: في هذه الحالة، يستطيع النموذج اختيار من مجموعة أوسع من الكلمات، وكما ترون، تتجه الردة الى أسلوب تعريفي. المحتويات أكثر إبداعًا لأنه يشمل أيضًا مشهدًا يعاني من التوتر. العامل السيء هو فقدان التركيز، لأن التأكيد لم يكن على إدارة التوتر ولكن على صعوبات معالجة التوتر.
  • توب-بي 0.9 – إبداعي للغاية: في هذه الإعدادة، يتم إلتقاء النموذج مع العديد

من المهم أن نلاحظ من خلال هذا التمرين كيف تتغير المحتويات مع تغير 设置 Top-P. وهذا يعطينا فكرة أن هذا المادر الوحيد لا يحتاج للتعامل بخصوص التنوع في المحتويات ومناسبةها.

الآن دعونا ننظر إلى تأثير Top-P في عدد من الحالات التي نستخدمها مثل الجزء السابق من هذه السلسلة حول “إنتاج القصص الإبداعية” و”التوضيح التقني”.

Python

 

الخروج:

PowerShell

 

الآن دعونا نتفصيل ونتحليل الخروج لإنتاج القصص الإبداعية والتوضيح التقني وفقاً لل设置 Top-P وكيف تأثير الخروج.

لتوضيح بشكل فعال تأثير Top-P ، قمنا بتضمين أفضل تعليمات لتوجيه الخروج بطريقة تجعل التأثير واضحًا.

إنتاج القصص الإبداعية

  • Top-P قليل (تأثير سيء):كما ترون مع أقل Top-P ، يتم إلتزام النموذج باستخدام الكلمات أو العبارات وهذا يسبب التكرار والتقليد. يقيد الإبداع أيضًا في هذه الحالة لأن النموذج يحاول عدم تقدم أفكار جديدة. ولكن إذا نظرتم ، يبقى تواصل المنطق ما يسماه ، ويبقى النموذج على الموضوع ، وهذا ما يميز قيم الTop-P قليل.
  • Top-P كبير (تأثير جيد):في هذه الحالة يقدم النموذج أفكار جديدة ويضم زوايا إبداعية إلى الخروج. يستخدم لغة أوسع مما ي增加 عمق وغنى النص. ومع زيادة الإبداع ، يتم قيود تواصل المنطق.

التناقض بين القصص اليدويتين يبرز بوضوح تأث

تفسير تقني

  • تأثير الTop-P العالي (تأثير الإيجاد السلبي):كما ترون ، تأثير الTop-P العالي السلبي يؤثر على التفسيرات التقنية بواسطة منع التدفق المنطقي والانحراف عن الموضوع. ويقدم النموذج أيضًا معلومات غير متعلقة والتي لا تتعلق بالتفسير.
  • الTop-P الأفضل (تأثير المثالي):يمكن أن تكون التفسير أكثر توافقًا وقريبًا من الموضوع بواسطة الTop-P المناسب. يتم توافق المحتوى أكثر مع التعبير المتوجه وتوازن الدقة والتعبير بشكل جيد. يتم تحسين معاملة المعلومات لأن النموذج يُحدد إلى كلمات أكثر إحتمالًا.

خلاصة

مع هذه التجربة، أظهرنا بنجاح أهمية ما يسمى ما يعرف بالTop-P المتعلق بالسيطرة على العشوائية والإبداع المنبثق من النص المنتج. نظرنا أولًا إلى المواضيع الواحدة وكيف تختلف النتائج مع تغير الTop-P ثم اتجهنا إلى نهج يعتمد أكثر على الحالات لمعرفة كيفية تحكم الTop-P في النتائج وفقاً للحالة.

ومع ذلك، من خلال القسم السابق وهذا الجزء من السلسلة، لاحظنا أنه لا يكون أي ما يلي معيارًا كافيًا لجودة توليد النص. لذلك فإنه من المهم أن ننظر إلى تأثير جميع هذه المعاملات، وسنقوم بذلك كجزء أخير من هذه السلسلة.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p