نظرة عامة شاملة حول صقل (تعلم الآلة)

الصَقْل أو الضبط الدقيق في التعلم الآلي طريقة لنقل التعلم حيث يجري تدريب نموذج مدرب مسبقًا على بيانات جديدة. يمكن إجراء الصقل على الشبكة العصبية بأكملها، أو على مجموعة فرعية فقط من طبقاتها، وفي هذه الحالة "تُجمّد" الطبقات التي لم تُصقَل (لم تُحدّث أثناء خطوة الانتشار العكسي).

ينطوي الصقل على تطبيق تدريب إضافي (مثلًا، على بيانات جديدة) على معاملات شبكة عصبية دُربت سلفا. وله صيغ عديدة.

يمكن تطبيق هذا التدريب الإضافي على الشبكة العصبية بأكملها، أو على مجموعة فرعية من طبقاتها فحسب. وفي الحالة الأخيرة، "تُجمَّد" الطبقات التي لا تخضع للضبط (أي لا يطرأ عليها تغيير أثناء عملية الانتشار الخلفي).

يمكن أيضًا دعم النموذج بـ "المُكيفات"، وهي وحدات نمطية خفيفة تُدمَج في معمارية النموذج وتعمل على توجيه "فضاء التضمين" بغرض "تكييف النطاق". تحتوي هذه المُكيفات على مُعاملات أقل بكثير من النموذج الأصلي، ويمكن صقلها بطريقة مُوفِّرة للمعاملات، وذلك عبر ضبط أوزانها هي فقط وترك باقي أوزان النموذج مُجمَّدة.

من الشائع الاحتفاظ بالطبقات السابقة (تلك الأقرب إلى طبقة الإدخال) مجمدة في بعض المعماريات، مثل الشبكات العصبية الالتفافية، لأنها تلتقط ميزات ذات مستوى أدنى، في حين أن الطبقات اللاحقة غالبًا ما تتميز بميزات عالية المستوى يمكن أن تكون أكثر ارتباطًا بـ المهمة التي دُرّب النموذج عليها.

النماذج التي تدرب سلفا على مدونات ضخمة وعامة، يجرى صقلها عادة بإعادة استخدام مُعاملاتها كنقطة انطلاق، مع إضافة طبقة مُخصصة للمهمة تدرب من الصفر. كما أن صَقل النموذج بأكمله شائعٌ أيضًا، وغالبا ما يعطي نتائج أفضل، بيد أنه أعلى كلفةً من الناحية الحسابية.

يجري الصقل عادةً من خلال التعلم المراقب، ولكن ثمة تقنيات لضبط النموذج باستخدام تعلم مراقب ضعيف أيضًا. يستخدم التعلم بالتعزيز أيضًا لضبط نماذج اللغة مثل دردشة ج.ب.ت (نسخة دقيقة من GPT-3) وSparrow عن طريق التعليم المعزز من ردود الفعل البشرية.

قراءة المقال الكامل على ويكيبيديا ←