في تعلم الآلة، تُعد المعلمة الفائقة (Hyperparameter) هي معلمة يمكن ضبطها من أجل تحديد أي جزء قابل للتكوين من عملية تعلم النموذج. يمكن تصنيف المعلمات الفائقة إما كمعلمات فائقة للنموذج (مثل طوبولوجيا وحجم الشبكة العصبونية) أو معلمات فائقة للخوارزمية (مثل معدل التعلم وحجم الدفعة (batch size) في خوارزمية تحسين). تُسمى هذه المعلمات "فائقة" (hyper) لتمييزها عن الـ معلمات العادية، وهي الخصائص التي يتعلمها النموذج من البيانات نفسها.
لا تتطلب جميع النماذج أو الخوارزميات معلمات فائقة؛ فبعض الخوارزميات البسيطة مثل انحدار المربعات الصغرى العادية لا تتطلب أيًا منها. ومع ذلك، تضيف خوارزمية لاسو (احصاء) (LASSO)، على سبيل المثال، معلمة فائقة للتسوية (regularization) إلى المربعات الصغرى العادية، والتي يجب ضبطها قبل التدريب. وحتى النماذج والخوارزميات التي لا تفرض متطلبات صارمة لتحديد المعلمات الفائقة قد لا تعطي نتائج ذات معنى إذا لم يتم اختيار هذه المعلمات بعناية. ومع ذلك، ليس من السهل دائمًا التنبؤ بالقيم المثلى للمعلمات الفائقة؛ فقد لا يكون لبعضها تأثير ملموس، أو قد يعتمد متغير مهم واحد على قيمة متغير آخر. وغالبًا ما تكون هناك حاجة إلى عملية منفصلة تسمى ضبط المعلمات الفائقة للعثور على توليفة مناسبة للبيانات والمهمة المطلوبة.
بالإضافة إلى تحسين أداء النموذج، يمكن للباحثين استخدام المعلمات الفائقة لإضفاء المتانة وقابلية التكرار على أعمالهم، خاصة إذا كانت تستخدم نماذج تدمج توليد الأرقام العشوائية.