نظرة تفصيلية: تسوية أو تطبيع الدفعة (BatchNorm)
لماذا نحتاج لهذه المرحلة؟
أثناء انتقال البيانات عبر طبقات الشبكة العصبية، قد "تتضخم" القيم العشوائية وتصبح كبيرة جداً، أو تتضاءل لتصبح قريبة من الصفر، مما يجعل الموديل يفقد توازنه أثناء التدريب ويرفض أحيانًا التعلم (مشكلة تلاشي/انفجار التدرجات). هذه الطبقة بمثابة المنظم والمرور.
آلية عمل صمام الأمان
تعمل هذه الطبقة كصمام أمان يعيد توزيع القيم وإجبارها على أن تكون بمتوسط 0 وانحراف معياري 1. هذا الضبط المستمر يضمن أن كل طبقة قادمة تتلقى بيانات متوازنة ومستقرة، مما يسرع عملية التعلم بشكل مذهل، ويقلل اعتماده على القيم الابتدائية، ويضيف تأثيراً منظّماً (Regularization) يمنع حفظ البيانات.
للتواصل: IZZELDEENM@GMAIL.COM