لماذا يجب أن تتعلم عن الشبكات العصبية المتكررة

الشبكات العصبية المتكررة أو شبكات ردود الفعل العصبية (بالإنكليزية: Recurrent neural network) التي هي على النقيض من شبكات feedforward، وأهم ما تتميزبه هو أن الاتصالات بين الخلايا العصبية تكون في طبقة واحدة والخلايا العصبية في نفس أو الطبقة السابقة. في الدماغ ، هذه هي الطريقة الأفضل لربط الشبكات العصبية ، خاصة في القشرة المخية الحديثة . في الشبكات العصبية الاصطناعية ، يتم استخدام الترابط المتكرر للخلايا العصبية النموذجية لاكتشاف المعلومات ذات الترميز الزمني في البيانات. ومن الأمثلة على هذه الشبكات العصبية المتكررة Hopfield العصبية المترابطة تمامًا.



يمكن تقسيم الشبكات المتكررة على النحو التالي:



مع ردود فعل مباشرة (بالإنجليزية: direct feedback) يتم استخدام الإخراج الخاص من الخلايا العصبية كمدخل إضافي.

ردود الفعل غير المباشرة (بالإنجليزية: indirect feedback) يربط إخراج الخلايا العصبية مع الخلايا العصبية من الطبقات السابقة.

ردود الفعل الجانبية (بالإنجليزية: lateral feedback) يربط ناتج الخلايا العصبية بخلايا عصبية أخرى في نفس الطبقة.

من خلال الاتصال الكامل ، يكون لكل ناتج من الخلايا العصبية اتصال مع كل خلية عصبية أخرى.

تُستخدم الشبكات العصبية المتكررة في الممارسة العملية للمشكلات التي تتطلب معالجة التسلسلات. تشمل الأمثلة التعرف على خط اليد والتعرف على الكلام والترجمة الآلية . النوع السائد من الشبكات العصبية المتكررة هنا هو LSTMs أو المتغيرات المماثلة التي تعتمد على التغذية الراجعة المباشرة.

يمكن برمجة وتنفيذ الشبكات العصبية المتكررة في مكتبات البرامج الشائعة مثل PyTorch بسهولة في Python ثم ترجمتها إلى كود فعال باستخدام التجميع في الوقت المناسب.

قراءة المقال الكامل على ويكيبيديا ←