🔍
But what is a neural network? | Chapter 1, Deep learning - YouTube
Channel: 3Blue1Brown
[4]
هذه هى ثلاثة, مكتوبة ومقدمة بإهمال وبدقة منخفضة جدا 28*28 بكسل
[10]
ولكن عقلك لا يوجد لديه مشكلة في التعرف على أنها ثلاثة وأريد منك أن تأخذ لحظة لنقدر
[15]
كيف أن عقلك يستطيع فعل هذا بكل سلاسة وبدون مجهود
[18]
أعنى هذا وهذا وهذا يمكن أيضا التعرف عليهم على أنهم الرقم ثلاثة
[23]
على الرغم من أن القيم المحددة لكل بكسل مختلفة جدا من صورة واحدة إلى أخرى
[28]
الخلايا الحساسة للضوء في عينيك التى تعمل عندما ترى هذه الثلاثة
[33]
تختلف كثيرا عن تلك التي تعمل عندما ترى تلك الثلاثة.
[37]
ولكن شيئا في القشرة البصرية الذكية التي تمتلكها
[41]
يحل هذا على أنه تقديم لنفس الفكرة وهى الرقم ثلاثة ولكنه بنفس الوقت يقوم بالتعرف على الصور الأخرى على أنها أفكار أخرى تختلف عن الرقم ثلاثة
[48]
ولكن إذا قلت لك مهلا اجلس واكتب لى برنامجا تكون مدخلاته شبكة من 28 بكسل*28بكسل
[55]
مثل هذا ومخرجاته رقم بين الصفر وال10 ويستطيع التوقع ماذا يكون هذا الرقم
[62]
عندها تتحول المهمة من شيء غاية فى التفاهة لشئ صعب بطريقة مروعة
[66]
إذا لم تكن تعيش فى العصر الحجرى فأعتقد
[68]
أننى بالكاد أحتاج لتنبيهك للعلاقة الوثيقة للحاضر والمستقبل أيضا بعلم الشبكات العصبية وتعلم الآلة
[74]
ولكن ما أريد فعله حقا هو توضيح لك ما هى الشبكات العصبية ؟
[78]
بافتراض عدم وجود خلفية مسبقة ومساعدتك لتخيل ماتفعله ليس كمصطلحات رنانة ولكن بلغة الرياضيات
[84]
ما أتمناه أن تخرج من هنا وأنت تشعر أن الهيكل نفسه
[88]
محفز وأن تشعر بأنك تعرف معنى ما تقرأ أو تسمع من اقتباسات عن الشبكات العصبية
[94]
هذا الفيديو سيكون فقط مكرسا للهيكل المكون للشبكات العصبية أما الذى يليه فسيكون لمعالجة وتوضيح التعلم نفسه بالنسبة للشبكات العصبية
[100]
ما نحن بصدد القيام به هو وضع شبكة عصبية للتعرف على الأرقام المكتوبة بخط اليد
[109]
هذا مثال كلاسيكى
[111]
لتقديم الموضوع وسأكون سعيدا بالتمسك به فى الوضع الراهن لأنه فى نهاية الفيديوهين أريد أن أشير لبعض
[116]
المصادر الجيدة التى تستطيع التعلم منها أكثر والأماكن التى يمكنك من خلالها تحميل الكود الذى يقوم بذلك وتشغيله
[122]
على جهاز الكمبيوتر الخاص بك
[124]
هناك العديد والعديد من الأشكال المختلفة للشبكات العصبية وفى السنوات الأخيرة
[128]
كان هناك نوع من الطفرة في البحث نحو هذه الأشكال
[132]
ولكن في هذين الفيديوهين التمهيديين سنقوم أنا وأنت فقط بالنظر إلى شكل مبسط جدا بدون إضافات معقدة
[139]
هذا ضروري نوعا ما لأجل
[141]
فهم أي من الأشكال الأقوى والأحدث
[144]
وصدقنى لازال لدينا الكثير من التعقيد لنحاول فهمه بعقولنا
[148]
ولكن حتى فى هذا الشكل البسيط تستطيع الشبكة تعلم كيف تتعرف على الأرقام المكتوبة بخط اليد
[152]
وهو شيء رائع جدا أن يكون جهاز الكمبيوتر قادرا على هذا
[157]
فى الوقت نفسه سترى كيف أنها لا ترقى لبعض الآمال التى نضعها عليها
[163]
كما يوحي اسمها الشبكات العصبية مستوحاة من الدماغ، ولكن دعنا نوضح ذلك أكثر
[168]
ما هي الخلايا العصبية وبأي منطق ترتبط ببعضها البعض ؟
[172]
الآن عندما أقول الخلايا العصبية كل ما أريدك أن تفكر فيه هو شيء يحمل عددا
[178]
رقم بين ال0 وال 1 تحديدا إنها حقا ليست شيئا أكثر من ذلك
[183]
على سبيل المثال الشبكة تبدأ بحزمة من الخلايا تستجيب لكل مدخل من مدخلات صورة 28*28 بكسل
[191]
الذي هو
[192]
784 خلية عصبية في المجموع كل واحد منها يحمل رقم يمثل قيمة التدرج الرمادى الذى تستجيب به كل بكسل
[200]
تتراوح من 0 للبكسل السوداء وحتى 1 للبكسل البيضاء
[204]
هذا الرقم داخل الخلية العصبية يسمى تفعيل والصورة التى يمكنك تخيلها بعقلك الآن
[210]
هى أن كل خلية تضيء عندما يتم تفعيلها برقم ذي قيمة كبيرة
[216]
لذلك هذه ال784 خلية عصبية تشكل الطبقة الأولى من الشبكة
[225]
الآن بالنظر للطبقة الأخيرة فهى تمتلك عشر خلايا عصبية كل منها تشير لرقم من الأرقام
[231]
تفعيل هذه الخلايا كما قلنا من قبل هو رقم بين الصفر والواحد
[236]
يمثل لأى مدى تعتقد الشبكة أن الصورة المقدمة إليها تمثل هذا الرقم تحديدا
[240]
هناك أيضا طبقتين فى المنتصف تسمى الطبقات المخفية
[246]
والتي في الوقت الحاضر ستكون فقط علامة استفهام كبيرة
[247]
إذا هل يجب أن يكون هناك علامة استفهام كبيرة كيف بحق الإله ستتم عملية التعرف على الأرقام هذه ؟!
[253]
في هذه الشبكة اخترت طبقتين مخفيتين كل واحدة 16 خلية عصبية وأعترف أن هذا نوع من الاختيار التعسفي
[260]
لنكون صادقين اخترت طبقتين بناء على لأي مدى أريد تحفيز الهيكل فى لحظة واحدة
[265]
أما عن 16 ؟ فهذا فقط كان رقما جيدا ليلائم الشاشة أثناء التدريب :D
[269]
عند التطبيق هناك الكثير من المتسع لتجربة هيكل معين هنا
[272]
حيث تعمل الشبكة بالطريقة الآتية فتفعيل طبقة واحدة يؤدى إلى تحديد كيفية تفعيل الطبقة التي تليها
[278]
وبالتأكيد فقلب الشبكة يمثل آلية معالجة المعلومات والذى يمثل بدقة الكيفية التى يكون بها
[285]
تفعيل طبقة واحدة يسبب تفعيل الطبقة التي تليها
[288]
من المفترض أن يكون هذا قريبا بعض الشيء للكيفية التي يؤدى فيها تفعيل بعض الخلايا العصبية البيولوجية
[295]
لتفعيل بعض من الخلايا الأخرى
[297]
الآن الشبكة
[298]
التي أستعرضها هنا تم بالفعل تدريبها للتعرف على الأرقام ودعني أريك ما أعنيه بذلك
[303]
هذا يعنى إذا قمت بتغذيتها بصورة معطى فيها كل قيم
ال 784 خلية كمدخلات فإنه طبقا لقيمة
[306]
تلك القيم يتم تحديد مدى سطوع كل بكسل فى الصورة
[312]
هذا النمط من التفعيل يسبب نما محددا فى التفعيل للطبقة التي تليها
[317]
والذى بدوره يسبب نمطا محددا آخر فى الطبقة التي تليها
[319]
والذى فى النهاية يعطى نمطا ما فى الطبقة الخارجية
[322]
والخلية الأكثر لمعانا تكون هى اختيار الشبكة لما تظنه يمثل الرقم الصحيح للصورة التى أدخلتها إليها
[332]
وقبل الذهاب إلى الرياضيات وراء كيف أن طبقة واحدة تؤثر فى الطبقة التي تليها أو الكيفية التي يتم بها تدريب الشبكات
[337]
دعنا فقط نوضح لماذا من المنطقي أن نتوقع من هيكل طبقي كهذا أن يتصرف بذكاء
[343]
ما الذي نتوقعه هنا؟ ما هو أفضل توقع لما يمكن أن تفعله تلك الطبقات الوسطى؟
[348]
حسنا عندما نتعرف أنا وأنت على الأرقام فإننا نجمع معا بعض القطع مثلا ال9 تمتلك حلقة فى الأعلى وخط فى الأسفل إلى اليمين قليلا
[357]
و 8 لديها أيضا حلقة أعلى، لكنه يقترن بحلقة أخرى فى الأسفل
[362]
أما ال4 فهى أساسا تقسم إلى ثلاث خطوط كالتي بالشكل
[367]
فى عالم مثالى ربما نأمل أن كل طبقة من الثانية وحتى الأخيرة
[372]
تستجيب لواحدة من هذه المكونات
[374]
نأمل أنه فى أى وقت تغذيها بصورة بها حلقة فى الأعلى مثل ال9 أو 8
[379]
هناك بعض الخلايا العصبية المحددة
[381]
التى يكون تفعيلها قريبا من الواحد وأنا لا أعنى حلقة محددة من البكسلات فالأمل أن يكون
[388]
أى نمط حلقى عام فى الأعلى قادر على تفعيل الخلايا العصبية بنفس الطريقة التى تتخذها للتعرف على الحلقة
[395]
بهذه الطريقة وبمراقبة كيفية التفعيل من الطبقة الثالثة للطبقة الأخيرة للتعرف على أى مزيج من المكونات الفرعية يستجيب مع أى عدد
[400]
بالطبع هناك بعض العقبات فى الطريق
[402]
إذ كيف يمكنك التعرف على هذه المكونات الفرعية أو حتى تعلم أيها سيكون صحيحا وأنا لم أتحدث بعد عن الطريقة التى
[409]
تؤثر بها الطبقة الواحدة بالطبقة الأخرى لكن جارني في هذا للحظة
[413]
التعرف على حلقة يمكنه أن يقسم أيضا إلى عدة مشكلات صغيرة
[416]
إحدى الطرق المعقولة للقيام بهذا هى أن تتعرف أولا على الحواف الصغيرة المختلفة التى تكونها
[423]
بالمثل الخط الطويل كالذى ربما تراه فى الرقم 1 أو 4 أو 7
[428]
ليس سوى حافة طويلة أو ربما تفكر به على أنه نمط محدد من عدة حواف صغيرة متعددة
[434]
لذا أملنا أنه ربما كل خلية عصبية فى الطبقة الثانية من الشبكة
[440]
تستجيب مع مختلف الحواف الصغيرة ذات الصلة
[443]
ربما عندما تغذى بصورة كهذه تقوم بتفعيل جميع الخلايا العصبية
[448]
المرتبطة بحوالي ثمانية إلى عشرة حواف صغيرة محددة
[451]
والتي بدورها تضيء الخلايا العصبية المرتبطة بالحلقة العليا والخط العمودي الطويل
[457]
وهؤلاء يفعلون الخلية المرتبطة بالرقم 9
[460]
سواء كان ذلك ما تفعله الشبكة فعلا أو لا هو سؤال آخر ..
[461]
سأعود إليه بمجرد أن نرى كيف يمكننا تدريب الشبكات
[467]
ولكن هذا نوع ما من الأمل نوع من الهدف مع طبقات مهيكلة كهذه
[473]
علاوة على ذلك يمكنك أن تتخيل كيف يمكن أن تكون القابلية لتحديد هذه الحواف والأنماط مفيدة فى مهمات أخرى للتعرف على الصور
[479]
وخلاف التعرف على الصور هناك الكثير من الأشياء الذكية التى بإمكانك فعلها يمكن تقسميها إلى طبقات تجريدية
[487]
تحليل الكلام على سبيل المثال ينطوي على أخذ الصوت الخام واختيار الأصوات المميزة التي تتحد لتكوين منهاج معينة
[495]
والتي تتحد لتشكيل الكلمات التي تتضافر لتكوين العبارات والمزيد من الأفكار المجردة وغيرها
[500]
بالعودة إلى كيفية عمل أى من هذا , تصور نفسك الآن تصمم
[505]
كيف بالضبط أن تفعيل بعض الخلايا العصبية فى طبقة واحدة يؤثر على تفعيل الخلايا العصبية فى الطبقة التي تليها
[510]
الهدف هو إيجاد آلية يمكنها تحديد الحواف فى البكسلات
[515]
وتحويل الحواف إلى أنماط والأنماط إلى أرقام وللتركيز على مثال واحد
[521]
دعونا نقول أننا نأمل أن واحدا معينا
[524]
من الخلايا العصبية فى الطبقة الثانية لتحديد ما إذا كانت الصورة لديها حواف فى هذه المنطقة أو لا
[530]
والسؤال المطروح هو ما هي المعاملات التي ينبغي أن تكون لدى الشبكة
[535]
ما النقاط التى يجب عليك طرقها لكى تكون معبرة كفاية لإمساك النمط المطلوب
[542]
أو أى نمط بكسلى آخر أو النمط الذى يحدد الحواف المختلفة التى تكون حلقة أو غيرها من الأشياء
[548]
حسنا، ما سنفعله هو تعيين وزن لكل واحد من الروابط بين الخلية العصبية التى لدينا والخلايا العصبية من الطبقة الأولى
[555]
هذه الأوزان هي فقط مجرد أرقام
[558]
ثم تأخذ كل تلك التفعيلات من الطبقة الأولى وتحسب مجموعها طبقا لتلك المجموعات
[567]
أجد أنه من المفيد أن تفكر فى هذه المجموعات على أنها منظمة على هيئة شبكات صغيرة خاصة بهم
[571]
وسأستخدم بكسل خضراء للإشارة إلى الأوزان الموجبة والبكسل الأحمر للإشارة إلى الأوزان السالبة
[577]
حيث سطوع هذا البكسل هو تصوير فضفاض لقيم الأوزان
[582]
الآن إذا جعلنا كل الأوزان مرتبطة مع تقريبا كل البكسلات التى قيمتها بصفر
[586]
باستثناء بعض الأوزان الإيجابية في هذه المنطقة التي نهتم بها
[589]
ثم نأخذ الوزن المجموع
[591]
كل قيم البكسل هى فقط كميات لإضافتها لقيم البكسل فى المنطقة التى نهتم بها
[598]
وإن كنت تريد معرفة ما إذا كان هناك حافة هنا أو لا ربما عليك أن تمتلك بعض الاوزان السالبة
[604]
مرتبطة بالبكسل المحيطة
[607]
ثم يكون المجموع أكبر عندما تكون هذه البكسل فى المنتصف ساطعة ، ولكن البكسل المحيطة بها أكثر قتامة
[614]
عند حساب وزن المجموع بهذه الطريقة يمكنك الحصول على أى عدد
[618]
ولكن لهذه الشبكة ما نريده هو أن تكون للتفعيلات قيمة بين 0 وال 1
[623]
الشيء الشائع الذى نستخدمه هو تغذية دالة ما بهذا الوزن
[626]
تلك الدالة تقوم بتحويل هذا العدد أيا كانت قيمته إلى قيمة بين الصفر والواحد
[632]
هناك دالة شائعة تقوم بذلك بالفعل تسمى sigmoid وهى أيضا معروفة باسم logistic curve
[637]
بالأساس أى مدخل عال في قيمته السالبة ينتهى به المطاف إلى الصفر وأى مدخل عال في قيمته الموجبة ينتهي به المطاف إلى الواحد
[643]
وهى تزيد بطريقة طردية فقط حول النقطة صفر
[649]
لذلك تفعيل الخلايا العصبية هنا هو بالأساس قياس للانحياز الموجب لوزن المجموع
[657]
ولكن ربما لا تريد أن تضيء الخلية العصبية عندما يكون الوزن أكبر من 0
[662]
ربما كنت تريد فقط أن تكون نشطة عندما يكون الوزن أكبر من 10
[666]
أنك تريد أن تجعلها متحيزة قليلا لأن تكون غير نشطة
[670]
ما ستفعله فقط هو إضافة رقم سالب لمجموع الأوزان مثل -10
[676]
قبل إدخالها إلى دالة ال sigmoid
[680]
ويسمى هذا العدد الإضافي بالانحياز
[683]
لذا فالأوزان تخبرك ما هو نمط البكسل الذى تتخذه الخلية العصبية فى الطبقة الثانية أما الانحياز فيخبرك
[689]
القيمة التى يحتاج أن يكون عليها الوزن لكى تصبح الخلية العصبية نشطة
[695]
وهذا كله فقط لخلية واحدة
[698]
كل خلية عصبية أخرى فى هذه الطبقة ستكون مرتبطة بكل ال784 خلية عصبية الموجودة فى الطبقة الأولى
[702]
ولكل ارتباط من هذه ال784 ارتباطات له وزنه الخاص المرتبط به
[711]
أيضا لكل واحد انحياز ..رقم ما تضيفه للوزن قبل سحقه فى دالة الsigmoid
[718]
وهذا كثير جدا لو فكرت به مليا فى
[722]
هذه الطبقات المخفية يوجد 784 * 16 وزن جنبا إلى جنب مع 16 انحياز
[728]
وكل ذلك هو مجرد اتصال من الطبقة الأولى إلى الثانية
[730]
الروابط بين الطبقات الأخرى أيضا لديها أوزان وانحيازات
[737]
بأخذ كل ذلك بعين الاعتبار هذه الشبكة تمتلك حوالى
[741]
13,000 وزن وانحياز
[744]
13,000 نقطة لتطرقها والطرق على تلك النقاط بشكل مختلف سيؤدى بالشبكة للتصرف بشكل مختلف
[750]
لذلك عندما نتحدث عن التعلم
[752]
ما يعنيه هذا هو جعل جهاز الكمبيوتر يجد وضع فعال لكل هذه الأرقام المتعددة بشرط أن يكون هذا الوضع فعلا
[760]
يحل المشكلة المقدمة إليه
[763]
شيء مرعب ومسلى أن تتخيل نفسك تجلس وتقوم بحساب كل تلك الأوزان والانحيازات باليد ..
[770]
تقوم بتغيير وتبديل الأرقام لكى تقوم الطبقة الثانية بتحديد الحواف والثالثة بتحديد الأنماط إلخ
[776]
أجد هذا مرضِِ على المستوى الشخصي بدلا من تخيل الشبكة كصندوق أسود كبير
[781]
لأنه عندما لا تؤدى الشبكة وظيفتها بشكل جيد
[784]
إذا كان لديك توقع عن ما تعنيه تلك الأنماط والأوزان فسيكون لديك نقطة تبدأ منها
[791]
لتجريب كيفية تغيير الهيكل لتحسينه
[796]
أو عندما تعمل الشبكة وتؤدى وظيفتها ولكن ليس للأسباب التى تتوقعها
[798]
التعمق في ما تعنيه الأوزان والانحيازات هو طريقة جيدة لتحدى الفروض التي وضعتها وعرض كل الحلول الممكنة
[806]
بالمناسبة أظن أن الدالة هنا صعبة قليلا فى الكتابة أليس كذلك ؟
[812]
لذا دعنى أريك طريقة أفضل لكتابة هذه الروابط بشكل أسهل ..هكذا ستراها
[818]
إذا اخترت قراءة المزيد عن الشبكات العصبية
[821]
قم بتنظيم كل التفعيلات فى الطبقة الواحدة لعمود كمتجه
[827]
ثم تنظيم جميع الأوزان كمصفوفة حيث كل صف من تلك المصفوفة
[832]
يتوافق مع وصلات بين طبقة واحدة وخلية عصبية معينة في الطبقة التالية
[838]
مايعنيه هذا أخذ مجموع أوزان التفعيلات من الطبقة الأولى وهذه الأوزان
[844]
تتوافق مع واحدة من من عناصر المصفوفة التى نراها هنا على اليسار
[853]
بالمناسبة الكثير من تعلم الآلة له علاقة وثيقة بالجبر الخطي
[858]
لذلك لأي شخص منكم يريد تصورا بصريا لطيفا لضرب المصفوفات بإمكانك أن تلقي نظرة على هذه السلسلة التى قدمتها فى الجبر الخطى
[867]
وخاصة الفصل الثالث
[868]
بالعودة إلى ما كنا نتحدث فيه بدلا من إضافة الانحياز لكل قيمة على حدى
[876]
نقوم بتنظيم كل الانحيازات على هيئة متجه ونضيف هذا المتجه إلى حاصل الضرب السابق للمصفوفتين
[882]
ثم كخطوة نهائية
[884]
نضع sigmoid حولها بهذه الطريقة
[887]
ومايفترض أن يقدمه هذا أنك تطبق الsigmoid على كل عنصر داخل المتجه الناتج
[895]
لذلك بمجرد كتابة مصفوفة الوزن هذه وهذه المتجهات كرموز
[901]
تستطيع ربط كل الانتقال من طبقة للطبقة الأخرى بتعبير بسيط وصغير
[907]
وهذا يجعل الأوامر البرمجية أبسط وأكثر سرعة باعتبار أن كثير من المكتبات تقوم بتحسين شكل ضرب المصفوفات
[917]
هل تذكر سابقا عندما قلنا أن الخلايا العصبية هى ببساطة أشياء تحمل أرقاما ؟
[921]
حسنا بالتأكيد الأرقام التى يحملونها تعتمد على الصورة التى تغذيهم بها
[927]
لذا ربما تكون أكثر دقة لو فكرت بكل خلية عصبية على أنها دالة تأخذ
[933]
المخرجات من جميع الخلايا العصبية فى الطبقة السابقة وتظهرها على أنها رقم بين الصفر والواحد
[938]
فى الحقيقة الشبكة بالكامل هى أيضا دالة
[942]
تأخذ 784 كمدخل وتخرج 10 أرقام كمخرجات
[947]
إنها معقدة قليلا
[948]
لدرجة أن لديها 13,000 معامل على شكل أوزان وانحيازات تتشكل بأنماط معينة
[956]
والتى تتضمن تكرار الكثير من ضرب المصفوفات ثم سحق الرقم فى دالة الsigmoid
[960]
ولكنها مجرد دالة فى النهاية وبطريقة ما إنه شيء مطمئن أنها تبدو معقدة
[966]
أعنى لو كانت أبسط لما كان سيكون لدينا أمل فى أن تتغلب على تحدى التعرف على الأرقام أليس كذلك ؟
[972]
ولكن كيف تتعلم هذه الشبكة؟ كيف تعرف الأوزان والانحيازات المناسبة فقط بالنظر للبيانات التى لديها ؟
[980]
هذا ما سأريه لك فى الفيديو القادم كما سنتعمق قليلا فيما تفعله تلك الشبكات على أرض الواقع
[987]
الآن هو الوقت الذى أقول فيه اشترك فى القناة وما إلى ذلك لتبقا متطلعا على الفيديوهات الجديدة
[992]
ولكن الواقع أن معظمكم لا يتلقون إشعارات من يوتوب فعلا، أليس كذلك؟
[997]
ربما يجب أن أقول اشترك حتى تستطيع الشبكات العصبية لليوتيوب التصديق بأنك تريد رؤية فيديوهات من هذه القناة وبالتالى ترشيحها لك
[1008]
على أى حال ابق مستعدا للمزيد
[1010]
شكرا جزيلا للجميع على دعم هذه أشرطة الفيديو على باترون
[1013]
لقد كان قليلا بطيئا للتقدم في سلسلة الاحتمالات هذا الصيف
[1016]
ولكن أنا سأعود إليها مرة أخرى في ذلك بعد هذا المشروع حتى ذلك يمكنك البحث عن التحديثات هناك
[1023]
وللإنهاء هنا لدى هنا ليشا لى
[1025]
التى قامت بتأدية الدكتوراه فى الجانب النظرى من التعلم العميق والتى تعمل حاليا فى شركة استثمارية تسمى amplify partners
[1032]
الذين تقدموا بتقديم بعض التمويل لهذا الفيديو
[1036]
لذا ليشا شئ ما أعتقد أنه يجب أن نذكره بسرعة هنا هو هذه الsigmoid function كما فهمت لقد استخدمت قديما لسحق الأرقام إلى رقم ما بين الصفر والواحد
[1044]
محفزة نوعا ما بالخلايا العصبية الحقيقية التى إما تكون مفعلة أو غير مفعلة
[1046]
-بالضبط * لكن الشبكات العصبية الحديثة لاتستخدمها بعد الآن هذا نوع من المدارس القديمة أليس كذلك ؟ - نعم
[1050]
Relu يبدو أسهل بكثير وRelu هو اختصار ل Really stands for rectified linear unit
[1062]
نعم إنها نوع من الدوال حيث تأخذ فقط القيمة الأكبر من ال a هى المفعلة والأقل تكون غير مفعلة
[1069]
كما كنت تشرح فى الفيديو وهى مستوحاة أيضا
[1074]
جزئيا من قبل البيولوجية
[1078]
الخلايا العصبية إما أن يتم تفعيلها أو لا، إذا مرت بعتبة معينة أو لا
[1083]
فإذا مرت تصبح مفعلة
[1085]
وإذا لم تمر تصبح غير مفعلة
[1090]
استخدام sigmoid جعل من الصعب جدا تدريبها أما Relu فهى أسهل فى التدريب
[1105]
شكرا ليشا
[1106]
فى الخلفية شركة amplify partners فى مرحلة مبكرة من الاستثمار فى المتخصصين التقنيين لبناء الجيل الجديد من الشركات المركزة على
[1113]
تطبيقات الAI إذا كنت أنت أو أى شخص تعرفه تفكرون فى بدء شركة فى يوم ما
[1118]
أو إذا كنت تعمل فى مرحلة أبكر من ذلك الآن الشركة ستحب أن تسمع منك
[1123]
حتى أنها أنشأت بريد إلكتروني محدد لهذا الفيديو [email protected]
[1128]
لذلك لا تتردد في التواصل معهم من خلال ذلك
Most Recent Videos:
You can go back to the homepage right here: Homepage





