audio
audioduration (s) 2.26
30
| member
stringclasses 4
values | video_id
stringclasses 16
values | chunk_id
int64 0
280
| text
stringlengths 15
508
|
|---|---|---|---|---|
Manar
|
lecture_4_part_one
| 28
|
sorry اه اه حاجة اسمها L1 norm أو Lassu regression Lassu regression أو L1 norm ال coefficient اللي بيضربه في regularization term هو بيبقى معموله absolute تمام طيب
|
|
Manar
|
lecture_4_part_one
| 29
|
في نوع تاني من ال Regularization اسمه L2 Norm أو Ridge Regression ده ال Coefficient اللي انا بضربه في Regularization Term بيبقى Squared تمام؟ طيب تعالى نشوف بعد اهو بص ده بيبقى Squared بص بروح اجمعه على ال Cost Function
|
|
Manar
|
lecture_4_part_one
| 30
|
طيب وده اهو بص يعني ده مثلا ده نوع ايه لو قلتلك ده نوع ايه? Ridge regression بالظبط او L2 norm regression ليه? علشان انا دلوقتي عندي ال cost زودت عليه ال normalization factor او ال الregolarization factor sorry
regolarization factor او اسمو tunn
|
|
Manar
|
lecture_4_part_one
| 31
|
لا ما اسموش tunning أنا اسف هنا بيقولك ان ده بتعملو tunning ليه عشان هو hyperparameter هو regularization term او regularization parameter مضروف فيه ال coefficient square في ساعاتها ده ridge طب لو ما كانش ال coefficient square فيه دي وكان هنا absolute ده ساعاتها كده lasso او L1 norm. تمام? ده ال hyperparameter اللي انت بتعملو
|
|
Manar
|
lecture_4_part_one
| 32
|
تمام? الcost function اهي? دي الcost function اهي بعد التعديل بعد ما حطت لها ال ridge regression ادي اهو الcost function اللي احنا عارفنا زودنا عليها regularization term مضروف في الcoefficient بتاعي square عشان كده ده Ridge لو كان absolute يبقى
|
|
Manar
|
lecture_4_part_one
| 33
|
lasso regression مش Ridge طبعا اللي اتنين ليهم مسميين مختلفين تانيين. اللي هو الL1 norm والL2. تمام? طيب. ده بيساعد في ايه? زي ما قلت لك. ان انا دلوقتي اه ال old solution هو اه انا ممكن احط دي برقم ب0. فيبقى هو هو.
|
|
Manar
|
lecture_4_part_one
| 34
|
او ان انا احطه ب infinity يبقى رقم كبير فيبدأ يقل او ان انا احطه بحاجة في النص عادي اه براحتك يعني ده hyperparameter في النهاية هو بيخش بقى جوه gradient descent و repeat ويحسن ويحسن في الweights دي ويحسن في الweights دي الweights المضروبة فى ال regularization term وهكذا
|
|
Manar
|
lecture_4_part_one
| 35
|
ليه؟ علشان خاطر يحاول ينزل للـ Minimum ويمنع الـ Overfitting ان يبقى الtrain ماشي في حتة و الtest ماشي في حتة انه يبقى حافظ الـ Data و بصمجة تمام طيب و دى فيديوهات اكتر الـ L1 و الـ L2 لو انت عايز تتعمق فيهم اكتر تمام ده كده الجزء الاول
|
|
Manar
|
lecture_4_part_one
| 36
|
فى فيديو تانى هنشرح الجزء التانى بتاع ال classification
|
|
Manar
|
Lecture_10_part_1
| 0
|
السلام عليكم يا شباب يلا بينا بقى في lecture 10 اللى قبل الاخيرة احنا هنا خلاص بنفنش المنهج فهنتكلم عن اخر concept فى ال classification خلاص ما فيش algorithms classification هنتتاخد تاني اه كده خلاص هنتكلم عن اخر نقطة فى ال classification وهي ال matrices
|
|
Manar
|
Lecture_10_part_1
| 1
|
باقدر أ evaluate بيها الclassification وبعد كده ناخد الalgorithm هو Unsupervised Unsupervised معناها ان الdata بتاعتي labeled ولا unlabeled unlabeled بالضبط انا ماعنديش labeled والهدف ان انا عامل دايما Clusters, Clustering وخلاص هناخد الK means وان شاء الله المحاضرة اللي جاية هناخد حاجة برضو Unsupervised بتعمل Dimensionality Reduction اسمها PC
|
|
Manar
|
Lecture_10_part_1
| 2
|
وكده نبقى خلصنا المنهج ان شاء الله. تعالي بقى اكلمك في ال evolution matrices بتاعت الclassification طبعا احنا كلنا عارفين الclassification عشان نعمل له evolution بنستخدم الaccuracy ولكن الaccuracy مش ادق حاجة. ليه? اه هي بتديني عامة ولكن اه مش خاصة يعني ايه
|
|
Manar
|
Lecture_10_part_1
| 3
|
بص سيبك من الهري ده. سيبك من الslides عشان هي وحشة انا هبقى اعدي عليها بس انا عايز اشرح لك هنا حاجة. بص نفترض ان انا دلوقتي الdata بتاعتي unbalance unbalance يعني الtarget بتاعي مكون من آآ مثلا class0 آآ 0
|
|
Manar
|
Lecture_10_part_1
| 4
|
0 0 0 1. انا مكنش rصد يبقى كتير كبير كده. استنوا. اهو. يا انا غبي. ماشي. 1 1. حلو. دي الlabel ده كده الcolumn بتاع الlabels. بتاعتي. عبارة عن شوية زيروهات.
|
|
Manar
|
Lecture_10_part_1
| 5
|
ووانين بس. دي كده الdata بتاعتي unbalance عندي اه اه حاجة اكتر من حاجة. حلو? طيب. الmodel ممكن يكون بيتوقع كله زروهات. وساعتها هيجيب accuracy عالية رغم انه فشل في توقع اي class من الواحد.
|
|
Manar
|
Lecture_10_part_1
| 6
|
ليه هيجيب accuracy عالية؟ علشان خاطر كده كده عدد الوحايد قليلة فكأن الmodel اتعود انه دايما يقول صفر بما ان عدد الوحيد قليلة فمش هيبقى فارقة معاه فحين بقى ان انا لو جبتلك test data الtest data فيها وحايد كتير انت هتعملك ساعتها كلها صفر تجيب accuracy
|
|
Manar
|
Lecture_10_part_1
| 7
|
23% والله حين تمام فساعتها انت كده فشلت ليه فشلت علشان خاطر انت ما عملتش الaccuracy ما كانتش معبرة كفاية عن ان الmodel بيperform ازاي انت اعتمدت على الaccuracy وهي ساعتها بperform هنا وحش جدا
|
|
Manar
|
Lecture_10_part_1
| 8
|
ليه بperform بقى وحش جدا علشان خطرت كده كده عدد الوحايد قليلة فالaccuracy ما كانتش معبرة طيب فطلعولنا 2 matrices جداد واحدة اسمها الpercision والتانية اسمها الrecall حلو اووى الrecall
sorry الpercision
|
|
Manar
|
Lecture_10_part_1
| 9
|
الpercision هي بتركز ان انت لو قلت 1 يبقى هو فعلا واحد يعني بتركز ان انت دايما ما تغلطش في اي class 1
|
|
Manar
|
Lecture_10_part_1
| 10
|
يعني لو انت عدك class 0 و 1 لو قلت 1 يبقى هو 1 فعلا ماينفعش حد يبقى 1 وانت تقول عليه 0 ماينفعش هو بيركز اني دايما تتوقع كل الones صح هو بيركز ان انت تتوقع
|
|
Manar
|
Lecture_10_part_1
| 11
|
كل الones صح. تمام? طيب. يعني هو بيهتم بالtrue تتوقع صح. تتوقع صح ايه? ال1 اللي هي الpositive. هو بيهتم بالtrue positive جدا.
|
|
Manar
|
Lecture_10_part_1
| 12
|
انه يعليها. حلو? من خلال الequation بتاعته. هو ليه الequation بتاعته هنشوفها في الslides تمام? طيب.الrecall بقى. الrecall عكس الpercision هو بيهتم بانك لما تغلطش في اي zeros خالص. ممكن تغلط في ones عاد.
|
|
Manar
|
Lecture_10_part_1
| 13
|
بس هو يهتم ان انت ما تغلطش في اي class من الclasses بتاعت ال0. يعني هو بيهتم بالtrue ان انت تتوقع صح. بس الnegative ان انت تتوقع الnegative دايما صح. هو بيهتم بالtrue negative ان هو يعليها. تمام? حلو قوي. طيب.
|
|
Manar
|
Lecture_10_part_1
| 14
|
انا بقى علشان انا بحاول بقى امتى اهتم بالpercision مثلا والله لو دي حالة مرضية انا عندي مثلا application بيقول ده cancer ولا لا فانا عايز ابقى متأكد ان اللي هقول عليه ان انا مفيش حد يبقى عنده cancer يبقى true بتاعه انه 1 عنده cancer وانا روح اقول له انت ما عندك cancer
|
|
Manar
|
Lecture_10_part_1
| 15
|
كده ساعتها اا مشكلة لكن عادي بالنسبة لي ان لو واحد ما عندوش cancer قلت له عنده cancer عادي هيكتئب يعني شوية مش حوار لكن انا الاهم ان ما ينفعش واحد يبقى عنده cancer وانا اقول له لا يلي انه هيروح يكمل حياته طبيعية ويموت. تمام? طيب. الrecall عكسها.
|
|
Manar
|
Lecture_10_part_1
| 16
|
طيب في بقى evaluation matrix عبارة عن الpercision والrecall مع بعض في equation كأنه بيعمل balancing بين الpercision والrecall مع بعض اللي هو لو في application انا مش هممني ان الpercision هو اللي يبقى عالي او الrecall هو يبقى عالي عايز balance ما بينهم ان الاثنين يبقوا عالين ساعتها بقى بستخدم الevaluation matrix اللي هي الequation بتاعتها عبارة عن الاثنين مع بعض
|
|
Manar
|
Lecture_10_part_1
| 17
|
وهي F1 score هو F1 score معبرين عن الاثنين مع بعض علشان يبقى F1 score 100% لازم recall 100% و precision 100% علشان F1 score يبقى ب 0% لازم واحد منهم يبقى 0%
|
|
Manar
|
Lecture_10_part_1
| 18
|
لو الrecall ب0% ساعتها الـ F1 Score هيبقى ب0% حتى لو الpercision ب100% مدام واحد منهم ب0% الـ F1 Score هيبقى ب0% لإنه بيهتم بالاتنين يهتم أن بالاتنين يكونوا بيعبر عن بالاتنين يعني عن قيمة بالاتنين الbalance اللى ما بينهم تمام طيب
|
|
Manar
|
Lecture_10_part_1
| 19
|
حلو قوي. تعالى بقى نشوف كده بتقول ايه? هو هنا بيقول لك ان ما كانتش معبرة في حالة الunbalance ان انا اه هنا انا بclassify بينpositive وnegative. ان انا ممكن 90% من ال sentences انا قلت عليهم negative وهم اصلا علشان data بتاعتي كانت unbalance في حصل مشكلة.
|
|
Manar
|
Lecture_10_part_1
| 20
|
فساعتها الأحسن أن أنا كنت أطلع الpercision والrecall الpercision بتعرفني معلومة أنا قد إيه هو قد إيه أنا غلط في showing بتاع الnegative sentences هنا ده مثال يعني هو بيقول يا positive sentence يا negative sentence الrecall بيقول أنا قد إيه
|
|
Manar
|
Lecture_10_part_1
| 21
|
عملت حلو للpositive sentences تمام طيب ده نفس الكلام اللي احنا قلناه بس بالعكس يعني مثلا هنا انا بقولك هو بيهتم ان الtrue positive يبقى عالي مدام هو بيهتم ان الtrue positive يبقى عالي قلتلك ان هو ما بيهتمش مش فرق معا بقى اللي اصفار فهو هنا بيقولك ان الpercision مش مهتم بالاصفار مش فارقه معاه
|
|
Manar
|
Lecture_10_part_1
| 22
|
هو بيحسب قدي انا غلطت في الاصفار عادي. اه الrecall عكسه. فاهمني? بس فما تلغبطش نفسك يعني. هي كده. تمام. طيب. حلو. نيجي من هنا بقى الconfusion matrix احنا خدناها فيالAI. الconfusion matrix هي بتبقى matrix
4 ف4. 4 ف4. لو هي 2classes. اه لو هي 2class.
|
|
Manar
|
Lecture_10_part_1
| 23
|
تمام? انا عندي هنا هم 4 ف4 هنا وهنا الpredication. هنا انت بقى بتبقى متقسم 4 كده. عندك هنا الtrue positive تمام? الترتيب مهم تحفظه. تمام?
|
|
Manar
|
Lecture_10_part_1
| 24
|
هنا الfalse negative يبقى هنا الfalse حلو قوي هنا مش الfalse اصلا هنا true negative وهنا الfalse positive دي اي classification لازم ترسم الmatrix دي
|
|
Manar
|
Lecture_10_part_1
| 25
|
هنا الprediction هنا الtrue value وتقوم كاتب بقى قيمة true positive false negative false positive false negative ومنها تقدر تحسب الprecision بالقانون الrecall بالقانون ال f1 score مدام جبت الprecision والrecall وكمان الaccuracy تمام بمجرد ما جيب الـ 4
|
|
Manar
|
Lecture_10_part_1
| 26
|
طيب ايه الtrue positive الtrue positive هو الحاجات اللي انا توقعتها صح وهي كان الclass بتاع اه اه اه انا توقعتها صح وتوقعت الclass بتاعها ان هو 1 تمام? طيب حلو اووى يعني هي اصلا كانت ثانية خلينا هنا علشان هنا مكتوب احسن هنا الtrue positive
|
|
Manar
|
Lecture_10_part_1
| 27
|
أنا توقعت صح أنا توقعتها أن هي positive وهي فعلا كانت positive طيب true negative أنا توقعتها صح أن هي negative وهي كانت negative تمام هنا اللي هي false positive false معناها أنا توقعت غلط توقعت غلط
|
|
Manar
|
Lecture_10_part_1
| 28
|
والتوقع بتاعي ان انا قلت ان هي positive ولكن هي كانت negative تمام يبقى انا دايما الpositive والnegative اللي بيبقوا بعد الكلمة دول دول الprediction بتاعي انا قلت عليها ايه true او false بتقولك انت بقى توقعت صح ولا غلط فهنا false معناها ان انا توقعت غلط
|
|
Manar
|
Lecture_10_part_1
| 29
|
طيب التوقع بتاعك ايه?positive معنى كده ان انت تفهم ان true ايه الtrue بتاع الsample دي ايه? ان هو كان negative عشان انت توقعته غلط وقلت ان positive هو يبقى هو اكيد كان negative تمام? طيب false negative معنى الfalse ان انا توقعت غلط وقلت ايه? negative تمام? بس يبقى هنا true توقعت صح وقلت عليها ايه? قلت posi
|
|
Manar
|
Lecture_10_part_1
| 30
|
هنا توقعت غلط وقلت عليها ايه قلت positive هنا قلت عليها صح وقلت ايه قلت negative هنا توقعت غلط وقلت عليها ايه negative تمام طيب لو هي true يبقى اللي انت قلته هو هو الحقيقي لو هي false يبقى انت اللي انت قلته ده عكس الحقيقي دي ال confusion matrix وده ش
|
|
Manar
|
Lecture_10_part_1
| 31
|
الاربعة دول واتوقع انها تيجي في الامتحان طبعا تركز ايه اللي بببب الcorrectly الcorrectly معناها بص هي في كلمات هي دايما هيجي لك بص انت دايما هيجي لك جملة دي هقول لك عشان ما تنساش شوف اول كلمة لو correctly يبقى true تعرف اول
|
|
Manar
|
Lecture_10_part_1
| 32
|
لو incorrectly يبقى false تمام تشوف بقى التانية لو positive يبقى positive لو negative يبقى negative بديهيات بس خلاص جهت في الإجابة طيب الaccuracy الaccuracy هي عبارة عن number of correct predictions على total predictions صح اللي هي بقى عبارة عن ايه بقى من true positive true negative ودي
|
|
Manar
|
Lecture_10_part_1
| 33
|
اهو بس. عبارة عن الاربع حاجات اللي انت جايبهم. على اي اي اي عبارة عن الاربع حاجات اللي انت جايبهم اه تحت. وفوق الحاجات الtrue. الtrue positive والtrue negative مجموعين على بعض. تمام? طيب. بس الaccuracy دي قلنا مش معبرة. امتى? لو الclass imbalance dataset فساعاتها هستخدم الprecision والrecall.
|
|
Manar
|
Lecture_10_part_1
| 34
|
بيعبرلى احسن هو fraction positive prediction that actually positive هو يهتم انك لما تقول واحد يبقى واحد حقيقي يعني مدام قلت positive يبقى هو actually positive فهو بيهتم بtrue positive ان هو يعليها زي ما انا قلت لك وهو اه عبارة عن هو بيهتم بtrue positive ان هو يعليها وبالتالي هو عبارة عن
|
|
Manar
|
Lecture_10_part_1
| 35
|
الtrue positive على الtrue positive زائد الfalse positive تمام? بس. آآ ده القانون بتاعهم. يبقى تقدر تجيبه من الاربع حاجات. وده بيطلع طبعا يا اما رقم ما بين ال0 وال1. 0 هو اقل حاجة. معناه ان انت فاشل في التوقع بتاع الclass بتاع ال1 خالص.
|
|
Manar
|
Lecture_10_part_1
| 36
|
واحسن حاجة انه يطلع ب100% معناه ان انت بتتوقع كل الclass بتاع الones صح. اه هنا اهو precision انا عندي اهو هتطلع من هنا ايه? انت عندك اهو هتطلع الtrue positive والtrue negative فانت عندك هنا 4 correc
|
|
Manar
|
Lecture_10_part_1
| 37
|
و 2 mistake معناها أن true positive 4 وال true negative 2 فكده هيبقى 4 اللي هو true positive على true positive زائد true negative اللي هي على 4 زائد 2 اللي هي 6 4 على 6 تطلع 66% تمام طيب ال recall عكسها هو مهتم ان انت دايما للصفر تتوقعه ص
|
|
Manar
|
Lecture_10_part_1
| 38
|
هو مهتم اي هو fraction اه بيهتم بالnegative اه بيهتم بالnegative يعني ومعناها ان الpositive يبقى هو positive طيب
|
|
Manar
|
Lecture_10_part_1
| 39
|
سنقف positive آآآ ثانية ثانية ثانية ثانية ثانية ثانية ثانية الrecall هو عكس الpercision على طول عكس الpercision على طول آآآ ف
|
|
Manar
|
Lecture_10_part_1
| 40
|
اوكي الprecision ثانية الrecall اهو ايو ايو ايو بالظبط الrecall بيهتم بقى بالعكس يعني بعكس بتاع الprecision فيه اختلاف في القانون اهو انا مخدش بالي ان فيه اختلاف في القانون
|
|
Manar
|
Lecture_10_part_1
| 41
|
القانون بتاع ال recall اللي فوق true positive زي ال precision اللي تحت كان true positive زائد false positive ده في ال precision ال recall هنا بقى لا زائد ال false negative تمام لان هو عكس العكس اسمه ايه
|
|
Manar
|
Lecture_10_part_1
| 42
|
الprecision . تمام? وطبعا بيطلع رقم من 0 ل1. لو طلع 0 معناها ان انت worse. معناها ان انت اه اه ضايع يعني 1 يبقى انت بتتوقع اه صح. ازاي تحسبها? برضو بتجيب true positive وtrue negative وتروح تقوم حاطتهم وتطلع القيمة من
|
|
Manar
|
Lecture_10_part_1
| 43
|
القانون. تمام? طيب. الprecision والrecall بقى اه اه مع بعض. في models optimistic متفائل. بيقول كل الclasses 1 ماشاء الله عليه. بيقول كل الclasses 1 اي class قدامه بيقول 1 متفائل model متفائل.
|
|
Manar
|
Lecture_10_part_1
| 44
|
ساعتها ده الprecision بتاعه هيبقى كام 100% انت كده الprecision ما بقاش معبر تمام وفي model pessimistic.
pessimistic يعني بيقول على كل الclasses ان هي صفر تبع الصف
|
|
Manar
|
Lecture_10_part_1
| 45
|
صفر ان هي تبع الclass الnegative مثلا هو pessi غير متفائل. اللي هو في الحالة بتاعت 0 1 بيقول كله 0. فكده الprecision والrecall ما بقوش معابرين قوي. فازاي اقدر أbalance الprecision والrecall أbalanceهم من خلال ان انا دلوقتي بقى عندي
|
|
Manar
|
Lecture_10_part_1
| 46
|
trade off trade off لان انا مثلا انتو عارفين ثانية انتو عارفين ال precision وال recall يعني مثلا لو انا في مسابقة دلوقتي وعرفت ان المسابقة دي هي بي evaluate بناء على ال precision وانا عايز اعلي ال precision بتاعي عارف هعمل ايه في الmodel بتاعي هغير ايه في الmodel
|
|
Manar
|
Lecture_10_part_1
| 47
|
هغير في الmodel هعدل في الsigmoid function هbuild الmodel from scratch وعدل في الsigmoid function فاكر الsigmoid function كانت بتعمل classes بناء على ال probability اللي بتطلع لو أعلى من نص بيعتبرها واحد لو أقل من نص بيعتبرها صفر صح؟
|
|
Manar
|
Lecture_10_part_1
| 48
|
لا انا ممكن اعدل في الprobability دي زي المثال ده ده كده pessimistic model تمام وده optimistic model ليه لان ده pessimistic model بيقولك ما تقولش ان ال
|
|
Manar
|
Lecture_10_part_1
| 49
|
التوقع بتاعك الclass 1 غير لما الprobability بتاعتك تبقى اعلى من 0.9999 انت متخيل الاساسي كان انه اعلى من نص بيعتبر واحد قالك لا انت ما تقولش انه يبقى واحد غير لو اعلى ااااا
|
|
Manar
|
Lecture_10_part_1
| 50
|
من 0.999 ده كده pessimistic آآ algorithm algorithm متشائم الalgorithm المتشائم دي بقى عشان ما تلغبطش نفسك عشان أنا كلنا بنتلغبط في الprecision والrecall والحسابات دي احفظها يا معل
|
|
Manar
|
Lecture_10_part_1
| 51
|
الpessimistic اللي مش متفائل بيبقى عنده high precision يعني بيقول على كل حاجة one زي ما أنا قلت لك هو بيهتم منه دايما يقول one تمام أو بيهتم بالtrue positive عشان ما نتلغبطش بيهتم بالtrue positive وبيبقى عنده low record
|
|
Manar
|
Lecture_10_part_1
| 52
|
ال recall عنده بيبقى قليل وال precision عنده بيبقى عالي بي predict بي predict الpositive بس لما بيبقى متأكد ده اللي انا قلته لك بالملي هو ده شرح اللي انا قلته لك بالملي مش هقولت لك بيهتم بال true positive على الاخر خلينا نثبتين مثال علشان نبقى حافظين
|
|
Manar
|
Lecture_10_part_1
| 53
|
المثال بتاع الدكتور الprecision باهتم بيه ليه؟ علشان ما ينفعش أقول على حد اللي هو لما يبقى عنده one حد يبقى عنده cancer أنا لازم أقول إنه عنده cancer لما بقى متأكد 100% تمام؟ متأكد إنه عنده cancer فأقول له أنا بpredict الpositive بس
|
|
Manar
|
Lecture_10_part_1
| 54
|
لما بابقى متأكد. تمام? فبعلي اهو الthreshold. طب. الoptimistic بقى. المتفائل المتفائل بص راح اعدل لي في الfunction بدل ما كان اعلى من نص يبقى 1 اقل من نص يبقى 0. لا قالك خليه 1 لما يبقى اعلى من 0.00001 ز يعني ده تقريبا هيتوقع كلهم 1.
|
|
Manar
|
Lecture_10_part_1
| 55
|
متفائل. فده عنده low precision و high recall . ده بيتوقع الpositive في معظم الشغل بتاعه. في معظم الشغل بتاعه. ده انا متوقع تيجي عليه امثلة. محتاجة فهم. و ركز في الحتة دي انا متوقع انها تتلعب بها في الامتحان اه حاجات كتير.
|
|
Manar
|
Lecture_10_part_1
| 56
|
ومش عايزك تكون متلغبط ركز دلوقتي انا هلملك الدنيا حتى لو انت اتلغبطت من اللي فاتت انا هلملك الدنيا دلوقتي تمام طيب لو انا عندي مشروع المشروع ده عايز اتوقع معظم الحاجات اللي فيه one تبع class one
|
|
Manar
|
Lecture_10_part_1
| 57
|
هعمل ايه؟ هعمل optimistic model اللي هو عنده low precision و high recall تمام؟ طيب حلو قوي لو انا عندي مشروع عايز ماقولش اني الكلاس ده
|
|
Manar
|
Lecture_10_part_1
| 58
|
positive غير لما يبقى أنا متأكد فعلا أنه positive ساعتها هعمل المتشائم pessimistic classifier اللي هو عنده high precision وlow recall بس كده يا معلم تمام ومعاك الequation بتاعت ديه والequation بتاعت ديه فكك بقى من حتة بيزود علشان دي هتلغبطك
|
|
Manar
|
Lecture_10_part_1
| 59
|
حتى بيزود والtrue negative والtrue positive دي هطلغبطنا جامد ففكك منها ودي advanced ملاش علاقة. تمام? طيب. آآ خلاص فهمنا. طيب. انا عايز بقى أbalance بين الoptimistic وبين الpessimistic ده. انه ولا يبقى آآ متشائم اوى كده ولا متفائل اوى
|
|
Manar
|
Lecture_10_part_1
| 60
|
هنا بقى اتحكم او اظهر الF1 Score تمام? ده هو الفرق بين ده اللي الT ده اللى هو الthreshold لما كان الthreshold بنص كان هما بين الrecall و الprecision عادي جدا. هو هنا مثلا بص ممكن يقول لك انا بهتم بالF1
|
|
Manar
|
Lecture_10_part_1
| 61
|
انا دايما الbest classifier اه هو اللي ناحية اللي بياخد area اكبر. دي قاعدة. لما انا يبقى عندي اه graph ما بين الprecision والrecall. اللي الintegration بتاعته قيمته اكبر اللي هو لما الarea under the curve
|
|
Manar
|
Lecture_10_part_1
| 62
|
تبقى اكتر معناه ان الclassifier ده احسن. واتوقع دي تيجي بصور في الامتحان. يعني هنا احسن classifier A ولا احسنclassifier B. classifier B ليه? عشان الarea under the curve اكبر. طيب. لو جالي هنا مثلا. آآ دهclassifier A احسن ولا classifier B. احسن . آآ آآ آآ آآ اسف classifier A احسن ولا classifier C احسن.
|
|
Manar
|
Lecture_10_part_1
| 63
|
ما تقدرش تجاوب ليه هنا حصل زي trade off كده الclassifier C كان شغال زي الفل وأحسن لحد نقطة معينة من بعدها classifier A اتحسن عنده ساعتها ما قدرش احدد فساعتها بيعملوا ايه بقى وبيستخدموا ايه بيستخدموا حاجة اسمها multi modeling انهم بيستخدموا
|
|
Manar
|
Lecture_10_part_1
| 64
|
Model Model A في الperiod التانية دي او الجزئية التانية دي و C في الperiod الاولى فا زي كأن Model بيسلم Model Model بيtrain لحد ما يوصل هنا و Model بيكمل الtraining تمام طيب حلو قوي هنا بقى بيقولك ان الprecision لوحده مش معبر و الRecall لوحده مش مع
|
|
Manar
|
Lecture_10_part_1
| 65
|
معبر ليه علشان خاطر هنا مثلا الalgorithm ده بص الprecision فيه 0 tends to 0 لكن الrecall ب100% هنا الريكول برضه tends to 0 لكن الprecision 70%عالى هنا الprecision نص الrecall قريب منه برضه 0.4 فاساعتها الF1 score معبر و الF1 score
|
|
Manar
|
Lecture_10_part_1
| 66
|
لو انا خدت ال average ال average مش هيبقى معبر نهائي فباخد ال F1 score ال F1 score عبارة عن اتنين في ال precision في ال recall على ال precision زائد ال recall تمام فده بيطلع لي اهو قيم معبرة اني احسن algorithm هو الاولاني لانه هو اداني ال F1 score الاعلى وفعلا ده باين في الaccuracies اللي قدامي انه هو مهتم بال precision وال recall مع بعض علشان كده جاب اعلى F1 score
|
|
Manar
|
Lecture_10_part_1
| 67
|
لكن لما بيبقى في واحد منهم وقع سواء الprecision او الrecall واحد منهم وقع هتلاقي الF1 score وقع على الاخر تمام؟ كده خلصنا الجزئية دي ودي مهمة جدا 100% هيجعلها مسألة في الامتحان 100% هيجى عليها اسئلة فهم في الامتحان فخليني أrecap علشان لو انت متلخبط جزئية دي معلش لو انت متلخبط فيها اسمعك
|
|
Manar
|
Lecture_10_part_1
| 68
|
اول حاجة سيبك من حتة True Positive و True Negative لو ملغبطاك فكك منها خالص تعال نتكلم بقى بشغل تجميعي انا عندي Data Unbalance ساعتها ال accuracy مش معبرة اومال ايه اللى معبر ال precision و ال recall بس خد بالك ان ال precision و ال recall كل واحد لوحده مش معبر علشان كده بستخدم ال F1
|
|
Manar
|
Lecture_10_part_1
| 69
|
score حلو قوي.الprecision ايه مشكلته او ايه لأ هو بيحل مشكلة ايه? ان هو ما بيقولش 1 غير لما يبقى متأكد قوي. يعني معظم ال predictions بتاعته صفر معادة لو هو متأكد انه 1. علشان كده لو عمل الthreshold بدل نص هيخليه 0..
|
|
Manar
|
Lecture_10_part_1
| 70
|
طيب الrecal وده اللي بيتعمل اللي بيبقى high precision و low recall ده بيبقى في الmodel المتشائم الpessimistic طيب الrecall بقى الrecall هو معظم الحاجات بتاعته بيقول عليها ان هي
|
|
Manar
|
Lecture_10_part_1
| 71
|
يعني معظم الpredictions 1 بتاعته يعني نقدر نقول انه ما بيقولش على حاجة صفر غير لما تبقى فعلا صفر. ما هو بص عكس الprecision بالظبط. ما هو خلي بالك مشكلة الprecision و الrecall ان انت كل حاجة وعكسها كل حاجة وعكسها. فا ممكن تتلغبط عشان كده. فالrecall هو بيقول على كل حاجة 1.
|
|
Manar
|
Lecture_10_part_1
| 72
|
يعني ما بيقولش صفر غير بحساب زي ما الprecision ما بيقولش one غير بحساب معنى كده انه بيقول كل حاجة صفر معادة one بحساب والrecall بيقول كل حاجة one معادة الصفر بحساب وده بيحصل في الoptimistic بقى اللي هو المتفائل
|
|
Manar
|
Lecture_10_part_1
| 73
|
وطبعا ده بيبقى الthreshold قليل اووى 0.001 فعلشان كده انا بحاول ان انا اه طبعا اقدر اعمل ده اقدر اعمل ده او اهتم ده اهتم بدا طبعا على حسب الapplication بتاعي فيه applications تبقى مهتمة بالprecision زى الapplications الطبية وفيه applications تبقى مهتمة بالrecall زي ايه application تاني الspam ولا حاجة.
|
|
Manar
|
Lecture_10_part_1
| 74
|
اه الاتنين مع بعض بقى لو application عادى و انا مهتم بالاتنين مع بعض يبقى احسن لي استخدم الF1 score ومعانا الequations بتاعتهم كلهم اهم حاجة ان انت تجيب الconfusion matrix اللى هي بتبقى matrix 2*2 تجيب الاربع قيم الtrue positive false positive.
|
|
Manar
|
Lecture_10_part_1
| 75
|
true negative false negative وتحفظ أماكنهم الtrue معناها أن أنا توقعت صح واللي بيبقى بعد true أو بعد false هو دايماً الprediction بتاعي كان إيه فtrue positive معناها أن أنا قلت صح وهو كان positive
false positive معناها أن أنا قلت أنه positive وده كان توقع غلط وبالتالي هو في الحقيقة negative
|
|
Manar
|
Lecture_10_part_1
| 76
|
false negative معناها ان انا توقعت غلط وقلت ان هو negative ولكن هو في الحقيقة كان positive
true negative معناها ان انا توقعت صح وهو وقلت انه negative وهو فعلا كان negative وبمجرد ما اجيب الاربعة دول تقدر تحسب اي حاجة من الباقي كله كده اظن فرمنا الجزء ده هعمل في part تاني بقى الunsuper vis
|
|
Manar
|
Lecture_10_part_1
| 77
|
vised learning
|
|
Toka
|
lecture_4_part_two
| 0
|
طيب يلا بينا في جزء تاني جزء تاني هو مقدمة عن الclassification احنا قلنا ايه الفرق بين regression وclassification الregression بتوقع حاجة numerical الclassification بتوقع حاجة categorical بيقولك ان الdata بتخش على classifier وهو بيتوقع الoutput ايه الفرق ان هو بتوقع حاجة categorical
spam ولا not spam في حالة الemail كلب ولا قطة هل هي education ولا finance ولا technology يعني ممكن يبقى بين حاج
|
|
Manar
|
Lecture_1_part_one
| 0
|
السلام عليكم يا شباب اهلا بيكم ان شاء الله في اول lecture لينا في ال machine learning ان شاء الله المادة سهلة وبسيطة معتمدة mainly على ال AI اللي احنا خدناه في سنة ثانية ولكن حتى لو انت كان عندك مشاكل في الAI بتاع سنة ثانية يعني ما فيش مشاكل احنا هنعدي على كل حاجة ان شاء الله
|
|
Manar
|
Lecture_1_part_one
| 1
|
وهنشرحها بسهولة يعني بإذن الله مبدئيا المادة اللي هي تفصيل بقى عليها خمسين درجة هي فيها project وفيها hands on يعني اللي لازم تحضر لابات علشان عليها درجات hands on
|
|
Manar
|
Lecture_1_part_one
| 2
|
والتفاصيل بقى اللي هي العادية بتاعة كل مادة عملي دي. آآ بس كده. فخلينا نبدأ على طول. احنا بداية المنهج بالنسبة لنا آآ خليوا بالكوا صحيح ال machine learning و ال pattern recognition ده بالنسبة ل cs وده بالنسبة ل sc. الاتنين نفس الحاجة بالزبط. آآ نفس الشيء.
|
|
Manar
|
Lecture_1_part_one
| 3
|
اه فخلينا كده نبدأ بسم الله. بس يرجع كده هات لي الالم. بس تمام كده خلاص يرجعني. خلاص زي الفل. ده ماشي. بس تمام أأأأأ.
|
|
Manar
|
Lecture_1_part_one
| 4
|
بداية المنهج خالص خلينا نبدأ بقى دي الـ Office Hours او حد عايز يروح او حاجة لو عنده اي أسئلة خلينا نبدأ بقى المنهج على طول المنهج بدأ بتعريف الـ Artificial Intelligence الذكاء الاصطناعي لو انت فاكر من ساعة الـ AI احنا قلنا يعني ايه Artificial Intelligence قلنا والله دي حاجة
|
|
Manar
|
Lecture_1_part_one
| 5
|
انا في كلمة فاكرة قوي كانت key point كنت قولتك اول ما تسمع Artificial intelligence تفتكر الكلمة دي الكلمة دي كانت كلمة extend extend هو بيعمل حاجة يخلي الكمبيوتر يextend صفات الانسان هو كل اللي بيعمله ان هو بيورط
|
|
Manar
|
Lecture_1_part_one
| 6
|
ليس الا هو بيورث بيورث صفات الانسان ليه الmachine زي ايه زي انه يخليها تفكر يخليها تقدر تحسب يخليها تقدر تعمل كل الحاجات اللي الانسان بيعملها هو ده بقى ال Artificial Intelligence هو الذكاء الاصطناعية.
|
|
Manar
|
Lecture_1_part_one
| 7
|
تمام؟ تمام هنا بقى ده حتة extend دي محتاج تركز عليها لإن إحنا خدناها في مادة الـ AI ممكن الدكتور تجيبها كنوع من أنواع الاختلاف عن المحاضرات يعني ذات نفسها المحاضرات ادت التعريف تاني قالت لك إنه هو العلم الأساسي
|
|
Manar
|
Lecture_1_part_one
| 8
|
تمام هو اللي بيخلي اللي بيسمح للكمبيوتر انه هو يعمل function زي الانسان تمام function زي الانسان زي ايه زي الproblem solving وزي ال learning انه يتعلم وزي انه ياخد قرارات هو مجرد ان انت بيخلي الانسان بيخلي الmachine زي الانسان خلي بالك هو نفس المعنى اللي انا قلتولك فوق هو بيخليه ت extend
|
|
Manar
|
Lecture_1_part_one
| 9
|
هي بتورثها بتخليها بيورث الmacnine نفس صفات الانسان. تمام? طيب. الAI هو العلم الكبير اللي الmacnine learning جزء منه. تمام? اه لو فاكر الرسمة اللي هي كانت AI جواها machine learning جواها deep learning. اظن تيجي اهى.
|
|
Manar
|
Lecture_1_part_one
| 10
|
artificial intelligence ده science ده science اللي بي extend الhuman behavior للmachine تمام الmacnine learning هو علم subset من الartificial intelligence الdeep learning هو علم subset من الmachine learning
|
|
Manar
|
Lecture_1_part_one
| 11
|
علشان كده لازم تعدي بالcycleكاملة ما ينفعش تخش في ال deep learning من غير ما تكون عديت على الmachine learning . ال deep learning هو بيحل problems اكثر تعقيدا من الmachine learning وmainly هو بيتعامل مع مثلا الصور وال audio والفيديو والtext كده. لكن الmacnine learning ال traditional machine learningهو mainlyبيتعامل مع tabular data.
data عبارة عن tables فيها بيانات زي اللي شفناها في اللي
|
End of preview. Expand
in Data Studio
README.md exists but content is empty.
- Downloads last month
- 18