Dataset Viewer
Auto-converted to Parquet Duplicate
audio
audioduration (s)
2.26
30
member
stringclasses
4 values
video_id
stringclasses
16 values
chunk_id
int64
0
280
text
stringlengths
15
508
Manar
lecture_4_part_one
28
sorry اه اه حاجة اسمها L1 norm أو Lassu regression Lassu regression أو L1 norm ال coefficient اللي بيضربه في regularization term هو بيبقى معموله absolute تمام طيب
Manar
lecture_4_part_one
29
في نوع تاني من ال Regularization اسمه L2 Norm أو Ridge Regression ده ال Coefficient اللي انا بضربه في Regularization Term بيبقى Squared تمام؟ طيب تعالى نشوف بعد اهو بص ده بيبقى Squared بص بروح اجمعه على ال Cost Function
Manar
lecture_4_part_one
30
طيب وده اهو بص يعني ده مثلا ده نوع ايه لو قلتلك ده نوع ايه? Ridge regression بالظبط او L2 norm regression ليه? علشان انا دلوقتي عندي ال cost زودت عليه ال normalization factor او ال الregolarization factor sorry regolarization factor او اسمو tunn
Manar
lecture_4_part_one
31
لا ما اسموش tunning أنا اسف هنا بيقولك ان ده بتعملو tunning ليه عشان هو hyperparameter هو regularization term او regularization parameter مضروف فيه ال coefficient square في ساعاتها ده ridge طب لو ما كانش ال coefficient square فيه دي وكان هنا absolute ده ساعاتها كده lasso او L1 norm. تمام? ده ال hyperparameter اللي انت بتعملو
Manar
lecture_4_part_one
32
تمام? الcost function اهي? دي الcost function اهي بعد التعديل بعد ما حطت لها ال ridge regression ادي اهو الcost function اللي احنا عارفنا زودنا عليها regularization term مضروف في الcoefficient بتاعي square عشان كده ده Ridge لو كان absolute يبقى
Manar
lecture_4_part_one
33
lasso regression مش Ridge طبعا اللي اتنين ليهم مسميين مختلفين تانيين. اللي هو الL1 norm والL2. تمام? طيب. ده بيساعد في ايه? زي ما قلت لك. ان انا دلوقتي اه ال old solution هو اه انا ممكن احط دي برقم ب0. فيبقى هو هو.
Manar
lecture_4_part_one
34
او ان انا احطه ب infinity يبقى رقم كبير فيبدأ يقل او ان انا احطه بحاجة في النص عادي اه براحتك يعني ده hyperparameter في النهاية هو بيخش بقى جوه gradient descent و repeat ويحسن ويحسن في الweights دي ويحسن في الweights دي الweights المضروبة فى ال regularization term وهكذا
Manar
lecture_4_part_one
35
ليه؟ علشان خاطر يحاول ينزل للـ Minimum ويمنع الـ Overfitting ان يبقى الtrain ماشي في حتة و الtest ماشي في حتة انه يبقى حافظ الـ Data و بصمجة تمام طيب و دى فيديوهات اكتر الـ L1 و الـ L2 لو انت عايز تتعمق فيهم اكتر تمام ده كده الجزء الاول
Manar
lecture_4_part_one
36
فى فيديو تانى هنشرح الجزء التانى بتاع ال classification
Manar
Lecture_10_part_1
0
السلام عليكم يا شباب يلا بينا بقى في lecture 10 اللى قبل الاخيرة احنا هنا خلاص بنفنش المنهج فهنتكلم عن اخر concept فى ال classification خلاص ما فيش algorithms classification هنتتاخد تاني اه كده خلاص هنتكلم عن اخر نقطة فى ال classification وهي ال matrices
Manar
Lecture_10_part_1
1
باقدر أ evaluate بيها الclassification وبعد كده ناخد الalgorithm هو Unsupervised Unsupervised معناها ان الdata بتاعتي labeled ولا unlabeled unlabeled بالضبط انا ماعنديش labeled والهدف ان انا عامل دايما Clusters, Clustering وخلاص هناخد الK means وان شاء الله المحاضرة اللي جاية هناخد حاجة برضو Unsupervised بتعمل Dimensionality Reduction اسمها PC
Manar
Lecture_10_part_1
2
وكده نبقى خلصنا المنهج ان شاء الله. تعالي بقى اكلمك في ال evolution matrices بتاعت الclassification طبعا احنا كلنا عارفين الclassification عشان نعمل له evolution بنستخدم الaccuracy ولكن الaccuracy مش ادق حاجة. ليه? اه هي بتديني عامة ولكن اه مش خاصة يعني ايه
Manar
Lecture_10_part_1
3
بص سيبك من الهري ده. سيبك من الslides عشان هي وحشة انا هبقى اعدي عليها بس انا عايز اشرح لك هنا حاجة. بص نفترض ان انا دلوقتي الdata بتاعتي unbalance unbalance يعني الtarget بتاعي مكون من آآ مثلا class0 آآ 0
Manar
Lecture_10_part_1
4
0 0 0 1. انا مكنش rصد يبقى كتير كبير كده. استنوا. اهو. يا انا غبي. ماشي. 1 1. حلو. دي الlabel ده كده الcolumn بتاع الlabels. بتاعتي. عبارة عن شوية زيروهات.
Manar
Lecture_10_part_1
5
ووانين بس. دي كده الdata بتاعتي unbalance عندي اه اه حاجة اكتر من حاجة. حلو? طيب. الmodel ممكن يكون بيتوقع كله زروهات. وساعتها هيجيب accuracy عالية رغم انه فشل في توقع اي class من الواحد.
Manar
Lecture_10_part_1
6
ليه هيجيب accuracy عالية؟ علشان خاطر كده كده عدد الوحايد قليلة فكأن الmodel اتعود انه دايما يقول صفر بما ان عدد الوحيد قليلة فمش هيبقى فارقة معاه فحين بقى ان انا لو جبتلك test data الtest data فيها وحايد كتير انت هتعملك ساعتها كلها صفر تجيب accuracy
Manar
Lecture_10_part_1
7
23% والله حين تمام فساعتها انت كده فشلت ليه فشلت علشان خاطر انت ما عملتش الaccuracy ما كانتش معبرة كفاية عن ان الmodel بيperform ازاي انت اعتمدت على الaccuracy وهي ساعتها بperform هنا وحش جدا
Manar
Lecture_10_part_1
8
ليه بperform بقى وحش جدا علشان خطرت كده كده عدد الوحايد قليلة فالaccuracy ما كانتش معبرة طيب فطلعولنا 2 matrices جداد واحدة اسمها الpercision والتانية اسمها الrecall حلو اووى الrecall sorry الpercision
Manar
Lecture_10_part_1
9
الpercision هي بتركز ان انت لو قلت 1 يبقى هو فعلا واحد يعني بتركز ان انت دايما ما تغلطش في اي class 1
Manar
Lecture_10_part_1
10
يعني لو انت عدك class 0 و 1 لو قلت 1 يبقى هو 1 فعلا ماينفعش حد يبقى 1 وانت تقول عليه 0 ماينفعش هو بيركز اني دايما تتوقع كل الones صح هو بيركز ان انت تتوقع
Manar
Lecture_10_part_1
11
كل الones صح. تمام? طيب. يعني هو بيهتم بالtrue تتوقع صح. تتوقع صح ايه? ال1 اللي هي الpositive. هو بيهتم بالtrue positive جدا.
Manar
Lecture_10_part_1
12
انه يعليها. حلو? من خلال الequation بتاعته. هو ليه الequation بتاعته هنشوفها في الslides تمام? طيب.الrecall بقى. الrecall عكس الpercision هو بيهتم بانك لما تغلطش في اي zeros خالص. ممكن تغلط في ones عاد.
Manar
Lecture_10_part_1
13
بس هو يهتم ان انت ما تغلطش في اي class من الclasses بتاعت ال0. يعني هو بيهتم بالtrue ان انت تتوقع صح. بس الnegative ان انت تتوقع الnegative دايما صح. هو بيهتم بالtrue negative ان هو يعليها. تمام? حلو قوي. طيب.
Manar
Lecture_10_part_1
14
انا بقى علشان انا بحاول بقى امتى اهتم بالpercision مثلا والله لو دي حالة مرضية انا عندي مثلا application بيقول ده cancer ولا لا فانا عايز ابقى متأكد ان اللي هقول عليه ان انا مفيش حد يبقى عنده cancer يبقى true بتاعه انه 1 عنده cancer وانا روح اقول له انت ما عندك cancer
Manar
Lecture_10_part_1
15
كده ساعتها اا مشكلة لكن عادي بالنسبة لي ان لو واحد ما عندوش cancer قلت له عنده cancer عادي هيكتئب يعني شوية مش حوار لكن انا الاهم ان ما ينفعش واحد يبقى عنده cancer وانا اقول له لا يلي انه هيروح يكمل حياته طبيعية ويموت. تمام? طيب. الrecall عكسها.
Manar
Lecture_10_part_1
16
طيب في بقى evaluation matrix عبارة عن الpercision والrecall مع بعض في equation كأنه بيعمل balancing بين الpercision والrecall مع بعض اللي هو لو في application انا مش هممني ان الpercision هو اللي يبقى عالي او الrecall هو يبقى عالي عايز balance ما بينهم ان الاثنين يبقوا عالين ساعتها بقى بستخدم الevaluation matrix اللي هي الequation بتاعتها عبارة عن الاثنين مع بعض
Manar
Lecture_10_part_1
17
وهي F1 score هو F1 score معبرين عن الاثنين مع بعض علشان يبقى F1 score 100% لازم recall 100% و precision 100% علشان F1 score يبقى ب 0% لازم واحد منهم يبقى 0%
Manar
Lecture_10_part_1
18
لو الrecall ب0% ساعتها الـ F1 Score هيبقى ب0% حتى لو الpercision ب100% مدام واحد منهم ب0% الـ F1 Score هيبقى ب0% لإنه بيهتم بالاتنين يهتم أن بالاتنين يكونوا بيعبر عن بالاتنين يعني عن قيمة بالاتنين الbalance اللى ما بينهم تمام طيب
Manar
Lecture_10_part_1
19
حلو قوي. تعالى بقى نشوف كده بتقول ايه? هو هنا بيقول لك ان ما كانتش معبرة في حالة الunbalance ان انا اه هنا انا بclassify بينpositive وnegative. ان انا ممكن 90% من ال sentences انا قلت عليهم negative وهم اصلا علشان data بتاعتي كانت unbalance في حصل مشكلة.
Manar
Lecture_10_part_1
20
فساعتها الأحسن أن أنا كنت أطلع الpercision والrecall الpercision بتعرفني معلومة أنا قد إيه هو قد إيه أنا غلط في showing بتاع الnegative sentences هنا ده مثال يعني هو بيقول يا positive sentence يا negative sentence الrecall بيقول أنا قد إيه
Manar
Lecture_10_part_1
21
عملت حلو للpositive sentences تمام طيب ده نفس الكلام اللي احنا قلناه بس بالعكس يعني مثلا هنا انا بقولك هو بيهتم ان الtrue positive يبقى عالي مدام هو بيهتم ان الtrue positive يبقى عالي قلتلك ان هو ما بيهتمش مش فرق معا بقى اللي اصفار فهو هنا بيقولك ان الpercision مش مهتم بالاصفار مش فارقه معاه
Manar
Lecture_10_part_1
22
هو بيحسب قدي انا غلطت في الاصفار عادي. اه الrecall عكسه. فاهمني? بس فما تلغبطش نفسك يعني. هي كده. تمام. طيب. حلو. نيجي من هنا بقى الconfusion matrix احنا خدناها فيالAI. الconfusion matrix هي بتبقى matrix 4 ف4. 4 ف4. لو هي 2classes. اه لو هي 2class.
Manar
Lecture_10_part_1
23
تمام? انا عندي هنا هم 4 ف4 هنا وهنا الpredication. هنا انت بقى بتبقى متقسم 4 كده. عندك هنا الtrue positive تمام? الترتيب مهم تحفظه. تمام?
Manar
Lecture_10_part_1
24
هنا الfalse negative يبقى هنا الfalse حلو قوي هنا مش الfalse اصلا هنا true negative وهنا الfalse positive دي اي classification لازم ترسم الmatrix دي
Manar
Lecture_10_part_1
25
هنا الprediction هنا الtrue value وتقوم كاتب بقى قيمة true positive false negative false positive false negative ومنها تقدر تحسب الprecision بالقانون الrecall بالقانون ال f1 score مدام جبت الprecision والrecall وكمان الaccuracy تمام بمجرد ما جيب الـ 4
Manar
Lecture_10_part_1
26
طيب ايه الtrue positive الtrue positive هو الحاجات اللي انا توقعتها صح وهي كان الclass بتاع اه اه اه انا توقعتها صح وتوقعت الclass بتاعها ان هو 1 تمام? طيب حلو اووى يعني هي اصلا كانت ثانية خلينا هنا علشان هنا مكتوب احسن هنا الtrue positive
Manar
Lecture_10_part_1
27
أنا توقعت صح أنا توقعتها أن هي positive وهي فعلا كانت positive طيب true negative أنا توقعتها صح أن هي negative وهي كانت negative تمام هنا اللي هي false positive false معناها أنا توقعت غلط توقعت غلط
Manar
Lecture_10_part_1
28
والتوقع بتاعي ان انا قلت ان هي positive ولكن هي كانت negative تمام يبقى انا دايما الpositive والnegative اللي بيبقوا بعد الكلمة دول دول الprediction بتاعي انا قلت عليها ايه true او false بتقولك انت بقى توقعت صح ولا غلط فهنا false معناها ان انا توقعت غلط
Manar
Lecture_10_part_1
29
طيب التوقع بتاعك ايه?positive معنى كده ان انت تفهم ان true ايه الtrue بتاع الsample دي ايه? ان هو كان negative عشان انت توقعته غلط وقلت ان positive هو يبقى هو اكيد كان negative تمام? طيب false negative معنى الfalse ان انا توقعت غلط وقلت ايه? negative تمام? بس يبقى هنا true توقعت صح وقلت عليها ايه? قلت posi
Manar
Lecture_10_part_1
30
هنا توقعت غلط وقلت عليها ايه قلت positive هنا قلت عليها صح وقلت ايه قلت negative هنا توقعت غلط وقلت عليها ايه negative تمام طيب لو هي true يبقى اللي انت قلته هو هو الحقيقي لو هي false يبقى انت اللي انت قلته ده عكس الحقيقي دي ال confusion matrix وده ش
Manar
Lecture_10_part_1
31
الاربعة دول واتوقع انها تيجي في الامتحان طبعا تركز ايه اللي بببب الcorrectly الcorrectly معناها بص هي في كلمات هي دايما هيجي لك بص انت دايما هيجي لك جملة دي هقول لك عشان ما تنساش شوف اول كلمة لو correctly يبقى true تعرف اول
Manar
Lecture_10_part_1
32
لو incorrectly يبقى false تمام تشوف بقى التانية لو positive يبقى positive لو negative يبقى negative بديهيات بس خلاص جهت في الإجابة طيب الaccuracy الaccuracy هي عبارة عن number of correct predictions على total predictions صح اللي هي بقى عبارة عن ايه بقى من true positive true negative ودي
Manar
Lecture_10_part_1
33
اهو بس. عبارة عن الاربع حاجات اللي انت جايبهم. على اي اي اي عبارة عن الاربع حاجات اللي انت جايبهم اه تحت. وفوق الحاجات الtrue. الtrue positive والtrue negative مجموعين على بعض. تمام? طيب. بس الaccuracy دي قلنا مش معبرة. امتى? لو الclass imbalance dataset فساعاتها هستخدم الprecision والrecall.
Manar
Lecture_10_part_1
34
بيعبرلى احسن هو fraction positive prediction that actually positive هو يهتم انك لما تقول واحد يبقى واحد حقيقي يعني مدام قلت positive يبقى هو actually positive فهو بيهتم بtrue positive ان هو يعليها زي ما انا قلت لك وهو اه عبارة عن هو بيهتم بtrue positive ان هو يعليها وبالتالي هو عبارة عن
Manar
Lecture_10_part_1
35
الtrue positive على الtrue positive زائد الfalse positive تمام? بس. آآ ده القانون بتاعهم. يبقى تقدر تجيبه من الاربع حاجات. وده بيطلع طبعا يا اما رقم ما بين ال0 وال1. 0 هو اقل حاجة. معناه ان انت فاشل في التوقع بتاع الclass بتاع ال1 خالص.
Manar
Lecture_10_part_1
36
واحسن حاجة انه يطلع ب100% معناه ان انت بتتوقع كل الclass بتاع الones صح. اه هنا اهو precision انا عندي اهو هتطلع من هنا ايه? انت عندك اهو هتطلع الtrue positive والtrue negative فانت عندك هنا 4 correc
Manar
Lecture_10_part_1
37
و 2 mistake معناها أن true positive 4 وال true negative 2 فكده هيبقى 4 اللي هو true positive على true positive زائد true negative اللي هي على 4 زائد 2 اللي هي 6 4 على 6 تطلع 66% تمام طيب ال recall عكسها هو مهتم ان انت دايما للصفر تتوقعه ص
Manar
Lecture_10_part_1
38
هو مهتم اي هو fraction اه بيهتم بالnegative اه بيهتم بالnegative يعني ومعناها ان الpositive يبقى هو positive طيب
Manar
Lecture_10_part_1
39
سنقف positive آآآ ثانية ثانية ثانية ثانية ثانية ثانية ثانية الrecall هو عكس الpercision على طول عكس الpercision على طول آآآ ف
Manar
Lecture_10_part_1
40
اوكي الprecision ثانية الrecall اهو ايو ايو ايو بالظبط الrecall بيهتم بقى بالعكس يعني بعكس بتاع الprecision فيه اختلاف في القانون اهو انا مخدش بالي ان فيه اختلاف في القانون
Manar
Lecture_10_part_1
41
القانون بتاع ال recall اللي فوق true positive زي ال precision اللي تحت كان true positive زائد false positive ده في ال precision ال recall هنا بقى لا زائد ال false negative تمام لان هو عكس العكس اسمه ايه
Manar
Lecture_10_part_1
42
الprecision . تمام? وطبعا بيطلع رقم من 0 ل1. لو طلع 0 معناها ان انت worse. معناها ان انت اه اه ضايع يعني 1 يبقى انت بتتوقع اه صح. ازاي تحسبها? برضو بتجيب true positive وtrue negative وتروح تقوم حاطتهم وتطلع القيمة من
Manar
Lecture_10_part_1
43
القانون. تمام? طيب. الprecision والrecall بقى اه اه مع بعض. في models optimistic متفائل. بيقول كل الclasses 1 ماشاء الله عليه. بيقول كل الclasses 1 اي class قدامه بيقول 1 متفائل model متفائل.
Manar
Lecture_10_part_1
44
ساعتها ده الprecision بتاعه هيبقى كام 100% انت كده الprecision ما بقاش معبر تمام وفي model pessimistic. pessimistic يعني بيقول على كل الclasses ان هي صفر تبع الصف
Manar
Lecture_10_part_1
45
صفر ان هي تبع الclass الnegative مثلا هو pessi غير متفائل. اللي هو في الحالة بتاعت 0 1 بيقول كله 0. فكده الprecision والrecall ما بقوش معابرين قوي. فازاي اقدر أbalance الprecision والrecall أbalanceهم من خلال ان انا دلوقتي بقى عندي
Manar
Lecture_10_part_1
46
trade off trade off لان انا مثلا انتو عارفين ثانية انتو عارفين ال precision وال recall يعني مثلا لو انا في مسابقة دلوقتي وعرفت ان المسابقة دي هي بي evaluate بناء على ال precision وانا عايز اعلي ال precision بتاعي عارف هعمل ايه في الmodel بتاعي هغير ايه في الmodel
Manar
Lecture_10_part_1
47
هغير في الmodel هعدل في الsigmoid function هbuild الmodel from scratch وعدل في الsigmoid function فاكر الsigmoid function كانت بتعمل classes بناء على ال probability اللي بتطلع لو أعلى من نص بيعتبرها واحد لو أقل من نص بيعتبرها صفر صح؟
Manar
Lecture_10_part_1
48
لا انا ممكن اعدل في الprobability دي زي المثال ده ده كده pessimistic model تمام وده optimistic model ليه لان ده pessimistic model بيقولك ما تقولش ان ال
Manar
Lecture_10_part_1
49
التوقع بتاعك الclass 1 غير لما الprobability بتاعتك تبقى اعلى من 0.9999 انت متخيل الاساسي كان انه اعلى من نص بيعتبر واحد قالك لا انت ما تقولش انه يبقى واحد غير لو اعلى ااااا
Manar
Lecture_10_part_1
50
من 0.999 ده كده pessimistic آآ algorithm algorithm متشائم الalgorithm المتشائم دي بقى عشان ما تلغبطش نفسك عشان أنا كلنا بنتلغبط في الprecision والrecall والحسابات دي احفظها يا معل
Manar
Lecture_10_part_1
51
الpessimistic اللي مش متفائل بيبقى عنده high precision يعني بيقول على كل حاجة one زي ما أنا قلت لك هو بيهتم منه دايما يقول one تمام أو بيهتم بالtrue positive عشان ما نتلغبطش بيهتم بالtrue positive وبيبقى عنده low record
Manar
Lecture_10_part_1
52
ال recall عنده بيبقى قليل وال precision عنده بيبقى عالي بي predict بي predict الpositive بس لما بيبقى متأكد ده اللي انا قلته لك بالملي هو ده شرح اللي انا قلته لك بالملي مش هقولت لك بيهتم بال true positive على الاخر خلينا نثبتين مثال علشان نبقى حافظين
Manar
Lecture_10_part_1
53
المثال بتاع الدكتور الprecision باهتم بيه ليه؟ علشان ما ينفعش أقول على حد اللي هو لما يبقى عنده one حد يبقى عنده cancer أنا لازم أقول إنه عنده cancer لما بقى متأكد 100% تمام؟ متأكد إنه عنده cancer فأقول له أنا بpredict الpositive بس
Manar
Lecture_10_part_1
54
لما بابقى متأكد. تمام? فبعلي اهو الthreshold. طب. الoptimistic بقى. المتفائل المتفائل بص راح اعدل لي في الfunction بدل ما كان اعلى من نص يبقى 1 اقل من نص يبقى 0. لا قالك خليه 1 لما يبقى اعلى من 0.00001 ز يعني ده تقريبا هيتوقع كلهم 1.
Manar
Lecture_10_part_1
55
متفائل. فده عنده low precision و high recall . ده بيتوقع الpositive في معظم الشغل بتاعه. في معظم الشغل بتاعه. ده انا متوقع تيجي عليه امثلة. محتاجة فهم. و ركز في الحتة دي انا متوقع انها تتلعب بها في الامتحان اه حاجات كتير.
Manar
Lecture_10_part_1
56
ومش عايزك تكون متلغبط ركز دلوقتي انا هلملك الدنيا حتى لو انت اتلغبطت من اللي فاتت انا هلملك الدنيا دلوقتي تمام طيب لو انا عندي مشروع المشروع ده عايز اتوقع معظم الحاجات اللي فيه one تبع class one
Manar
Lecture_10_part_1
57
هعمل ايه؟ هعمل optimistic model اللي هو عنده low precision و high recall تمام؟ طيب حلو قوي لو انا عندي مشروع عايز ماقولش اني الكلاس ده
Manar
Lecture_10_part_1
58
positive غير لما يبقى أنا متأكد فعلا أنه positive ساعتها هعمل المتشائم pessimistic classifier اللي هو عنده high precision وlow recall بس كده يا معلم تمام ومعاك الequation بتاعت ديه والequation بتاعت ديه فكك بقى من حتة بيزود علشان دي هتلغبطك
Manar
Lecture_10_part_1
59
حتى بيزود والtrue negative والtrue positive دي هطلغبطنا جامد ففكك منها ودي advanced ملاش علاقة. تمام? طيب. آآ خلاص فهمنا. طيب. انا عايز بقى أbalance بين الoptimistic وبين الpessimistic ده. انه ولا يبقى آآ متشائم اوى كده ولا متفائل اوى
Manar
Lecture_10_part_1
60
هنا بقى اتحكم او اظهر الF1 Score تمام? ده هو الفرق بين ده اللي الT ده اللى هو الthreshold لما كان الthreshold بنص كان هما بين الrecall و الprecision عادي جدا. هو هنا مثلا بص ممكن يقول لك انا بهتم بالF1
Manar
Lecture_10_part_1
61
انا دايما الbest classifier اه هو اللي ناحية اللي بياخد area اكبر. دي قاعدة. لما انا يبقى عندي اه graph ما بين الprecision والrecall. اللي الintegration بتاعته قيمته اكبر اللي هو لما الarea under the curve
Manar
Lecture_10_part_1
62
تبقى اكتر معناه ان الclassifier ده احسن. واتوقع دي تيجي بصور في الامتحان. يعني هنا احسن classifier A ولا احسنclassifier B. classifier B ليه? عشان الarea under the curve اكبر. طيب. لو جالي هنا مثلا. آآ دهclassifier A احسن ولا classifier B. احسن . آآ آآ آآ آآ اسف classifier A احسن ولا classifier C احسن.
Manar
Lecture_10_part_1
63
ما تقدرش تجاوب ليه هنا حصل زي trade off كده الclassifier C كان شغال زي الفل وأحسن لحد نقطة معينة من بعدها classifier A اتحسن عنده ساعتها ما قدرش احدد فساعتها بيعملوا ايه بقى وبيستخدموا ايه بيستخدموا حاجة اسمها multi modeling انهم بيستخدموا
Manar
Lecture_10_part_1
64
Model Model A في الperiod التانية دي او الجزئية التانية دي و C في الperiod الاولى فا زي كأن Model بيسلم Model Model بيtrain لحد ما يوصل هنا و Model بيكمل الtraining تمام طيب حلو قوي هنا بقى بيقولك ان الprecision لوحده مش معبر و الRecall لوحده مش مع
Manar
Lecture_10_part_1
65
معبر ليه علشان خاطر هنا مثلا الalgorithm ده بص الprecision فيه 0 tends to 0 لكن الrecall ب100% هنا الريكول برضه tends to 0 لكن الprecision 70%عالى هنا الprecision نص الrecall قريب منه برضه 0.4 فاساعتها الF1 score معبر و الF1 score
Manar
Lecture_10_part_1
66
لو انا خدت ال average ال average مش هيبقى معبر نهائي فباخد ال F1 score ال F1 score عبارة عن اتنين في ال precision في ال recall على ال precision زائد ال recall تمام فده بيطلع لي اهو قيم معبرة اني احسن algorithm هو الاولاني لانه هو اداني ال F1 score الاعلى وفعلا ده باين في الaccuracies اللي قدامي انه هو مهتم بال precision وال recall مع بعض علشان كده جاب اعلى F1 score
Manar
Lecture_10_part_1
67
لكن لما بيبقى في واحد منهم وقع سواء الprecision او الrecall واحد منهم وقع هتلاقي الF1 score وقع على الاخر تمام؟ كده خلصنا الجزئية دي ودي مهمة جدا 100% هيجعلها مسألة في الامتحان 100% هيجى عليها اسئلة فهم في الامتحان فخليني أrecap علشان لو انت متلخبط جزئية دي معلش لو انت متلخبط فيها اسمعك
Manar
Lecture_10_part_1
68
اول حاجة سيبك من حتة True Positive و True Negative لو ملغبطاك فكك منها خالص تعال نتكلم بقى بشغل تجميعي انا عندي Data Unbalance ساعتها ال accuracy مش معبرة اومال ايه اللى معبر ال precision و ال recall بس خد بالك ان ال precision و ال recall كل واحد لوحده مش معبر علشان كده بستخدم ال F1
Manar
Lecture_10_part_1
69
score حلو قوي.الprecision ايه مشكلته او ايه لأ هو بيحل مشكلة ايه? ان هو ما بيقولش 1 غير لما يبقى متأكد قوي. يعني معظم ال predictions بتاعته صفر معادة لو هو متأكد انه 1. علشان كده لو عمل الthreshold بدل نص هيخليه 0..
Manar
Lecture_10_part_1
70
طيب الrecal وده اللي بيتعمل اللي بيبقى high precision و low recall ده بيبقى في الmodel المتشائم الpessimistic طيب الrecall بقى الrecall هو معظم الحاجات بتاعته بيقول عليها ان هي
Manar
Lecture_10_part_1
71
يعني معظم الpredictions 1 بتاعته يعني نقدر نقول انه ما بيقولش على حاجة صفر غير لما تبقى فعلا صفر. ما هو بص عكس الprecision بالظبط. ما هو خلي بالك مشكلة الprecision و الrecall ان انت كل حاجة وعكسها كل حاجة وعكسها. فا ممكن تتلغبط عشان كده. فالrecall هو بيقول على كل حاجة 1.
Manar
Lecture_10_part_1
72
يعني ما بيقولش صفر غير بحساب زي ما الprecision ما بيقولش one غير بحساب معنى كده انه بيقول كل حاجة صفر معادة one بحساب والrecall بيقول كل حاجة one معادة الصفر بحساب وده بيحصل في الoptimistic بقى اللي هو المتفائل
Manar
Lecture_10_part_1
73
وطبعا ده بيبقى الthreshold قليل اووى 0.001 فعلشان كده انا بحاول ان انا اه طبعا اقدر اعمل ده اقدر اعمل ده او اهتم ده اهتم بدا طبعا على حسب الapplication بتاعي فيه applications تبقى مهتمة بالprecision زى الapplications الطبية وفيه applications تبقى مهتمة بالrecall زي ايه application تاني الspam ولا حاجة.
Manar
Lecture_10_part_1
74
اه الاتنين مع بعض بقى لو application عادى و انا مهتم بالاتنين مع بعض يبقى احسن لي استخدم الF1 score ومعانا الequations بتاعتهم كلهم اهم حاجة ان انت تجيب الconfusion matrix اللى هي بتبقى matrix 2*2 تجيب الاربع قيم الtrue positive false positive.
Manar
Lecture_10_part_1
75
true negative false negative وتحفظ أماكنهم الtrue معناها أن أنا توقعت صح واللي بيبقى بعد true أو بعد false هو دايماً الprediction بتاعي كان إيه فtrue positive معناها أن أنا قلت صح وهو كان positive false positive معناها أن أنا قلت أنه positive وده كان توقع غلط وبالتالي هو في الحقيقة negative
Manar
Lecture_10_part_1
76
false negative معناها ان انا توقعت غلط وقلت ان هو negative ولكن هو في الحقيقة كان positive true negative معناها ان انا توقعت صح وهو وقلت انه negative وهو فعلا كان negative وبمجرد ما اجيب الاربعة دول تقدر تحسب اي حاجة من الباقي كله كده اظن فرمنا الجزء ده هعمل في part تاني بقى الunsuper vis
Manar
Lecture_10_part_1
77
vised learning
Toka
lecture_4_part_two
0
طيب يلا بينا في جزء تاني جزء تاني هو مقدمة عن الclassification احنا قلنا ايه الفرق بين regression وclassification الregression بتوقع حاجة numerical الclassification بتوقع حاجة categorical بيقولك ان الdata بتخش على classifier وهو بيتوقع الoutput ايه الفرق ان هو بتوقع حاجة categorical spam ولا not spam في حالة الemail كلب ولا قطة هل هي education ولا finance ولا technology يعني ممكن يبقى بين حاج
Manar
Lecture_1_part_one
0
السلام عليكم يا شباب اهلا بيكم ان شاء الله في اول lecture لينا في ال machine learning ان شاء الله المادة سهلة وبسيطة معتمدة mainly على ال AI اللي احنا خدناه في سنة ثانية ولكن حتى لو انت كان عندك مشاكل في الAI بتاع سنة ثانية يعني ما فيش مشاكل احنا هنعدي على كل حاجة ان شاء الله
Manar
Lecture_1_part_one
1
وهنشرحها بسهولة يعني بإذن الله مبدئيا المادة اللي هي تفصيل بقى عليها خمسين درجة هي فيها project وفيها hands on يعني اللي لازم تحضر لابات علشان عليها درجات hands on
Manar
Lecture_1_part_one
2
والتفاصيل بقى اللي هي العادية بتاعة كل مادة عملي دي. آآ بس كده. فخلينا نبدأ على طول. احنا بداية المنهج بالنسبة لنا آآ خليوا بالكوا صحيح ال machine learning و ال pattern recognition ده بالنسبة ل cs وده بالنسبة ل sc. الاتنين نفس الحاجة بالزبط. آآ نفس الشيء.
Manar
Lecture_1_part_one
3
اه فخلينا كده نبدأ بسم الله. بس يرجع كده هات لي الالم. بس تمام كده خلاص يرجعني. خلاص زي الفل. ده ماشي. بس تمام أأأأأ.
Manar
Lecture_1_part_one
4
بداية المنهج خالص خلينا نبدأ بقى دي الـ Office Hours او حد عايز يروح او حاجة لو عنده اي أسئلة خلينا نبدأ بقى المنهج على طول المنهج بدأ بتعريف الـ Artificial Intelligence الذكاء الاصطناعي لو انت فاكر من ساعة الـ AI احنا قلنا يعني ايه Artificial Intelligence قلنا والله دي حاجة
Manar
Lecture_1_part_one
5
انا في كلمة فاكرة قوي كانت key point كنت قولتك اول ما تسمع Artificial intelligence تفتكر الكلمة دي الكلمة دي كانت كلمة extend extend هو بيعمل حاجة يخلي الكمبيوتر يextend صفات الانسان هو كل اللي بيعمله ان هو بيورط
Manar
Lecture_1_part_one
6
ليس الا هو بيورث بيورث صفات الانسان ليه الmachine زي ايه زي انه يخليها تفكر يخليها تقدر تحسب يخليها تقدر تعمل كل الحاجات اللي الانسان بيعملها هو ده بقى ال Artificial Intelligence هو الذكاء الاصطناعية.
Manar
Lecture_1_part_one
7
تمام؟ تمام هنا بقى ده حتة extend دي محتاج تركز عليها لإن إحنا خدناها في مادة الـ AI ممكن الدكتور تجيبها كنوع من أنواع الاختلاف عن المحاضرات يعني ذات نفسها المحاضرات ادت التعريف تاني قالت لك إنه هو العلم الأساسي
Manar
Lecture_1_part_one
8
تمام هو اللي بيخلي اللي بيسمح للكمبيوتر انه هو يعمل function زي الانسان تمام function زي الانسان زي ايه زي الproblem solving وزي ال learning انه يتعلم وزي انه ياخد قرارات هو مجرد ان انت بيخلي الانسان بيخلي الmachine زي الانسان خلي بالك هو نفس المعنى اللي انا قلتولك فوق هو بيخليه ت extend
Manar
Lecture_1_part_one
9
هي بتورثها بتخليها بيورث الmacnine نفس صفات الانسان. تمام? طيب. الAI هو العلم الكبير اللي الmacnine learning جزء منه. تمام? اه لو فاكر الرسمة اللي هي كانت AI جواها machine learning جواها deep learning. اظن تيجي اهى.
Manar
Lecture_1_part_one
10
artificial intelligence ده science ده science اللي بي extend الhuman behavior للmachine تمام الmacnine learning هو علم subset من الartificial intelligence الdeep learning هو علم subset من الmachine learning
Manar
Lecture_1_part_one
11
علشان كده لازم تعدي بالcycleكاملة ما ينفعش تخش في ال deep learning من غير ما تكون عديت على الmachine learning . ال deep learning هو بيحل problems اكثر تعقيدا من الmachine learning وmainly هو بيتعامل مع مثلا الصور وال audio والفيديو والtext كده. لكن الmacnine learning ال traditional machine learningهو mainlyبيتعامل مع tabular data. data عبارة عن tables فيها بيانات زي اللي شفناها في اللي
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
18