אורי גורן ותמיר נווה מדברים על Machine Learning ואתגרים בתעשייה עם מומחים מהתחום.
E
ExplAInable

1
Novel Class Discovery זיו פרוינד על
22:03
22:03
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
22:03
בפרק זה אירחנו את זיו פרוינד שהכיר לנו מונח חדש לבעיה נפוצה. מכירים את זה שאימנתם מודל שעובד מעולה כשמסווגים 10 מחלקות, אבל פתאום כשמגיעים לשטח מגלים שיש עוד 12 מחלקות שלא חשבתם עליהם ומבלבלות את המודל ? זיו יספר על נסיונו בסיווג סיגנלים באלביט, ויספר על גישות לפתרון הבעיה. נשמע לכם כמו קלאסטרינג ? גם לנו - נדבר על ההבדלים ועל שימוש בשיטות כמו Cont…
E
ExplAInable

1
Multi-Task Learning עם איתי מרגולין
18:17
18:17
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
18:17
בפרק זה נראיין את איתי מרגולין על אחת הטכניקות הפרקטיות בתעשייה שכל עסקן דיפ לרנינג חייב להכיר. מולטי-טאסק זו למידה של מספר משימות במקביל, ולמרות שהמונח קיים כבר עשרות שנים, הוא זכה להכרה מחדש עם פרוץ דיפ לחיינו. נדבר על מתי למידה של מספר משימות מועילה, מתי היא מזיקה ? מה ההבדל מולTransfer learning ?ואיך משלבים כמה מטרות לפונקציית לוס אחת…
כמשתמשים אנחנו נחפשים למערכות המלצה כל הזמן, בין אם זה בסופר בקניות או בגלילת סרטים בנטפליקס. בפרק זה נדבר עם דנה, על איך טאבולה, ענקית ההמלצות העולמית ממליצה לנו על כתבות דומות כשאנחנו גולשים באינטרנט. נדבר על המלצות מבוססות תוכן בלבד content filtering המלצות מבוססות אינטראקציות בלבד, בהשראת פרס נטפליקס 2009 collaborative filtering ונדבר על מימושי…
בפרק זה נדבר על זיהוי אובייקטים בתמונה, ונארח את אברהם רביב - דוקטורנט בתחום בבר אילן ופעיל מאוד בקהילה עם הסקירות המעולות שלו. נדבר על בעיות בראיה ממוחשבת, מקלאסיפיקציה, דרך זיהוי אובייקטים ועד סגמנטציה - ועל הקושי בתיוג. זיהוי אובייקטים יכול להיות ממודל או כבעיה דו שלבית, הכוללת שלב נקודות עניין ואז קלאסיפיקציה או יחדיו - ונזכיר את YOLO שהיה מודל…
E
ExplAInable

1
Defusion Denoising Models עם מייק ארליכסון
29:19
29:19
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
29:19
ראיון מיוחד עם מייק ארליכסון האחד והיחיד על מודל גנרטיבי "חדש". Diffusion Modelsהם שיטה חדש לפעפוע רעש, ואימון מודל להפוך רעש על ידי סדרה של מודלים לתמונות סופר איכותיות. נדבר על המאמר: Diffusion models beat gans on image synthesis שמראה שמודלי דיפוזיה מצליחים להביס מודלים קודמים כגון GANs.ונסקור את המטריקות לאיכות תמונה שנבדקו, כמו כן נדבר על החסר…
בפרק זה נדבר עם אורן רזון שמוביל את superwise על שלושת השלבים של דיפלוימנט של מודלי למידת מכונה. נדבר על מה יכול להשתבש בפרודקשן כשמודל מתיישן והעולם מתיישן, ואיך ניתן להיות עם יד על הדופק עםMonitoring קישורים רלוונטים: Building your MLOps roadmap Build or buy? Choosing the right strategy for your model observabilitySuperwise Community Edition…
E
ExplAInable

1
Machine Learning Engineering עם אסף פנחסי
42:35
42:35
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
42:35
למידת מכונה נורא כיפית ופשוטה כשמורידים מחברת מקאגל וכל הדאטא יושב בקובץ על המחשב ליד, אבל בחיים האמיתיים המצב לא כ"כ פשוט. בפרק זה אסף פנחסי (יועץ בתחום, בוגר פייפל ובכיר בזברה מדיקל לש') לספר לנו על החיים האמיתיים. שאלנו את אסף את כל השאלות הקשות: מחברות או קוד ? האם feature store זה משהו שאנחנו צריכים, ומתי הוא לא מתאים ? וכמובן, מה ההבדל בין ML…
סטטיסטיקאים נחצים ל2 מחנות: הסטטיסטיקאים הקלאסיים-תדירותיים, והסטטיסטיקאים הבייסיאנים. סטטיסטיקה בייסיאנית היא גישה שונה לסטטיסטיקה, שמנסה לדון בסבירות לא רק של הדאטא הנצפה בהנתן השערה, אלא גם בסבירות של הפרמטרים של ההתפלגות. מודלים רבים כגון GMM, Naive Bayes ו Latent Dirrechlet allocation מתבססים על סטטיסטיקה בייסיאנית, ולאחרונה גם רשתות נוירונים …
בפרק זה אירחנו את ברק אור לספר לנו על ניווט אינרציאלי. כשאנחנו חושבים על ניווט, אנחנו חושבים על גוגל מאפס, ווייז ושלל אפליקציות שמשתמשות ב GPS. אבל לג'י פי אס יש מגבלות, ויש דרכים נוספות לנווט - כגון מדדי תאוצה, מהירות ומצפן. ברק יספר לנו על אלגוריתם קלמן פילטר ששרד את מבחן הזמן ועל הרחבות שלו עם למידת מכונה.…
E
ExplAInable

1
על בינה מלאכותית בסייבר עם רועי טבח
15:36
15:36
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
15:36
בפרק זה ראיינו את רועי טבח שייספר לנו על האתגרים בעולם הסייבר, דיברנו על שימוש באנומלי דטקשן להתראה על אירועים חשודים בלוגים של מערכות. ודיברנו על מירוץ החימוש הנצחי בין התוקפים למגיניםעל ידי Tamir Nave & Uri Goren
E
ExplAInable

1
Proximal Policy Optimization מה זה
34:23
34:23
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
34:23
כבר התרגלנו בעולם המשין לרנינג, ששום מודל לא שורד יותר משנה-שנתיים בתור ה SOTA עד שמגיעה גישה חדשה שטורפת את הקלפים. לכן מעניין דווקא לדבר על PPO שנשאר הגישה הדומיננטי ב Reinforcement learning כבר חמש שנים, ולא נראה שהוא הולך לשום מקום. נלמד על הבעיתיות של למידה רק עם גרדיאנט, ונדבר על מה זה "גרדיאנט טבעי"…
בפרק זה אירחנו את דניאל חן מפייבר, לדבר על אלגוריתמי בנדיטים. Multi armed bandit היא גרסה מנוונת של Reinforcement learning אבל שימושית מאוד, עם אלגוריתמים ייחודיים לפתרון יעיל. נדבר על שימושים בעולמות הפרסום, תימחור דינמי, ואיך מכניסים קונטקסט לבנדיטים ושומרים על שפיות.על ידי Tamir Nave & Uri Goren
E
ExplAInable

1
Variational Auto Encoders עם מייק ארליכסון
21:55
21:55
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
21:55
פרק מהארכיון, עם מייק ארליכסון המפורסם מסקירות המאמרים. בפרק זה נדבר על הדרך מאוטו-אנקודר אל VAE לצורך יצירה של דאטא סינטתי. ונדבר על ההבדלים מול GANעל ידי Tamir Nave & Uri Goren
בפרק זה נחזור לבסיס ונדבר על עצי החלטה, המודל הבסיסי והאינטואטיבי ביותר - שעדיין עובד יותר טוב על דאטא טבלאי. נדבר על שיטות אימון חמדניות, ועל שימוש באנטרופיה כקירוב. ונתאר מה ההבדל בין שיטות ה ensemble הנפוצות, בוסטינג לעומת באגינג.על ידי Tamir Nave & Uri Goren
E
ExplAInable

1
למידה ניגודית Contrastive Learning
12:30
12:30
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
12:30
נראה שלמידה ניגודית מקבלת המון תשומת לב לאחרונה, בעיבוד תמונה, טקסט ואפילו דאטא טבלאי. נדבר על המאמר פורץ הדרך של הינטון SimCLR ונשווה אותו אל מול שיטות קלאסיות של הורדת מימד.על ידי Tamir Nave & Uri Goren
בהמשך לסיקור החדשותי של זילו, והחיזוי מחירי נדלן שהביאו להפסדים של מיליארדים - תמיר ואורי מתוודאים על פדיחות שעשו בפרויקטים. מה קורה כשהמודל מושלם אבל תהליך יצירת הדאטא פחות ? איך פרויקט תיוג יכול להשתבש ולהתפוצץ בפנים, וכמובן - כמה חשוב לקרוא את האותיות הקטנות בדוקמנטציה.על ידי Tamir Nave & Uri Goren
בפרק זה אירחנו את אמיר עברי להסביר לנו על עיבוד קול, מה הם השלבים השונים בפייפליין של Speech recognition ועל האתגרים בתחום. בפרק נדבר על שיטות כגון MFCC לעיבוד אותות שמע, וכיצד אפשר להתמודד עם המימד הגבוה עםטכניקות כמו Diffusion maps כדי לאפשר עיבוד בזמן אמת.על ידי Tamir Nave & Uri Goren
E
ExplAInable

1
על התאוריה של דיפ לרנינג, עם גלעד יהודאי
33:01
33:01
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
33:01
על מהפכת הדיפ לרנינג לא צריך להרחיב, כולנו מכירים וחלקנו אף מימשנו. אבל למה לעזאזל הדבר הזה עובד ? בפרק זה אירחנו את גלעד יהודאי, סטודנט לדוקטורט לתחום ושאלנו אותו את השאלות הקשות. נלמד מה זה "אוברפיטינג שפיר" מה היא תופעת ה"ירידה הכפולה" ומה הם שלושת סוגי הטעויות בלמידה.על ידי Tamir Nave & Uri Goren
E
ExplAInable

1
עיבוד שפה בעברית, עם פרופסור רעות צרפתי
33:28
33:28
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
33:28
בפרק זה אורי מארח את רעות צרפתי לדבר על עיבוד שפה בעברית. מה ההבדל בכלל בין עברית לאנגלית ? למה זה יותר קשה ? האם החיים היו יותר קלים אם היינו כותבים עם ניקוד ? ודיברנו על ההבדלים הבלשניים של שפות שמיות (עברית וערבית) אל מול שפות הודו אירופאיות.על ידי Tamir Nave & Uri Goren
E
ExplAInable

1
Positive Unlabeled Learning שי פלצ‘י על
13:04
13:04
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
13:04
קיבלתם פעם דאטאסט עם "כל הדברים שחשוב לזהות" אבל בלי אף דוגמא שלילית ? אני בטוח שכן, אפשרות אחת לפתרון היא למדל את הבעיה כקלאסיפיקציה ואיכשהו להמציא דוגמאות שליליות. או, לחילופין למדל את הבעיה כ Positive Unlabeled Learning אבל מה זה ? שי פלצ'י יסביר לנו ויספר על הספריה שלו pu-learnעל ידי Tamir Nave & Uri Goren
E
ExplAInable

1
Welcome back -not amlek.ai - we‘re ExplAInable
6:17
6:17
נגן מאוחר יותר
נגן מאוחר יותר
רשימות
לייק
אהבתי
6:17
Tamir Nave and Uri Goren introduce themselves and the new podcast format.על ידי Tamir Nave & Uri Goren