Optimization ציבורי
[search 0]
עוד

Download the App!

show episodes
 
Loading …
show series
 
בפרק זה נדבר עם אורן רזון שמוביל את superwise על שלושת השלבים של דיפלוימנט של מודלי למידת מכונה. נדבר על מה יכול להשתבש בפרודקשן כשמודל מתיישן והעולם מתיישן, ואיך ניתן להיות עם יד על הדופק עםMonitoring קישורים רלוונטים: Building your MLOps roadmap Build or buy? Choosing the right strategy for your model observabilitySuperwise Community Edition…
 
למידת מכונה נורא כיפית ופשוטה כשמורידים מחברת מקאגל וכל הדאטא יושב בקובץ על המחשב ליד, אבל בחיים האמיתיים המצב לא כ"כ פשוט. בפרק זה אסף פנחסי (יועץ בתחום, בוגר פייפל ובכיר בזברה מדיקל לש') לספר לנו על החיים האמיתיים. שאלנו את אסף את כל השאלות הקשות: מחברות או קוד ? האם feature store זה משהו שאנחנו צריכים, ומתי הוא לא מתאים ? וכמובן, מה ההבדל בין ML…
 
סטטיסטיקאים נחצים ל2 מחנות: הסטטיסטיקאים הקלאסיים-תדירותיים, והסטטיסטיקאים הבייסיאנים. סטטיסטיקה בייסיאנית היא גישה שונה לסטטיסטיקה, שמנסה לדון בסבירות לא רק של הדאטא הנצפה בהנתן השערה, אלא גם בסבירות של הפרמטרים של ההתפלגות. מודלים רבים כגון GMM, Naive Bayes ו Latent Dirrechlet allocation מתבססים על סטטיסטיקה בייסיאנית, ולאחרונה גם רשתות נוירונים …
 
בפרק זה אירחנו את ברק אור לספר לנו על ניווט אינרציאלי. כשאנחנו חושבים על ניווט, אנחנו חושבים על גוגל מאפס, ווייז ושלל אפליקציות שמשתמשות ב GPS. אבל לג'י פי אס יש מגבלות, ויש דרכים נוספות לנווט - כגון מדדי תאוצה, מהירות ומצפן. ברק יספר לנו על אלגוריתם קלמן פילטר ששרד את מבחן הזמן ועל הרחבות שלו עם למידת מכונה.…
 
בפרק זה ראיינו את רועי טבח שייספר לנו על האתגרים בעולם הסייבר, דיברנו על שימוש באנומלי דטקשן להתראה על אירועים חשודים בלוגים של מערכות. ודיברנו על מירוץ החימוש הנצחי בין התוקפים למגיניםעל ידי Tamir Nave & Uri Goren
 
כבר התרגלנו בעולם המשין לרנינג, ששום מודל לא שורד יותר משנה-שנתיים בתור ה SOTA עד שמגיעה גישה חדשה שטורפת את הקלפים. לכן מעניין דווקא לדבר על PPO שנשאר הגישה הדומיננטי ב Reinforcement learning כבר חמש שנים, ולא נראה שהוא הולך לשום מקום. נלמד על הבעיתיות של למידה רק עם גרדיאנט, ונדבר על מה זה "גרדיאנט טבעי"…
 
בפרק זה אירחנו את דניאל חן מפייבר, לדבר על אלגוריתמי בנדיטים. Multi armed bandit היא גרסה מנוונת של Reinforcement learning אבל שימושית מאוד, עם אלגוריתמים ייחודיים לפתרון יעיל. נדבר על שימושים בעולמות הפרסום, תימחור דינמי, ואיך מכניסים קונטקסט לבנדיטים ושומרים על שפיות.על ידי Tamir Nave & Uri Goren
 
פרק מהארכיון, עם מייק ארליכסון המפורסם מסקירות המאמרים. בפרק זה נדבר על הדרך מאוטו-אנקודר אל VAE לצורך יצירה של דאטא סינטתי. ונדבר על ההבדלים מול GANעל ידי Tamir Nave & Uri Goren
 
בפרק זה נחזור לבסיס ונדבר על עצי החלטה, המודל הבסיסי והאינטואטיבי ביותר - שעדיין עובד יותר טוב על דאטא טבלאי. נדבר על שיטות אימון חמדניות, ועל שימוש באנטרופיה כקירוב. ונתאר מה ההבדל בין שיטות ה ensemble הנפוצות, בוסטינג לעומת באגינג.על ידי Tamir Nave & Uri Goren
 
נראה שלמידה ניגודית מקבלת המון תשומת לב לאחרונה, בעיבוד תמונה, טקסט ואפילו דאטא טבלאי. נדבר על המאמר פורץ הדרך של הינטון SimCLR ונשווה אותו אל מול שיטות קלאסיות של הורדת מימד.על ידי Tamir Nave & Uri Goren
 
בהמשך לסיקור החדשותי של זילו, והחיזוי מחירי נדלן שהביאו להפסדים של מיליארדים - תמיר ואורי מתוודאים על פדיחות שעשו בפרויקטים. מה קורה כשהמודל מושלם אבל תהליך יצירת הדאטא פחות ? איך פרויקט תיוג יכול להשתבש ולהתפוצץ בפנים, וכמובן - כמה חשוב לקרוא את האותיות הקטנות בדוקמנטציה.על ידי Tamir Nave & Uri Goren
 
בפרק זה אירחנו את אמיר עברי להסביר לנו על עיבוד קול, מה הם השלבים השונים בפייפליין של Speech recognition ועל האתגרים בתחום. בפרק נדבר על שיטות כגון MFCC לעיבוד אותות שמע, וכיצד אפשר להתמודד עם המימד הגבוה עםטכניקות כמו Diffusion maps כדי לאפשר עיבוד בזמן אמת.על ידי Tamir Nave & Uri Goren
 
על מהפכת הדיפ לרנינג לא צריך להרחיב, כולנו מכירים וחלקנו אף מימשנו. אבל למה לעזאזל הדבר הזה עובד ? בפרק זה אירחנו את גלעד יהודאי, סטודנט לדוקטורט לתחום ושאלנו אותו את השאלות הקשות. נלמד מה זה "אוברפיטינג שפיר" מה היא תופעת ה"ירידה הכפולה" ומה הם שלושת סוגי הטעויות בלמידה.על ידי Tamir Nave & Uri Goren
 
בפרק זה אורי מארח את רעות צרפתי לדבר על עיבוד שפה בעברית. מה ההבדל בכלל בין עברית לאנגלית ? למה זה יותר קשה ? האם החיים היו יותר קלים אם היינו כותבים עם ניקוד ? ודיברנו על ההבדלים הבלשניים של שפות שמיות (עברית וערבית) אל מול שפות הודו אירופאיות.על ידי Tamir Nave & Uri Goren
 
קיבלתם פעם דאטאסט עם "כל הדברים שחשוב לזהות" אבל בלי אף דוגמא שלילית ? אני בטוח שכן, אפשרות אחת לפתרון היא למדל את הבעיה כקלאסיפיקציה ואיכשהו להמציא דוגמאות שליליות. או, לחילופין למדל את הבעיה כ Positive Unlabeled Learning אבל מה זה ? שי פלצ'י יסביר לנו ויספר על הספריה שלו pu-learnעל ידי Tamir Nave & Uri Goren
 
Loading …

מדריך עזר מהיר

זכויות יוצרים 2022 | מפת אתר | מדיניות פרטיות | תנאי השירות
Google login Twitter login Classic login