[154] על Physical AI: מתי הומנואידים של טסלה ושוטף-שואב יחלקו foundational model
Impossible d'ajouter des articles
Échec de l’élimination de la liste d'envies.
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
יצא לכם לתהות מתי הומנואידים של טסלה ושוטף-שואב של שיאומי ישתמשו באותו ה- foundational model?
אחרי שלושה פרקים ברימוט, אקספליינבל חוזרת לסטודיו, ובפרק 154 תמיר והילה צוללים ל- Physical AI. בפרק נבדיל בין 4 הקטגוריות של רובוטים, נבין למה צצו foundational models לתמונות לפני טקסט, איזה חיישן יכול לעזור לרובוט שוטף כלים להבדיל בין זכוכית לקריסטל, ואיך הרגולציה עשויה להשפיע על תפוצה רחבה של הומנואידים.
נפרק את מה שעומד מאחורי מודלי VLA (ויז׳ן, שפה, ו-action), ונבין מה צריך להשתנות עד שנוריד משקולות לשוטף-שואב מ Huggingface.
אז - האם סימולציות יוכלו לקדם אותנו לעבר מספיק training data? איך מגדירים טוקן בפעולות מוטוריות? ואיזו ענקית קראה למודל ה VLA שלה על שם דמות מפתיעה משומרי הגלקסיה?
כל זאת, בפרק!
אתר mAIk Education של תמיר: https://www.maik-education.com/
סדנאות לבתי ספר: https://www.maik-education.com/for-Israelschools
סדנאות רובוטים לחברות (לעובדים או לילדי העובדים): https://www.maik-education.com/for-Israelcompanies
00:00 חוזרים להקליט באולפן!
01:17 ארבע משפחות של רובוטים
03:40 מתי foundational models נהיו שם-דבר
06:46 מולטי-מודאליות של טקסט, תמונה, ופעולה: VLA
11:35 על הinput וה-output של מודלי VLA
17:05 אז מה יש לנו היום בשוק
20:04 החסם האנרגטי