Couverture de [154] על Physical AI: מתי הומנואידים של טסלה ושוטף-שואב יחלקו foundational model

[154] על Physical AI: מתי הומנואידים של טסלה ושוטף-שואב יחלקו foundational model

[154] על Physical AI: מתי הומנואידים של טסלה ושוטף-שואב יחלקו foundational model

Écouter gratuitement

Voir les détails

À propos de ce contenu audio

יצא לכם לתהות מתי הומנואידים של טסלה ושוטף-שואב של שיאומי ישתמשו באותו ה- foundational model?

אחרי שלושה פרקים ברימוט, אקספליינבל חוזרת לסטודיו, ובפרק 154 תמיר והילה צוללים ל- Physical AI. בפרק נבדיל בין 4 הקטגוריות של רובוטים, נבין למה צצו foundational models לתמונות לפני טקסט, איזה חיישן יכול לעזור לרובוט שוטף כלים להבדיל בין זכוכית לקריסטל, ואיך הרגולציה עשויה להשפיע על תפוצה רחבה של הומנואידים.

נפרק את מה שעומד מאחורי מודלי VLA (ויז׳ן, שפה, ו-action), ונבין מה צריך להשתנות עד שנוריד משקולות לשוטף-שואב מ Huggingface.

אז - האם סימולציות יוכלו לקדם אותנו לעבר מספיק training data? איך מגדירים טוקן בפעולות מוטוריות? ואיזו ענקית קראה למודל ה VLA שלה על שם דמות מפתיעה משומרי הגלקסיה?

כל זאת, בפרק!

אתר mAIk Education של תמיר: https://www.maik-education.com/

סדנאות לבתי ספר: https://www.maik-education.com/for-Israelschools

סדנאות רובוטים לחברות (לעובדים או לילדי העובדים): https://www.maik-education.com/for-Israelcompanies

00:00 חוזרים להקליט באולפן!

01:17 ארבע משפחות של רובוטים

03:40 מתי foundational models נהיו שם-דבר

06:46 מולטי-מודאליות של טקסט, תמונה, ופעולה: VLA

11:35 על הinput וה-output של מודלי VLA

17:05 אז מה יש לנו היום בשוק

20:04 החסם האנרגטי


adbl_web_anon_alc_button_suppression_c
Aucun commentaire pour le moment