כנס הטכנולוגיה GTC 2024 של NVIDIA: מנכ"ל NVIDIA ג'נסן הואנג חושף את הדור הבא בארכיטקטורת שרתי לימוד מכונה. מדובר בסחורה הלוהטת ביותר כיום בתחום החומרה ונראה כי NVIDIA לא עוצרת ולמעשה רק ממשיכה להאיץ בתחום פיתוח המיקרו-ארכיטקטורה עבור מוצרי AI ולימוד מכונה.
לפני הכל, אי אפשר שלא להתחיל בזווית הישראלית.
בשנים האחרונות טביעת הרגל של NVIDIA בישראל הפכה למאוד משמעותית, בעיקר לאחר רכישת Mellanox לצרכי פרוטוקולים וחומרת תקשורת מהירה במיוחד בין יחידות עיבוד ושרתים. כיום NVIDIA בישראל מעסיקה למעלה מ-3,500 עובדים במרכזי הפיתוח השונים. המח הישראלי אלוף בפיתוח פתרונות טכנולוגיה וחומרה, וכידוע לבוחשים בעולם החומרה גם שבבים בפרט ו-NVIDIA מכירה זאת ומשתמשת בכח האדם האיכותי שלנו.
נראה כי קצב הגדילה של NVIDIA בישראל רק ממשיך לעלות הילוך בכל שנה ואנחנו רואים זאת עם התרחבות מתמדת של מרכזי פיתוח, כח אדם וגם חידושים בפועל, ממש כמו זאת שמציגה NVIDIA בכנס GTC 2024 אשר החל כעת.
בתחום לימוד המכונה וה-AI אפשר להגיד שמלבד הרבה מרקטינג ומילות באז, אנו חווים רנסנס של ממש בכל הנוגע בשימוש במודלים מורכבים. הדברים הללו באים לידי ביטוי בחיי היום-יום בדברים שלעיתים לוקחים כמובן מאליו כמו מערכות הרימזור בכבישים, או למשל תוצאות חיפוש במנועים השונים ברשת. עוד לפני מעל לעשור NVIDIA יצרה ערכת תוכנה ושפה בה אפשר להשתמש על מנת לאמן רשתות שכאלה על חומרה מתוך הכרת יכולת העיבוד המקבילית האדירה של ליבות גרפיות.
משם, התחיל סחרור מואץ של פיתוח כאשר יכולות AI היו הפוקוס העיקרי של ארכיטקטורות מאוד ספציפיות כמו Volta ו-Ampere, אותה גם הכרנו בעולם הגיימינג. כיום ארכיטקטורת Hopper שמורה בעיקר לחוות שרתי ה-AI השונות ברחבי העולם ומספקות נפח גדול מאוד מהחומרה בפועל עליה מבצעים אימון מכונה.
זוהי ארכיטקטורת Blackwell, הכוכב החדש בלימוד מכונה עבור NVIDIA וגם עבור כל תעשיית ה-AI, פחות או יותר. שיפורי הארכיטקטורה ב-Blackwell לעומת Hopper הם דרסתיים ועבור כך נאלצה NVIDIA לא רק להפיק שבבי סיליקון ענקיים בתהליך TSMC 4NP המתקדם, אלא אפילו לפתח טכנולוגיית חיבוריות בין-סיליקונית בשביל לייצר פיסות סיליקון גדולות במיוחד ולחבר צמד אל ליבה גרפית אחת גדולה בשביל לקבל את כל כח העיבוד הזה.
בתוך שרת רב-ליבתי הדיאגרמה הזאת מתארת את חלוקת התקשורת בין יחידות העיבוד ובין העברת מידע בניהן. עבור NVIDIA כ-60 אחוזים מתעבורת המידע בשרת מתבצעת בין יחידות העיבוד השונות וכאן נכנסים בקרים מתקדמים במיוחד שפותחו ב-NVIDIA ישראל.
טכנולוגיית ה-NVLink ומתג NVLink חדש פותחו בשביל לאפשר תעבורת מידע עצומה בין יחידות עיבור בשרת לצרכי אימון מכונה. הבקר החדש הזה מסוגל להתמודד עם העברת מידע בקצב מדהים של עד 1.8 טרה-בייט לשניה (!) ולחבר בין עד 576 מעבדי AI בתוך שרת. השבב הזה מכיל 50 מיליארד טרנזיסטורים וגם הוא מיוצר בליטוגרפיית TSMC 4NP המתקדמת.
NVIDIA מציינת כי "הסופר-שבב NVIDIA GB200 Grace Blackwell מחבר בין שני GPUs מדגם NVIDIA B200 Tensor Core, יחד עם CPU מדגם NVIDIA Grace בחיבור שבב-אל-שבב של 900 גיגה-בייט לשנייה. כך, GB200 מציע שיפור של עד פי 30 בביצועים בהשוואה ל-NVIDIA H100 עבור הסקה במודלי שפה גדולים, ומפחית את צריכת האנרגיה עד פי 25."
האם נזכה לראות את Blackwell בכרטיסי המסך שמשרתים לגיימינג? מי יודע, מדור בשוק שמהווה נתח אשר קטן בהדרגה אל מול עולם לימוד המכונה ושרתי ה-AI עליו NVIDIA חולשת. עם נתוני שיפור הביצועים והארכיטקטורה המפלצתית הזאת, נראה שנשאר ל-NVIDIA המון חדשנות בקנה, והיא צפויה להמשיך להיות שחקנית דומיננטית בעולם החומרה והתוכנה עבור AI. על פי NVIDIA מדובר בהשקת החומרה הרחבה והגדולה ביותר שהיא ביצעה עד כה.
בין שותפותיה של NVIDIA בהשקה הזאת נמצאת גם מיקרוסופט, שמטמיעה עזרים דוגמת Copilot שלה כחלק אינטגרלי ממערכת ההפעלה חלונות. הרבה מפעולות הלימוד של מיקרוסופט הולכים להתבצע על שרתי ה-Blackwell החדשים של NVIDIA.