הליבה העוצמתית ביותר של החברה מסנטה קלרה תשמש כבסיס ליצירת המערכת העוצמתית ביותר בעולם עבור פיתוח בינה מלאכותית
ליבת ה-GP100 שאותה הציגה לנו NVIDIA ביוני 2016 היא הישג טכנולוגי מרשים במיוחד, שמאפשר לנו לקבל לא רק ביצועים של קרוב ל-10TFLOPS (עשר טריליון חישובים בשנייה אחת) במצב סטנדרטי עם דיוק של 32 ביט, אלא גם ביצועים של כמעט 5TFLOPS במצב דיוק כפול של 64 ביט, שחשוב מאוד ליישומים ספציפיים בעולם המחשוב עתיר העוצמה – או במילים אחרות עבור מחשבים גדולים ועוצמתיים שזקוקים לבצע חישובים מסובכים במיוחד בזמן אמת, שמכונים לרוב גם פשוט 'מחשבי-על'.
היכולות הייחודיות האלו הביאו לכך שליבה זו הושקה במקור רק כחלק ממשפחת ה-Tesla P100 שכלל אינה מיועדת לביצוע תצוגה גראפית אלא להאצת חישובים במערכי עיבוד דחוסים וגדולים, ואמנם לאחרונה קיבלנו סוף סוף גם מוצר גראפי ראשון שמבוסס על ה-GP100 – אך גם זה היה מוצר ממשפחת ה-Quadro שמיועד למקצוענים שיודעים מה בדיוק הם צריכים ומוכנים לשלם על כך בהתאם.
לליבות ה-GP100 ישנה עוד יכולת מרשימה אחת, והיא לספק ביצועים של קרוב ל-20TFLOPS שלמים (כלומר 20,000,000,000,000 חישובים בכל שנייה ושנייה) בחצי דיוק של 16 ביט, שבו נעשה שימוש הולך וגובר כיום במסגרת טכניקות למידת מכונה ולמידה חישובית שמאפשרת יצירת מחשבים 'לומדים' בעלי יכולת לנתח כמות עצומה של נתונים חדשים ולהבין את הקשרים שביניהם תוך כדי התערבות מינימלית מצד המפעילים האנושיים – וכעת נראה שדווקא היכולת הזו תסייע ל-NVIDIA וליחידות ה-Tesla P100 האימתניות שלה לפרוץ לרשימת עשרת המחשבים העוצמתיים ביותר בעולם כולו, בנקודה גבוהה יותר מכל מערכת אחרת שמבוססת על ארכיטקטורת ה-Pascal העדכנית.
ההישג היוקרתי הזה עתיד להגיע תודות ל-TSUBAME 3.0, המחשב האימתני במכון הטכנולוגי של טוקיו, שמתיימר להפוך לפלטפורמת פיתוח הבינה המלאכותית (באמצעות למידה חישובית עמוקה ורשתות עצביות) הגדולה, המתקדמת והעוצמתית ביותר בעולם כולו – עם 47PFLOPS (זה 47,000 טריליון חישובים בשנייה) של חישובים בחצי דיוק, וכ-23PFLOPS חישובים בדיוק סטנדרטי, שאמורים להספיק לכאורה למקום שישי או שביעי ברשימת מחשבי העל הרשמית שמתפרסמת פעמיים מדי שנה.
TSUBAME 3.0 עתיד להתחיל לפעול באמצע השנה הנוכחית, ובכך להצטרף לפלטפורמת ה-TSUBAME 2.5 שכבר קיימת ב-Tokyo Tech ומבוססת על יחידות עיבוד של NVIDIA מדור ה-Kepler לשימוש ביישומים דומים, כאשר הפעלת שני המערכים יחד תוכל להעניק ביצועים דמיוניים אפילו יותר, של כ-64PFLOPS לחישובי 16 ביט, ובכך לחזק את עמדת המכון ככוח המרכזי בתחום העיבוד העולה הזה – לפחות עד להפעלתו של מחשב על חדש במכון AIST (גם הוא בטוקיו), שאמור לספק כ-130PFLOPS של ביצועים עבור יישומי למידה חישובית אי שם בתחילת השנה הבאה.
TSUBAME 3.0 יגיע לביצועי הענק שלו תודות ל-540 יחידות עיבוד, שכל אחת מהן תכלול זוג מעבדי Xeon E5-2680 v4 עדכניים שיהיו אחראים על הרצת מערכת ההפעלה והיישומים הרלוונטיים עבור הפיתוח, בתוספת לארבע יחידות Tesla P100 שיתקשרו ביניהן באמצעות עורקי NVLink מתקדמים, ועוד 256 ג׳יגה-בייט של זכרון דינאמי שיהיה משותף לכל האלמנטים בתוך היחידה – כאשר התקשורת בין מאות יחידות העיבוד תתבסס על עורקי Omni-Path של אינטל, עם רוחב פס של 100 ג'יגה-ביט בשנייה.
מדובר במערך גדול ומאסיבי, אך ראוי לציין כי ליבות ה-GP100 של NVIDIA הן גם אחד ממוצרי העיבוד היעילים ביותר שנוצרו מאז ומעולם, ועל כן יש סיכוי לא רע בכלל שה-TSUBAME 3.0 יכנס לא רק לרשימת עשרת מחשבי העל הכי עוצמתיים – אלא גם לרשימת עשרת מחשבי העל הירוקים ביותר בתחום, שהיא חשובה לא פחות בטווח הארוך הן במונחי מחירי צריכת האנרגיה עבור המפעילים, והן במסגרת החזון לעבור למערכות Exascale (עם ביצועים ברמת 1,000,000 טריליון חישובי נקודה צפה בשנייה) עד סוף העשור, שיחייב אותן להיות חסכוניות עד כמה שניתן על מנת להפוך להגיוניות וישימות באופן ממשי.
בהמשך שנת 2017, יהיה מעניין לראות האם AMD תנסה לקרוא תיגר כלשהו על היכולות החדשניות הללו של NVIDIA באמצעות ארכיטקטורות ה-Zen וה-Vega החדשות שלה – או שמא המפתחת מהמחנה הירוק תישאר ללא מתחרים בכל הנוגע לעיבוד מקבילי בהיקפים חסרי תקדים, כפי שהיה עד כה.