שבעה שבבים חדשים שנמצאים כעת בייצור מסחרי ירחיבו את קנה המידה של מפעלי הבינה המלאכותית הגדולים ביותר בעולם, עם תשתיות AI הניתנות להתאמה ומיועדות לכל אחד משלבי הבינה המלאכותית: Pretraining, Post Training, Test-Time Scaling ו-Agentic Inference
סן חוזה, קליפורניה—16 במרץ 2026—NVIDIA הכריזה היום בכנס ה-AI השנתי NVIDIA GTC, כי פלטפורמת NVIDIA Vera Rubin, הסוללת את הדרך לעידן הבא של ה-Agentic AI, נמצאת כעת בייצור מסחרי עם שבעה שבבים חדשים שירחיבו את קנה המידה של מפעלי הבינה המלאכותית הגדולים בעולם.
הפלטפורמה משלבת את המעבד המרכזי NVIDIA Vera CPU, המעבד הגרפי NVIDIA Rubin GPU, המתג NVIDIA NVLink 6, שבבי התקשורת NVIDIA ConnectX-9 SuperNIC ו-NVIDIA BlueFIeld-4 DPU, המתג NVIDIA Spectrum-6 והשבב החדש NVIDIA Groq 3 LPU. השבבים, שתוכננו לפעול יחד כמחשב-על עוצמתי לבינה מלאכותית, מניעים את כל אחד משלבי הבינה המלאכותית: החל מ-Pre Training בקנה מידה ענק, דרך Post Training ו-Test Time Scaling, ועד להסקה (Inference) בזמן אמת של סוכני בינה מלאכותית (Agentic AI).
״Vera Rubin היא קפיצה דורית אדירה – שבעה שבבים פורצי דרך, חמישה ארונות שרתים (Racks) ומחשב-על אחד ענק – שנבנתה כדי להניע כל שלב בבינה מלאכותית", אמר ג'נסן הואנג, מייסד ומנכ"ל NVIDIA. "נקודת המפנה של סוכני הבינה המלאכותית כבר כאן, ו-Vera Rubin מוציאה לדרך את אחד ממהלכי הקמת התשתית הגדולים בהיסטוריה".
״ארגונים ומפתחים משתמשים ב-Claude עבור משימות חשיבה שהולכות ונהיות יותר מורכבות, תהליכי עבודה מבוססי סוכנים וקבלת החלטות קריטיות. זה מצריך תשתית שיכולה לעמוד בקצב״, אמר דריו אמודיי, מנכ״ל ומייסד-שותף של Anthropic. ״פלטפורמת Vera Rubin של אנבידיה מעניקה לנו את יכולות העיבוד, התקשורת ותכנון המערכות שמאפשרות לנו להמשיך לספק תוצאות, ובמקביל לקדם את הבטיחות והאמינות שהלקוחות שלנו מסתמכים עליהן״.
"התשתיות של אנבידיה הן היסודות שמאפשרים לנו להמשיך לדחוף את גבולות הבינה המלאכותית", אמר סם אלטמן, מנכ"ל OpenAI. "עם NVIDIA Vera Rubin, נריץ מודלים וסוכנים עוצמתיים יותר בקנה מידה עצום, ונספק מערכות מהירות ואמינות יותר למאות מיליוני אנשים".
NVIDIA POD – חיבור בין ארונות שרתים בסקייל של "מפעל AI"
בזכות תכנון משותף (Codesign) עמוק של רכיבי העיבוד (Compute), התקשורת (Networking) והאחסון (Storage), פלטפורמת NVIDIA Vera Rubin מרכיבה את ה-NVIDIA POD הגדול ביותר – מחשב על הבנוי ממספר ארונות שרתים (Racks) שפותחו ונבנו במיוחד עבור בינה מלאכותית ועובדים יחד כמערכת אחת מאסיבית וקוהרנטית.
NVIDIA Vera Rubin NVL72 Rack
מרכיב מרכזי ב-POD הוא NVIDIA Vera Rubin NVL72 Rack – מערכת המחברת בין 72 שבבי GPU מסוג Rubin ו-36 שבבי CPU מסוג Vera המחוברים ביניהם באמצעות מתגי NVLink 6 ו-ConnectX-9 SuperNICs ופועלים בהרמוניה בסיוע שבבי התקשורת BlueField-4 DPUs. ארונות השרתים מסוג Vera Rubin NVL72 מספקים יעילות פורצת דרך: הם יכולים לאמן מודלים גדולים מסוג "תערובת מומחים" (mixture of experts) עם רבע ממספר ה-GPU בהשוואה לפלטפורמת NVIDIA Blackwell, ולהשיג תפוקה גבוהה עד פי 10 לוואט בשלב ההסקה, בעשירית מהעלות לכל טוקן.

המערכת החדשה, שתוכננה עבור מפעלי בינה מלאכותית בקנה מידה גדול מאוד, ניתנת להרחבה הודות לרכיבי התקשורת NVIDIA Quantum-X800 InfiniBand ו-Spectrum-X Ethernet על מנת להבטיח ניצול גבוה של ביצועי המחשוב גם על פני מערכי GPU עצומים, תוך צמצום זמן האימון ועלות הבעלות הכוללת.
NVIDIA Vera CPU ו-Vera CPU Rack
אנבידיה השיקה היום גם את Vera CPU – המעבד המרכזי הראשון שפותח באופן ייעודי לעידן סוכני הבינה המלאכותית (Agentic AI) ולמידת החיזוק (Reinforcement Learning), ומספק את הביצועים והיעילות האנרגטית הגבוהים ביותר לעיבוד מידע (Data Processing), אימון AI והסקה של סוכני בינה מלאכותית בסקייל. Vera CPU מספק תוצאות פי שניים יותר יעילות וב-50% יותר מהירות ממעבדי CPU מסורתיים בקנה מידה של ארונות שרתים.
ככל שסוכני AI ומשימות חשיבה (Reasoning) מתקדמים, קנה המידה, הביצועים והעלויות תלויים יותר ויותר בתשתית התומכת במודלים ומתכננת משימות, מריצה כלים וקוד, מבצעת ולידציה לתוצאות ונמצאת באינטראקציה עם נתונים. כאשר משימות CPU אלו לא יכולות לעמוד בעומסי עבודה האלו, המאיצים מפסיקים את פעילותם ומגבילים את התפוקה של מפעלי הבינה המלאכותית.
ארון השרתים של ורה (NVIDIA Vera CPU Rack) כולל עד ל-256 מעבדי Vera CPUs המסוגלים להריץ עד ל-22,500 סביבות של סוכני AI או למידת חיזוק (Reinforcement Learning) שרצות באופן עצמאי. בכל הקונפיגורציות השונות, Vera משלב כרטיסי NVIDIA ConnectX SuperNIC ומעבדי NVIDIA BlueField עבור תקשורת מואצת, משימות אחסון ואבטחה, באופן שמאפשר ללקוחות להמשיך ולהשתמש במערכת תוכנה מאוחדת על פני כל פלטפורמות אנבידיה.
NVIDIA Groq 3 LPX Rack
מערכת NVIDIA Groq 3 LPX, המגיעה בתצורת ארון שרתים (Rack), מסמנת אבן דרך במחשוב מואץ. LPX ו-Vera Rubin, שתוכננו לתמוך בדרישות של מערכות מבוססות סוכנים כמו שיהוי נמוך והקשר ארוך, משלבים בין הביצועים הגבוהים של שני המעבדים על מנת לספק תפוקה גבוהה עד פי 35 לכל מגה וואט בשלב ההסקה. בנוסף, הם מגדילים עד פי 10 את ההכנסות הפוטנציאליות של מודלים עם טריליוני פרמטרים.
בקנה מידה רחב, צי של שבבי LPU מתפקד כמעבד אחד ענקי עבור האצה מהירה של תהליך ההסקה. ארון LPX עם 256 מעבדי LPU כולל 128GB זיכרון על-שבב מסוג SRAM ו-640 טרה בייט לשנייה של רוחב פס עבור תקשורת בתוך הארון. בפריסה עם מערכת Vera Rubin NVL72, שבבי Rubin GPU ושבבי LPU מגבירים את התפוקה באמצעות עיבוד משותף של כל שכבה במודל הבינה המלאכותית עבור כל טוקן.
ארכיטקטורת LPX משתלבת עם Vera Rubin כדי לתמוך במודלים של טריליוני פרמטרים ובחלונות הקשר של מיליוני טוקנים ולשפר את היעילות בצריכת חשמל, זיכרון ועיבוד. הביצועים יוצאי הדופן של הפלטפורמה מאפשרים לה לספק רמה חדשה וגבוהה במיוחד של הסקה, ולהרחיב את פוטנציאל ההכנסות של כל ספקי הבינה המלאכותית. ארונות LPX מבוססים על קירור נוזלי והם משתלבים בצורה חלקה במפעלי בינה מלאכותית מבוססי Vera Rubin. הם יהיו זמינים במחצית השנייה של השנה.
NVIDIA BlueField-4 STX Storage Rack
עוד הוכרז בכנס על NVIDIA BlueField-4 STX – ארכיטקטורת ייחוס חדשה שמשדרגת את תשתיות האחסון עבור העומסים שנוצרים בשל הפעלת סוכני AI מרובים. סוכני בינה מלאכותית דורשים גישה בזמן אמת לנתונים ולזיכרון עבודה הקשרי (Contextual Working Memory) כדי לשמור על שיחות ומשימות מהירות וקוהרנטיות. ככל שחלון ההקשר גדל, ארכיטקטורות האחסון והנתונים המסורתיים יכולים להאט את ההסקה של בינה מלאכותית ולהפחית את ניצול מעבדי ה-GPU.
טכנולוגיית NVIDIA STX מאפשרת לספקי אחסון לבנות תשתיות ששומרות על הנתונים קרובים ונגישים, כך שמפעלי בינה מלאכותית המניעים סוכנים יכולים לספק תפוקה גבוהה יותר ותגובתיות מהירה יותר במשימות הסקה, אימון ואנליטיקה. היא מספקת תפוקת טוקנים גבוהה עד פי 5, יעילות אנרגטית גבוהה עד פי 4 וקליטת נתונים מהירה פי 2 בהשוואה לארכיטקטורות מסורתיות ומבוססות CPU של אחסון עתיר ביצועים.
ארון שרתים נוסף שהוצג הוא NVIDIA Spectrum-6 SPX Ethernet Rack שפותח כדי להאיץ את תעבורת הנתונים במפעלי AI. הארון יהיה זמין שתי תצורות – עם מתגי Spectrum-X Ethernet או עם מתגי NVIDIA Quantum-X800 InfiniBand – והוא נועד לספק תקשורת עם שיהוי נמוך ותפוקה גבוהה בין ארונות השרתים בקנה מידה רחב.
תמיכה רחבה של האקוסיסטם
מוצרים המבוססים על פלטפורמת Vera Rubin יהיו זמינים החל מהמחצית השנייה של השנה באמצעות שותפים, בהם ספקיות הענן המובילות – אמזון (AWS), Google Cloud, Microsoft Azure ו-Oracle Cloud Infrastructure, כמו גם שותפי הענן של אנבידיה CoreWeave, Crusoe, Lambda, Nebius, Nscale ו-Together AI.
יצרניות מערכות גלובליות, בהן Cisco, Dell Technologies, HPE, Lenovo ו-Supermicro צפויות להציע מגוון רחב של שרתים המבוססים על מוצרי Vera Rubin, כמו גם Aivres, ASUS, Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron ו-Wiwynn.

מעבדות AI ומפתחי מודלי בינה מלאכותית מובילים, כולל Anthropic, Meta, Mistral AI ו-OpenAI בוחנים את השימוש בפלטפורמת NVIDIA Vera Rubin כדי לאמן מודלי בינה מלאכותית גדולים ומתקדמים, וכן כדי להריץ מערכות מולטימודאליות עם הקשר ארוך בשיהוי ועלויות נמוכים יותר בהשוואה לדורות ה-GPU הקודמים.


