ליבה גרפית חדשה, יתרונות RTX
בביקורת זאת אנחנו לוקחים לסיבוב כרטיס מסך נוסף מבין אלו החדשים של NVIDIA בסדרת GeForce RTX 30 – כאשר הפעם מדובר בשם עם הרבה אחריות מאחוריו, ה-RTX 3060 אשר אמור לפנות לנתח שוק גדול במיוחד
אנחנו בפתחו של קיץ שנת 2021 ועולם החומרה בתקופה זאת כל שנה אמור "להפשיר" עם רענונים, מוצרים חדשים וטכנולוגיות מבטיחות. הפעם, בשל מצב השוק המטורלל והלא שגרתי, אנחנו מגיעים להשקת חומרה נוספת (אמנם באיחור קל), כאשר מצב השוק לא בדיוק מתכנן נחיתה רכה במיוחד. בכל זאת, העולם ממשיך להסתובב גם כאשר הישג חומרה נהיה מאתגר במיוחד.
מוקדם יותר השנה ראינו את משפחת GeForce RTX 30 של NVIDIA מתרחבת עם מוצר נוסף – הוא GeForce RTX 3060. על פי שם כרטיס מסך זה, אפשר להבין שהוא ממשיך מסורת של כרטיסי מסך פופולאריים במיוחד עבור שוק האמצע של עולם הגיימינג. שוק זה בדרך כלל זוכה לנתחי שוק ענקיים, גדולים משמעותית מאלו של בעלי כרטיסי מסך יקרים יותר. ב-"יקרים", אנחנו בדרך כלל מתכוונים לכרטיסי מסך שעלותם גבוהה מ-350 דולר.
ה-RTX 2060 זכה לפופולאריות גדולה, וגם ה-GTX 1060 וה-GTX 960 שלפניו. על פי סקרי חומרה דוגמת אלו של Steam, בדרך כלל נתח המשתמשים של כרטיסי המסך הללו (וגם של GTX 970, שאם להיות הוגנים גם יכול גם נכנס תחת פחות מ-350 דולר) היה אדיר.
ה-GeForce RTX 3060 הינו כרטיס מסך טרי מסדרת Ampere של NVIDIA (הארכיטקטורה החדשה), והוא מציב את עצמו בנקודת מחיר וביצועים נמוכה יותר מזאת של ה-RTX 3060 Ti שהושק בסוף השנה שעברה (מאמינים שכבר עברה חצי שנה מאז?). מחירו הרשמי עומד על 329 דולר אמנם מחירו בפועל הודות לביקוש הגבוה וקריית הקריפטו עומד על בערך פי שלוש מכך בארץ.
ליבת ה-RTX 3060 כוללת 3,584 מעבדי CUDA יחד עם 112 מעבדי Tensor ללמידת מכונה, ו-28 מעבדי RT (ר"ת RayTracing). לצורך השוואה, לגרסת ה-Ti יש 4,864 מעבדי CUDA עם 152 מעבדי Tensor ו-38 מעבדי RT. מדובר בהבדלים גדולים למדי ברמת החומרה בין שני כרטיסי המסך הללו. למעשה, לא זכורה לי הפעם האחרונה שהבדל בין כרטיס מסך שעלותו הרשמית 400 לבין כזה שעולה רק 70 דולר פחות כל כך משמעותי בחומרה.
כן ישנו הבדל דווקא לטובתו של ה-RTX 3060 בנפח הזיכרון הגרפי. על אף ש-RTX 3060 Ti מכיל בקר זיכרון 256BIT ו-8GB של זיכרון GDDR6, ה-RTX 3060 מכיל 12GB של זיכרון על בקר 192BIT. יתכן מאוד וישנו קשר להשקת Radeon RX 6700 XT, כרטיס מסך מעט יקר יותר אך כזה שמכיל 12GB של זיכרון גרפי. כאשר ישנו שימוש בבקר 192BIT, לעיתים ההחלטה היא האם להשתמש ב-6GB או 12GB פשוט בשל היכולת הטכנית להצמיד שבב זיכרון לכל ערוץ תקשורת. 12GB היא בחירה חכמה משמעותית מ-6GB כיום, אין בזה ספק.
ספציפית, כרטיס המסך שבביקורת זאת הינו ה-GAMING של יצרנית החומרה GIGABYTE. כרטיס מסך זה מגיע עם תדר ליבה של 1,320MHz שהוא תדר ברירת מחדל אותו קבעה NVIDIA. כרטיס המסך עצמו מגיע עם קירור ה-Windforce המתקדם של GIGABYTE בעל שלושה מאווררים. לוח המעגל המודפס עצמו יחסית קצר, וגוף הקירור מוארך אל הרבה מעבר. חלק מהאוויר החם שיוצא מהקירור יוצא מצידו האחורי. שאר החום יוצא מהצדדים.
כרטיס מסך זה משתמש במחבר חשמל יחיד מסוג 8PIN PCI-Express. מעטפת החום של כרטיס המסך מוגדרת ב-170W. זו מעטפת בעלת הגבלה מאוד מדוייקת, ומעבר של צריכת חשמל זאת אינה אפשרית מבלי לבצע שינויים חומרתיים. כמובן שיתכן ולעיתים נראה כמה וואט יותר בעת מאמץ מירבי. בגלל שלוח המעגל המודפס יחסית קצר, המחבר נמצא באמצע הכרטיס.
לכרטיס מסך זה ארבע יציאות תצוגה, שתיים מסוג HDMI 2.1 ושתיים מסוג DisplayPort 1.4a. ניתן להשתמש בכל ארבע היציאות בו-זמנית לתצוגות.
בביקורת זאת חשוב לנו גם להביא את נושא ה-DLSS 2.0 ואת תכונות RTX השונות שיחודיות ל-NVIDIA.
כאשר הושקה סדרת RTX 20 של NVIDIA, הכריזה החברה על שינוי משמעותי בגישת תכונות כלפי חומרה והתקדמות ביכולת חומרתית שמוקדשת עבור מטרות ספציפיות. בצעד לא שגרתי, במקום לקחת תכונות ויזואליות מסוימות כ-דרך אגב, החליטה NVIDIA להטמיע מעבדים חומרתיים בתוך הליבה בשביל שגישה אליהם תעשה לצורך מטרות חישוב מאוד מסויימות.
כתוצאה מכך, קיבלנו בנוסף לליבות ה-CUDA השגרתיות את ליבות ה-Tensor וה-RT. צעד זה משנה לחלוטין את הגישה שלוקחת NVIDIA כלפי הרצינות בה היא רוצה לבצע שיפורי ביצועים בשלל משחקים ואפליקציות.
מאז שהושקו אותם כרטיסי RTX 20, ליבות ה-Tensor משמשות את עולם ה-Deep Learning וה-Machine Learning בביצוע מהיר יותר של מטלות למידה שונות. כאשר הושקו, נראו הבדלים יחסית קטנים בין סדרת RTX 20 ל-GTX 10, אך לאחר שגרסאות הקוד עודכנו, החלו משתמשים לראות עליית ביצועים של עשרות אחוזים. סדרת RTX 30 מביאה כמות נוספת של אותם מעבדי Tensor ואפילו לעומת זמינות מוצר מאתגרת, אלו שמשתמשים בכרטיסי RTX 30 מתקדמים ל-Machine Learning נהנים מתוספת של עוד עשרות אחוזי ביצועים לעומת הדור הקודם.
טכנולוגיה נוספת, ולדעתי החשובה ביותר בין כל סט הטכנולוגיות החדשות של NVIDIA היא DLSS (ר"ת Deep Learning Super Sample). הרעיון הוא פשוט למדי, NVIDIA מלמדת מכונות AI גרפיקה של משחק מסויים, והיא לאחר מכן משתמשת בידע מכונות לאחר לימוד בשביל לעזור לכרטיסי מסך להשלים מידע במשחקים כדי לשפר ביצועים בחסכון של עיבוד אותם הפרטים לכרטיס.
משמעות הדבר היא, שבפועל המשחק מרונדר כאילו הוא ברזולוציה נמוכה מזאת המוצגת, ושימוש ב-AI מסיע למשחק להראות כאילו הוא מוצג ברזולוציה טבעית של המסך או קרוב לכך. הטמעת הטכנולוגיה מסתמכת בעיקר על השותפות שבין NVIDIA לבין האולפן שאחראי על המשחק. כאשר טכנולוגיית DLSS הושקה, כמות הכותרים שתמכה בכך הייתה מזערית למדי, והיה ברור שנדרשת עוד מעט עבודה על המתודה בה NVIDIA מטמיעה את התכונה.
כאשר הושקה גרסה חדשה ל-DLSS בשם DLSS 2.0, משחקים שתומכים בכך מראים שיפור אדיר של ביצועים עם פגיעה מינימלית באיכות התמונה. לעיתים, נעשה אפילו שיפור באיכות התמונה יחד עם שיפור בביצועי המערכת. בשל כך, לדעתנו DLSS 2.0 היא אחת מהתכונות החשובות ביותר לשיפור ביצועים כיום בעולם המשחקים.
בין המשחקים שתומכים ב-DLSS 2.0 נמצאים לדוגמה Cyberpunk 2077 ו-Call of Duty Warzone הפופולאריים.
לפניכם שלוש דוגמאות של שימוש ב-DLSS במשחק Warzone. מצב אחד הוא ללא DLSS כלל, אחר הוא במצב Ultra Performance שמשתמש ברבע מהרזולוציה הטבעית בלבד, ישנו מצב Performance המשתמש בחצי, ומצב Quality שמשתמש ב-75% מהרזולוציה הטבעית. שימו לב לנתוני הביצועים בפינה השמאלית העליונה במסך. שימוש במצב Performance מוסיף קרוב ל-50% ביצועים לכמות הפריימים לשניה. זאת, בעוד ויזואלית קשה מאוד לקרוא לתמונה ירודה, או ירודה באופן משמעותי מזאת במצב DLSS כבוי לגמרי.
במשחק Cyberpunk 2077 נתקלנו במצב דומה, בו שימוש במצב Quality במקום במצב DLSS כבוי הביא שיפור ביצועים של ל-50% בשימוש GeForce RTX 3060.
שיפור הביצועים הוא דרמתי לחלוטין. זה לא קסם, שכן טכנית ישנה ירידה באיכות התמונה, לפחות במצב Performance. אמנם, במצב Quality איכות התמונה נהדרת והשיפור בביצועים אדיר. DLSS 2.0 היא טכנולוגיה מאוד מבטיחה שכבר החלה לקיים. בעתיד הקרוב נמצא כותרים רבים נוספים משתמשים בה. אנחנו יודעים שכל Call of Duty ו-Battlefield שעתידים לצאת (לפחות נכון לעכשיו) הולכים להשתמש בטכנולוגיית DLSS.
טכנולוגיה נוספת שבשבילה יש חומרה יעודית בכרטיס המסך היא Realtime RayTracing (או בקיצור RTRT). תפקידן של ליבות ה-RT בכרטיס המסך לחשב ולעבד עקיבת קרניים מתקדמת לתאורה מציאותית. אני חושב שבין המשחקים שממחישים בצורה הטובה ביותר את הטכנולוגיה הזאת נמצא דווקא Minecraft.
הפיכת טקסטורות פשוטות והחזרת אור לפי רמות שונות מגיעה לשיא עם הכותר הזה. כמובן שישנם משחקים נוספים שמפיקים תועלת מ-RayTracing מואץ חומרתית. גם Cyberpunk 2077 הוא חלק מהם.
הצללה בשיטת RayTracing היא מאוד תובענית. על אף שה-RTX 3060 תומך בטכנולוגיה זאת, לעיתים עדיף להשתמש בהצללה רגילה ללא RTRT, ולדבוק ב-DLSS. למעשה, אנחנו ממליצים לדבוק ב-DLSS כשאפשר. RTRT אולי כדאי להשאיר לכרטיסי מסך חזקים יותר, דוגמת RTX 3070 וצפונה מכך. אמנם, ישנם מקרים בהם משחקים קלים מסויימים עושים שימוש ב-RTRT, ואז השימוש בטכנולוגיה זאת עם RTX 3060 יכול להיות הגיוני מאוד.
עד כה, בעיקר דיברנו על הטכנולוגיות החדשות של NVIDIA מבלי ליחס להן יותר מדי מבחני ביצועים. כעת, כאשר סט תכונות RTX הולך ונהיה נפוץ יותר ויותר בעולם הגיימינג, אנחנו נתחיל להכנס אל מבחני ביצועים והשוואות איכות תמונה במצבים השונים.
בשלב זה אנחנו עוברים למבחני הביצועים בעמוד הבא
במילים אחרות – כרטיס מסך פח אשפה שלא שווה שקל! גם אם הוא היה במחיר תחרותי כפי שצריך להיות.
סתם ייצור כלאים שNVIDIA עשתה ו"פיתחה" (עלק..) .
פשוט מעלה גיחוך…