הענק הירוק: Gigabyte Geforce RTX 2080 Ti Gaming OC בביקורת מקיפה

Intro

לקחנו לסיבוב את החזק ביותר אי פעם: ה-RTX 2080 Ti של הוא "מהזולים" בתחומו שתמצאו בשוק – אך הוא אינו מתפשר על שום מאפיין או יכולת

הגיע הזמן לבואו של כרטיס המסך החזק ביותר לגיימרים שאנוידיה אי פעם יצרה, ה-Geforce RTX 2080 Ti. בביקורת זאת נעסוק בביצועיו של כרטיס המסך ובמה זה אומר להצטייד באחד כזה כבר עכשיו. כמו כן, אנו מביאים לכם גרסה צנועה, יחסית זולה אך בנויה באופן מפתיע ומתקדם במיוחד מבית .

קבלו עדכונים לפני כולם בטלגרםקבלו מאיתנו עדכונים לפני כולם - בטלגרםהצטרפו כבר עכשיו לערוץ הטלגרם של הזון


לאלו מכם שטרם ביקרו בביקורת ה- 2080 שלנו, להלן על הארכיטקטורה ועל הדרך למוצרי מדף ממשיים.

במאי של שנת 2016 נחתה בעולם הגרפיקה אחת הארכיטקטורות החשובות והפופולריות ביותר בכל הזמנים שהיא Pascal של אנוידיה. טכנולוגיה זאת שהביאה שיא חדש יעילות חשמלית לביצועי גרפיקה המלווה אותנו עד היום עם כרטיסי המסך רבי המכר דוגמת Geforce GTX 1080. כרטיסי מסך הללו הפכו לפופולריים בקרב , אנשי Deep Learning ואנשי מטבעות הקריפטו בשל יכולותיהם החישוביות ויעילותם המרשימה.

כעת, כשנתיים וחצי לאחר מכן, זה הזמן לסדרה חדשה לגמרי של כרטיסי המסך המבוססת על ארכיטקטורה חדשה גם כן בשם Turing (ע"ש אלן טיורינג). הרף הוא גבוה מאוד ונראה כי מוכנה למשימה על אף הקשיים הרבים כיום בעולם ייצור המיקרו-שבבים, שהבולט בהם הוא המחסור בפסי יצור מסחריים בליטוגרפיית 7 ננומטר. על אף זאת, החליטה שתשתמש בפס יצור של 12 ננומטר מ- כדי לבנות את ארכיטקטורת שלה, ולא תמתין להבשלת ליטוגרפיית העתיד לסדרה הזאת.


הכירו את ארכיטקטורת של אנוידיה

ארכיטקטורה זאת היא המתקדמת ביותר וגם אחת היקרות ביותר לייצור אצל אנוידיה מאז ומעולם. היא בנויה מבקרים רבים והמון רכיבי זריזים, שטחה של הליבה הזאת הוא עצום מימדים – 754 מילימטר רבוע. לצורך השוואה, גודלה של ליבת הוא 471 מילימטר רבוע בלבד. ליבת Turing מורכבת מ-18.6 מיליארד טרנזיסטורים, לעומת 12 מיליארד "בלבד" ב-.

במלואה, זאת מכילה לא פחות מאשר 4,608 מעבדי CUDA שמטרתם היא לבצע מה שקרוי חישובי נקודה צפה. לכן, תשמעו לעיתים במונח מדעי את השם "Floating Point Units" במקום CUDA Cores, שהשגירה בפנינו.

לכל בלוק קטן של 64 מעבדי CUDA ישנה ליבת RT (ר"ת Ray Tracing) שתפקידה הוא לבצע חישובי תאורה מתקדמים בהם ניגע בהמשך הביקורת. קבוצה של 12 בלוקים כאלה מהווה שישית משטח המעבדים הפנימיים ומחוברת למנוע סריקה שלמעשה מעביר את המידע המחושב בצינורות עיבוד למנועי ההשמה שמאפשרים לכם לראות את הפיקסלים המחושבים על המסך.

לליבה זאת, בשונה מליבת Pascal שהכרנו בכרטיסי הקודמים יש גם ליבות Tensor המשמשות לעולם ה-Deep Learning וה-Machine Learning, אשר צובר תאוצת ענק והופך בכל יום לרלוונטי יותר ויותר. בכך, יכולים אנשי האלגוריתם להתאים את הקוד שלהם על בסיס ספריית ה-TensorFlow בשפת CUDA ולקבל גישה למשאבי העיבוד הללו. כך, יכול לבחור איש האלגוריתם אם ישתמש בכרטיס מקצועי מסדרת Quadro – או להמשיך ולהשתמש ב- זול יותר לחישוביו. כמו בכל מעבד, זמן החישוב הוא הגורם המכריע בדרך כלל.

בשלמותה, ליבת Turing תומכת בזיכרון ברוחב 352 ביט המחובר ל-32GB של גרפי מסוג GDDR6. בנפח כזה אינו זמין כיום לציבור אך צפוי לצאת לאוויר העולם במשך שנת 2019.

Turing כפי שמופיעה בכרטיס המסך 2080 Ti

המותג Geforce GTX יצא לחופשה קלה ואנו בטוחים שהוא עוד ישוב אלינו בעתיד. בינתיים, החליטה שהיא משנה לחלוטין את המיתוג שלה כלפי כרטיסי המסך לעולם הגיימינג עם הצגת סדרת החדשה. השם מגיע בעיקר מהאותיות RT שמסמלות Ray Tracing – יכולת מתקדמת לחשב קרני אור מציאותיות בסצנות תלת-מימדיות מורכבות.

כרטיס המסך Geforce RTX 2080 TI משתמש בשטח המלא של ליבת Turing. הליבה היא TU102 ובה נעשה שימוש בכרטיסי המסך המקצועיים ללימוד דוגמת Quadro. ההבדל הטכני העיקרי בין כרטיס המסך הזה לבין כרטיס בעל ליבה מלאה הוא שמתוך 384 ביט של בקרי רק 352 ביט מאופשרים. בנוסף, קוצצו כמות יחידות העיבוד ממקסימום של 4,608 ל-4,352.

בואו נדבר קצת על ומה המשמעות של הטכנולוגיות החדשות המתלוות למותג החדש.

אנוידיה יוצרת מותג חדש – RTX

מהו למעשה RTX? באנוידיה רוצים להתיחס לכל סט התכונות החדש של החברה כ-, כל מה שקשור בכרטיסי המסך החדשים הללו וגם מעט תכונות שהכרנו בעבר.

בראש ובראשונה Ray Tracing, חישוב תאורה מציאותית בזמן אמת.

רבים מכם קרוב לודאי כבר הספיקו לראות את ההדגמה המרשימה הזאת המבוססת על דמויות ממלחמת הכוכבים. לאלו מכם שעוד לא – הרשו לי לספר לכם כי כל מה שראיתם בסרטון הזה הינו ממוחשב לחלוטין. הדמויות, הסביבה וכל העצמים שבסצנה מעובדים בתוכנות תלת-מימד בלבד.

עד לא מזמן, בשביל ליצור סצנה כזאת כבדה נאלץ צוות מוכשר של אנימטורים לעבוד עם תחנות מחשב אישיות המתחברות לשרת שתפקידו לבצע רינדור איטי ומסורבל שיכול גם לקחת ימים שלמים בשביל לראות את התוצאה שלפניכם. זאת, בשל העובדה שמחשבי האנימטורים לא יכלו להתמודד עם כזאת כמות אדירה של חישובים גרפיים בזמן אמת.

"זמן אמת" הוא אותו הזמן שבו ניתן לעצור את הכל, לבצע טיול בסצנה על מנת לבחון את כל האלמנטים ברמת גרפיקה מלאה. עד כה, אותו סיור ועבודה על בתוך ההדגמה נעשית כאשר אלמנטים כבדים במיוחד כמו חישוב התאורה היו מכובים לחלוטין. כך, ניתן לקבל קלה מספיק לעבודה עם המכונה. רק לאחר מכן מועברת פקודת רינדור לשרת הרינדור כדי לחשב כל פריים שאתם רואים בסרטון.

טכנולוגיית ה-RTX הפועלת כאן בליבות Turing מאפשרת חישוב מתקדם של תאורה בזמן אמת מבלי להכביד בצורה בלתי נסבלת על הליבה הגרפית. כך, כמות התמונות לשניה בעת הסיור בסצנה גבוה מספיק על מנת לאפשר עבודה תקינה. כל זאת מתאפשר בזכות ליבות ה-RT החדשות שהטמינה בארכיטקטורה. לפניכם דוגמה למימוש הטכנולוגיה במשחק הקרוב לצאת Metro Exodus:

המטרה העיקרית של שימוש ב-Ray Tracing היא לדמות בצורה מציאותית לחלוטין את התנהגות קרני האור, את העובדה שכשאור פוגע באלמנט מסויים, גם הוא משקף אור לסביבה.

נכון לעת זאת עדיין אין דוגמאות Ray Tracing אשר עליהן ניתן לבדוק חומרה, ולכן לצערי כרטיס המסך שבביקורת יבדק בצורה סטנדרטית למדי עם כותרים חשובים קיימים בעולם הגיימינג. עם זאת, אין ספק ששימוש ב-Ray Tracing הוא כבד מאוד, ומנמיך בצורה משמעותית את כמות הפריימים לשניה באותה הסצנה.

ההבטחה הגדולה באמת – DLSS Anti-Aliasing

בואו ונדבר על נושא שמקבל מעט פחות חשיפה מאנוידיה אך לדעתינו עשוי להיות לא פחות חשוב מ-Ray Tracing לפחות בשנים הקרובות – נושא ה-Anti-Aliasing המתקדם.

ברשותכם נתחיל בשאלה – מה הוא Anti-Aliasing ולמה הוא קיים?

Anti-Aliasing או בקיצור AA היא היכולת להחליק קצוות משוננים בסצנה שלפניכם:

לחץ להגדלה – מימין מוחלק ומשמאל משונן

קצוות משוננים נוצרים כאשר ישנו הבדל גדול של צבע בין שני פיקסלים שונים. המטרה היא פשוטה – להעלים את הקצוות המשוננים שבתמונה בצורה היעילה והאיכותית ביותר שיש. נשמע פשוט למדי אך מדובר באחד האתגרים הגדולים ביותר של עולם התלת מימד משחר היותו.

ישנן שיטות רבות ומגוונות, ואלגוריתמים אינסוף כדי לשים סוף לקצוות משוננים בתלת מימד. האיכותיות ביותר הנפוצה היום במשחקי מחשב היא MSAA או Multi-Sample Anti-Aliasing. בשיטה זאת סצנת התלת מימד למעשה מעובדת ברזולוציה גבוהה יותר מראש ומולבשת ברזולוציה נמוכה יותר בהתאם לזאת המוגדרת. כך, הקצוות נראים חלקים והסצנה נעימה למראה. בתמורה? נדרש כח עיבוד גדול יותר כדי לבצע פעולה שכזאת, כאילו רינדרתם את הסצנה ברזולוציה גבוהה יותר.

DLSS היא חלק מערכת RTX החדשה של מתייחסת לשיטה חדשה בחסות היכולת למעשה לבצע Deep Learning של סצנות ולהבין אילו אלמנטים יכולים לעבור החלקת תמונה. משם אגב, מגיע השם – Deep Learning Super Sample. מדובר בתכונה שצריכה להגיע מהמפתחת עצמה בשכנוע של ונכון לעת זאת ישנה רשימה מכובדת של מפתחים שכבר התחייבו לכלול את DLSS כאופציה. לפניכם סרטון המדגים זאת במשחק Final Fantasy XV:

מנוע ה-Unreal Engine 4 כבר שחרר כלים המאפשרים למפתחים לכלול את טכנולוגיית DLSS. בקרוב צפויים גם מנועים גרפיים נוספים לכלול תמיכה ב-DLSS וכך למעשה נראה שהשוק בדרך לאימוץ בריא של הטכנולוגיה המדוברת.

אנו כמובן נעדכן במבחני כאשר כותרים יחלו לצאת עם תמיכה ב-DLSS ונבצע השוואת איכות וביצועים מול שיטות AA סטנדרטיות.

הגיע הזמן לעבור ללחם והחמאה של ביקורת זאת.


avatar
1stcowgirl
1stcowgirl

תודה סיקור מצויין!
אני כבר 3 דורות אומרת שהכרטיסים העליונים של GIGABYTE הם הכי טובים מבחינת הטמפ (שמשקפת את הביצועים).
אפשר להניח שאם במאמץ הליבה עמדה על 70ºC -> הVRM עמד על 80ºC!

עכשיו נראה נחפש להשוות עם כרטיסים אחרים _ (אישית אהובה עלי המדידה עם FLIR).
לדעתי לא יהיה כרטיס יותר קריר מהכרטיס הזה _ (על אויר כמובן)
[עריכה]
זה לא צחוק….. מתי לאחרונה ראיתם כרטיס TI שעשה 71ºC?
מצד שני, רק בגרסאה הבאה נראה את היכולות האמתיות של הליבה הזו (ואלי אז העסק שוב יהיה לוהט)

itsik
itsik

אין לי משהו לגבי GIGABYTE אבל ASUS הרבה יותר טובים מהם בכל הנוגע לקירור

daniel789
daniel789

המון חשמל זה לא יאומן

ShuBy
ShuBy

האם בסופו של דבר תהיה כתבה שמשווה ביצועים, טמ“פ ויכולות OC לכל הדגמים השונים של החברות השונות? שנבחנו אצלך?

Sween
Sween

ביצועים ביצועים וכל המשחקים הטובים יותר נמצאים בקונסולות.
השרתים של codww2 ריקים כמעט מההשקה.
למה צריך כרטיס כזה? בשביל pubg שאין לו אופטמיזציה בשיט? את כל השאר אתה מריץ בצורה טובה גם על כרטיסים שעולים שליש מהמחיר.

huber
huber

נראה כי לוקחות ברשת מדווחים על כשל די חריג של ה RTX 2080TI:

 

https://www.forbes.com/sites/jasonevangelho/2018/10/30/nvidia-rtx-2080-ti-cards-have-a-serious-problem-they-keep-dying/amp/