עכשיו הזמן של Radeon
ההמתנה נגמרה – ערכנו מבחני ביצועים בשלל משחקים לכרטיסי המסך החדשים של AMD מדגמי Radeon RX 6800 XT ו-Radeon RX 6800. כל המספרים כאן
היום באופן רשמי מתרחשת אחת מהשקות החומרה החשובות ביותר של עולם הגרפיקה בשנים האחרונות, כאשר מותג ה-Radeon של AMD רוצה לבצע את הקאמבק בו חושקים משתמשים רבים.
היום הזה חשוב במיוחד עבור עולם הגרפיקה והגיימינג פשוט בשל מצב השוק בשנים האחרונות. NVIDIA, שידועה יותר מהכל בכרטיסי המסך המתקדמים שלה היא שליטה ביד רמה בעולם הגיימינג של המחשבים הנייחים והניידים. במשך רוב העשור האחרון, כשרצו את כרטיסי המסך המתקדמים ביותר, תמיד מצאו כאלה בעלי מיתוג GeForce של NVIDIA. זאת, הודות לארכיטקטורות היעילות והמתקדמות שלה, גם כשהמחירים לא תמיד היו נגישים.
נכון לעכשיו, הפעם האחרונה שבה מותג ה-Radeon של AMD התחרה ב-Geforce עבור הקצה העליון של כרטיסי המסך הייתה בשנת 2013 עם סדרת Radeon R9 290 אל מול GeForce GTX 780 ו-GTX 780 Ti. הביצועים היו תחרותיים למדי, וגם הבדלי צריכת החשמל לא גדולים במיוחד. שנה לאחר מכן, השיקה NVIDIA את סדרת GeForce GTX 900 המפורסמת בכיכובם של GTX 980 ו-GTX 970 כאשר GTX 980 Ti היה הדובדבן שבקצפת, רק כדי לוודא שמוצרי Radeon נקברים היטב תחת ערימה של מוצרי GeForce. התשובה של AMD הייתה… השקה של אותם כרטיסי המסך עם שמות חדשים וכמות זיכרון כפולה תחת סדרת Radeon R9 390.
במשך השנים החולפות, המשיכה AMD להשיק כרטיסי מסך, אך אלו היו בעיקר כאלה שמתחרים מול שוק הביניים וגם קצת בשוק הגבוה, היה RX 480 שלא הצטיין במיוחד ביעילות חשמלית, ולאחר מכן הוא רוענן כ-RX 580. כרטיסי המסך הללו התחרו בעיקר נגד GTX 1060 של NVIDIA. לאחר מכן קיבלנו את ארכיטקטורת RDNA של AMD עם השקת RX 5700 XT ו-RX 5700 שדווקא הציגו ביצועים לא רעים מול כרטיסי המסך המקבילים של NVIDIA, אך עדיין לא זכו להצלחה מסחרית מסחררת. אמנם, ל-NVIDIA עדיין היו מספר דגמים חזקים יותר ששלטו בקצה העליון של השוק עם RTX 2080 Ti ו-RTX 2080 לצד RTX 2070.
כעת, לראשונה מאז שנת 2013, אנחנו מקבלים על פי AMD סיכוי אמיתי לכרטיסי מסך מתקדמים עבור גיימרים שרוצים את הטוב ביותר שקיים, או לפחות קרוב מאוד לכך. מאז 2013 חברת AMD השתנתה מקצה לקצה, למדה להכין את המעבדים השולחניים המהירים ביותר, למדה להכין ארכיטקטורות גמישות עבור קונסולות שנמכרות בעשרות מליונים, וכעת היא מגיעה לזירה אל סיבוב נוסף מול NVIDIA. הקרב הגדול הוא Radeon RX 6800 ו-Radeon RX 6800 XT נגד GeForce RTX 3070 ו-GeForce RTX 3080.
צמד כרטיסי המסך החדשים של AMD מתומחרים ב-649 דולר ו-579 דולר בהתאמה, כאשר אלו הקיימים של NVIDIA מתומחרים ב-699 דולר ו-499 דולר בהתאמה. אפשר ללמוד הרבה על כוונות הביצועים של מוצרים מהסוג הזה לפי המחיר שיצרן מחליט לתת להם. כביכול, AMD מתמחרת את RX 6800 XT ב-50 דולר פחות מאשר RTX 3080 במטרה לחטוף משתמשים פוטנציאליים עם ביצועים שצריכים להיות שווים לכל הפחות. המחיר הגבוה יותר של RX 6800 לעומת RTX 3070 מספר על כך ש-AMD מאוד בטוחה שהכרטיס שלה יהיה שווה את תוספת המחיר כתוצאה מביצועים גבוהים יותר.
הדרך לארכיטקטורה חדשה
אנחנו מתחילים היכן ש-AMD התחילה בדרך לעצב את הארכיטקטורה שמניעה את כרטיסי המסך החדשים שלה. הארכיטקטורה שמאחורי Radeon RX 6800 היא ה-RDNA 2 אותה עיצבה על בסיס הדור הקודם אותו הכרנו ב-RX 5700 של שנה שעברה.
הארכיטקטורה הזאת כמו קודמתה מיוצרת בתהליך היצור המפורסם של מפעל TSMC ב-7 ננומטרים. מדובר באותו התהליך בדיוק בה TSMC מייצרת גם את הסיליקון שמאחורי ליבות העיבוד של Ryzen 5000. למעשה, AMD מגיעה למצב בו היא בוחרת כיצד להקצות את פסי היצור שנותנת לה TSMC במפעל.
בין מטרות RDNA 2 – שיפור יעילות חשמלית, שיפור ביצועים פר מחזור שעון והספקת מענה סיליקון לכל שכבות הביצועים היעודיות. הליבה המלאה של RDNA 2 מכילה 80 קבוצות עיבוד לעומת 40 בלבד שהכרנו ב-RX 5700 XT. בנוסף, ישנו זיכרון מטמון גדול במיוחד מרמה שלישית.
הנסיון של AMD עם מעבדי ה-Zen שלה מלמד אותה שזיכרון מטמון מרמה שלישית הוא רכיב מאוד חשוב לביצועי מעבד. בליבות RDNA 2 החליטה AMD ליישם את העקרון הזה, לקרוא לו Infinity Cache ולצייד את הליבה ב-128MB של אותו זיכרון מטמון עשיר. בריכת הזיכרון הגדולה הזאת תאכיל את ליבות העיבוד השונות בזריזות עם מידע חיוני לצרכי פלט גרפי.
בשל שיפורי המטמון ושאר אלגוריתמים בארכיטקטורה, כל אשר השבב הזה זקוק לו הוא בקר זיכרון ברוחב 256BIT על מנת לתקשר עם הזיכרון הגרפי בלוח המודפס. בקר רזה שכזה חוסך המון משאבים בהשוואה לשימוש בבקרים רחבים יותר. AMD החליטה להרים את הרף ולהגדיל את כמות הזיכרון הגרפי המצוי ל-16GB מסוג GDDR6. הנפח הזה בהחלט נותן יתרון יחסי אל מול התחרות, כרטיסי המסך RTX 3080 בעל 10GB ו-RTX 3070 בעל ה-8GB.
בכל אחת מקבוצות העיבוד שבליבה הגרפית הזאת מתחברים גם שני רכיבים המיועדים ל-Ray Tracing. כן, עם ההשקה הזאת, NVIDIA היא כבר לא היחידה בעלת חומרה יעודית ל-Ray Tracing בכרטיסי מסך. חשוב להבין שכשמדובר בנדל"ן סיליקוני, ההשקעה של AMD במעבדי Ray Tracing היא צנועה משמעותית מאחוז הסיליקון הגדול שבליבות NVIDIA האחרונות למטרה זאת. על מנת להנות מטכנולוגיית ה-Ray Tracing חשוב לדעת אם המשחק תומך בכך. הטכנולוגיה נקראת DXR או DirectX RayTracing והיא זמינה בכותרי DirectX 12 מסויימים בלבד, ממש כמו קיימות של טכנולוגיות RTX מסוימות של NVIDIA.
AMD חזתה עוד בעידן RDNA הראשון שתשפר 50% ביעילות חשמלית פעם נוספת במעבר ל-RDNA 2 כמו שעשתה במעבר מ-GCN, דור כרטיסי המסך של RX 580 הקדם ל-RX 5700. עם דור RDNA 2 טוענת שהשיפור בפועל עקף את הציפיה ועומד על עד 54% ביעילות החשמלית.
התוצר של מקצה שיפורים יחד עם ההתחייבות לשטח סיליקון גדול ויקר הולידו את ליבת ה-NAVI 21. היא הליבה שמככבת בשלושת כרטיסי המסך החדשים של AMD: ה-Radeon RX 6800 XT, ה-Radeon RX 6800 וה-Radeon RX 6900 XT. שטח ליבה של 536 מילימטר רבוע בתהליך היצור של 7 ננומטרים הוא כזה שאפשר לייצר ממנו מספר מוצרי Ryzen עם רווח גולמי גבוה, ובכל זאת, בשל הצורך לספק מוצר לעולם הגרפיקה, אנחנו מקבלים את כל הסיליקון הזה עבור כרטיס מסך בודד.
כרטיס המסך Radeon RX 6900 XT הוא זה המכיל את כל 80 קבוצות העיבוד הזמינות בליבה הזאת. הליבה הגרפית של ה-RX 6800 XT מכילה 72 מהן, וזאת ב-RX 6800 מכילה 60 מהן בלבד. סגמנטציה שכזאת מאפשרת יצירת מוצר בעל ביצועים שונים בתגי מחיר שונים, גם אם איכות הסיליקון מעט פחות איכותית. מעטפות החום של שני המובילים הינן 300W וזאת של RX 6800 היא 250W. הסיבה למעטפת חום זהה גם בדגם בעל יותר חומרה פעילה על פי AMD היא שרמת הסיליקון הגבוהה מאפשרת זאת מבלי לדרוש יותר חשמל.
כפי שהצגנו באיטם תמונות המוצרים – שני כרטיסי המסך אשר מושקים היום הם ה-RX 6800 XT וה-RX 6800. כרטיס המסך RX 6900 XT יושק בתאריך מאוחר יותר.
כרטיסי המסך הללו הינם באורך של 26.7 סנטימטרים. גובהם הינו 12 סנטימטרים. ה-RX 6800 XT עבה יותר, 5 סנטימטרים. עוביו של ה-RX 6800 הינו 4 סנטימטרים. שני כרטיסי המסך הללו דורשים צמד חיבורי חשמל מספק הכח מסוג 8PIN PCI-Express.
ממשקי התצוגה כוללים שנייים מסוג DisplayPort 1.4, אחד מסוג HDMI 2.1 ואחד מסוג Type-C בעל פרוטוקול DisplayPort 1.4. ניתן להשתמש בכל ארבע היציאות בו-זמנית.
אקסקלוסיביות עבור קהל יעד נטול יכולת רכישה
לפני שניגש למבחני הביצועים עבור כרטיסי המסך הללו, ישנן תכונות כלליות נוספות שכדאי להכיר עם כרטיסי המסך החדשים של AMD.
טכנולוגיית Anti-Lag היא כזאת שמאפשרת הנמכת זמן תגובה בין הקלדה או שימוש בעכבר לפלט במסך על ידי שימוש בסנכרון של עיבוד פריימים בין המעבד לכרטיס המסך. טכנולוגיית Radeon Boost היא כזאת שמאפשרת שינוי דינאמי של רזולוציית משחק על מנת לשפר את כמות הפריימים לשניה שמקבלים, שימושי בעיקר במשחקי ספורט תחרותי למיניהם.
טכנולוגיה מעניינת נוספת שמושקת עם סדרת Radeon RX 6000 היא ה-SAM או Smart Access Memory. מי שמכיר את החומרה של קונסולות המשחק יודע ש-AMD פיתחה יחד עם סוני שיטה לאחסון ושליפה מהירה יותר של מידע גרפי מאמצעי האחסון במערכת אל כרטיס המסך. כאן AMD מחליטה לאפשר את הטכנולוגיה הזאת גם עבור משתמש המחשב הנייח. עם זאת, ישנן שלל הגבלות. הראשונה והכואבת למדי היא שהתכונה הזאת אפשרית אך ורק בשימוש מעבדי Ryzen 5000 שהושקו ממש עכשיו ועדיין קשים מאוד להשגה.
התכונה השניה שנדרשת היא שימוש בלוח אם בעל ערכות שבבים מסדרה 500 דוגמת B550 או X570. על פי AMD ניתן להבחין בשיפורי ביצועים בשלל משחקים אשר נעים בעיקר בין 0% לבין 5% כאשר ישנם גם מקרים נדירים יותר בהם ניתן לראות שיפורים של בין 6% ל-12%.
אנחנו לחלוטין מצפים ממגוון מדיות ברחבי העולם לכסות בצורה רחבה למדי את שיפורי הביצועים כתוצאה משימוש בטכנולוגיה הזאת. אמנם, חשוב מאוד לציין כי עוד לפני ההשקה היום ציינה NVIDIA במפורש כי גם היא תביא שימוש בטכנולוגיה הזאת, כאשר אצלה אפילו לא ידרש מעבד או לוח אם מיוחד. על מנת לפנות אל הרוב המוחלט והמוחץ של קהל היעד של כרטיסי המסך הללו, וגם כדי לתת הזדמנות ל-NVIDIA להשיק את הטכנולוגיה שלה (ול-AMD להגיב עם פתיחת הנעילה הקיצונית) – אנחנו נבחן את סדרת Radeon RX 6800 מול סדרות כרטיסי מסך אחרות על אותה פלטפורמת אינטל ניטרלית עליה בחנו עד כה את כל כרטיסי המסך החדשים לאחרונה. לכן, חשוב לקחת את התוצאות בקונטקסט הראוי.
זמן להתקין את כרטיסי המסך במערכת ולראות האם הם עומדים במטלה – כל זאת בעמוד הבא
תודה רבה, ביקורת נהדרת!
רק תיקון קטן:
אמור להיות "המסקנה".
לא מאמין שהעתקת את כל הפסקה רק כדי להעיר על תיקון של מילה אחת בסוף.
היא גם קצת מסכנה.
תודה.
עוד שגיאת כתיב + תיקון סמנטי:
2. לכאורה אמור להיות RX 6800XT, לא? הרי הוא יצא אחרון ולכן רק לAMD הייתה האפשרות להתכוונן כנגד RTX 3080 ולא להפך.
הביקורות הראשונות מתחילות לזרום:
שאלה: האם צריכת החשמל הנמוכה תגרום שכרטיסי RADEON יהיו פופולריים יותר במחשבים ניידים?
הכל כמובן נמכר כבר והפעם זה לחלוטין היה paper launch כאשר גם מפיצים ענקיים כמו ניואג מדברים על מספרים דו ספרתיים של כרטיסים בלבד.
הכרטיסים רק יצאו והכל ב SOLD OUT באמזון וניואג!
עוד ביקורות צצות לאט:
איטם כיוונון מתחים ויחס צריכת חשמל מעמיק בקנה, הסופש גולשים יוכלו להתעמק בו. תובנות מאוד מעניינות
לפי הסקירה של Gamers Nexus SAM מוסיף 1-3 אחוז בביצועים.
בעולם ללא DRX מה ש-AMD השיגו עם ההשקה האחרונה מרשים ביותר.
אבל הכל הולך לכיוון DRX ולכן NV נשארים בשלטון ה-GPU ללא עוררין (וזאת לצערי, RT לטעמי זה פיצ'ר שאפשר בקלות בלעדיו).
יפה לראות את היחס ההפוך בין צריכת החשמל, הטמפרטורה הנמוכה בעומס והרעש לבין הביצועים- כמה שהם שלובים זה בזה.
מניח שה-16GB לעומת 10 GB יהיו נקודת המכירה\וויכוח\מלחמות עולם בין 2 המחנות וזה חבל כי אין באמת סיבה. 10GB לגמרי יספיקו בעתיד הקרוב אבל 16G "מרגישים" יותר טוב ונכון.
בקיצור, למי שלא מחפש RT אבל רוצה 4K שילך על AMD בסיבוב הזה. אם יצליח להשיג חתיכה…
omertgm – בדיוק.
למרות שבביצועים רגילים AMD השיגה פה הישג מרשים, ברגע שמפעילים RT הביצועים של כרטיסי נווידיה פשוט מתעלים על אלו של AMD. הגיוני מכיוון שזה כבר הדור השני של נווידיה ב RT, אבל חבל שבזה AMD לא מתחרה היטב. ברגע שמפעילים DLSS (במשחקים בהם יש בזה תמיכה, אין הרבה כאלו), נווידיה פשוט פותחת פער גדול מאוד.
הביקורת של Hardware Unboxed:
ממה שאני ראיתי הכרטיסים החדשים של AMD ממש לא מתאימים ל4K ונותנים ביצועים גרועים יותר בכמעט כל המשחקים.
אם באמת היה אפשר להשיג RX 6800XT ב650$ אולי זה באמת היה רלוונטי, אבל בעולם בו אי אפשר להשיג אף אחד מהכרטיסים ולMSRP אין משמעות אני לא רואה למה שמישהו יקנה AMD אם הוא יכול לקבל בנוידיה ולקבל ביצועים דומים ברוב הכותרים וביצועים משמעותית יותר טובים עם RT וDLSS.
הישג מרשים מאוד. אם הקפיצה בדור הבא תהיה שוב באותו סדר גודל זו כבר תהיה אופרה אחרת לגמרי.
Moon-Mage – תציץ בסקירה של Hardware Unboxed ותראה שזה לא לגמרי נכון.
הממוצעים שלי ושל סטיב מ-HU יצאו דומים, כמעט זהים בכל המצבים בהם יש נטו רסטריזציה ולא RTRT. בדרך כלל יש קצת שיח מדיה לפני השקה של מוצר כזה לראות שהכל מסתדר, והפעם פחות היה לי אישית עניין בזה. שמח לדעת שהתוצאות הגיוניות אחרי כל העבודה הזאת.
יהיה מעניין לראות את הנוף משתנה. מהכיוון שלי בעיקר לשבת על גבעה ולצפות בהמולה…
אם AMD לא יוסיפו חומרה יעודית בדור הבא ליכולות RT ומקביל לליבות טנזור הם ישקעו שוב למקום בו הם היו בשנים האחרונות.
NV כבר עשו את הקפיצה הדרושה ו"ספגו" את העלות בדמות צריכת חשמל, זה ניכר היטב בסדרה 3000. AMD עדין צריכים לעבור את המשוכה הזו וזה לפני שאינטל תצטרף לחגיגה.
AMD יצטרכו להשקיע הרבה יותר מעכשיו כדי להישאר במרוץ לצמרת. ברגע ש-NV יקבלו גישה לאותה טכנולגיית ייצור 7NM מתקדמת הפער יגדל שוב לטובתם די בוודאות.
לא ביגלל שעברו לסמסונג ?
0 0
ראיתי את כל הסקירה וזה מאד נכון, ה3080 מנצח כמעט בכל משחק אפשרי ב4K וזה בלי DLSS שאיתו כמובן של6800XT אין שום סיכוי וזה גם אם מתעלמים מRT שגם שם הRX 6800XT מתרסק.
ה6800XT כרטיס מצוין לחלוטין לFHD ו1440P, אבל אני אישית הייתי ממליץ על ה3080 ל4K או למשחקים עם DLSS וRT.
ואני לא ממליץ בכלל לקנות היום בואכה 2021 כרטיס במחיר צמרת עם רק 8 או 10GB זכרון,
אלא אם אתה קונה עם אפס הבנה במחשבים קוד תוכנה והתפתחותם לאורך הזמן.
יש להמתין ל- 3080ti עם בשאיפה 20GB , או לכל הפחות 12GB . אחד מהשניים שלא להתקע
מהר מדי עם מעצור לדלת במחיר מופקע.
מה ההשפעה של הזיכרון על ה-FPS? ז"א עד כמה ה-FPS יפגע כשיגמר הזיכרון?
נראה לי שבלי המספרים האלה האמירות שלך הן לגמרי באוויר.
האמירות שלי לא רק שאינן באויר, אלא הם מדעי המחשב פר אקסלנס.
ברגע שנגמר למכונה הזכרון היא יורדת ל- swap page.
בצע סימולציה להתרשמות עצמית, חרוג מכות הזכרון שיש לך בככרטיס מסך, בנגיד 2GB בתור דוגמא,
נתר את הביצועים ועקוב בעיניים שלך אחרי גמגומים המתרחשים מעת לעת כשכותר טוען טקסטורות
ברקע, כאשר אינן נמצאות לו ב- VRAM. מה שנקרא page swap מול ה RAM הכללי של המחשב ותקבל
תשובה טובה לשאלתך.
ככל שחורגים מכמות הזכרון הנחוץ הגמגומים ילכו ויחריפו.
כותרים טריים של היום בואכה 21, הכי חדישים, רוצים לראות סביבות 10GB ואפ מעל לערך זה, ככומת זכרון עדכני
לכרטיס צמרת שמריץ 4K הגדרות גראפיות מקסימליות. וזה ילך ויחריף ככל שעובר הזמן. לא ירחק היום שירצו מעבר ל 12GB גם
בטח כשיש בשוק כרטיסי 16GB כסטנדרט כבר.
לא מסכים עם מי שאומר שray tracing זה מיותר. כל משחק שיוצא עכשיו יוצא עם תמיכה בזה כי הקונסולות מקדמות את זה כאילו זה הדבר הבא. להזכירכם, הקונסולות כולן עובדות על AMD. גם במשחקים כרגע, בשניה שמדליקים ray tracing, הקונסולה רצה בבקושי 30 פריימים. אנחנו הולכים לראות את הפיצ'ר מרסק הביצועים הזה בכל משחק. לAMD לא אכפת, כי בעלי קונסולות אוהבים חוויה "סינמטית" של 30FPS. שחקני PC שרוצים לנצל את מסך 144hz שלהם, שיהיה להם בהצלחה לשחק Minecraft RTX ב12 פריימים לשניה…
את התיאוריה אני מכיר לפחות טוב כמוך. צא מתוך נקודת הנחה, שמה שאתה יודע בתחום, גם אני יודע.
אני שואל אם ראית בנצ'ים שמראים את ההשפעה של זה, או שהכל בגדר תיאוריה (שוב, לא אומר שזה לא יתברר כנכון כשיבדקו, אבל כל עוד זה לא נבדק…)
בתחום הזה ישבנו והתעסקנו רבות בפיתוחים כדי להבין השלכה של חריגה. הבנו, שמוטב לעשות הכל על מנת שלא לחרוג
כי יש עונש מורגש ומדיד בהחלט. יש טריקים שבהם אתה מסנכרן שחלוף טקסטרות בין VRAM ל- RAM (כדי להגדיל את הבנק
טקסטורות הקיים מחוץ למגבלות ה- VRAM) להתבצע בנקודות טעינה מתוזמנות מראש בכוונה מתוכננת, כמו מעבר שלב
כניסה יציאה, מקומות שבהם ה stutter לא מורגש או לא מפריע ממש. הצורך בשמוש בשיטות האלו זה רק למקרה שאתה
כמפתח די בכוונה מתכנן את המוצר שלך לעבוד ככה, בפועל לא משתמשים בזה. עם הזמן הבינו שמוטב לתכנן את גודל הטקסטרות
לגודל VRAM הזמין , הכי פשוט הכי בטוח ולא דורש עבודת מאמץ מוגזמת או עונש למשתמש.
כותר doom מבית id software שנחשת להערכתי למפתחת מס' 1 בעולם בתחום ביצועי תלת מימד, בכותר הטרי שלה doom ethernal
מוודאת שאתה כמשתמש לא חורג מההקצאה. היא לא רוצה שהמשתמש יחווה פגיעה ביצועית. אם תנסה לשים הגדרה שחורגת
הוא יעצור אותך ולא יבצע apply, אלא יתן למשתמש התראה לשנות הגדרות לכאלו שכן נכנסות במגלבת VRAM של המאיץ.
מפתחים טובים עובדים כך ולא נותנים למשתמש את הגמישות לעשות שטויות.
גם זה, NV כרגע רצה עם 2 משקולות על הגב ש-AMD עדין לא העמיסה:
1- יכולות RT ו-DLSS בחומרה ייעודית.
2- תהליך ייצור תת אופטימלי של סמסונג ביחס של 7NM המשויף של TSMC. בכלל לא מדבר על 5NM.
אני מעריך שתוך חצי שנה NV יתחילו לדבר על "ריפרש" של אמפרה על 7NM משופר AKA גרסאות SUPER.
מצד שני, NV בעלת הגישה הבלעדית לזיכרון DDR6X וזה נותן להם רוח גבית שאין ל-AMD (וכנראה גם לא יהיה..).
אגב, בחזית התוכנה\דרייבר נראה שגם הפעם AMD מתמודדים עם בעיות לא נעימות (נפילות תדר חמורות ב- CONTROL). הצטברות בעיות כאלו לגמרי יכול להטות את הכף (המאוזנת) אם הם לא יטפלו בזה בחודש הקרוב, ועדיף מהר יותר.
מסכים. מה שיקבע את הצלחת מוצר זה או אחר זה הזמינות לצרכן הקצה.
החברה שתצליח להעמיד מלאי ולשים כרטיס על כל מדף בכל חנות היא זו שתבסס את הצלחתה בסיבוב הזה.
מצב זה נובע לאור האיזון היחסי בין המוצרים מ-2 החברות בקצה העליון, דבר שלא נראה כבר שנים רבות.
למה אין לAMD גישה לDDR6X?
להבנתי NV השקיעו בפיתוח שלהם וזה הקנה להם בלעדיות, היצרן היחיד של DDR6X הוא מיקרון.
מעניין.
אך עדיין לא השתכנעתי למה להעדיף נבידיה על פני AMD.
RayTracing לא ממש מעניין אותי אם הוא מפחית ביצועים.
משחק בעיקר Multiplayer, אז כמה שיותר FPS יותר טוב והעלות-תועלת של AMD נראה יותר גבוה
ל3070 עדיין יש את היחס עלות תועלת הכי טוב בדור הזה.
DLSS נותן לך בוסט מטורף לביצועים בכותרים שתומכים, אם אתה צריך איזשהו פיצ'ר של סטרימינג אז גם שם רק לנוידיה יש כלים מוכנים.
וה"עלות תועלת" לא באמת רלוונטית אם אין שום קשר בין הMSRP למחיר שתצטרך לשלם בשביל לקבל כרטיס.
לא ניסיתי לשכנע ש-NV עדיפה בכל מצב.
אם RT לא מעניין ולא יעניין אותך אז כמו שרשמתי מקודם, AMD הם בחירה טובה מאוד וכנראה עדיפה בשלב (תיאורטי=>מלאי לא קיים) זה בסגמנט הגבוה.
כרטיסי 8 או 10 גיגה לא מספקים כבר היום. יש כותרים שב 4k הגדרות מלאות חורגות מנפחים אלו. מ 8 גיגה בעיקר. דום החדש לדוגמא.
שוב מדבר באוויר. מבחני הביצועים מראים שכיום גם 10/8GB מספיקים.
למה זה משנה למישהו אם תיאורתית נשארים כמה פריימים מאחור אם בשורה התחתונה הוא רואה יותר פריימים מאשר עם המוצר המתחרה?
עזוב אותך, הוא בעולם משלו והעובדות לא מעניינות אותו.
ה3080 וה3070 מציגים scaling משמעותית יותר טוב ב4K והוא ימשיך עם המנטרה הלא קשורה שלו.
אני לא מומחה באיך כותבים משחקי מחשב, אבל הרבה תוכנות פועלות על עיקרון של RAM פנוי זה RAM מבוזבז ותופסות הרבה יותר זיכרון ממה שהן צריכות. פשוט כי אין סיבה להפעיל garbage collector אם לא מזוהה מחסור בזיכרון פנוי.
אז מאוד יכול להיות שאם משחק מזהה שאין מספיק זיכרון פנוי, הוא פשוט יהיה קצת יותר יעיל עם הניהול זיכרון שלו (עם השפעה מינימאלית על הביצועים) במקום מיד להתחיל להשתמש בswap page..
הוא חושב כמו nec, בעצם גם כל הסוקרים ברשת טוענים אותו הדבר:
בעצם אתה מקשקש (ומדבר על עצמך בגוף שלישי).
ה-6800 הוא בעל הערך הנמוך ביותר (דולר לפריים) מבין ה-3080, 3070, 6800xt ו-6800
בלי להיכנס לתוכן, זוהי דרך סבירה כאשר הוא מגיב על טענות שהופנו נגדו, בסוג של ציניות קלה.
אתה אדם חוצפן וילדותי.
זה שאינך נוטה ללמוד (כהרגלך) ולהשאר בור, זו כבר בחירתך.
קרא, אולי תלמד משהו אודות הסיבה להבדל בלינאריות ההספקית שבין ביצועי RDNA ל- am,pere במקום לנסות ולקטין חברי
פורום בשפה ירודה של בני טיפשעשרה: "העובדות לא מענינות אותי עאלק."
בזכות חבר פורום nec עכשיו גם לך יש מושג מדוע התופעה מתרחשת:
ההסבר שנתת נכון לכתיבת קוד עבור CPU, אך אינו רלוונטי לאכסון זכרון ב- VRAM של כרטיס מסך.
בכרטיס מסך רובו המכריע של ה- VRAM נועד עבור אכסונן של הטקסטורות, על מנת לאפשר בידי רכיב ציור הפקסלים
להשיג מספיק הזנה ליחידת זמן, שאם הפיקסלים ידרשו הרי להקרא מה- RAM האיטי של המחשב, המעבד הגראפי ישאר רעב
וההספק הגראפי ירד לרצפה.
מיעוטו של נפח הזכרון נדרש, עבור המידע הגאומטרי (הוקטורים), כמו גם לחישובי ביניים בתהליך (אלו שבין השלבים השונים)
ומיעוטו האחר לאחזקת ה- frame buffer כמקום הכתיבה של הפלט בתהליך בניית התמונה.
אין בשיטת צריכת זכרון מסוג VRAM על גבי מאיץ מסך, אכסון של רכיבים מיותרים, זהו אינו קוד ההרצה של התהליך.
כמוסבר לעיל רובו המכריע של הזכרון הוא ממילא חומר הגלם לציורה של התמונה שאלו הן הטקסטורות.
בהצגת נתון צריכת הזכרון מסוג VRAM מדובר ב- 100% הזכרון הנצרך לשם יצירת התמונה ואין מידע מיותר שמה.
זמני לגמרי. יהיה זמין לכולם הוא בתהליך תקינה.
זה לא נכון.
מבחני הביצועים מראים בבירור, חפש תראה ואםפ תתקשה אביא לפניך,
שהיכן שצריכת הזכרון מתחילה לזלוג מנפח ה- VRAM, הביצועים מתחילים לרדת.
במיוחד נפגע min frames מכיוון שחוסר בזכרון VRAM מוביל לשחלוף טקסטורות עם ה RAM אחת לזמן מה, רק כשצריך לרנדר
טקסטורה שכרגע איננה בנמצא, ובאותם מקרים של שחלוף מול RAM, נוצרות נפילות בעצמה גדולה בתהליך, עת הליבה הגרפאית
ממתינה שתהליך השחלוך יסתיים כדי להמשיך בעבודתה.
במקרה שכזה ה- average FPS גם מושפע מטבע הדברים, אך לא באותה עוצמה כמובן, כמו שמושפע min frame rate שמוביל
לתקיעות קצרצרות עד גמר השחלוף. תופע השמכונה באמגלית stutter.
אם יש לנו אחת לכמה שניות נפילה, הדבר מאד מורגש בחווית משתמש. מצד שני אם נסתכל רק על average FPS הפגיעה
של תמונות בודדות אחת לכמה שניות מתות עשרות אלפים, תריד את המוצע במעט ויהיה קשה להקיש ממנה על הבעיה האמיתית.
רשמת למה זה מעניין אם הוא מבhא יותר פריימים מהמוצר המתחהר.
אלא שבמקרה הזה גם זה לא מתקיים, שכן 6800 מספק יותר פריימים מ 3070 anyway.
משמע שגם יש לו רק 8 GB זכרון, וגם הוא איטי יותר מ 6800 ולא ההפך.
ספציפית דיברתי על ה-3080.
לגבי ה-3070 לעומת ה-6800, אל תשכח שיש הבדל לא קטן במחיר.
מנסה לדאוג לך כדי שלא להשאיר את הבימה רעבה.
חיפוש מהיר מצא סרטון אחד לדוגמא, של מישהו המנסה לבדוק מה קורה כשמגדיר יותר זכרון בכותר
משחק, מאשר יש בפועל במאיץ הגראפי. הוא רוצה לראות מה זה עושה. הוא מדווח אל חווית stuttering
בדיוק כמצופה שיקרה:
ראיתי את זה. בחלק השני הוא מנסה את זה עם יותר זיכרון ומעבד חזק יותר והמצב משתפר בהרבה.
נראה שזה מאוד תלוי בשאר הרכיבים במערכת וקשה להסתכל על משהו אחד ולהגיד שזה בגללו.
לגבי 6800 יש הבדל של עוד 15% במחיר, שמספקים תוספת ממוצעת של משהו מקביל גם ב- FPS, אבל זו לא התמונה הנכונה:
באמצעות רק 8GB זכרון, מוצר כדוגמתו של 3070 נולד על גבול DOA מבחינת תוחלת החיים שנותרה לו.
להיום זה מספיק על הקסקס כמו שאומרים, בדוחק. מי שקונה אותו מצפה הרי לחווית גיימינ גבוהה כמקובל מכרטיס hi end,
קרי רזולוציה גבוהה ו- full eye candy, רק שלא יוכל לקבלה. וכבר בשנה הקרובה (ובטח שבזו שאחריה) יתקל במגבלות.
מנגד העוד 15% שעולה 6800, שמביאים לנו עוד 15% FPS כאמור, קונים לנו גם אפשרות להתאים לכל כותרי המשחק
ל- 3 שנים קדימה בשקט (ואולי טיפה מעבר). מה שלא יוכל 3070 לספק, ולכן העוד 15% הללו משולים ליותר מ- 15%
בפרקטיקה המעשית על ציר הזמן. ולכן הוא בוודאי הקניה המועדפת בהביט הזה. זו מסקנת כל הסוקרים גם.
לגבי 3080 אותה הבעיה של זכרון קצר מדי, אם כי טיפה פחות קשה, עד שנחרוג מ- 10GB יש לו כחצי שנה יתרון להערכתי
על פני 3070 (בהתיחס לעקום קצב גידול צריכת הזכרון מצד כותרים).
אלא, שגם לגביו הטעון שהוא נותן יותר FPS, אינו נכון. בפועל הוא ו- 6800XT נחשבים שקולים זה לזה בממוצע הרחב של הדברים.
לכל אחד מהם יתרון קל לפה או לשם כתלות ברזולוציה ובכותר.
אפרופו לגבי שקילות בין הכרטיסים הללו, ראה ביחד איתי את ההשוואה הבאה שנעשתה ב- 1440P, צפה עד הסוף:
ראה,
כבר כתבתי לך פה בשרשור קודם ואני בטוח שאתה זוכר, שאני אישית לא צריך את ההדגמות של משהו, שמכיר אותו
היטב כפועל יוצא מפיתוח בתחום ועסוק מקצועי בו. זה באמת אינו חדש לי. אבל לך זה כן חדש, אז אתה צריך עבור עצמך להבין ולחוש את העסק.
לפיכך בצע כדלקמן: שים במחשב כרטיס מסך אחר, לא את ה 3090, משהו משומש ישן שיש לך. שחק עם ההגדרות ובצע סימולציה
להתרשמות עצמית. חווה את תוצרי הלוואי במכונה שלך בבית כשמגדיר חריגה מ- VRAM. הנני סמוך ובטוח שמיד תתפוס מה קורה ולא תזדקק
לי או לסרטונים כדי להבין מה מתרחש. זה קל מאד ומהר רואים זאת.
בבקשה:
https://www.resetera.com/threads/msi-afterburner-can-now-display-per-process-vram.291986/
והנה גם בדיקות שמישהו כבר עשה עם זה:
אני חושב על להקדיש זמן לחקר תפוסת VRAM, קאשינג של VRAM במנועי משחק מודרניים, ולמה חשיבה קונבנציונאלית במונחי תפוסת VRAM עלולה להטעות. לא בטוח שיהיה פופולארי במיוחד, אבל תוהה כמה זה מתבקש.
יש אפשרות להגביל את כמות הזכרון שמשחק יכול לנצל?
יהיה מעניין לקחת את ה 3090 ולהגביל לו את הזכרון ל 8, 10, 16 ולראות הבדלים במשחקים כבדים.
ליאור,
אני מאד בעד לערוך בדיקה שכזו שכן הנושא אקטואלי בסבב השקה הנוכחי יותר מתמיד. בעבר לא היו השקות של "זכרון על הקצה"
וזה משהו תקדימי, חברים וחובבים צריכים להבין משמעות של קניית היום כרטיס ולו 8 או 10GB זכרון, מה המשמעות כשכותר רוצה יותר ?
תקציר לפרקים הקודמים:
השנה 2016 ולראשונה נוידיאה משיקה כרטיסים ולהם 8GB זכרון, היו אלו GTX1080/1070 כאשר בדור שלפניהם 980ti החזיק 6GB.
אלא ש… עברו שנתיים השנה 2018 והשקת סדרה 2000 לא העלתה את נפחי הזכרון ועדיין כרטיסי 2080/2070 שווקו עם 8GB זכרון.
הצידוק אז היה, שהיות ולא חל שפור משמעותי בהספק של הליבות, הדבר מתקבל בהבנה. שהרי דור 2000 בעיקר הוסיף יכולת RT חדשות
ופחות התייחס או שיפר יכולות רסטריזציה, ומשכך הספק הכח של הליבה נטען היה, דומה לדור הקודם ואין טעם להעמיס עליו עוד נפח
זכרון שממילא יתקשה לטפל בו.
אלא שעוד פעם עברו שנתיים השנה סוף 2020 וסדרה 3000 לא העלתה בשנית את נפחי הזכרון, עדיין אנחנו עם 8GB ב- 3070.
הפעם התרוץ שהליבה לא התחזקה אינו עומד עוד, דור 3000 כן מספק קפיצה משמעותית בהספק הליבות, שעתה כן יכולות לטפל
ביותר data ליחידת זמן, אך ללא גידול מקביל בנפח הזכרון כזה שתואם לליבה החזקה יותר, הליבה לא תנוצל כמו שצריך. יש כאן
פספסוס.
המשמעות היא, שלושה דורות רציפים 1070/2070/3070 שבהם לא מועלה נפח הזכרון והוא תקוע עדיין על 8GB. מהשנה 2016 ועד 2020.
נזכור שהכרטיסים דור 3000 נועדו לשרת בשוק עד השנה 2022 בה תושק סדרה 4000. משמע שבפועל יהיו אלו השנים 2016 ועד בואכה 2022
בהם נפח זכרון 8GB יצטרך לתת מענה למשתמשים. זה משהו כמו 6 שנים.
מעולם לא היה כדבר הזה הסטורית, תמיד נפח הזכרון היה מוגדל מדור לדור. הליבה הרי מתחזקת בין הדורות, היא מסוגלת לעבד יותר,
אז מאפשרים בידה יותר שטח עבודה על מנת להזין את ההספק שלה בחומר גלם. אין חוכמה לחזק ליבה, מבלי לקבל שפור באיכות הגראפית.
ליבה לבדה אינה משפרת גראפיקה, אך נפח חומר הגלם שמרכיב את התמונה כן. הליבה מצויה במערכת על מנת להעבד את החומר גלם
שנתנו בידה. למעשה עם מחזקים את הליבה הגראפית אך לא מעלים את הנפח זכרון במקביל, מונעים עליה של האיכות הגרפאית על
חשבון שפור ב FPS לבדו. אותו חומר גלם ויותר הספק חישובי שווים יותר FPS ללא שפור ויזואלי.
לא נראה שזו כוונת הצרכנים והמפתחים של הכותרים. הם רוצים עליה באיכות הגראפית בליווי שפור בביצועים, גם וגם.
בעוד שבהשקה המקורית ב- 2016 8GB היה נפח גדול אז ופרץ תקרה לעומת הדור הקודם סדרה 900, והכותרים לא התקרבו ללנצל
נפח שכזה אלא היו טיפוסית תקועים בניצול של עד 4GB, משום שבשוק שלטו כרטיסי 970/980/290 , זה היה הגיוני לתת ל- 1070/1080
נפח של 8GB ולהקנות להם הכנה לשנים הבאות.
אך במעבר של עוד שני דורות נוספים קדימה עד להיום 2020 ואנחנו רואים 8GB ניצולת זכרון טיפוסית בחלק גדול של כותרי משחק.
מדוע זה קרה ? משום שכותרים של היום נולדו לאויר העולם בידי מפתחים, שחיו בתקופה בה 8GB זכרון הוא דבר נפוץ כבר. לא רק
בכרטיסי צמרת אגב, כי אם גם בכרטיסי ביניים, זה התחיל ב- R9 390 משנת 2015 והמשיך ב- RX480/580 עד נעשה לדבר שגרתי כולל
בכרטיסים זולים. אז המתפחים ניצלו זאת משיש מספיק כרטיסים בשוק שיש להם נפח כזה.
בעולם בו 16GB מתחילים להיות דבר נפוץ בזכות השקתה של סדרת RX6000, מפתחים ישתמשו בהקצאה הזו בשמחה, למה לא,
יעלו את האיכות הויזואלת שאפשר לקבל באמצעות הגדלת הרזולוציה של הטקסטורות (ומגוון הטקסטורות) שניתן להכניס, ובכך לספק יותר
חומרי גלם לליבת הכרטיס והאפשריים להצגה לעין הצופה. כרטיס שלא יהיה בידו נפח הזכרון הגדול הזה, יעבוד אין ספק, אך לא בהגדרות
ויזואליות מקסימליות, אלא מתחת להן. כאלו שבהן כמות/איכות הטקסטורות נמוכה יותר. למשל במקום הגדרות ultra יפעילו high (או mid).
מה שמתכנס לנפח זכרון הזמין.
סבורני שכל חובב מחשבים יסכים, כי מי שקונה כרטיס מסך בתג מחיר של 500-700$, מתכוון לרכוש כרטיס hi end ולא כרטיס mid ground.
ולכן הוא לא יקבל בהבנה או בקלות מצב, שהכרטיס שבידו מוגבל בכותרים מודרניים שמנצלים 16GB , להסתפק בהגדרות גראפיות לא מקסימליות,
בשעה שהליבה שבכרטיס כן חזקה מספיק ובתאוריה יכולה לנצל 16GB זכרון זמין, אם רק היה לה כזה תחת היד.
איך אני אוהב שאתה מזיין את השכל על דברים במקום להסתכל על מספרים.
צירפתי לך לינק גם לגרסה חדשה של MSI Afterburner שמאפשרת להראות כמה מהזיכרון של הכרטיס הגרפי באמת בשימוש, וגם קישור למבחנים שמישהו כבר עשה עם זה והראה שבפועל משחקים רחוקים מה-8GB (שלא לדבר על 10GB).
בנוסף, הטיעון שמכיוון שיש יותר חומרה מפתחים יתחילו להשתמש בה נשלף רק כשאתה רוצה להצדיק את הטיעונים הלא מבוססים שלך. כשאמרו את זה על מספר ליבות של מעבדים, מיד קפצת והסברת שאין צורך ביותר מ-4 ואין סיבה לקנות היום משהו שאולי בעתיד נצטרך. אתה צריך להיות יותר עקבי. אולי זה קשה כשהדברים שאתה אומר הם תיאוריות שלא עומדות במבחן המציאות (שלא לדבר על זה שכל הודעה נערכת מספר פעמים והרבה יותר קשה להחזיק בקו לוגי אחיד, כי מי זוכר…)
דרך אגב, גם אני בדקתי בכמה משחקים ושום דבר לא מתקרב ל-8GB.
משחקים כמו gears5, COD MW cold war וכו'.
כשתלמד להיות מנומס, ולכבד בסגנון שפתך ובגרותך את עמיתך לפורום, תקבל התיחסות מכובדת במקביל.
הבאנו לך חומרים, גלגל מעלה את העמוד ולמד אותם (כולל קישור הדגמה איך נראת חריגה מגודל VRAM).
תפעיל doom ethernal 4K על nightmare graphic visuals וראה את צריכת הזכרון עולה מעל 9GB VRAM.
אתה מתעלם במופגן מהעובדה שהבדיקות נעשו על גרסת msi afterburner שלא הראתה צריכה בפועל של הזיכרון.
אנסה לחבר מסך 4K למחשב בשביל לבדוק עם הגרסה החדשה.
איזה כותבים מטעמם? הם בעצמם אמרו את זה ולא ניסו להסתתר מאחורי צד שלישי, בנוסף גם סטיב מ gamernexus ציטט אותם, ואמר שהנתון של הצריכת זכרון לא מציג את השימוש בפועל, והוא לא טען בשום שלב שהם טועים.
הבן אדם היחיד שלא יודע שהוא טועה הוא nec.
אשמח לדעת מה יהיו תוצאות הבדיקה.
אני יכול להעיד באופן אישי שב resident evil 3 remake הם נותנים חיווי זיכרון כמו ב DOOM ethernal ולפי החווי זיכרון על הגדרות מקסימליות ישנה דרישה של מעל ל 10 ג'יגה, אני חושב שבאזור ה 11 ומשהו ב 1440p. בעבודה עם RTX3080 חוויתי חווית משחק חלקה ללא דמדומים בכלל בקצב ריענון גבוה. לא הכרתי את הגרסה של MSI שבודקת את הצריכה בפועל אבל טוב לדעת.
מאוד מתבקש =]
התמונה הקודמת היא ב-3440X1440 כשהכל על מקס (כולל RT) בלי DLSS
זה ב-5K (שאר ההגדרות כמו קודם):
המשחק הוא CONTROL וכמות הזיכרון שרואים פה היא גם מה שמראה ה-TASK MANAGER של WINDOWS ככה שזה מדוייק.
תוכל גם שניה להראות לו שDLSS מוריד את צריכת הזיכרון?
לצערי מחקתי את RE3 ששם זכרתי שהיה את הדבר הזה ואין לי סבלנות להתקין מההתחלה.
ביצעתי בדיקה ב DOOM, Godfall ו HZD
יש ברשותי RTX3080 ומסך של 1440P. ביצעתי את הבדיקה ברזולוציה הרגילה ובאמצעות DSR של כפול 4, ז"א רזולוציה של 5120X2880 דרך לוח הבקרה של Nvidia.
DOOM ב 2880P
ז״א שגם עם 77% יותר פיקסלים מ-4K לא הצלחת לעבור את ה-10GB…
shocking.
קיצר, מסתבר ש (ואני מקווה שכולם יושבים, כי זה הולך להיות חתיכת שוק) Nvidia יודעים יותר טוב מ-NEC כמה זיכרון צריך.
עכשיו אם רק יהיה אפשר לקנות אחד
0 0
עם DLSS (הכי אגרסיבי שאני יכול):
אתה מביא סירטון מלפני חודשיים. לפני ששוחררה הגירסה החדש של msi afterburner שמאפשרת לבדוק זיכרון מנוצל לעומת זיכרון מוקצה. הוא אפילו מציין את זה שאין כל כך דרך לבדוק את זה למעט משחקים ספציפיים שיש להם כלי מובנה לזה.
יש לך פה דוגמאות שאנשים מהפורום הריצו ומראות את צריכת הזיכרון בפועל. או שגם הם מקבלים כסף מnvidia?
הסירטונים ש-NEC הביא מצויינים.
בסירטון הראשון הוא מסביר שהמפתחים של המשחק בוחרים את גודל הטקסטורות ובכך קובעים את גודל צריכת הזיכרון. כלומר יהיה להם צורך לדעת מה המינימום זיכרון שבו הם רוצים לתמוך. למשל אם יקבעו ש-8GB הוא הסטנדרט החדש, והם מצליחים לשמור על צריכת זיכרון נמוכה עם טקסטורות של QHD בלבד, אז אין להם טעם לשים טקסטורות יותר גדולות.
העניין של המשחק GodFall נראה לי כמו מעשה שיווקי של AMD להכניס לנבידיה מכה מתחת לחגורה.
לפי מה שהוא אומר בסירטון 4K BY 4K. אם אני מבין נכון זה כבר יותר מ-4K רגיל שהוא 3840 x 2160
מה מפתחים יעשו או לא בעתיד זה לא מאוד משנה לגבי רכישה של משהו עכשיו.
היום, ובעתיד הקרוב, 10GB יספיקו. ואני מוכן להמר שמה שיחנק זה הכרטיס עצמו ולא הזיכרון שלו. בטח אם תפעיל RT וכו׳.
על אותו טיעון ניתן להגיד שמפתחים יחליטו להתמיע ray tracing שם ל amd אין תשובה.
או להטמיע DLSS שזה לדעתי game changer אמיתי, ואז כל הדיון על פה על זכרון מקבל תפנית חדה.
DLSS מדהים.
אגב Cyberpunk נראה מעולה:
התמונות עם DLSS נראות יותר טוב מאלה בלי…
זה אחת מתופעות הלוואי וזה הפתיע גם את Nvidia, אבל לפעמים מקבלים תוצאה פחות טובה.
הסרטון הזה דירבן אותי לעשות עוד מאמץ. אז אנחנו מדברים על Godfall בהגדרות מקסימליות.
1440P
שתי הערות,
האחת אתה עם הכרטיס היותר בסדר בסבב הזה שיש לו 10GB זכרון, כאשר הבעיה העיקרית עליה אנו מדברים להיום,
היא הכרטיס המסכן יותר מדגם 3070 שיש לו רק 8GB זכרון. אם תנסה על 3070 ניסוים תגלה קושי ממשי.
אלא שכבר עתה למרות שיש אצלך ב- 3080 10GB אתה כבר על הקשקש כמו שאומרים – וזה לא שהכרטיס שרכשת הוא בן 3 שנים,
אלא בקושי בן 3 שבועות! משמע רכשת הכי יקר שיש הספינת דגל של נוידיאה, וכבר הנך למד, שהנה צריכת זכרון מביאה אותו
לניצול מלא של של הזכרון העומד לרשותו. אין יתירות שמה להמשך הדרך, אין היערכות לשנים הבאות.
שנית והפעם אהיה קצר כי אין לי סבלנות, מי שלא מבין מה ההבדל בין allocated ל- used זו בעיה שלו, שיגש ללמוד את הנושא לעומק.
הדוכן לימודים של nec סגור לעת הזו.
תקציר כדי בכל זאת כמו שאומרים:
צריכת הזכרון היא לחלוטין ה- allocated, זהו מרחב הכתובות שאליו כותב המאיץ הגראפי באופן דינאמי בהתאם לדרישה באותו רגע
בקוד התוכנה. מה שזולג ממרחב הכתובות המוקצה מעל כמות הזכרון הפיסית שקיימת לכרטיס, ממופה למעשה ל- RAM.
כידוע מהירות כתיבה/קריאה מ- RAM איטית בהתאם. used אינו המדד הנכון, הוא מטעה ומי שהציד אותו כסיל.
allocated הוא המרחב כתובות בפועל שאליו כותבים וממנו קוראים DATA.
פתחתי את הסקר של סטים, נכון לרגע זה 2.3% מחזיקים מסך 4K, אחוז אחד מחזיק 1440P ultrawide, ו7 אחוזים מחזיקים מסך 1440P סטנדרטי. 65% עדיין מחזיקים מסך FHD. אחוז לא מבוטל מחזיק מסך HD, כמעט קשה להאמין. לא חושב שמישהו בנוידיה מוטרד במיוחד מחסך בזכרון ברזולוציה שאף אחד לא משתמש בה. בכל אופן, ה5900X יצא לדרך, איכשהו קפצתי ממקום 173 בתור ל"החבילה נשלחה", עכשיו נשאר להרהר אם לשלם 100 פאונד יותר מהMSRP על 3080 בהזמנה מוקדמת, נראה לי ש830 פאונד לAsus tuf זה קצת מוגזם? (אני מהאחוז היחיד שמחזיקים 1440P 21:9 עם 144hz).
מבלי להיכנס לעובי הקורה בנושא כדאיות ה3070/80, הסקר שהובא מסטים משקף את המציאות באופן חלקי ומעט מטעה לעניין הדיון כאן, אסביר:
סטים ברובה של הפלטפורמה מלאה במשחקים חינמים זולים (0-25$ לצורך העניין) חלקם מעבר היו משחקים מעולים שעבר עליהם שעון החול של הזמן, חלקם משחקים דיי עכשווים עם גרפיקה\תוכן\גימפליי ברמה של ערוץ הופ\לולי (לגיטימי לגמרי, גם לזה יש קהל יעד) מחשקי הAAA מהשנתיים האחרונות מתמצעים בסביבות 30-60$ (מאלה שהם בסדר גודל של שנתיים בשוק עד לעכשוויים).
כשבאים לדון האם 8/10 VRAM יספיקו לכותרים המצויים, צריך לצאת מנקודת הנחה שאלו שרוב כלל הגימפליי שלהם מתמצע סביב משחקי COD משנת 2004, או משחקי "לולי" למינהם אינם חלק מהדיון כאן.
האידאל היה לבחון את התפלגות הרזולוציות בקרב מי שרוכש משחקי AAA כאמור ב30-60$, למי מהם יש FHD/QHD/UHD, ברור לי שהאחוזים ישתנו דרסטית לרזולוציות הגבוהות יותר כשנשאיר את הרטרו והלולי מאחור.
השפעתה של הרזולוצה על צריכת הזכרון VRAM קטנה באופן יחסי, לעומת התציכה של אכסון הטקסטרות וזה הולך ומתעצם האפקט.
אל חשש אסבירה.
ראשית בדיקה מהירה שתבצעו ברזולוציות HD, 1440P, 4K, תראה לכם שהעליה בצריכת VRAM קטנה מאד.
אך שנית להסבר, מה שמשתנה בעליה ברזולוציה זה בעיקר ה- frame buffer (שמחזיק את הפלט הסופי לטובת הצגתו למסך),
ויש עוד קצת גם חישובי ביניים, שמחזיקים בזמן הרנדור, וגם הם לא צורכים יותר מדי. והם גם נדיפים לאחר גמר הרנדור של הפריים.
תמונת HD היא 2 מיליון פיקסלים, וביצוג בן 32 סיביו,ת מדובר על 64 מיליון ביטים. שהם 8 מיליון בתים. או 8MB. זוטא.
אפילו אם עולים עד 4K הצריכה עולה פי 4 לכדי 32MB בלבד. נזכור שלכרטיס מסך יש 8 (או יותר) GB, ולכן כל העליה הזו ברזולוציה
הן של ה- frame buffer ואפילו אם הוא tripple buffering לרבות חישובי הביניים בזמן הרנדור (עד שמבצעים להם purge)
אינם מדגדים את הים הענקי של VRAM בימנו, זה שנמדד בג'יגות.
ומשכך מובן כי הטקסטורות מאכלסות 80% ומעלה מסך הזכרון הנצרך, כנראה כבר מעל 90% אפילו (זה מתקדם עם השנים). הסיבה להתדמות
היא שככל שעובר הזמן, נפח ואיכות הטקסטורות עולה בקצב מהיר, מכפיל עצמו מדי 3 שני לערך, בעוד שהזכרון הנצרך לטובת החישובים
וה- frame buffer נשארים די על המקום, או מתקדמים אך מאד לאט. בקצב עלית הרזלוציה שהוא איטי.
משמע, שאם יש לנו צריכת 8GB VRAM, מעל 7 זה רק הטקסטרוות, ופחות מ- 1 זה היתר. ומשכך אל להתפס לרזולוציה כאלמנט שמשפיע
משמעותית על צריכת VRAM, אלא לאיכות הטקסורות עצמן. משמע, שגם הרצת כותר הכי כבד בטקסטרות, אבל ברזולוציה נמוכה,
עדיין יצרוך הרבה זכרון VRAM. שעקרו כאמור משמש, על מנת לבצע caching לטקסטורות הכבדות.
מעתה בדברינו על צריכת זכרון בכרטיס מסך, נכון לשנת 2020, כבר אין לייחס חשיבות מהותית לנושא הרזולוציה.
פעם זה היה משמעותי, היום כבר לא.
מסתבר שהסיבה למחסורים בכרטיסים שהושקו היא העובדה ש AMD מייצרת את כל מוצרי ה 7NM (מעבדים, כרטיסי מסך ושבבים ל PS5/XBOX X) אצל אותו יצרנית שבבים (קרי TSMC). בגלל שיש ליצרנית הנ"ל יכולת ייצור מוגבלת, AMD צריכה להחליט כמה אחוזים מיכולת הייצור הזו להקצות לכל סגמנט, ובאופן לא מפתיע חלק הארי הולך לייצור שבבים לקונסולות:
https://www.youtube.com/watch?v=OiZHYCN-vw4
מנחם הרבה יותר מההערכות לחוסר ההיצע מצד NVIDIA…
טענות נכונות של NEC.
RTX 3060 TI צפוי להגיע עם 8GB. זה כנראה הולך להיות המינימום ההכרחי. אבל נחיה ונראה.
אם מדובר על בעיית זיכרון עוד 3 שנים בכרטיסים שנקנה היום, אני לא רואה פה בעיה.
אם 16GB יחזיקו לשש שנים (סתם זורק מספר) זה גם לא ממש עוזר, כי ה-GPU סביר שלא יסחוב את העומס החישובי שיוטל עליו בעוד 6 שנים, גם אם יהיה מספיק זיכרון…
ומהעובדה שהם מעדיפים למכור גם את המעט שיש לחוות כרייה
0 0
ומהעובדה שהם מעדיפים למכור את המעט שיש לחוות כרייה ולא לגיימרים.
להערכות הללו בדיוק כיוונתי
הם מכרו ישירות לחוות כרייה, או שהמספרים שהם פרסמו הם הערכות של הרווח שהם עשו ממכירות של כרטיסים שבסופו של דבר הגיעו לחוות כרייה?
צד ב' של השאלה.
https://wccftech.com/nvidia-allegedly-sold-175-million-worth-ampere-geforce-rtx-30-gpus-to-miners/
וכשם שיתכן שזה אמת, יתכן שמישהו רצה לזרוק מיכל בנזין למדורת העצבים של כולם…
הסבב הזה היוצרות התהפכו, נוידיאה יצרה מוצר עם הרבה מאד כח חישובי = גם TF,
ו- AMD לקחה את הגישה של נוידיאה והתרחקה מכך, כדי ליצר מוצר שיותר אופטימאלי לגיימינג.
התוצאה הנגררת מכך היא שבכריה הסבב הזה נוידיאה מעולים ו- AMD לא.
יש יותר סכוי איפה לראות כרטיסי RX6000 זמינים לגיימרים בחנויות.
איך שגלגל מסתובב לו…
זה כנראה אמת- כן, הם מכרו 175 מיליון דולר של כרטיסים גרפים לכורים, ומצד שני מדובר כנראה בכמות די קטנה מהכמות הכוללת שהם מכרו (2.5 מיליארד דולר). כך או כך, אני מקום 100 בתור ל3080 ¯\_(ツ)_/¯, אולי יגיע לפני חג המולד? אני בספק.
איפה לוקחים כרטיס
הנה לנו תגובה רשמית של NVIDIA, הכי טוב שיש להם את מי להאשים (סמסונג) :
https://www.guru3d.com/news-story/nvidia-ampere-stick-issues-is-not-only-based-on-gpu-shortages.html
אותי יותר מפחיד האישו של כריית אטריום, שנעשה מאד יעיל בדור 3000 החדש, והוא לבדו מסוגל להביא לידי מצב,
שכורים ישתו את כל ההיצע שיהיה בשוק גם במחיר מופקע, ולא ישאר כלום לצרכנים ביתיים, אלא אם גם הפרטיים
יהיו מוכנים לשלם מחיר מנופח כמו שיש היום, סביבות 25% מעל המחיר MSRP (סדר גודל גס).
זה בדיוק מה שהיה לנו ב- 2017. הכורים הם האלמנט עם המשקל היותר משמעותי בהשפעתו על ההיצע הזמין לרכישה פרטית.
יש מספרים לאמוד את השיפור?
וגם השוואה AMD מול נבידיה ?
אל תתפוס אותי במילה, אבל זכור לי במעורפל משהו כמו 3080 מגרד מלמטה 90 מגה האש, לעומת 6800XT סביבות 60 ומשהו מגה האש.
חדש באתר
רצינו זול יותר – קיבלנו זול יותר: אינטל מכריזה על חיתוך מחיר חד ל-Core Ultra 7
צפו: טריילר חדש ל-GTA VI פורסם ממש עכשיו
רוצים מחירים של פעם – מעבדי Core Ultra 5 הזולים של אינטל בסקירת ביצועים
יש תאריך! GTA VI קיבל תאריך שחרור רשמי, אבל יש גם חדשות רעות
מתקפת סייבר איראנית: הצעות עבודה מזויפות ברפאל שימשו להפצת נוזקות בישראל
אינטל משנה כיוון: אוברקלוקינג רשמי עם אחריות מלאה
כתבות פופולריות