עבור לתוכן

AMD Radeon vs NVIDIA Geforce - דיון מרוכז

Featured Replies

פורסם

ואני שואל: מתי יצרניות ישכילו למכור זוג כרטיסים לצרכי SLI/CF, בבאנדל שיכלול כרטיס עם 4 ג'יגה זיכרון, וכרטיס נוסף ללא זיכרון בכלל, וכך ימכרו את זה בזול יותר.

  • תגובות 1.8k
  • צפיות 778.1k
  • נוצר
  • תגובה אחרונה
פורסם
  • מחבר

אני חושב שכרטיסי הדגל חייבים בפירוש לעבור שינוי. לא יכול להיות שנמשיך בכפולי ליבה שגם מכילים כמות בינונית של זיכרון גרפי וגם בעיות מיקרו גמגום.

הפתרון שאני מציע זה כרטיסים מבוססים ליבות ג'מבו בתור כרטיסי דגל. כך, על לוח מעגל מודפס אחד ניתן להכיל כמות עיבוד גבוהה, נפח זיכרון גרפי גדול וחסכון בבעיות וחוסר תאימויות תוכנתיות.

GTX TITAN הוא כזה, R9 יהיה כזה. עולה יותר להפיק אבל מכניס הרבה יותר מצד צרכנים

פורסם

ככל הידוע לי (שזה לא כל-כך הרבה :( ) הבעיה העיקרית בגישה כזו של הגדלת השבבים היא בעיות ההתחממות הקשות. אני חושב שזה אחד הדברים שהרגו את רעיון ה-WSI, כלומר ליצור וופר שהוא שבב שלם, בלי לחתוך. וזה עד כמה שהבנתי הסיבה שכרטיסי מסך לא פועלים בתדירויות שמאפיינות מעבדים היום.

פורסם

רגע רגע, עוד חצי שנה יצאו כרטיסים מהדור החדש?

פורסם
ברבעון השני של 2014 AMD שוב הולכת להשיק סדרת דגל חדשה?

זה ניראה לי בזבוז זמן וכסף אדיר לפתח ולהשיק R9 290X רק בשביל לתת תשובה לטיטאן שממילא אחוז הקונים שלו הוא מאוד נמוך...

לא בהכרח, זאת משום שהפיתוח כבר בוצע כך שכל שיש לבצע לאחר מכן זה להשתמש בפיתוח האלגוריתמי שכבר נעשה,

ורק לעשות לו הטמעה לליטוגראפיה חדשה. דהיינו: שמרבית ההוצאה והזמן שהושקע במו"פ על הדור הנוכחי לא ירדו לטמיון.

הליטוגראפיה החדשה תאפשר לדחוף יותר טרנזיסטורים על השבב החדש, שבבים שמבצעים את אותן פעולות שכבר פותחו אלגוריתמית בליטוגראפיה הקודמת - אינטל עושה כך מדי שנה:

פעם בשנתיים מוציאה אלגורתימיקה מעודכנת, ושנה לאחר מכן מורידה את הליטוגרפיה תוך שמוש באותו ידע שכבר

מיושם בשבב הקודם.

ואני שואל: מתי יצרניות ישכילו למכור זוג כרטיסים לצרכי SLI/CF, בבאנדל שיכלול כרטיס עם 4 ג'יגה זיכרון, וכרטיס נוסף ללא זיכרון בכלל, וכך ימכרו את זה בזול יותר.

היו בעבר מספר מקרים בודדים שעשו זאת. אך הנך צודק זה בדר"כ לא טיפוסי. הסיבות יכולות להיות רבות,

בינהם חוסר רצון של היצרניות להתחרות עם ספינות הדגל של עצמן. הן תהיינה שמחות להסתיר את העובדה,

שבדרך כלל שלוב של שני כרטיסים חלשים, יעיל יותר בתמורה לכסף מאשר כרטיס בודד.

ככל הידוע לי (שזה לא כל-כך הרבה :( ) הבעיה העיקרית בגישה כזו של הגדלת השבבים היא בעיות ההתחממות הקשות. אני חושב שזה אחד הדברים שהרגו את רעיון ה-WSI, כלומר ליצור וופר שהוא שבב שלם, בלי לחתוך. וזה עד כמה שהבנתי הסיבה שכרטיסי מסך לא פועלים בתדירויות שמאפיינות מעבדים היום.

ישנן מספר בעיות ובהן:

א. יצירת חום רב כדבריך, ובהתאם קושי הנדסי לתת מענה שיפתר מהחום הזה בכרטיס שמוגבל לשני חריצי הרחבה.

ב. בעיה שניה היא בצריכת זרם גבוה יותר, מה שמציב קושי בעמידה בתקן המגביל את הכרטיסים לעד 300 וואט.

כבר היום בשבבים גדולים של מעל 400mm בריבוע יש צורך להתחיל ולהפחית את מהירות המעבד כדי לעמוד בדרישות.

ג. בעיה שלישית היא בירידה בכמות השבבים התקינים שיוצאים מפס הייצור ככל שגודל השבב גדל, מה שמעלה את העלות

פר שבב באופן משמעותי.

ד. כמובן כל אלו מעלה יחדיו גורמים לכך, שהתדר הזמין שבו ניתן לעבוד עם שבב שהולך וגדל, הוא תדר שהולך ויורד.

ישנה עקומה (שניתן לגזור אותה) והיא מכונה performance to size ratio. מגזירת עקומה זו ניתן למצוא את נקודת

האופטימום. נקודה זו כיום עוברת בסביבות 300mm בריבוע בליטוגרפיה 28 ננו מטר ולא בכדי בחרה נוידיאה לצאת

ראשית עם השבב היעיל ביותר והוא GK104 בגודל 294 mm רבועים.

שבבים גדולים כדוגמאת GK110 עברו את נקודת האופטימום, ולכן תדר העבודה הטיפוסי שלו נמוך כדי 200mhz = ~20%

משבב GK104. אילו היו ממשיכים היצרנים להגדיל את השבב עוד יותר, בשלב מסוים כל הגדלה של X אחוזים היתה גוזרת

הפחתת תדר של יותר מ- X אחוזים, מה שהיה גוזר שהשבב היה נעשה איטי יותר ולא מהיר יותר בביצועיו הכוללים.

זו אחת הסיבות הנבונות שבגינן AMD בחרה באסטרטגיה של לייצר שבבים שאינם גדולים משמעותית מ- 300mm בריבוע,

על מנת שלא להתרחק מנקודת האופטימום בגרף performance to size ratio.

המחיר שהם משלמים הוא בכך שאין הם מחזיקים בדרך כלל בכתר הביצועים.

מנגד נוידיאה בחרה בשנים האחרונות בכל זאת ללכת על שבב דגל שיוצא מעקומת האופטימום בלא מעט,

הםמשלמים בכך שעלות ייצורו מאד גבוה וגם הרבה שבבים נזרקים לפח, וכמו גם שהשבב אינו עובד ביעילות תדרית.

הם בחרו ללכת במסלול התמורה השולית הפוחתת וגילו, שיש בשוק מספיק צרכנים שמוכנים תמורת עוד קצת ביצועים

לשלם גם כפליים מחיר. מי צודק במשל הזה ?

אם אתה שואל אותי, אני חושב שבראייה אסטרטגית הייתי בוחר במסלול של נוידיאה.

פורסם

אם מדברים על המסלול של נוידיאה, אז אני אישית לא אהבתי את הגישה המינימליסטית של Nvidia בדור הKepler.

כרטיסי מסך עם פחות זיכרון (בגרסאות הסטנדרטיות), פחות רוחב פס, ביצועי compute אומללים.

היה נחמד לקבל כבר בכרטיסי GTX 660/GTX 660TI ביצועים באיזור של GTX 580, אבל הם נבנו בצורה לא מאוזנת.

לקחו כמות cuda cores מוגזמת ושידכו בקר זיכרון א-סימטרי של 192BIT בטכנולוגיה ייחודית ומעורפלת של Nvidia, שברגע שאתה חורג מ1.5GB VRAM, רמת הביצועים (לפחות תיאורטית) כבר לא בשיאה:

http://www.anandtech.com/show/6159/the-geforce-gtx-660-ti-review/2

בנוסף, כדי לפצות על הבאס הצפוף יותר, השתמשו בתדרים גבוהים לזכרונות שקשה היה לעשות להם אוברקלוק בגלל הגבלות המתח והGPU BOOST שהפריע.

בסדרת GTX 700 הם השתפרו, אבל מלכתחילה היה נחמד לראות פחות cuda cores אבל עם בקר זיכרון של 256BIT, כפי שרואים בGtx 760 ובכרטיס GTX 750 TI (שהוא בגדר שמועה כרגע).

אני מתאר לעצמי שלא יכלו אבל להרשות לעצמם כרטיס שיתחרה בGTX 670 וייתן ביצועים כ"כ קרובים.

באשר לCompute, זה פער שנשמר גם בסדרה החדשה של Nvidia.

זה פשוט מביש איך הכרטיס HD 7970 מרסק את ה-Titan בתחום הזה ועולה משמעותית פחות ממנו.

פורסם

GeForce 800

הבנתי שהסדרה אמורה לצאת כבר ברבע הראשון של 2014.

ליבת arm v8 64 bit - נוידיה קוראים לזה פרויקט דנבר , כחלק מהשבב.(אולי בשביל ניידים..משהו בקשר להקלה בתיכנות...).

3gb כסטנדרט לכרטיסי ביצועים.

20nm.

יחס ביצועים - צריכת חשמל טובים יותר (כמובן...).

נוידיה בכלל טוענים שצריכת החשמל תהיה לא פחות ממדהימה.

כנראה שהולכת להיות קפיצת מדרגה משמעותית בביצועים.

פורסם

הב מקורות, או שזה לא יכול להיות.

פורסם

http://www.xbitlabs.com/news/graphics/display/20130412175120_Nvidia_Next_Generation_Maxwell_Architecture_Will_Break_New_Grounds.html

http://en.wikipedia.org/wiki/Project_Denver

https://forums.geforce.com/default/topic/548203/what-should-we-expect-from-maxwell-/?offset=18

http://videocardz.com/38693/nvidia-sticks-with-tsmc-for-20nm-maxwell-geforce-800-series

קראתי בעוד מקומות , אבל אין לי כוח עכשיו למצוא הכל...

למה לא יכול להיות?

כל הדברים הגיוניים לחלוטין ולא ממש מפתיעים (חוץ מהarm , אבל הם דיברו על זה כבר מזמן)

פורסם

"לא יכול להיות" זה בשביל החרוז :)

זה מאוד מרשים, באמת. אחרי ההכרזות האחרונות של אמ"ד, אני כבר לא יודע לאן הולך השוק בכלל.

פורסם

השוק הולך ל- 20 ננו נטר אוטוטו.

היה אמור להיות מושק כבר השנה ברבעון שלישי, אך נוצרו עקובים בלתי מתוכננים מצד TSMC בתחום הייצור,

עיקובים שדחו את ההשקות בכמחצית השנה.

לכן AMD יצאה עם "תפר בינניים" - סדרת R9 החדשה, רק כדי למלא את החלל עד שהסדרות הבאות תצאנה.

היות והן תצאנה כבר ברבעונים הראשון והשני של 2014, מי שירכוש בחודש הבא את ה- R9 - 290X , יעשה לטעמי טעות צרכנית.

מוטב למשוך עוד כמה חודשים ואז לקנות את "הדור האמיתי" הבא (20 ננו מטר) ולא משהו "שמתחזה" לדור הבא,

בשעה שהוא בסך הכל נותן עוד 20% ביצועים זניחים מעל HD7970/GTX770 הנוכחיים.

יש להבין, ששדרוג כח חישובי ברמה כזו מזערית של סביבות רק 20%, לא ממש ניתן לחוש בה על המסך.

קפיצה של 100% היא בעקרון מה שצריך לחתור אליו. לצערנו בין ליטוגרפיה לזו שעוקבת אחריה יש בדר"כ קפיצה מסדר גודל

של 50-80% באופן טיפוסי, או פחות מכך (רק 30% טיפוסי) בין הסדרה השניה שבליטוגרפיה היוצאת (R9 290X)

לבין הסדרה הראשונה של הליטוגרפיה הנכנסת.

לפיכך, לשדרג בין סדרה אחת לזו שעוקבת אחריה מיד לאחר מכן, בדר"כ אין כדאיות ואין תוחלת ממשית,

אלא אם משחקים את המשחק שנקרא תמיד להיות עם הצעצוע האחרון בשוק (משחק מקובל אצל אלו

שיש להם סתם כסף לזרוק).

דרך הפעולה הנבונה יותר והמומלצת לרובנו תהא, לשאוף לביצוע שדרוגים רק כאשר מתקיימת הכפלה של ממש בביצועים,

הווה אומר שיפור של כ- 100%. זאת ניתן לבצע רק באמצעות שדרוג של פעם בשניים עד 3 דורות, או במילים אחרות

אחת לכ- 3 שנים. אני יכול להבין את אלו שמשדרגים כיום את סדרת HD5800 או HD6900, אך לא יכול להבין את אלו

שמדרגים את סדרת HD7900.

  • 2 שבועות מאוחר יותר...
פורסם

אני חייב להגיד שיצאתי מאד מתוסכל מהמהלך של AMD.

אני דוחה את שדרוג הכרטיס מסך שלי HD6950 כבר קרוב ל-10 חודשים. רציתי לעבור לירוקים אבל זה היה יקר מידי וידעתי שדגמי ה-700 יצאו בקרוב.. ואז התחילו השמועות על סדרת ה-R9 של AMD... חסכתי מספיק כדי שאוכל לקנות את 290X אבל כרגע זה לא נראה כזה כרטיס מבטיח ועכשיו אני יושב על הגדר ולא מצליח להחליט מה לרכוש.

המחשב שבניתי בדיוק חוגג שנה. הרכיבים חדשים ולא מצריכים שום שדרוג. הדבר היחידי שהתקציב שלי לא אפשר לי לשדרג כאשר הרכבתי את המחשב שלי זה הכרטיס מסך שנגרר איתי עוד מהמחשב הקודם שלי...

אם אחכה עוד כמה חודשים, כבר אהיה במצב שלא אוכל לשדרג ולהנות מהמשחקים החדשים עם גרפיקה גבוהה כי אני הולך להיות אבא... :)

קיוויתי כ"כ לבצע את המהלך הזה ולהנות ממנו עוד קצת לפני שאני אצטרך להשלים שעות שינה ולהחליף חיתולים....

צריך כתף תומכת פה :)

פורסם
  • מחבר

"חסכתי מספיק כדי שאוכל לקנות את 290X" אם ידעת כמה 290X יעלה אני מניח שחסכת כ-3500 שקלים. אני צודק?

ככה או ככה יש לך 2 אפשרויות. האחת היא למכור את HD 6950 כל עוד הוא שווה משהו ולעבור לכרטיס מסך כמו 280X, ככה אתה תחזק סביב 50% בגזרה ותפתור לעצמך בעיות.

השניה תהיה לחכות לאמצע-סוף שנה הבאה לדור 20 ננומטרים

פורסם

דווקא בשלב הראשוני עם החלפת הטיטולים יש לך זמן לשחק בשעות הערב, האישה בחופשת לידה(היא זו שקמה באמצע הלילה).

השלב היותר בעייתי הוא אחרי גיל שנה כשהילד מתחיל לדרוש תשומת לב בערב ומתעורר כי צומחות לו שיניים באמצע הלילה, האישה כבר לא בחופשת לידה(אתה הופך לזומבי) (-:

עכשיו ברצינות, קנה R9 280X ששקול ל7970 ועולה פחות, מריץ משחקים בקלות על הגדרות גבוהות חוץ מכמה משחקים בודדים שתצטרך מעט להתפשר על פילטרים.

ארכיון

דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.

דיונים חדשים