דיון מקדים - GeForce GTX400 VS Radeon HD5000 , החברות שולפות את הנשקים. - עמוד 94 - כרטיסי מסך - HWzone פורומים
עבור לתוכן
  • צור חשבון

דיון מקדים - GeForce GTX400 VS Radeon HD5000 , החברות שולפות את הנשקים.


almonime

Recommended Posts

  • תגובות 2k
  • נוצר
  • תגובה אחרונה

משתתפים בולטים בדיון

משתתפים בולטים בדיון

More Fermi benchmarks show up, Faster than HD 5870

In addition to those Far Cry 2 benchmarks that we had a chance to see a few days ago, those beaverish guys from Hardware Canucks managed to score a bit more detailed ones which also include a simulated HD 5870 card as well. Nvidia's GF100 ends up faster than both the GTX 285 and the simulated HD 5870, in both Far Cry 2 and Dark Void as well.

Hardware Canucks decided to include the scores that they simulated on a similar system to the one that Nvidia was using. Nvidia went with Intel's Core i7 960, 6GB of 1600MHz memory and an Asus Rampage II Extreme motherboard all happily running on Windows 7 OS. According to Hardware Canucks, their simulated system was performing within two percent of the results on Nvidia's system with GTX 285, so the results are pretty much what you could expect when Fermi GF 100 crosses its rendering power with AMD's HD 5870.

On the other hand, there are rumours that the benchmarked card which everyone saw was either a cut-down version with 448 Stream Processors, or the underclocked 512SP version, while the retail version should end up with 512SP. In any case these results aren't the final scores and should only show a general picture of Fermi performance as with driver and clock tweaking, Nvidia could pull few more frames per second from this beast.

Nvidia's GF 100 should end up faster than the HD 5870, but AMD will hang on to the performance throne with HD 5970 and in the end, the price will be the key. In any case, Fermi has been benched and we are sure that more information should follow once we get closer to the actual release of the card.

You can find the Far Cry 2 benchmarks here, while the Dark Void benches can be seen here.

קישורים:

http://www.fudzilla.com/content/view/17325/1/

קישור לתוכן
שתף באתרים אחרים

מראיון של מנהל קשרי מפתחים ב- AMD:

bit-tech: IF - given we don't know yet - when Nvidia's Fermi cards finally arrive they are faster than your HD 5970-

RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-

להביא ש- Fermi מהיר יותר זה חסר תועלת.

השאלה האם אתה, Syndrome מאמין של- יהיה משהו מהיר יותר מ-ה HD5850 ומ- HD5870 באותו המחיר?!

אין סיכוי...

עד שיהיה לה, ATI תהיה כבר עם הדור הבא.

זה לא חוכמה לצאת עם 50% יותר טרנזיסטורים, צריכת הספק מטורפת ולומר יש לנו ביצועים טובים יותר.

זו חוכמה לנצח באותו מסגרת תקציב של הרוכש.

מכיר את זה:

jk8sck.png

זה מגרש המשחקים.

כמה שהמעבד יותר ימינה כך יותר זול לייצר אותו עבור רמת ביצועים מסויימת.

כמה שהוא יותר למעלה צריך לתת לו פחות הספק.

שם לב איפה ATI איפה nVidia? ה- Fermi לא ישנה את זה.

להיפך, בכלל לא מכוונת אותו לאנשים כמוך שרוצים משחקים בכסף שלהם.

הסיבוכיות הגדולה שלו מאפשרת לו להפעיל קוד C תקני (כמעט).

כלומר הוא מאפשר סופר גמישות למתכנת, לכאורה.

זה יעבוד לכל אלו שאין להם בעיית תקציב.

הלוואי ויכלתי להרשות לעצמי אחד כזה.

בתחום שאני לומד ורוצה לעשות קריירה דבר כזה הוא הבדל בין לסגור את האלגוריתם שלך בשבוע לבין חודש.

אבל לבאי הפורום הזה, או לתקציב שלי למשהו שאוכל לשחק איתו בבית עם GPGPU ה- Fermi קצת מאחר את הרכבת וקצת משחק מחוץ למגרש.

ד"א, לא זלזלתי בך, אבל אם תרצה לראות אלגוריתמים של Image Decompositions, Image Thresholding שלוקח כיום ל- Matlab להריץ 10 דקות עם מעבד Q9550 רק תגיע לב"ש.

נראה לי שאתה קצת לא מכיר מה זה אומר להפעיל דברים פרקטית מלבד אולי משחק ולקרוא בפורום של ווקטורים.

[attachment deleted by admin]

קישור לתוכן
שתף באתרים אחרים

השאלה האם אתה, Syndrome מאמין של- nVidia יהיה משהו מהיר יותר מ-ה HD5850 ומ- HD5870 באותו המחיר?!

למעשה מעולם לא עניינה אותי תחרות ה-fps לשקל. לכן אני לרוב מתייחס לעניינים טכנים - מודעות המשתמש חשובה לי יותר מהמלצה כלכלית "עיוורת". השילוב של תמיכה תוכנתית (אמינות\יציבות, גמישות, נוחות, יעילות\אופטימיזציה, זריזות\חריצות, כמות, יצירתיות וקשרי מפתחים) עם כח חומרתי, הוא זה שיקבע את חווית המשתמש – זאת לדעתי חשובה לא פחות מהפרשים כספיים (במידה המקובלת בשוק), צריכת מתח, גודל פיזי של הליבה או מדגם FPS על הנייר. ולמען הסר ספק, אני לא חשב שאנוידיה מושלמת מבחינת דריברים, בעולם ה-PC זה תמיד ישאר חלום רטוב. איכות הדריבר, בין היתר, נכללת ב"תמיכה תוכנתית" ואני יודע ע"פ מעקב הדוק בתחום והכרת אופי הפעולה של 2 הצדדים, מי עושה יותר עבור הלקוח שלה בסופו של יום.

אז לשאלתך –אני ממש לא מצפה מאנוידיה ל"יותר מהיר באותו המחיר", אבל אני בהחלט מאמין ב"שלם יותר קבל יותר", לפחות במקרה הזה.

nVidia בכלל לא מכוונת אותו לאנשים כמוך שרוצים משחקים בכסף שלהם.

Tegra, Tesla, Quadro, Geforce

מיותר לציין שאנחנו דנים ב-, זה המיועד לשוק הגיימינג הביתי בראש ובראשונה. כל התוספות הרי הן משובחות ויתקבלו בברכה.

קצת פרופורציות בנאדם... תאמין לי, שמעתי כבר את כל סיפורי ההכפשה במסווה "דאגה לשוק הגיימיג". מעבר לבחילה זה לא עשה לי כלום.

נראה לי שאתה קצת לא מכיר מה זה אומר להפעיל דברים פרקטית מלבד אולי משחק ולקרוא בפורום של ווקטורים.

הבנתי - עין תחת עין... אני אציין שהגבתי בזלזול לעניין האלגוריתמים שלך רק בגלל שאתה טורח להכניס בכל תגובה, במן צביעות עוקצנית שכזאת, כמה אתה מחכה ליכולות הארכיטקטורה של - gf100, ובאותה הזדמנות איזו נפילה זו הולכת להיות מבחינת גיימינג... כאילו שהאלגוריתם שלך ינצל את הארכיטקטורה טוב יותר מהאלגוריתמים של מפתחי המשחקים. אתה (matlab וחברים) לא היחידי שנפתחות בפניו אפשרויות חדשות לניצול ה-GPU ופוטנציאל ביצועים גדול כתוצאה מכך.

אה ולגבי הגראף הזה שמראה פוטנציאל ליעילות מבחינת הספק ושטח (מעניין ומשעמם בו זמנית), ידוע ש-GFLOPS זה נתון יבש.

בינתיים לא ראיתי יתרון עקבי בהתאם בשטח. למעשה ראיתי גם הובלות לטובת gts250 על 5870. ישנם המון גורמים שישפיעו על התוצאות בשטח.

קישור לתוכן
שתף באתרים אחרים

עוד פעם, אני מניח ש- Fermi יהיה גם מהיר במידה מסויימת גם במשחקים.

אבל בשביל זה הם לא היו צריכים 50% יותר טרנזיסטורים.

הסיבה שיש 50% יותר טרנזיסטורים זה כדי להיות מסוגלים להיות גמישים במידה שהיא מעבר לנדרש ב- Open CL 1 ו- Direct Compute.

מין הסתם תקנים אלו דורשים יותר משאבים מאשר סתם תמיכה ב- Direct X11.

אם אתה מעריץ יעילות, הרי שניתן לראות בקלות בגרף כי יעילים כמו מעבד Penryn ואף פחות.

משחק לא צריך כל כך הרבה גמישות, זו תוכנה סגורה (בוא נשאיר בצד שימוש כלשהו ב- Open CL בצד) עם תנאים ידועים מראש.

לעומת זאת קוד מפתח יכול להיות שונה לגמרי.

למשל, בצורה של ATI אני די בטוח שניתן בטעות תכנות אחת לגרום לכל הכוח שלו להיות מבוזבז. מספיק שמעט מהקוד יהיה סריאלי וכל הכח שלו הלך.

לעומת זאת ה- Fermi יהיה סלחני.

כיום זה מאוד מאוד בעייתי להעביר מידע מה- CPU ל- GPU. ולכן אצל ATI אם יש לך קוד מקבילי, באמצע סריאלי ואז שוב מקבילי אכלת אותה.

אצל זה יהיה יותר סלחני כי הוא נבנה עם יכולת כמעט שלמה ל- C.

הבעיה לטעמי שהם לא ציפו לכל הבעיות הללו.

מבחינת לוח זמנים היום היינו אמורים לקבל לערך את דגמי הביניים, אלו שמלבד רעש וצלצולים של דגמי היקורה שטובים לאתרי מבחנים אנו באמת יכולים לרכוש.

היום זה נראה שהם יהיו פה רק עוד חצי שנה לערך.

הם כבר יפגשו ככל הנראה ארכיטקטורה חדשה של ATI ששוב תגדיל את הפער בדגמי הביניים.

אם לך כסף לא משנה וכשאתה קונה כרטיס מסך יש לך תקציב לא מוגבל, כנראה שאם תמתין לנצח תמיד תמצא נקודת זמן בודדת ש- חזקים יותר.

אבל כפי שזה נראה, מספטמבר 2009 ועד סוף 2010 יהיו רק נקודות זמן מועטות כאלה.

כן, אני מתרגש מהרעיון של מחשבו מקבילי חזק כל כך אצל המשתמש הביתי.

לא אכפת לי אם זה או ATI. חשוב לי רק שכבר יפרץ הסכר וזה יהפוך למשהו שכל מי שמפתח תוכנה יקח בחשבון.

החל מפוטושופ שמאוד יישמיה אצלי כי אני אוהב צילום, כלה בתוכנות עריכת כי יש לי רצון להפוך את כל הקלטותוידאו של אבא שלי לדיגיטליות במהירות ומשאבים סבירים וכלה ביישמוים כמו Matlab ו- Mathematica כי זה מאפשר לי להתנסות במלא דברים חדשים שאני לומד ויש לי רעיונות לגביהם.

לגבי ביצועים בפועל, שוב, לקחת אוטו עם מנוע ששותה דלק ליטר לקילומטר ולהוציא ממנו יותר כוחות סוס ממנוע ששותה 1 ליטר ל- 15 קילומטר זו לא חוכמה וגם לא גאונות הנדסית.

ATI נותנים משהו סביר במחיר (כלומר GFLOPS per mm) ומחיר במשאבים שהוא צורך וביעילות (GFLOPS per Watt).

רובנו יהיו מוגבלי תקציב.

חלקנו באיזור 1000 ש"ח, חלקנו מעט יותר חלקנו מעט פחות ורובנו באזור ה- 500 ש"ח.

ATI יהיו יותר טובים במחירים הללו גם לאחר ה- Fermi. ככה למי שמחפש, חבל על ההמתנה.

קישור לתוכן
שתף באתרים אחרים

התהליכי יצור של NVIDIA פחות יעחים בלי קשר לתוספות שלהם, לפחות בהשוואה לאינטל, ו ATI, אם ATI היו רוצים ליצר כרטיס כזה הוא היה יעיל יותר, למה בשלב הזה הם לא רוצים ליצר דברים כאלה? כי הם לא במצב כלכלי טוב ומעדיפים ליצר מוצרים זולים שקל לעשות עליהם רווח. לצערנו נגררת ולא נלחמת חזרה כמו שאינטל עשו, או שהם יפסידו הרבה כסף או שכרטיסי מסך לא יהיו מקור ההכנסות שלהם.

קישור לתוכן
שתף באתרים אחרים

התהליכי יצור של NVIDIA פחות יעחים בלי קשר לתוספות שלהם, לפחות בהשוואה לאינטל, AMD ו ATI, אם ATI היו רוצים ליצר כרטיס כזה הוא היה יעיל יותר, למה בשלב הזה הם לא רוצים ליצר דברים כאלה? כי הם לא במצב כלכלי טוב ומעדיפים ליצר מוצרים זולים שקל לעשות עליהם רווח. לצערנו NVIDIA נגררת ולא נלחמת חזרה כמו שאינטל עשו, או שהם יפסידו הרבה כסף או שכרטיסי מסך לא יהיו מקור ההכנסות שלהם.

אני לא בטוח ש- TSMC יעילים פחות מ- AMD. הם אולי שניים רק ל- Intel ו- Samsung אולי אולי גם IBM.

בכל אופן ATI ו- nVidia כרגע מייצרים תחת אותו תהליך, ה- 40nm של TSMC כך שאין עדיפות.

לעומת זאת היה פה דיון של אנשים שמבינים הרבה יותר ממני בתהליכי ייצור:

http://www.realworldtech.com/forums/?action=detail&id=104649&threadid=104649&roomid=2

יש להם סברה כי היכולת של ATI לדחוס יותר לתוך אותו גודל של בתהליך נתון גבוהה יותר (כלומר התכנון שלהם מנצל טוב יותר את יכולות הייצור).

בכל אופן אין פה משחק, התכנון של ATI הוא תכנון חכם ומינמליסטי, הרבה יותר "הנדסי".

nVidia היא מה שנקרא Brute Force. והרבה...

רק נראה שהפעם זה לא ילך, לפחות לא במובן שכדאי לצרכן הנורמלי.

קישור לתוכן
שתף באתרים אחרים

בחיי כמה אנשים מקשקשים פה...?

אף אחד פה לא משתתף בישיבות הנהלה של אנוידה, אז מה אתם בכלל קובעים מחירים? שהכרטיס בכלל לא בשוק עדיין.

ולי אישית לא אכפת מי "הטובים ורעים" במשוואה הזאת, לי חשוב בכרטיס מסך יחס ביצועים למחיר, דרייברים יעילים, פיתוח צמוד למפתחי משחקים, עדכוני דרייברים שוטפים.

בקיצור, סינדרום צודק במאה אחוז.

למעשה מעולם לא עניינה אותי תחרות ה-fps לשקל. לכן אני לרוב מתייחס לעניינים טכנים - מודעות המשתמש חשובה לי יותר מהמלצה כלכלית "עיוורת". השילוב של תמיכה תוכנתית (אמינות\יציבות, גמישות, נוחות, יעילות\אופטימיזציה, זריזות\חריצות, כמות, יצירתיות וקשרי מפתחים) עם כח חומרתי, הוא זה שיקבע את חווית המשתמש – זאת לדעתי חשובה לא פחות מהפרשים כספיים (במידה המקובלת בשוק), צריכת מתח, גודל פיזי של הליבה או מדגם FPS על הנייר. ולמען הסר ספק, אני לא חשב שאנוידיה מושלמת מבחינת דריברים, בעולם ה- זה תמיד ישאר חלום רטוב. איכות הדריבר, בין היתר, נכללת ב"תמיכה תוכנתית" ואני יודע ע"פ מעקב הדוק בתחום והכרת אופי הפעולה של 2 הצדדים, מי עושה יותר עבור הלקוח שלה בסופו של יום.

קישור לתוכן
שתף באתרים אחרים

באף אחד מהדברים שהזכרת אין לNVIDIA יתרון ברור.

TSMC רק מיצרים את הצ'יפים (ל 2 החברות), כל שאר העבודה מתבצעת על ידי NVIDIA/ATI. ההתיחסות שלי היא לא רק לתהליך היצור שלרוב נקבע לפי המגבלה של מיצרת הצ'יפ, מה שיותר חשוב זה היכולת של החברה לתכנן מוצר שיעבוד בצורה טובה ויעילה. ATI התקדמה מאוד בשנים האחרונות בזמן ש NVIDIA לא שינו שום דבר, מאז G80 התכנון שלהם נישאר אותו דבראפילו אחרי שהם אמרו ש ATI ו עשו צעד נכון עם הקטנת הצ'יפים. אם הם חושבים שזה נכון למה הם לא עושים שינוי בתכנון שלהם?

נ.ב.

ניראה כאילו GF גם הולכת לעבור את , רק עכשיו הודיעו שאין יותר בעיות ביצור ב 40NM בזמן ש GF התחילו להציג צ'יפים שמיוצרים ב 32NM (למרות שעוד לא אמרו אם הם באמת יוצאים תקינים).

קישור לתוכן
שתף באתרים אחרים

ATI התחילו לעבוד על סידרה משודרגת אבל אם אני זוכר נכון אמרו שהתאריך יהיה באיזור Q3 כך ש NVIDIA לא תגיע למצב הזה.

לפי מה שכתוב בכתבה הזו צדקתי, NVIDIA עבדו בצורה מאוד לא מסודרת:

it was obvious that the chip was designed with the limitations of the original GT200 in mind, which was manufactured using TSMC's 65nm node

למה לעשות דבר כזה אם הם ידעו שהכרטיס מיוצר ב 40NM?

Then again, has a significant advantage because of almost a year of experience working with 40nm process and they know all the quirks, while nVidia's decision to be really conservative with manufacturing process is now coming to haunt them.

למרות שהפעם הפיגור שלהם קטן יותר בולט שהם מתקשים עם המעבר, כמו מה שקרה עם ה HD4770, ההבדל הוא ש HD4770 היה הרבה יותר פשוט. גם כתוב שם שהם השאירו את אותו גודל צ'יפ כמו שהיה ב GTX200, גדול מידי...

בקיצור הדעה של הכותב מעורכת, מצד אחד הוא אומר ש FERMI הרבה יותר חזק מצד שני הוא אומר ש פישלו בצורה דיי רצינית.

קישור לתוכן
שתף באתרים אחרים

לא שמעתי שמשתמשי GT200 מתלוננים על גודל הליבה. זה לא מה שמעניין את הצרכן.

ליבת GF100 תהיה בגודל דומה ותספק ביצועים טובים בהרבה.

לדעתי מה שהכי רלוונטי עבורינו בכתבה זאת (אם להוציא את התכלס, במקום לחפש את בסיבוב):

We expect to see a price of $549 or $499 for the high end part, probably named "GeForce 380" and $349-399 for the "GeForce 360"

Truth to be told, given that GF100 will probably beat both HD 5870 and HD 5970 in Tessellation and consumes less power than a HD 5970 - this isn't as bad as we thought the first time we did the numbers game.

קישור לתוכן
שתף באתרים אחרים

סינדרום... מה יותר נמכר - 8800ULTRA שחיסל כל דבר? או 8800GT שנמכר במחיר הגיוני הרבה יותר אבל הציג ביצועים רק טיפה פחות טובים?

אני חושב שהתשובה נמצאת אצלך במפרט.

עוד תשובה שנמצאת אצלך במפרט זה כרטיס שמביא את הביצועים של 8800ULTRA עם קצת סיוע

קישור לתוכן
שתף באתרים אחרים

ארכיון

דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.


×
  • צור חדש...