פורסם 2008 באוגוסט 1217 שנים השבב הגרפי החדש של אינטל מבוסס על כל מיני דברים, הרוב די שמועות ואומרים שמבוסס על מעבדים ישנים שכאילו "הוסבו" לצורך עיבוד גרפיכל מיני טכנו' סטייל MMX אבל לגרפיקהועוד סיפורים.תראה, אני לא מאמין לכלום עד שלא רואה את זה בעצמי, בדיוק כמו כל אדם אחר.אבלצריך להבין שכבר היום דברים כמו שיידרים, זה לא רחוק מכמה מעבדים שעובדים בו זמנית.ההבדל הוא שהם יושבים ביחד, משתמשים באותו זכרון, ובנוים אחרת ממש מעבדים נפרדים.אבל מי אמר שלא יצליחו לגשר על כל הפערים הטכנו' וכן ליצור כרטיס גרפי מאוד מתוחכם שיוכל להשתמש במעבדים גרפיים מאוד חלשים שלא פולטים חום בכלל (תחשוב על לקחת מעבד כמו שהיה לך בNVIDIA לפני שלוש ארבע שנים), אבל עם הטכנו' מזעור וקירור של היוםמה תקבל?מעבד שצורך אפס חשמל ופולט אפס חום (כמעט)ואז תאורטית אתה מכפר על החולשה שלו לעומת מעבד אחד בכך אתה שם 4 או 8 או 16 כאלו והם עובדים מהר!!!ברור שזה נשמע כמו מדע בדיוניאבל מצד שניאתה באמת חשבת לפני 10 שנים שנגיע ליום שיהיה לנו כוננן בגודל 1.8 אינץ, שלא צורך כמעט חשמל, לא פולט חום כמעט, אין לו חלקים נעים, ויש לו מהירות כתיבה וקריאה פי כמה יותר מהר מכל דבר אחר בשוק ? (וגם נפחים שבקרוב יגדלו מאוד) - אני מדבר על SSD ( שגם פה אינטל הולכת להפתיע בקרוב)מה שאני רוצה להגידשדי לזלזל בריבוי מעבדים או ליבות, נכון שיש המון בעיות וכו'אבל, זה לא משהו בלתי פתירזה הרבה יותר פתיר וראלי מאשר נניח מיחשוב קוונטי לדוגמא.
פורסם 2008 באוגוסט 1217 שנים השבב הגרפי החדש של אינטל מבוסס על כל מיני דברים, הרוב די שמועות ואומרים שמבוסס על מעבדים ישנים שכאילו "הוסבו" לצורך עיבוד גרפיכל מיני טכנו' סטייל MMX אבל לגרפיקהועוד סיפורים.תראה, אני לא מאמין לכלום עד שלא רואה את זה בעצמי, בדיוק כמו כל אדם אחר.אבלצריך להבין שכבר היום דברים כמו שיידרים, זה לא רחוק מכמה מעבדים שעובדים בו זמנית.ההבדל הוא שהם יושבים ביחד, משתמשים באותו זכרון, ובנוים אחרת ממש מעבדים נפרדים.אבל מי אמר שלא יצליחו לגשר על כל הפערים הטכנו' וכן ליצור כרטיס גרפי מאוד מתוחכם שיוכל להשתמש במעבדים גרפיים מאוד חלשים שלא פולטים חום בכלל (תחשוב על לקחת מעבד כמו שהיה לך בNVIDIA לפני שלוש ארבע שנים), אבל עם הטכנו' מזעור וקירור של היוםמה תקבל?מעבד שצורך אפס חשמל ופולט אפס חום (כמעט)ואז תאורטית אתה מכפר על החולשה שלו לעומת מעבד אחד בכך אתה שם 4 או 8 או 16 כאלו והם עובדים מהר!!!ברור שזה נשמע כמו מדע בדיוניאבל מצד שניאתה באמת חשבת לפני 10 שנים שנגיע ליום שיהיה לנו כוננן בגודל 1.8 אינץ, שלא צורך כמעט חשמל, לא פולט חום כמעט, אין לו חלקים נעים, ויש לו מהירות כתיבה וקריאה פי כמה יותר מהר מכל דבר אחר בשוק ? (וגם נפחים שבקרוב יגדלו מאוד) - אני מדבר על SSD ( שגם פה אינטל הולכת להפתיע בקרוב)מה שאני רוצה להגידשדי לזלזל בריבוי מעבדים או ליבות, נכון שיש המון בעיות וכו'אבל, זה לא משהו בלתי פתירזה הרבה יותר פתיר וראלי מאשר נניח מיחשוב קוונטי לדוגמא.It's called Netbrust
פורסם 2008 באוגוסט 1217 שנים חחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחכל ספק שמחזיק 280 יחזיק 4870 חחחחחחחחחחחחחחחחחחחחחחחחחחהרגת אותי חביבי יש לי 4870 ותאמין לי 4870 צורך הרבה הרבה הרבה יותר מאשר ה 280 !...הייתה לי בעיה קטנה וזה כתב רק את הציטוט, ראיתי רק היום :-\רציתי להגיד שזה ממש לא נכון, HD4870 צורך הרבה פחות מ GTX280. תהליך יצור הרבה יותר יעיל, ליבה הרבה יותר קטנה והכרטיס חלש יותר כך שהוא לא צריך את אותו הספק.
פורסם 2008 באוגוסט 1217 שנים [br]פורסם בתאריך: 12.08.2008 בשעה 23:46:11 חחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחחח כל ספק שמחזיק 280 יחזיק 4870 חחחחחחחחחחחחחחחחחחחחחחחחחח הרגת אותי חביבי יש לי 4870 ותאמין לי 4870 צורך הרבה הרבה הרבה יותר מאשר ה 280 ! וואו יש לך ידע נרחב לא? מסתבר שלא...
פורסם 2008 באוגוסט 1317 שנים הוא דווקא כן צודק, אבל רק חלקית. בלי להפעיל משחקים, צריכת החשמל של ה-280 מאוד נמוכה, וזה חסכוני למי שמשאיר את המחשב דלוק כל היום. הוא הרבה יותר חסכוני מה-4870, שכדי לממן את האחזקה שלו צריך לעבוד בחברת חשמל. אבל כשמשחק עולה, ה-280 הופך להיות חייה רעה ורעבה ואז הוא גם משפד את ה-4870.
פורסם 2008 באוגוסט 1317 שנים "...אבל כשמשחק עולה, ה-280 הופך להיות חייה רעה ורעבה ואז הוא גם משפד את ה-4870..."מאיפה המצאת את זה ?? :s05:באתר GURU בביקורת של GTX280Full 3D performance mode: varies - worst case TDP 236W for GTX 280באתר GURU בביקורת של 4870X2System Under FULL load - Radeon HD 4870 X2 (R700) 437 Watt
פורסם 2008 באוגוסט 1317 שנים שיעשו מחדש את הביקורת.לא אפשרי ששתי ליבות עם TDP של 150 וואט גג כל אחת יביאו ליצירת כרטיס עם TDP של 437 וואט. התוצאה הזו מגוחכת.
פורסם 2008 באוגוסט 1317 שנים שיעשו מחדש את הביקורת.לא אפשרי ששתי ליבות עם TDP של 150 וואט גג כל אחת יביאו ליצירת כרטיס עם TDP של 437 וואט. התוצאה הזו מגוחכת.בסדר, אז בוא נוותר על האתר !יש לך קישור לביקורת שמאמתת את הטענה שלך ש"...כשמשחק עולה, ה-280 הופך להיות חייה רעה ורעבה ואז הוא גם משפד את ה-4870"
פורסם 2008 באוגוסט 1317 שנים בסדר, אז בוא נוותר על האתר ! יש לך קישור לביקורת שמאמתת את הטענה שלך ש "...כשמשחק עולה, ה-280 הופך להיות חייה רעה ורעבה ואז הוא גם משפד את ה-4870" קבל קישור, עליי http://www.anandtech.com/video/showdoc.aspx?i=3341&p=22 וגם זה: http://www.tomshardware.com/reviews/radeon-hd-4870,1964-15.html תחת עומס ה-280 צורך יותר מ-CF של 4850, ובטוח שיותר מה-4870. אבל תסתכל איזה חסכוני הוא ב-idle.
פורסם 2008 באוגוסט 1317 שנים מחבר אבל זה נתונים של CF 4870 לא של 4870X2. נראה לי שהנתונים ב-4870X2 יהיה קצת שונים לא?ואגב ה-SLI של GTX280 צורך יותר מה-CF 4870 במאמץ, לא GTX280 יחיד...
פורסם 2008 באוגוסט 1317 שנים תחת עומס ה-280 צורך יותר מ-CF של 4850, ובטוח שיותר מה-4870. אבל תסתכל איזה חסכוני הוא ב-idle.קודם כל, הערכים שציינתי קודם מאתר GURU מקורם בטעות שלי השוויתי בין 280GTX ל 4870X2לגבי הביקרות שצירפת מ anandtech אז ככה: GTX280 4870 הפרשבמצב מנוחה 203 159 44 בעומס מלא 279 313 35 בוא נוסיף גם את העובדה, שהמחשב נמצא הרבה יותר במנוחה מאשר במאמץ והמסקנה תהיה ש GTX280 חסכוני יותר.
פורסם 2008 באוגוסט 1317 שנים בוא נוסיף גם את העובדה, שהמחשב נמצא הרבה יותר במנוחה מאשר במאמץ והמסקנה תהיה ש GTX280 חסכוני יותר. על מה בדיוק אתה מתווכח איתי פה? זה בדיוק מה שאמרתי ו-44W הפרש ב-idle זה לא זניח בכלל, במיוחד למחשבים שפועלים 24/7.
פורסם 2008 באוגוסט 1317 שנים אתם מתווכחים או מחזקים אחד את השני ? הלכתי לאיבוד... ולמה בכלל אנחנו משווים gtx280 ל-4870 אחד :s05: (אה הבנתי... צוחקים על צריכת מתח גבוהה של 4870 )
פורסם 2008 באוגוסט 1317 שנים על מה בדיוק אתה מתווכח איתי פה? זה בדיוק מה שאמרתי ו-44W הפרש ב-idle זה לא זניח בכלל, במיוחד למחשבים שפועלים 24/7. נראה לי שהתפרצתי לדלת פתוחה, שכשכתבת "כשמשחק עולה, ה-280 הופך להיות חייה רעה ורעבה ואז הוא גם משפד את ה-4870" אני הבנתי שסה"כ לטענתך ה 280 פחות חסכוני ולא כך הוא...
ארכיון
דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.