GTX 660 OC GIGABYTE SLI - עמוד 2 - כרטיסי מסך - HWzone פורומים
עבור לתוכן
  • צור חשבון

GTX 660 OC GIGABYTE SLI


spider272

Recommended Posts

  • תגובות 45
  • נוצר
  • תגובה אחרונה

זה מסובך למדי

ניקח את הכרטיס שלי לדוגמא, יש לי טבלת תדרים אפשריים בקפיצות של 13MHZ (אאל"ט) שמגיע עד 1254MHZ

אבל בתכלס אם אני מאמץ את הכרטיס עם המשחק הכי חלש, הוא יגיע ל1150MHZ (לא 1254MHZ כי אין מספיק מתח) ועם משחקים שגורמים לו להגיע ל100% POWER LIMIT הוא מתחיל לרדת בתדרים ובמתחים לבד כדי לא לעבור 100%, לדוגמא במקום 1150MHZ@1.15V אני אקבל 980MHZ@1.05V במשהו כבד כמו , או אפילו זה ירד ל700MHZ בOCCT GPU TEST.

אם אני מעלה את הPOWER LIMIT אז במשחקים שגורמים לי לירידה בתדרים מתחת ל1150MHZ, הירידה תהיה יותר קטנה (לדוגמא 1100MHZ במקום 1050MHZ).

לא יודע לגבי סדרה 7, אבל בסדרה 6 אי אפשר להעלות מתח בלי לצרוב ביוס ערוך.

עכשיו לדוגמא אצלי שהעלאתי מתח מירבי ל1.212V, התדר המירבי במאמץ קל עלה ל1254MHZ. אבל במאמץ כבד זה לא משנה שהעלאתי מתח.

עוד דוגמא - אם אני מכריח אותו לא לרדת ממתח מירבי 1.212V, ומפעיל משהו כבד שהיה אמור לרוץ לדוגמא על 1000MHZ, הוא ירוץ על תדר נמוך בהרבה, כמו 800MHZ, כי הוא לא מצליח להוריד מתח וזה גורם לצריכת חשמל יותר גבוהה באותו התדר.

קישור לתוכן
שתף באתרים אחרים

ועוד שאלה קטנה..האם באוברקלוק לכרטיס חייב לעלות ת POWER LIMIT?מה זה עושה?מה זה משנה אם אני יעלה מתח או ישנה ת POWER LIMIT?

Power limit אופציה המאפשרת לכרטיס למשוך יותר חשמל אם הוא צריך, על מנת להשיג יציבות מקסימאלית ואוברקלוק גבוה יותר.

לקוח מכאן:

http://hwzone.co.il/community/threads/526907-מדריך-אוברקלוק-לכרטיסי-AMD-באמצעות-MSI-Afterburner

קישור לתוכן
שתף באתרים אחרים

אני עם GTX 660 OC ועשתי לו אוברלוק שהרים אותי ב 3DMARK11 ח 7000 נקודות לכרטיס..עם E7500..

- - - תגובה אוחדה: - - -

עידן קראתי תמדריך שלך(אין ספק מדריך מושקע)..ובאמת רציתי לבדוק תטמפרטורה של המייצבי מתח של הכרטיס..אבל משום מה לא מופיע לי VRM

522cf4b3ad88b.png

קישור לתוכן
שתף באתרים אחרים

תודה, נסה להוריד GPU-Z ולבדוק:

http://www.techpowerup.com/gpuz/

תוכל גם לבדוק בתוכנת ה-MSI AB כל זה במידה ויש לך באמת חיישן לטמפ' ה-VRM .

אני לא בטוח שמייצבי המתח בכרטיסי NVIDIA נלקחים יותר מדי בחשבון מבחינת ניטור, יש שם בקרה והגבלה על האוברקלוק במיוחד בסדרת 600.

בכרטיסי AMD הכל אפשרי ועם ה-OC באות גם הטמפ' ולכן יש למה.

אתה יכול לראות בתמונה למשל שלכרטיס הזה יש(לא הכי ברור) רואים באחד הגרפים באפטרברנר את ה-VRM:

http://www.geeks3d.com/20121022/msi-geforce-gtx-660-hawk-2gb-review/7/

קישור לתוכן
שתף באתרים אחרים

אין לכרטיס הזה חיישן לטמפ' VRM .... זה לא שאפשר לעשות לו ממש בכל אופן. גם אם תערוך ביוס, הגיגהבייט ספציפית, לא יתן לך לעבור את הPOWER LIMIT המקורי ... דווקא שאר ה660 מאפשרים את זה ואנשים מגיעים לצריכה בפועל של 140-150% ...

ועידן, הPOWER LIMIT בATI זה לא אותו דבר. בNVIDIA זה לא יכול לפגוע בOC וזה הכרחי בשביל לעשות OC בעצם.

קישור לתוכן
שתף באתרים אחרים

Power Limit

Introduced first with NVIDIA's GeForce GTX 580, the power limiter is in full force again on the GTX 680. It can not be disabled according to NVIDIA and board partners must use it. In order to cater to overclockers, just left out the whole circuitry on their GTX 580 Matrix for example, whether this will be possible again with GTX 680 seems doubtful.

NVIDIA is using three INA219 power monitoring chips on their board, which provide the driver with power consumption numbers for 12V PCI-Express and the two 6-pin PCI-E power connectors. The driver then decides whether the board is running below or above the NVIDIA configured power limit. Depending on the result of the measurement, the dynamic overclocking algorithm will pick a new clock target roughly every 100 milliseconds (three frames at 30 FPS). AMD's power limiting system works slightly different. It does not measure any actual power consumption but relies on an estimate based on current GPU load (not just %, but taking more things into account). This makes the system completely deterministic and independent of any component tolerances and reduces board cost. uses a hardware controller integrated in the GPU to update measurements and clocks many times per frame, in microsecond intervals, independent of any driver or software.

Each of these methods has its advantages and disadvantages. One thing that I like about NVIDIA's approach is that with a bit of hardware modding, the sensors might be tricked into thinking power is lower.

NVIDIA has set the adjustable range for the power limit to +32% up and -30% down. So far this is a hard limit, no software based method to circumvent it has been found.

I ran some tests with the power limiter configured at different levels to see how actual performance would change.

In the graph below, the red line shows the performance improvement (or reduction) of GTX 680 compared to the baseline value of 0% (black line). The green dotted line shows the average of the red line.

power_up.gifpower_down.gif

Adjusting the power limit up by its maximum yields 0.9% in real life performance. Take this in comparison to the -8.3% that we see when setting the power limit as low as possible.

The conclusion of these tests is that picked a decent default power limit on their board which doesn't limit typical gaming by much. However, there is still a bit of headroom to maximize performance (again, without any manual overclocking, using just the default always-on dynamic overclocking).

קישור לתוכן
שתף באתרים אחרים

היי

עברתי על הדיון ברפרוף

בעיקרון המקסימום צריכת חשמל שהגעתי עם 2 GTX 660 (ראה מפרט מלא בחתימה שלי) הוא 400W

יש לי מד חשמל שמראה צריכת חשמל בלייב מהשקע ובנוסף מקסימום וואט

נמדד עם CRYSIS 3, Battlefield 3,

ככה ש 550 כן אמור להחזיק אותם

אגב, אני ממליץ בחום על של GTX 660, לא היה לי איתם בעיות בכלל (שקשור ישירות ל SLI)

אלא אם כן יש לך עוד כ 700 שקל להשקיע ל של GTX760

קישור לתוכן
שתף באתרים אחרים

היי

עברתי על הדיון ברפרוף

בעיקרון המקסימום צריכת חשמל שהגעתי עם 2 GTX 660 (ראה מפרט מלא בחתימה שלי) הוא 400W

יש לי מד חשמל שמראה צריכת חשמל בלייב מהשקע ובנוסף מקסימום וואט

נמדד עם CRYSIS 3, Battlefield 3,

ככה ש 550 כן אמור להחזיק אותם

אגב, אני ממליץ בחום על של GTX 660, לא היה לי איתם בעיות בכלל (שקשור ישירות ל SLI)

אלא אם כן יש לך עוד כ 700 שקל להשקיע ל של GTX760

אתה יכול לנסות את זה עם OCCT TEST ? זה מאמץ גם את המעבד וגם את הכרטיסי מסך יותר ממשחקים, נשמח לדעת כמה יצא

ואגב זה לא היית אתה הבחור שפרש מBF3 כי אין שום דרייבר שהתאים לSLI שלו בBF3 ? :screwy:

קישור לתוכן
שתף באתרים אחרים

3DMARK בכלל לא מעמיס את המעבד אם אני לא טועה. לא בדקתי אבל אתה רואה דברים הזויים כמו תוצאה זהה אצל E7500 אצל מישהו מהפורום ואצלי עם 3570K@4.6

בOCCT יש POWER SUPPLY TEST שמעמיס גם את הכ.מסך וגם את המעבד.

אפשר אולי גם לנסות למשל 3DMARK+PRIME95 על SMALL FFT. לא נראה לי שזה ילך עם הOCCT LINPACK כי זה לא יתן ל3DMARK לרוץ, עם הפריים איכשהו שיחקתי BF3 בלי בעיה LOL .

קישור לתוכן
שתף באתרים אחרים

ארכיון

דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.


×
  • צור חדש...