תוכן nec_000 - עמוד 20 - HWzone פורומים
עבור לתוכן
  • צור חשבון

nec_000

משתמש רשום
  • מספר הודעות

    5377
  • הצטרפות

  • ביקר לאחרונה

  • Days Won

    81

הודעות שנפתחו על-ידי nec_000

  1. מענה ל- no one.

     

    מעתיק את הטקסט שלך בשחור ומתייחס בטקסט כחול:

     

     

    1.אם הבנתי נכון הרעיון הוא שעל הקאש ישבו 2 תמונות, אחת שעוברת בניה\עיבוד עם כל נושא הפוליגונים, ועוד תמונה שלמה.

    אם תמונה ברזולוציית 4k צורכת נפח זיכרון של 32MB אז 2 תמונות צורכות 64MB, לא הבנתי למה הוצרכנו להמתין לליטוגרפיה שתאפשר 128MB של קאש, שהרי ע"פ ההסבר הנ"ל דיי ב64MB, לאן התפספסו לי בהסבר עוד 64?

    ההסבר שהבאתי הוא מאד מתומצת (בכוונה) יש כמה וכמה מרכיבים שצריכים לשבת ב- cache בו זמנית. בכללם כל

    הוקטורים, הקודקודים, הפוליגונים המחושבים, הטקסטורה (אחת לפחות כמובן), נתוני z buffering לחסכון בשכבות

    הרנדור, נתוני mip mapping, רכיבי הארה, ועוד. יש היום גם  דחיסות מידע שיתכן, וצריכות כלי עזר בצד לסייע

    לפרוש ולדחוס וכדומה. עם השנים נוספו גם עוד טכנולוגיות שזקן כמותי צריך לקרוא ולהשלים אותם.

    ובנוסף לשמור מקום לחישובי ביניים כשטח עבודה... בקיצור ערב רב של נושאים.   זה מורכב מאד העסק הזה. ולכן, אם

    פריים בודד בגודל שותה כבר לבדו רבע מכל ה- cache, זה כבר כבד מאד במה שזה מותיר ליתר הצרכים. חסר לנו

    ה- stack המלא של , איך בדיוק אלגוריתמית היא מבצעת מה, מה שומרת ב cache, כמה נפח צורך כל דבר, ומה

    סדר הפעולות וזריקת החומר החוצה מה- cache כדי לפנות מקום למשהו אחר.

    וזה משהו שאינו נגיש לנו כי הוא סוד שלא יגלו אותו. אז לא ניתן לבצע חישוב משלנו, איך בדיוק הם עושים את זה. ככל

    המסתמן, הם מסתדרים עם cache של 128MB וזה עושה את העבודה היטב. האם 64MB יכול להספיק איכשהו? יתכן.

    נהיה הרבה יותר חכמים אחרי השקת Navi22 שהוא חצי גודל עם רק 40cu. אנו נראה באמצעותו, האם הסתפקו

    ב- 64MB cache, או שנאלצו לשים גם 128MB ואז נלמד מזה משהו.

     

    2.ידוע באופן כללי שקצב תעבורת הנתונים  של רכיבי חומרה שמאחסנים נתונים מדורג באופן שהנמוך ברשימה מהיר ביותר :

        דיסק קשיח\SSD 

        RAM

        ואז רמות הקאש השונות במעבד L1\L2\L3 ובין כל רמה לרמה, הנפח קטן, הזיכרון קרוב יותר למעבד ומהיר יותר.

     

       מסיבות שעדיין לא נתקלתי בביאור להן, CPU (בסגמט הגבוה) עובדים בסדר גודל של 5GHZ, בעוד שGPU עובדים בסדר גודל של 2GHZ (אני מודע     לכך שהם שונים באופנים רבים ביעודם\מבניהם) ומכאן מגיעות שתי תתי שאלות:

    ההבדל בתדרי העבודה נובע מהצפיפות הטרנזיטורית ואורך מסלול האות.

    ה- pipe line במעבד גראפי הוא פיסית מאד ארוך בגלל שהוא מחזיק אלפי ליבות, שאין ברירה, אלא לפרוס אותן על

    שטח נרחב כדי שכולן יכנסו, וכתוצאה מכך, מסלול האות לכל אחת מהם יוצא מקצה לקצה לא קצר. בגלל הריחוק

    הגאוגראפי. הגדלת מסלול אות מקטינה את פוטנציאל תדר הריצה.

    הסיבה השניה היא אופי העבודה, במעבד גראפי אלפי ליבות שיורות במקביל יחדיו, הצריכה האנרטית חלקי שטח גדולה

    יותר משמעותית ממעבד CPU ומשכך כמות החום הנדרשת לפליטה ליחידה שטח, היא כזו, שמגבילה את הנידוף, ולכן את התדר שניתן להגיע אליו מבלי לשרוף את המעבד.

    עוד כוון שמרמז לנו, היום זה בהכי חדשים, ריזן, כ- 4 מיליארד טרנזיסטורים למעבד. מצד שני מעבד גראפי כמו 

    שני החדשים שהושקו GA102 ו- NAVI21, הם 28 ו- 26 מיליארד טרניזטורים. די מהר מבינים פה את יחסי הכוחות

    ועד כמה GPU זו מפלצת, שגדולה משמעותית בעומס שלה מאשר CPU וזה משפיע על התדר גם.

     

    שלוב הסיבות לעיל, מאלץ מעבד גראפי לעבוד בתדרים נמוכים יותר משל CPU

     

    א.מדוע רוחב פס לזיכרון (בכלליות בשלל הכרטיסים הקיימים, ובפרט בחידוש של AMD שעכשיו הזיכרון גם ברמת הקאש) היא בסדר גודל נמוך מאוד יחסית, MBPS1612 ע"פ השקף הנ"ל, לקצב תעבורת נתונים של כונן NVMe ממוצע, בעוד שזה האחרון אמור להיות איטי יותר מאחר והוא לא נמצא ברמת הקאש של המעבד. מה כאן התפספס לי?

    שאני טעיתי במאמר,

    כתבתי בכל המקומות בטעות סופר את הערך Mbyte כשהיה צריך להיות Gbyte. ובזכות שאלתך, נכנסתי ותקנתי

    במאמר (תודה לך על כך).  ולכן אחדד כאן, שמהירות רוחב הפס איפה של 256bit באמצעות GDDR 6 היא

    512Gbyte לשניה.  הרוחב  פס המשולב של ה cache וה- VRAM יוצא כ- 1600Gbyte לשניה.

    ובהשוואה אליהן:

    רוחב פס זכרון Ram במחשב מודרני המשתמש בזכרון הוא סביבות 30-50Gbyte. ורוחב פס של כונן מסוג

    NVme הוא מסדר גודל של 1.5-3Gbyte בלבד.

     

    ב.אם מה שחונק את קצב עבודת ה GPU הוא מהירות הזיכרון (שבכל מקרה מהירה הרבה יותר מRAM רגיל) בעוד שהוא עצמו עובד בחצי מהמהירות של הCPU, למה בCPU רגיל מהירות הזיכרון לא מגבילה יחסית את עבודת הCPU, והיא שלעצמה דיי זניחה בתוספת הביצועים (לצורך המחשה ההבדל בין MHZ3000 ל MHZ4000) בעוד שבGPU היא צוואר הבקבוק. לא ראינו שבמעבדים אצים לסגל DDR5 כדי לזנק בביצועים, אלא רק מנסים להגביר את תדר העבודה (כמובן גם הוספת ליבות ושיפור ומזעור הארכיטקטורה וכו'). איפה מונח ההבדל היסודי שגורם למהירות הזיכרון (שגם ככה מהיר) בGPU לבקבק את העסק, בעוד שהליבה איטית מאוד יחסית לCPU?

    קיבלתי רושם דיי פרדוקסאלי בגורם המאט בין הCPU לGPU

    מעבד מסתפק בכמות מטמון קטנה על מנת להגיע למצב, שרוב הדרישות שלו לקריאה כתיבה בקוד שכתוב

    מתאים, מוצאות hit מול הזכרון מטמון  שלו ולא miss (אירוע שיאלצו לרדת ל- RAM). מנגד מעבד גראפי (ואנחנו

    מדברים עדיין על העידן שהוא טרום cache) צריך לכל פעולה שלו לרדת על עד ל- VRAM ולמעשה כל קריאה וכתיבה

    שלו נעשית ישירות מול VRAM.

     

    נמצא שאם מגדילים את מהירות ה- ביצועי מעבדי CPU משתפרים בישומים מאד ספציים, אך לא משתפרים בכל

    אותם מקרים שהוא ממילא עובד מול ה- cache שלו, ואלו מקרים רבים. לכן שמים את הדגש על מהירות שעון גבוה, IPC

    גבוה, ו- cache גדול ומהיר, שתרומתם לביצוע CPU היא גדולה יותר בחשיבותה מבחינה סטטיסטית. אם מנגד

    (לדוגמא) מדובר בשרת SQL,  שיש לו נפח גדול, ומסוגל לאכסן (למשל) את ה- DB כל כולו ב-  , או אז

    למהירות הזכרון תהיה השפעה גדולה על ביצועי השרת, היות וכמעט כל פעולה מול ה- DB היא מטבע הדברים נעשית

    מול ה- , לא מול הדיסק, (ולא מול ה cache שאינו מסוגל לאכסן אפילו גרגר מגודלו של ה DB כולו).

     

    האם הצלחתי להשיב בצורה טובה ? 🙏

    • תודה! 1
  2. ציטוט של captaincaveman

    אז איך מסבירים את זה שלמרות של-3090 20% יותר cores (וגם רוחב פס גדול יותר למיטב זכרוני, וכמובן יותר זיכרון), הוא לא נותן שיפור שמתקרב לזה בביצועים לעומת ה-3080?

     

    מכיוון שישנם עוד משתנים במערכת שמעכבים את הביצוע הכולל ופוגמים בנצילות.

    במקרה של היחס בין רסטריזציה ל- RT (שהוא פנימי לכרטיס), הגורמים החיצוניים שמשפיעים, משפיעים באופן זהה

    והומוגני על הכל שבתוך הכרטיס, ולכן השלכתם לינארית.  פגיעה ב- X על רכיב רסטריזציה, מייצרת גם פגיעה זהה על

    רכיב RT.

     

    עקרי הדברים החיצוניים שעשוים לפגוע בנצילות הכרטיס הם המחשב עצמו, הפלטפורמה, שהמעבד הגראפי ממתין להם

    שיתנו לו את ה- OK להתקדם. IO מול רכיביו השונים של המחשב, וחישובי המעבד.
    אך ההאטה הזו פוגמת כאמור (וגם הגיוני), על כל פעולות הכרטיס 3090 באופן המוגני וליאנרי, על כל מרכיביו גם יחד.

    כשהכרטיס ב stall הוא ב- stall על הכל.

     

    אחת התופעות שנוכל לראות היא, שכרטיס חצי הספק לא מספק בדיוק חצי ביצועים, אלא קצת יותר טוב מחצי. נגיד 55%.

    ואחרי זה כרטיס רבע שוב, יותר טוב מרבע נגיד 30%.

     

    ההסבר:

    ככל שהכרטיס הגראפי איטי יותר, כך האלמנטים החיצונים (שהם המחשב עצמו), פחות מזיזים לו. כי ישנם פחות מצבים

    שהוא זה שממתין למחשב, מאשר שקורה במאיצים חזקים, שהם בדר"כ נאלצים (בשל עוצמתם ומהירותם הרבה) להמתין

    למחשב יותר זמן באופן יחסי.

     

    נצילות כרטיס מסך עולה, ככל שעוצמתו נמוכה יותר, בשל הקטנת ההזדמנויות - שהמחשב הוא זה שמעקב אותו.

  3.  

    שאפו,

    יפה ונעים לראות חברים שמגיעים מעולמי ומסוגלים להעריך. אינך רק מפגין ידע ברמה גבוהה של מדעי המחשב ראיתי

    בשרשורים אחרים (גם), אלא שואל (פה) את השאלות הנבונות והנכונות ביותר. אהבתי 👍

     

    לשאלותיך אחת אחת: (טקסט שלך בשחור מענה שלי בכחול)

    דבר ראשון, רציתי לשאול: האם יהיה יתרון ב512MB? הרי לcache של המעבד אנחנו צריכים הרבה בלוקים קטנים כי התוכנית קוראת מהRAM לא בהכרח ברצף, אבל כיוון שהGPU מעבד frame frame זה ברצף בזיכרון, כך שלכאורה נרוויח מהכפלת הcache רק במידה שתוכפל מידת המקבילות של הGPU, לדוגמ' שבמקום לעבד טקסטורה אחת כל פעם הוא יעבד שתיים (המספרים להמחשה בלבד), או שנכפיל את הרזולוציה.

    פגעת בול - להבדיל מ CPU שבו אפיון הקריאות הוא מסוג random access to the memory, בעבוד גראפי זה

    הרבה יותר מסודר. המעבד הגראפי קורא מקטעים די ספציפיים בכל אטרציה של פעולה. ולכן פחות חשובה יכולת

    random access memory עבור GPU, והרבה יותר חשוב לו זה  memory access to specific memory

    addresses ברובד של קריאות.  כתיבות זה לא מעניין, הוא כותב למרחב מצומצם של frame buffer.

    ומשכך, כל עוד בכל איטרצה של סוג של פעולה חישובית, מרחב הכתובות שהוא זקוק להם יכול להתחם על ידי buffer

    בגודל ברור וקבוע, הגדלת אותו buffer לא ממש תשפיע על הביצוע. ולכן, אם נמצא ש- 128MB מספקים את הצורך

    עבור , ועבור גודל הטקסטורות שבהם עורכים שמוש בתעשיית ההאצה הגראפית דהיום, אזי הגדלת נפח ה- buffer 

    מעבר לכך בקושי תשפיע אם בכלל. אבל מה כן, אם ישתמשו ברזולוציות גבוהות יותר לדוגמא , היא לבדה צורכת רק

    עבור frame buffer פי 4 נפח מ- , שמשמעו 128MB לפריים בודד!   ואז 128MB cache אינו מספק עוד וזה מצב

    שיחייב מעבר ל- 256 או 512MB לפחות.  עוד אפשרות היא עליה באיכות הויזואלית של טקסטורות, לגדולות יותר,

    שתופסות יותר נפח בתורן, מה ששוב עשוי לאלץ להגדיל את ה- cache למעל 128MB. אז נסכם כך:

    כל עוד לא עולים ברזלוציות למעל , וכל עוד גודלן של הטקסטורות אינו עולה משמעותית מהנפחים המקובלים

    בתעשיה כיום, כנראה שלא יהיה ערך מוסף ממשי ב- cache גדול יותר מעל 128MB הנוכחי.

     

    דבר שני, למעשה זה קצת עצוב עבורנו כצרכנים. כי זה בעצם אומר שאין כמעט שיפור בRDNA2 לבד מזה, מה שאומר שבדור הבא (?) כשNVIDIA תאמץ את הטכנולוגיה גם היא שוב נגיע לGEFORCE 40 חזק פי שתיים מNAVI 3. מכיוון שאם אני מבין נכון, GeForce 30 חזק יותר מBIG Navi, רק שהיתרון של הcache מציב אותם באותה רמה.

    כן ולא וזו יותר הערכה שלנו. הדבר הראשון הוא נכון, מכיוון שאי אפשר להגן על הטמעת ה- cache כיישום בעבוד גראפי

    וכל אחד יכול להטמיע כרצונו, ומשהשיטה הזו והיתרון שלה ברורים מאליו בעוצמתם, למעשה יחייבו את כולם להטמיע

    במוקדם או במאוחר anyway, סביר מאד אם לא די וודאי , שנוידיאה מיישמת אותו כבר בסבב הבא סדרת 4000. ואז גם

    היא תהנה מאותו יתרון עצום כמו ש- navi21 נהנה. משמע שגם נוידיאה תוריד מסדר היום את בעיית מגבלת הרוחב

    פס  ותמגר את הלחץ הזה סופית.

     

    כמו כן אין ספק שהפטנט החדש מאפשר לליבה של navi21 לעבוד בנצילות גבוה יותר מ- ga102 ורוב הזמן אולי נצילות

    100% ממש שהיא למעשה נדירה. ולכן יכולה לחלץ יותר ביצועים מפחות בוכנות במנוע.

     

    במקרה ששתי המתחרות אינן סובלות ממגבלת רוחב פס כמו שיהיה בדור הבא, עולים על פני השטח וכדבריך, אך

    ורק הפערים הביצועיים של הליבות. טענת שסדרה 3000 חזקה יותר מ- big . אני לא בטוח שזו קביעה שניתן

    לעשותה היום בוודאות, אם כי קו המחשבה שלך מובן לי, לאור מה שצריך לפצות בצד נוידאה על הנצילות המופחתת

    ברובד . חסר לנו מידע מספק להבין איזו מהליבות ga102 או navi21 חזקות יותר. יחסי המרכיבים שכל אחת הטמיע

    שונים, לכל אחת מהליבות לבטח יתרונות במקומות אחרים על פני האחרת.

     

    למשל אני כבר ער לכך שהשבבים של navi21 כנראה חזקים יותר ברזולוציות נמוכות, והשבבים של ga102 חזקים יותר

    ככל שהרזולוציה עולה. הדבר עשוי לנבא לנו כי מרכיב הגאומטריה אצל navi21 עדיף לעומת מרכיב הרסטריזציה, בעוד

    שאצל נוידיאה זה הפוך וזה כבר משהו שאנו יודעים שהם שינו בסדרה 3000 לעומת הסדרות הקודמות.

    בקיצור, כששתי החברות תאמצנה את ה cache ולא רק , נהיה חכמים יותר. עוד שנתיים ?

    נמתין בסבלנות.

     

    מה שבטוח הוא, למי שמבין את המטריה, מי שקרה מה שהסברנו במאמר והבינו כהלכה, וזה לא טריויאלי למי שאינו

    מגיע מרקע מתאים, לכן ניסיתי הכי טוב שאני מסוגל להסביר לאדם הפשוט ומקווה שהצלחתי, זה ש- הביאה פה

    שיחוק אלגוריתמי מארץ האסים בשרוול, וזה מדהים שהם חשבו על ליישם זאת ראשונים בתעשיה. זה game

    changer.  יש חכמי מתמטיקה ולאגוריתמיקה ב- AMD היום, ללא ספק. ברמה הגבוה ביותר.  ולכן המגרש פתוח היום

    לתחרות, וזה בואו נקווה, מה שיהיה מעתה ואליך לשנים הבאות. אילו רק יכלו להגן על הפטנט ל- 7 שנים זה היה

    מאפשר בידם לפתוח פער יפה על נוידיאה, שהיתה נחנקת בלי רוחב זכרון מספק, או שהיה יוצא לה מאד יקר ליישם זכרון

    מהיר אבל בשיטת brute force.

     

    תבינו חברים, הטמעת cache במעבד גראפי היא אחת הרבולוציות הדרמטיות ביותר שנולדו אי פעם בעולם ההאצה

    הגראפית. יתכן שהוא יכול להחשב, כגדול ההמצאות אי פעם בתחום, או לפחות אחד מהשלושה הגדולים ביותר. 
     

    לא מפליא איך הם במכה אחת סגרו פער של עשור מול נוידיאה ולו רק בגלל הפטנט הזה, שכמה שהוא פשוט, ככה הוא

    גאוני. אני מת לפגוש את המדען/מהנדס שהגה אותו. מת לשוחח עימו. הוא ראוי לדעתי לפרס מדעי כלשהו. תרומתו

    לאבולוציית המדע בתחום מרשימה.

     

     

    • תודה! 1
  4. ציטוט של amit14

    לא לגמרי הבנתי..נניח ש2080ti מריץ משחק על 100 fps..וה3080 חזק ממנו ב50% ומריץ על 150..

    מפעילים rt והביצועים יורדים ב50%..עכשיו ה2080ti עם 50 fps..וה3080 עם 75..עדיין יותר חזק ממנו ב50%..אבל זה הפער שהיה גם ברסטליזציה רגילה...מצופה שאם יש שיפור בrt הוא יפתח במקרה הזה פער גדול יותר,שהביצועים ירדו בפחות אחוזים..זה לא שהrt פועל בחלל ריק...זה עוד לבל שנוסף..

     

    אכן כפי שכתבת.

    אנסה להסביר ברור יותר:

    נוידיאה מטמיעה בשבב הגראפי שלה יחידות עיבוד לטובת רנדור מסורתי, רסטריזציה, ויחידות עבוד לטובת חישובי RT.

    היא חישבה ומצאה בשעתו ייחס כלשהו כאופיטמאלי לדעתה, ואת היחס הזה הטמיע בדור RT הראשון הידוע בשמו סדרה 2000.

     

    כשהיא יצרה את דור 3000, מסתבר לנו, שהיא שמרה על אותו יחס אופטימאלי שמצאה בדור הקודם ולא שינתה אותו.

    למרות שב- PR לקראת השקת סדרה 3000 ובכל ההדלפות שיצרו קודם להשקה (ספק אולי מטעמה בכוונה), היא שווקה

    כי יכולות RT קפצו מדרגה לעומת הדור הקודם. הדבר גרם לנו לחשוב שהפעם המחיר הביצועי בהפעלת פונקציה זו יקטן.

     

    בפועל יכולות RT התחזקו ביחס לינארי לשפור שחל מדור 2000 ל- 3000 והיחס רסטריזציה לחישובי RT נשמר.

     

    משמע, שעם כרטיס 2080ti כדברך סופג מחיר של 50% כשמפועלים עליו יכולת RT, נובע שגם ב- 3080 המחיר יהיה זהה.

    אם מקודם היחס היה 150 לעומת 100, והמחיר הוא 50% בעת הפעלת RT, אזי היחס החדש יהיה 75 ל- 50 ובדיוק כפי שכתבת.

     

    כמעט בכל הרבדים, עבוד גראפי הוא לינארי מתמטית.

  5. ציטוט של af db creid

    כמעט מדויק. משום שאם התוכנה כבר תוכנתה בצורה כזו שהיא מחלקת את העבודה לthreads נפרדים, הcontext switch מאט את העבודה. עם זאת, יש לקחת בחשבון שחלק מהתוכנות יspawnנו (איך למען השם אני אמור לתרגם את זה? "להשריץ" threads נשמע גרוע...) threads רק אם יש מספיק ליבות.

     

     זה נכון בתאוריה, אלא שבפרקטיקה, היות והמעבד של n תהליכים לא יועמס ב Load מושלם של 100%,

    תהיה שם תקורת ביצועים שהולכת לפח. ולכן ה- context switch שיגרם במעבד בעל הליבה הבודדת,

    תקורתו בטלה בשישים לעומת המקרה האחר.

     

    עכשיו,

    באם לא מדובר ביישום real time, ניתן לקנפג את השעון החלפת תהליכים של מערכת ההפעלה, לבצע החלפה רק פעם בעשירית השניה

    נגיד. ואז מדובר בכולה 10 החלפות בשניה - תקורה של פחות מפרומיל שהולכת לאבוד. לכן כל נושא ה- context switch הוא תאורטי יותר

    מאשר משפיע בפרקטיקה באמת, בתדרי מערכות ומעבדים של המחשבים כיום. פעם כשמעבד עבד בתדר נמוך והזכרון וה IO היו איטיים

    נתנו ל context switch משקל יותר ממשי. כיום נעשה לאפסי/זניח.

     

    הגדולה האחרת היא שמעבד בעל בודדת,  מאפשר ניצולת מלאה של הביצוע על למקסימום של 100% של כל הספקו.

    גם לנסות לעשות זאת בתהליך פרללי שאפשר למקבלו לחלוטין, זה אף פעם לא יוצא מושלם, גם במקרים מאד טהורים.

    איזה 1% in the best scenario הולכים לפח. context switch שמתרחש פעם בעשירית שניה על מעבד 4Ghz

    זה אבדן ביצועי השואף לאפס - הרבה פחות מ 1%.

     

    מעל הכל, חלק לא מבוטל מהאלגוריתמים אינו מאפשר למקבלם מלכתחילה, ואז בכלל.

    נגיד יש מעבד 8 ליבות, ההספק של הוא שמינית כח. ומעבד בהספק פי שמונה ביחס לליבה בודדה שלו, הוא דרמתי בעוצמתו, פי 8.

     

    החלום הכי רטוב של עולם המחשוב הוא אחת עוצמתית. על העקרון הזה מבוססים חלק ממחשבי העל לחישובים

    בלתי ממוקבלים. מכונות מסוג זה מטמיעות חומרים איזוטריים ויחודיים המקוררים ככל שניתן קרוב לאפס המוחלט כדי

    להופכם למוליכי על. רק כך ניתן להגיע לתדרי עבודה דרמטיים, שמאפשרים מקסימום הספק למעבד/ליבה בדידה. הכל

    לטובת אותם חישובים שלא ניתן למקבלם.

    • תודה! 1
  6. ממש לא נעלב שתנוח דעתך :hafira: 

    עברית אינה החוזקה/השכלה/קריירה שלי, אז בכלל אדיש...

     

    למדתי עברית ממקור אחד, יש עוד רבים. הנושא אינו חד חד ערכי כמו תחומי המדע. והאמת, זה לא כזה מעניין. ביננו...

     

    יתכן שתיקנתי את החבר jaber ויתכן שתקנתי לא נכון. אבל יפה שנכנסת למצוא חומר בנושא 👍

    כולנו למדנו בזכות.

    • אהבתי! 1
  7.  

    ^אתה שופט את העתיד, על סמך הסטוריה ישנה ורחוקה, ותדמית שהדביקו לחברה קקיונית דאז, בכח.

    קשה להפטר ממנה ולראיה גם אתה נדבקת.

     

    אבל היום מדובר באנשים אחרים ב- , בצוותים אחרים, הנהגה אחרת, סמנכ"לים התחלפו, כולם אגב,

    ומדובר במדיניות אחרת ...

     

    אין טעם למותג בינלאומי בכזה סדר גודל, בשלב כזה של נסיקה חסרת תקדים בהסטוריה של החברה, לשקר

    לתקשורת הרי, רק כדי לצאת מגוחכים בעוד שבוע וחצי (שזה מה שאתה חושב שיקרה כן).

     

    שכחת, מדובר היום בחברה שממוצבת במקום אחר לחלוטין, מרחק שמיים מארץ מ- של לפני 8 שנים

    שהיתה אז בשפל ובסכנה ממשית להמחק (כדי לשרוד מוכנים לעשות הכל כידוע). 

    החברה כיום בשווי של 90 מיליארד דולר, שמנייתה מצויה בערך הגבוה ביותר הסטורית (ראה מטה).

     

    כיום היא חברה עם המון אחריות לפרסטיג'ה שבנתה במו ידיה בעמל רב בשנים האחרונות, כל איש PR בחברה יזהיר

    את אחרון הסמנכ"לים והמנכ"לית - לבל יעזו לשקר במילימטר. שכן אז גודל ההפסד שיגרם, עולה מאות מונים

    בנזקו, על גודל התהילה שהשקר יקנה ל- 5 דקות בערך (עד שהשקר יחשף). יש להם המון מה להפסיד.

     

    סטיות ככל שיהיו בין המדידות שהראו לנו במצגת, לבין המדידות אצל סוקרים צד ג', יהיו בגודל טעות המדידה

    הסטטיסטי - שבתעשיה הזו מקובלים להיות מגודל 1-3% . בקיצור זניח על מנת להטות את התוצאה מבחינה

    עקרונית ממה שראינו.

     

    הנה לאן שהחברה הגיעה, אין שם טמבלים דיים שיכולים להרוס את התדמית והשם, ולדפוק את אמון המשקיעים,

    בדיוק כשהם על הסוס ובשיאם. למען האמת גם לא צריך, יש להם מספיק במה להתגאות מבלי לרמות מאומה.

     

    *יש לך עוד הרבה מה ללמוד חבר יקר, בנהול עסקים ובאסטרטגיה בחברות בינלאומיות מכאלו סדרי גודל.

     

    image.png.2fa04a7bc6cde3ccc87ba0763b90a11e.png

     

  8. ציטוט של oneq

    שלום,

     

    טוב אחרי שלשום החלטתי שזהו, אני לא מחכה יותר ומשדרג את המערכת שלי לפלטפורמה עדכנית יותר ( במיוחד שאין לי למה לחכות כי AMD לא הכריזו על רייזן 3 אלא רק רייזן 5 שהוא גם ככה לא בתקציב שלי). 

     

    רציתי לשאול 3 שאלות בבקשה: 

     

    1, האם תהיה איזושהי הורדת מחירים בעקבות הדור הבא שהולך לצאת, ואם כן האם שווה לחכות עוד קצת עם הקנייה? 

     

    2. האם RYZEN 7 2700 הוא יותר Future Proof מאשר RYZEN 5 3600 (בשל העובדה שהוא 8C/16T ולא 6C/12T כמו ה 3600)?

    אני לא מתכוון לשדרג שוב מעבד ב-5 שנים הקרובות...

     

    3. מה ההבדל בין 10400F ל-3600?

     

    השימושים הם גיימינג בלבד, 

    תודה רבה

     

    אני רק שאלת תם, אבל היא אולי השאלה הכי חשובה שכלל לא נשאלה, לא על ידי אף אחד פה, ולא על ידך.

    מה היא הפלטפורמה הנוכחית שלך, קרי מה הוא המעבד ?

     

    משוב על שאלה זו ייתן בידנו כוון, להבין, האם המשימה שעבורה בקשת לרכוש מחשב חדש (לוח + מעבד + ואולי גם ?)

    שהיא גיימינג, בכלל מצריכה שדרוג ? 

     

    הרבה עושים טעות כבר בסעיף הזה והוא לאבחן לא נכונה, מהי נקודת התורפה במכונה הנוכחית.

    על פי רוב וכמעט ברוב רובם המכריע של המקרים, צוואר הבקבוק הוא בכלל כרטיס המסך, ולא הפלטפורמה עצמה (מעבד).

    אז בוא נבדוק תחילה יחדיו, מאיזו נקודת מוצא אנו מתחילים את המסע...

  9. השפור ב- RT בדור 3000 לעומת דור 2000, הוא לינארי לשפור ביצועים ברסטריזציה.

    קרי עם 3080 מהיר ב- X אחוזים מעל 2080ti איפה שאין RT, יצא, שהוא מהיר ממנו באותם X אחוזים, גם במקרים שבהם יש RT.

    נוידיאה שמרו לינאריות ויחס כוחות בין רסטרזציה וחישובי RT בין הדורות.

    **הטעו אותנו לחשוב אחרת לפני כן, ובגלל זה אנחנו כאילו מתפלאים. אבל אין מה להתפלא. נוידיאה כנראה עשו נכון ומצאו איזון

    שהם משמרים אותו.

  10. מתחילות לצאת כל מני השוואות צד ג' , שמנסות להעריך את כוחו של RDNA2 בביצועי RT, וזאת משום ש- AMD

    כלל לא דברה על זה.  אז הנה המידע והוא טרי מעכשיו:

    https://wccftech.com/amd-radeon-rx-6000-rdna-2-big-navi-graphics-cards-ray-tracing-performance-detailed/

     

    להלן הטבלה כתקציר מנהלים שאומרת לנו איפה הכח היחסי בהשוואה רוחבית בין כל הדגמים:

    image.thumb.png.6b163c3c24eb7076db28f534290e3738.png

     

     

     

  11. ברמת העקרון האלגוריתמי עדיף כמה שפחות ליבות בהספק שווה ערך. וזה נכון לכל סוגי החישובים, לא רק למשחקים.

    אם אפשר לקבל אחת בלבד, שחוזקה כשל n ליבות חלשות, היא תהיה עדיפה.

     

    ומדוע:

    אם יש n טרדים, אז בודדת בהספק שקול ל- n, תבצע אותו הדבר כמו מעבד שיש לו n לבות הרי.

    אבל, אם נכנסים פחות מ- n טרדים, לדוגמא טרד אחד, הוא ירוץ על הליבה הבודדת החזקה,

    פי n יותר מהר, מאשר שירוץ על אחת חלשה (במעבד בעל n הליבות).

     

    לעולם זכרו,  עדיף כמה שפחות ליבות, בהספק שווה ערך להרבה לבות.

     

    חלוקת העבוד לכמות לבות היא לא מתוך בחירה - אלא מתוך אילוץ.

    משום שיש תקרת ביצועים שניתן לעשות ב- pipe line בודד. ולכן הכניסו עוד לבות כדי בכל זאת לגדול לרוחב,

    באם אי אפשר לגדול לגובה.

     

    מעבר לכל זאת, יש אלגוריתמים שלא ניתן למקבל מאומה, ואז על אחת כמה וכמה.

     

  12. כן, רק אתה חושב. יש כותבים מצחיקים יותר ומצחיקים פחות בסדרה.

    בכל השקה זה תמיד כיף לראות את היוצרים עושים לקהילה קצת שואו משעשע.

    אל תפספס את השלישי שלנקקתי, בספרדית, הוא חזק קצר וקולע...

  13. ציטוט של Jabberwock

    ללא הקאש מה יעזור? RDNA1 עם קצת יותר זיכרון ושיפור בתדר ? לפחות הבאגים בחומרה יתוקנו

     

    צודק, זו בטח טעות. אז כנראה זה עם cache, או שזה 384bit. אחד מהשניים.

    בכל אופן זה משהו מהיר כדי 30% מעל rx5700 ששם אותו למעשה מרחק יריקה מביצועי 2080ti.

    400$ מתורגמים למחיר ישראלי (אחרי התיצבות מחירים) בגובה 2000 ש"ח לצרכן.

    nice

     

    זו הקטגוריה שיותר מדברת אלי...

    כי לאוכל נבלות שכמותי, מה שהמדרגה הזו מאפשרת, זו הוזלה במחירי כרטיסי יד שניה.

    שהם למעשה מה שאני מעוניין בו מלכתחילה :flipa:

     

    ננסח זאת כך:

    במצב בו הושק מוצר שמקביל סדר גודל ל- 2080ti, במחיר 400$ לצרכן, שיש לו 12GB זכרון,

    שזה 1 יותר ממה שיש ל 2080ti (קרי לא סובל מהתרוץ שצריכים לספק במקרה של 3070 עם ה- רק 8GB)

    אז בכמה יוכלו מוכרי יד שניה למכור את 2080ti שלהם ?

    נגיד 250-300$ ?

    שזה בארץ סביבות 1250-1500 ש"ח לערך בלוח יד 2...

    הבנת לאן אני חותר...

     

×
  • צור חדש...