הדיון הראשי על פרוייקט Larrabee, מאיץ ה3D של Intel - עמוד 14 - כרטיסי מסך - HWzone פורומים
עבור לתוכן
  • צור חשבון

הדיון הראשי על פרוייקט Larrabee, מאיץ ה3D של Intel


alex.turovsky

Recommended Posts

אם ה LARRABEE מתבסס על ה CELL , אולי הגרסה הבאה שלו תתבסס על המעבד החדש הזה של .

ובכלל מה ההבדל בין ה CELL ללבין ה סדרת ה POWER 6 וה 7 החדשה הזאת ?

מצאתי הסבר שמישהו כתב בנוגע לאופן פעולת ה CPU והGPU. מה אתם אומרים, זה נכון ב100%?

"כרטיסי מסך גם מחשבים INTEGER, ו CPU יודע גם לחשב FLOAT POINT . אבל (ופה זה מתחיל) ה CPU בנוי בעיקר ל INTEGER ו לפעולות חשבוניות ופונקציות פשוטות כגון: חיבור, חיסור ובזמן האחרון גם שורש, חיזקה (אגב את זה הוא עושה בכפל שנימצא ב LOOP מיספר פעמים כמיספר החיזקה) בקיצור כל משעושה מחשבון פשוט ב 15 שקל, אבל משמש מהר ובקמויות :).

כרטיס המסך לעומתו עושה לרוב פעולות גאומטריות במרחב תלת מימדי (TANGENS ARCTANGENS KOTANGENS SINUS וכו), לדוגמא למה ליצרני המשחקים לקח הרבה זמן לצייר עיגול עגול (ולא מרובע) כי עיגול מצוייר על ידי משולשים שבנויים על נקודת תיכונים. וזה חישובים אדירים.

ותכלס כרטיס גרפי הוא מחשבון מדעי אבל בהרבה יותר איטי (בהשוואה למעבד). "

מחשבונים(ובשל כך גם המעבד, CPU או GPU) חישובים באמצעות קירובים שמבוססים בעיקר על טורי טיילור. כל פונקציה(כולל הטריגונומטריות) ניתן לייצג בקירוב עד כמה שרוצים באמצעות טור כזה שהוא טור חזקות(פולינומי) בלבד.

ויונתן - יכלת להתנסח בצורה הרבה יותר מתורבתת. לא מתאים לחבר צוות לשעבר ולא מתאים לך באופן אישי.

קישור לתוכן
שתף באתרים אחרים

  • תגובות 436
  • נוצר
  • תגובה אחרונה

משתתפים בולטים בדיון

משתתפים בולטים בדיון

עדיין לא הבנתי איך אינטל תיקח את מעבדי הCELL שמבוססים על ותגרום להם לבצע חישובי גרפיקה? (המעבדים הנוכחיים של לא מסוגלים להחזיק על עצמם חישובים של משחק).

מאיפה הבאתם שהוא יתבסס על CELL?

אין סיכוי!!!

סגנון המבנה יהיה דומה, גם זה בספק אבל אין שום סיכוי לראות אחת מעבדי ה- SPE של ה- CELL אצל .

קישור לתוכן
שתף באתרים אחרים

זה ההסבר הכי מטומטם ועקום ששמעתי בחיים שלי.

כמה שאני לא אוהב תשובות של "פגע וברח".

כתבת - תסביר הכל מחדש עם התשובה הנכונה. באמת שציפיתי ממך ליותר ידידי.

קישור לתוכן
שתף באתרים אחרים

@ אתה וזיסקינד.

מה שאני הבנתי מההסבר זה שהCPU מושווה למחשבון רגיל, והGPU מושווה למחשבון מדעי. ולכן הGPU מוצלח יותר בחישובים טריגונומטריים וFP שנחוצים לגרפיקה. זה באמת לא השוואה נכונה כי באופן עקרוני גם יחידות עיבוד גרפיות וגם מעבדים פועלים לפי אותו עקרון בסיסי.

ההבדל המהותי בין GPU וCPU הוא במה שהם אמורים לבצע. מעבד גרפי מותאם ברמת החומרה וברמת השבב לבצע את הפעולות הנחוצות לעיבוד גרפי- אם היית לוקח CPU ומתאים אותו לבצע פעולות ייעודיות, שאר תחומי העיבוד היו נפגעים ובעצם היית מאבד את המטרה של המעבד (משחק מילים!!1 האהא)- המטרה היא להיות CENTRAL processing ולכן מהגדרתו הוא לא יכול להיות ייעודי.

ההבדל הזה מתבטא גם ברמת התוכנה- בעוד מעבד מתוכנן לבצע פעולות על סוגיו (64 או 32) ושאר סטים של פקודות, מעבד גרפי יודע לבצע בעיקר קוד מבוסס dx או open gl. כלומר, יש ממש תכונות ייעודיות במעבד גרפי שהAPI של הDX והOGL יודע לנצל ולהשתמש בהם לעיבוד גרפי, דברים שX86 לא יודע לבצע ומשמשים בעיקר לחישובים הנחוצים בגרפיקה. כמובן שזה גורר תמיכה חומרתית תואמת ולכן מדור לדור של DX אנחנו נאלצים להחליף כרטיס.

בגלל ההבדלים בתפקוד של GPU וCPU וקצב החלפת הארכיטקטורות בתחום של העיבוד הגרפי עוד כמה שינויים נדרשים בכמה תחומים, מהעיצוב הכי בסיסי של המעבדים. אני לא מאוד בקיא בנושא הזה אבל אני אנסה להסביר מה שאני יודע: כשמדובר בCPU, המעצבים של המעבד דואגים למקם כל טרנזיסטור במיקום האידאלי שלו במעגל כדי לקצר את המרחקים בין מקומות בתוך המעבד וכדי להיות חסכוניים, מה שמוביל גם למספר טרנזיסטורים נמוך יותר. לעומת זאת במעבד גרפי המעצבים משתמשים ב"בלוקים" מוכנים של טרנזיסטורים, כלומר קבוצות מעוצבות מראש של טרנזיסטורים שיוצרים רצף מסוים של שערים לוגיים ובונים את המעגל מבלוקים כאלה. הגישה הזאת פחות יעילה אבל הרבה יותר מהירה לפיתוח ולכן כלכלית יותר.

ברמת עיצוב המעגלים עצמם, הGPU מותאם בבסיסו לעיבוד מקבילי של נתונים ב-pipelines זהים, שבהם יש הרבה טרנזיסטורים בכל Pipeline. הגישה הזאת התאימה לעיבוד גרפי אינטנסיבי אבל יכלה להתאים רק לתחום מסויים של עיבוד, למשל גרפיקה, בגלל שכל Pipleline נבנה מראש בצורה ייעודית לביצוע סדרת מטלות חישוביות ספציפיות ולכן לא היה יכול להתאים לחישוב כללי (GP); למעשה פייפלין הפך מטלות חישוב כלליות לStream processing וירטואלי כיוון שאפשר להתייחס לכל המידע ומטלות החישוב שנכנסות לפייפליין כאל יחידה אחת שעוברת עיבוד רצוף. זה היה נכון עד לשנה- שנתיים האחרונות, שבה יש מעבר לunified shaders ונפתחה הדלת לGPGPU וstream processing שזה באמת תחום שאני לא מבין בו ולכן אני לא אגיד לגביו כלום.

אם טעיתי איפשהו אני אשמח שמישהו יתקן או ירחיב.

קישור לתוכן
שתף באתרים אחרים

ההבדל הכי גדול בין CPU ל- GPU זה ברעיון המארגן של התכנון.

CPU אמור לתת ביצועים טובים באי וודאות. כלומר זרם פקודות ומידע משתנה אפילו בכל קלוק.

GPU חי בעולם שהוא די יודע איך נראה העתיד. ובגדול זה עולם של ביצוע פעולה מסויימת על רצף של מידע.

בכל אופן, מישהו מוכן להסביר איך הגיעה לכאן ההנחה שלפרוייקט הנ"ל של יש איזשהו קשר ל- CELL (מלבד הרעיון של מעבד למטרות דומות)?

קישור לתוכן
שתף באתרים אחרים

ואוו רגע רגע רגע.... אתם יכולים להסביר לבור מזה FLOATING POINTS??? הרי גם בגיאומטרייה יש אלגברה ולמה שCPU לא יוכל לעבד גיאומטרייה??? אגב אני זוכר שהיה מלא כתבות באינטרנט על זה שמנכ"ל אמר שהיום לא כל בנאדם שהולך לקנות מחשב למטרת משחקים ויודע מה בידיוק צריך להכלל במערכת חוץ ממעבד ולוח אם(זה למה יש בוטים שמנסים להריץ COD4 עם כרטיס מסך מובנה..) אז הוא אמר שהחברה שלו תוציא איזו שהיא דרך להשתמש במעבד לחישובים גראפיים.... (תקנו אותי אם לא) אז אם אני צודק זה אפשרי להכריח מעבד לעבד גראפיקה ובנוסף לכך CPU מהיר יותר מGPU בימינו בהרבה! +ריבוי ליבות מה שמביא לו עווד יכולות עיבוד שמכסות את הפער בקושי עיבוד גיאומטרי.... האם אני משער נכון?

קישור לתוכן
שתף באתרים אחרים

בסופו של דבר העניין הוא שכול מעבד מותאם לסט הפקודות שהוא צריך תמוך בו:

במעבדי X86 (שכוללים הרחבות שונות כגון SSE/2/3/4, X86-64, MMX וכו') יש מספר פקודות שהמעבד צריך לבצע.

אחרי זה מגיע "איך נעשה את זה" ופה נכנס עניין של ביצועים

מעבד GPU צריך לבצע פעולות אחרות

מה שמקבלים בסוף הוא שונה אך דומה ואני יסביר בדוגמא אחת אבל היא לא היחידה:

בקוד X86 עד לתקופה הדי אחרונה הכול היה בת'ראד יחיד, כלומר תוכנה רצה לה בצורה ישירה (קפיצות של IF LOOP וכו' זה FLOW CONTROL, זה עדיין "צורה ישירה") ומערכת ההפעלה הייתה אחרית על העברת ת'ראדים בין ישום ליישום (זה שהיינו יכולים להפעיל כמה תוכנות במקביל במעבד אחד (שכולל ליבה אחת ללא HT) זה פשוט קורה מכיוון שהמעבד יכל לבצע את המעברים הללו מאוד מהר ולא יקב אפשרות של עיבוד מקבילי) כלומר במעבד X86 כדי לקבל ביצועים טובים יותר (בקוד הנוכחי!) צריך לגרום למעבד לרוץ מהר יותר (תדר גבוה יותר) או לחשב דברים בפחות זמן, בניגוד לכך בתחום הגרפיקה עקב הקוד עצמו יש חישוב מקבילי רב מאוד, זה גורם לכך שכדי לקבל ביצועים טובים יותר אפשר גם פשוט להוסיף עוד יחידות עיבוד שתעבוד במקביל (בנוסף גם לאפשרויות שעומדות מול המעבד ה"רגיל")

זו הייתה דוגמא אחת רק לשוני בין המעבדים, לכן ההקבלה עם מחשבונים לא נכונה בעליל

השוני הוא עקב הקוד והדרישות ולא בביצוע עצמו (לכולם יש ALU רק שבGPU יש המון ממנו....)

ואוו רגע רגע רגע.... אתם יכולים להסביר לבור מזה FLOATING POINTS??? הרי גם בגיאומטרייה יש אלגברה ולמה שCPU לא יוכל לעבד גיאומטרייה??? אגב אני זוכר שהיה מלא כתבות באינטרנט על זה שמנכ"ל אמר שהיום לא כל בנאדם שהולך לקנות מחשב למטרת משחקים ויודע מה בידיוק צריך להכלל במערכת חוץ ממעבד ולוח אם(זה למה יש בוטים שמנסים להריץ COD4 עם כרטיס מסך מובנה..) אז הוא אמר שהחברה שלו תוציא איזו שהיא דרך להשתמש במעבד לחישובים גראפיים.... (תקנו אותי אם לא) אז אם אני צודק זה אפשרי להכריח מעבד לעבד גראפיקה ובנוסף לכך CPU מהיר יותר מGPU בימינו בהרבה! +ריבוי ליבות מה שמביא לו עווד יכולות עיבוד שמכסות את הפער בקושי עיבוד גיאומטרי.... האם אני משער נכון?

FLOATING POINTS זה נקודה צפה = חישוב עשרונית (מדויק יותר)

וכמו שהסברתי לעייל גם מעבד "רגיל" יכול לבצע את אותו החישוב אם תתן לו את הקוד הנכון העניין והוא שבמצב כיום הGPU נדרש לבצע הרבה יותר את החישובים האלו ולכן היצרניות (המעצבות יותר נכון - ATI/NVIDIA ושות) משפרות את הביצועים ע"י הכוונת הGPU שיבצע את אותם פקודות בצורה טובה יותר ומהירה יותר ופה גם פשוט "הרבה יותר" (עוד יחידות במקביל)

קישור לתוכן
שתף באתרים אחרים

אבל גם מעבד CPU מורכב ממיליוני טרנזיסטורים קטנים- אי אפשר להתייחס לכל קבוצה מהם כUnified shader שקיים בכרטיסי מסך?

לא, זו התשובה הפשוטה

לאאאאאאאא זה התשובה הארוכה :)

סתם, העניין הוא שמתייחסים לקבוצות כאשר הם פוקציונליות מסויימת (Unified shader לדוגמא) ואז מכפילים אותם, במעבד באופן כללי אין הרבה קבוצות שעושות לוגיקה זהה (יש אבל לא בהקשר הזה במדויק)

קישור לתוכן
שתף באתרים אחרים

חיכיתי ואספתי בשבילכם "קצת" חדשות על

בינתיים כל מה שאני חשבתי באשר ל:

- תאריכי יצאה

- תמיכה בטכנולוגיות הכי חדשות לעת יציאת הכרטיס (הכוונה שלא תוציאה חומרה מיושנת)

בינתיים לאור החדשות למטה כל זה קורם עור וגידים ומסתבר כנכון גם חצי שנה לאחר תחילת הנושא, בלי עיכובים.

אז ככה, הבטחתי חדשות מעניינות? הבאתי:

1.Fudzilla - Larrabee doesn't need DirectX

לאור ההודעה של מייקרוסופט (והחשד שלי שNVIDIA או ATI השפיעה עליה בנושא) שDIRECTX 11 שייצא שנה הבאה לא יתמוך ביכולות הנוספות של ה LARRABEE (מעבר ל RASTERIZATION) והכוונה שDX11 לא יתמוך ביכולות ה RAY TRACING ובעצם לא יתאפשר פיתוח משחקים (כי סטודיו שיפתח משחקים עם RT שירוצו בצורה מדהימה עם LARRABEE ולא תהיה תמיכה ב DX11 לא יוכל להפעיל את המשחק כלל על WINDOWS.

בתגובה אינטל הגיבה שאינה חייבת את ה DIRECTX בכלל אלא תעבוד עם "גישה ישירה". מה זה אומר? או שהיא תייצר API משלה (כמו ש 3DFX עשתה בזמנו וכתבה את GLIDE שנוצח בסוף ע"י DIRECTX שנכנס לשוק מובנה ב WINDOWS 95 דאז) או שהיא תעשה משהו אחר.

מה שחשוב - כבר בעת הצגת הכרטיס(תאריך בהמשך) אינטל עשתה הסכמים על חברות פיתוח והיא תציג 6 משחקים ראשיים שישתמשו ביכולות המלאות של ה LARRABEE כהדגמה טכנולוגית מלאה עם גרפיקה שפי התוכניות אמורה להיות מדהימה למדיי (טוב CRYSIS WARHEAD שיוצא עוד מעט כבר נראה מדהים), תחשבו מה יהיה עם שחרור ה LARRABEE.

2.Fudzilla - Larrabee will use GDDR5 memory

למרות שכבר ה ATI 4870X2 אמור להגיע לכח עיבוד של 2 TERA FLOPS, אינטל מכוונת לאותו יעד עם ה LARRABEE ולכן החליטה להשתמש ב GDDR 5 כדי להגיע לנפח התעבורה הדרוש. אמנם זה לא נראה כמו שמהו מיוחד כשמדובר של ATI ו NVIDIA ייצאו עד אז 2 דורות, אך בכל זאת המטרה מקדשת את האמצעים וזה משהו שלא חסר לINTEL.

3. Fudzilla - Larrabee will use a 12-layer PCB

אינטל משתמשת כעת ב LARRABEE בלוחות PCB(הלוח מעגלים אלקטרוני שהוא בעצם הכרטיס) בעלי 12 שכבות שהם 4 שכבות יותר מכל כרטיס גרפי כיום.

הדבר יוביל לעלויות ייצור גבוהות לשותפות של אינטל בהפצת הכרטיס, מה שעלול ליצור בעיות זמינות או חוסר רצון של השותפות לייצר כלל את הכרטיס.

הקירור על ה LARRABEE מסתבר להיות סטנדרטי כמו הקירורים שיש כיום על כרטיסי ה 4870 של ATI ע"פ דוגמיות הכרטיס שאינטל הציגה לשותפות.

4.http://www.fudzilla.com/index.php?option=com_content&task=view&id=8413&Itemid=34

הLARRABBEE לא יתמוך בצריכת אנרגיה.

הכרטיס מיועד לצרוך 300W של חשמל כאשר יעבוד בLOAD. כפי הנראה כרגע, במצב דו מימדי, הכרטיס יגיע לצריכת חשמל של כ200W+ ולא יירד אפילו ל 100W.

ייתכן פה פיספוס מסויים של אטינטל כי מקורות אומריןם שכל אפשרויות החיסכון באנרגיה יוצגו בדור השני של הכרטיס. יחד עם זאת אני בספק אם זה נכון ולאינטל יש עוד שנה שלמה להתכונן ולתכנן יכולות POWER SAVING ברמת ה DRIVER שחלק מליבות הכרטיס פשוט יכובו בעת עבודה ב WINDOWS במצב 2D.

5.http://www.fudzilla.com/index.php?option=com_content&task=view&id=8512&Itemid=65

הכרטיס יושק בתערוכת COMPUTEX 2009 בקיץ, שנה מהיום כאשר עומדת בתוכניותיה וכבר בעוד כמה חודשים עד סוף השנה תציג דוגמאות עובדות לשותפות שלה אשר אמורות בסופו של דבר להביא את הכרטיס אל המדפים.

קישור לתוכן
שתף באתרים אחרים

SASHA..... CHTO BI MI BEZ TEBA DELALI??? סשה תודה ענקית לך....

ועכשיו לנושא.... עכשיו יש את החדשות על כך שATI וNVIDIA תיאמו מחירים...בואו נגיד בעוד שנה תתחיל התחרות האמיתי בינהן...(אני לא יודע כמה זמן יכול להערך משפט...) ואז מגיע לשדה הקרב חייל חדש עם מדים מבריקים נשק קטלני (שצורך מלאאאא תחמושת...) ושיטת לחימה חדשה.... האם החייל החדש הזה (אינטל) יצליח להביס את ATI ו NVIDIA? יש לכך סיכוי.... כי תיראו את צריכת ההספק של הכרטיסים בימינו.... היא עולה כל שנה.... והאם אין סיכוי שבעוד שני דורות של כרטיסי מסך צריכת ההספק תתקרב ל200 WATT??? עכשיו בטח בתגובות שיהיו פה יגידו לי שלATI וNVIDIA יש מלא זמן להוריד צריכה ע"י דרייברים וכו'.... אבל אל תשכחו שלאינטל יש גם מלא זמן + באינטל יש הרבה יותר אנשים מאשר בATI ו ביחד... לא ממש ניראה לי שכדי להסתמך על הידיעות עכשיו על צריכת כוח של 300 וואטים בLOAD..... יש עוד זמן ויש סיכוי שהיא תרד..... זה מחד גיסה.... ומאידך גיסה..... כשATI ו יהיו פצועות ותשושות אך עם מלא ניסיון ופתאום באה חברה עם מוצר דיי טוב אני מדגיש דיי טוב לפי הידיעות שיש עד עכשיו..... (ולא סתם חברה אלא חברה עם שם.... אני אישית מכיר כמה אנשים שירוצו ויוציאו על כל מה שאינטל תוציא את מיטב כספם אפילו אם תתחיל ליצר קקה באריזה נוצצת שעליה מתנוססת הכתובית "SHIT INSIDE" ) יש מצב שהכ.מ לא יצליח....

קישור לתוכן
שתף באתרים אחרים

מקסים תודה.

אינטל לא עוצרת. זה מדהים כמה היא יכולה לגייס בשביל לעמוד בזמני הפיתוח.

תריצו פה בחיפוש את המילה LARRABEE ותראו משרות שמתפרסות על פני כל USA על פני כל תחומי הגרפיקה

http://www.intel.com/jobs/jobsearch/index_adv.htm

קישור לתוכן
שתף באתרים אחרים

SASHA..... CHTO BI MI BEZ TEBA DELALI??? סשה תודה ענקית לך....

ועכשיו לנושא.... עכשיו יש את החדשות על כך שATI וNVIDIA תיאמו מחירים...בואו נגיד בעוד שנה תתחיל התחרות האמיתי בינהן...(אני לא יודע כמה זמן יכול להערך משפט...) ואז מגיע לשדה הקרב חייל חדש עם מדים מבריקים נשק קטלני (שצורך מלאאאא תחמושת...) ושיטת לחימה חדשה.... האם החייל החדש הזה (אינטל) יצליח להביס את ATI ו NVIDIA? יש לכך סיכוי.... כי תיראו את צריכת ההספק של הכרטיסים בימינו.... היא עולה כל שנה.... והאם אין סיכוי שבעוד שני דורות של כרטיסי מסך צריכת ההספק תתקרב ל200 WATT??? עכשיו בטח בתגובות שיהיו פה יגידו לי שלATI וNVIDIA יש מלא זמן להוריד צריכה ע"י דרייברים וכו'.... אבל אל תשכחו שלאינטל יש גם מלא זמן + באינטל יש הרבה יותר אנשים מאשר בATI ו ביחד... לא ממש ניראה לי שכדי להסתמך על הידיעות עכשיו על צריכת כוח של 300 וואטים בLOAD..... יש עוד זמן ויש סיכוי שהיא תרד..... זה מחד גיסה.... ומאידך גיסה..... כשATI ו יהיו פצועות ותשושות אך עם מלא ניסיון ופתאום באה חברה עם מוצר דיי טוב אני מדגיש דיי טוב לפי הידיעות שיש עד עכשיו..... (ולא סתם חברה אלא חברה עם שם.... אני אישית מכיר כמה אנשים שירוצו ויוציאו על כל מה שאינטל תוציא את מיטב כספם אפילו אם תתחיל ליצר קקה באריזה נוצצת שעליה מתנוססת הכתובית "SHIT INSIDE" ) יש מצב שהכ.מ לא יצליח....

איפה פאקמן שצריך אותו?

קישור לתוכן
שתף באתרים אחרים

ארכיון

דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.


×
  • צור חדש...