המגמה הרווחת כיום בעולם המחשוב, אשר צוברת תאוצה, היא מגמת ריבוי הרכיבים ודבר זה מתבטא בדרכים רבות. מונחים כמו Dual core (מעבד כפול ליבה) או Dual GPU (שתי ליבות עיבוד גראפיות), יחד עם SLI ו-CrossFire מבית nVidia ו-ATI בהתאמה, מביעים את ה"אופנה" החדשה; יותר רכיבי עיבוד במקום מהירות יותר גדולה.
בעוד יותר ויותר תוכנות נבנות כדי ללמוד לנצל את יתרונות היכולת לעבד מספר נימי מידע בו זמנית (Multi Threading), דוחפות החברות הגדולות, ובראשן אינטל, את טכנולוגיות ריבוי הליבה שלהן. שימו לב: לא הכפלה, אלא ריבוי.
מעבדי ארבע ליבות כבר קיימים היום באופק, ומעבדים כפולי ליבה כבר לא מרגשים אף אחד. אך הנה הפצצה: מה תגידו על מעבד בעל 32 ליבות עיבוד, שעל פי נתוני אינטל אמור להיות פי 15 חזק יותר ממעבדי הקצה של הדור הנוכחי. מרשים, לא?
שם הקוד של מעבד זה לעת עתה הוא Gulftown, ומבנהו יהיה ייחודי מאוד: הוא יכיל שמונה מרכזי עיבוד, כאשר כל מרכז כזה הוא בעצם משטח (Die) נפרד עליו יהיו ארבע ליבות עיבוד. לכל מרכז יהיה 3MB של זיכרון L3, ולכל ליבה בנפרד יהיה 512KB של זיכרון L2, מה שנותן לנו סה"כ של 24MB זיכרון L3 ו-16MB של זיכרון L2 לכל המעבד. כל מרכזי הליבות יחוברו יחדיו במה שאינטל מכנה "טכנולוגיית חיבור פנימי טבעתי" (Ring architecture interconnect technology), ומיותר לציין שהמעבד ישולב תחילה (אם לא בלעדית) בשוק השרתים. מהירות השעון של מעבד Gulftown תהיה ככל הנראה 2GHZ, ובמהירות זו הוא אמור לספק עד פי 15 יותר ביצועים ממעבד Xeon 5100.
בשנת 2010 אינטל תשתמש בליתוגרפיה בגודל 32nm, מה שאומר שככל הנראה מעבד ה-Gulftown יהיה בעל מחיר "סביר ביחס לביצועיו" – אם כי יש לזכור שמעבדי Itanium 2 המשתמשים היום בשרתים גדולים עשויים לעלות עד 3372$ ליחידה.
בשורה התחתונה, כמו ש-Kenstfield מרובע הליבות החדש לא מתוכנן לצאת מלכתחילה לשוק ה-PC, אין טעם לאסוף שקל אל שקל ולחסוך כסף בשביל איזה Gulftown. יש לדעתנו מספיק מעבדים טובים בשוק, ועם הצטרפותו של מעבד ה-Core 2 להיצא בקרוב, המצב אמור רק להשתפר.
לא נראה לי יעיל
יש גבול למקביליות של תוכנה. לא ניתן לפרק כל אלגוריתם ל 32 תהליכים מקבילים. בקושי ל 4. לכן אני לא רואה איך רוב היישומים ינצלו מעבד כזה.
בשוק השרתים שאמורים לטפל בפניות רבות בו זמנית יש לכזה מעבד יתרון גדול, אבל לשוק הביתי אני בספק רב אם זה ישנה.
מי אמר לך את שהשטיות הללו
אולי מבני נתונים\אלגוריתם שאתה מכיר הם מדברים על מעבדים אחדים .
תתפלא יש מבני נתונים שדורשים עיבודים מקבליים PARLLELS
לגיא
גבול? לא אין גבול, זה תלוי במימוש התוכנה. גם ככה היום כל התוכנות עובדות ב- multi-threding. הבעיה האמיתית בריבוי מעבדים זה ה- overhead על התקשורת ביניהם. את זה כבר אינטל יפתרו בארכיטקטורת חומרה מתאימה ומיקרוסופט יהרסו עם מערכת הפעלה
ל 2 ו 3
גיא גיא צודק לחלוטין.
חוץ מזה, גם כשאפשר לפרק את האלגוריתם למשימות מקביליות זה דורש שיכתוב (לפחות חלקי) של התוכנה, וזה כידוע שווה $$$$.
הארכיטקטורה הזאת היא רק מחקר לאפשרות….
מדובר במחקר לאפשרות פיתוח עתידית. לא בטוח בכלל שזה המסלול שאינטל תבחר בו. Toms hardware בעצמם כתבו בסוף שיש שמועות שהפרויקט כבר מת…
תגובות לכולם פה.
תגובה לכל אחד לפי מספר:
1. לא נכון. כל תוכנה אפשר לחלק להרבה מאוד נימים. חוץ מזה, שעד 2010 אחוז התוכנות שישתמשו בריבוי נימים יהיה משמעותית גדול מאשר היום. יעילות מוגברת בשרתים? זה כל הרעיון בשבב הזה. למשתמש הביתי אין היום ניצול 100% ל-4 ליבות.
2. זה תלוי תוכנה.
3. מתי מיקרוסופט הועילו לאחרונה?
4. א', יש פאטצ'ים למשחקים ולתוכנות הממירים אותם למרובי-נימים בחינם. ב', עם הכניסה המוגברת של מעבדים מרובי ליבות לשוק, עד 2010 אחוז התוכנות מרובות הנימים יעלה פלאים.
5. אתה באמת מצפה למצוא בבית שלך מעב 32 ליבות? מדברים על אופציה, חוקרים כיוונים… בסופו של דבר הטכנולוגיה שתמומש (סביר להניח) לא תהיה זהה לניסוי.
המיקרו-ארכיטקטורה
המיקרו ארכיטקטורה שלהם תהיה כנראה "גשר", זאת אני מסיק ע"פ מפת הדרכים של אינטל למיקרו-ארכיטקטורות, שהו יהיה ב 32נ"מ , אולם יש סיכוי שזה יהיה ה "נחלים" שאמור להגיע לשוק ב 2008 , וזאת ע"פ ההצהרה של אינטל "שכל מיקרו-ארכיטקטורה חדשה לא תצא עם ליבה חדשה"
אם עכשיו הכריזו עליו
עניין של ימים שכמה סינים מאקסטרים סיסטם שמים עליו קירור גז ושוברים איתו עוד כמה שיאים בסופר פאי 🙂
8, "כמה סינים" עשו את זה לקונרו
עוד לפני שהוא הורכז.
לא נראה ודאי
זוכרים שדיברו על Tajes ב10.2GHZ עד 2006?
אני לא אוהב את הכיוון שאליו מתקדמים
הרבה יותר קל לפתח מעבד מרובה ליבה מאשר לפתח טכנולוגיה חדשה ולשפר את ביצועי המעבד הנוכחי.
עד היום התמקדו בשיפור טכנולוגית הייצור, יעול המעגלים ודרישות הכוח… היום בסה"כ מכפילים את הליבה וזהו!! שום מאמץ.
כאשר מריצים במקביל יש "עלות" מסויימת שהיא התקשורת בין המעבדים ופירוק האלגוריתם לחלקים לכן אי אפשר להמשיך ולהכפיל את מספר המעבדים עד אין סוף. בסופו של דבר זה לא משתלם.
שינוי תוכניות (ל10)
גם אני לא חושב שהיוון הזה ימומש לחלוטין..בגלל שכמו בחיים, אין דבר אחד שמשפרים כדי לעשות את המעבד טוב יותר (כמו שאינטל הבינו עם מהירות השעון). לכן הם עברו לריבוי ליבות, ואני מצפה שיחשבו על רעיון אחר עד 2010…
לי אישית יצא כבר לפתח אפל' עם עשרות Trds
לי אישית יצא כבר לפתח אפליקציות שרצות על קלסטר של שרתים (מחשבי PC זולים במקרה שלי) כדי לפצל חישובים מורכבים (עיבוד תמונה במקרה שלי) שעל שרת XEON היו לוקחים כמה ימים.
אין שום בעיה לפצל אפליקציות להרבה תרדים, זה רק דורש תכנות עם חשיבה. המעבר לתכנות מרובה טרדים לא יהיה שונה מהמעבר שהיה בזמנו ל OOP, פשוט צריך יהיה לחשוב לפי שכותבים קוד ולא להתיישב ולראות מה יוצא בסוף. תכנות MT הוא תכנות שדורש תכנון מאוד מדוייק מראש, כתיבה של HEADERS של הפונקציות והמחלקות מראש והמימוש מגיע רק בסוף, כי צריך לממש כשכבר יודעים בדיוק מה קורה מבחינת ניהול טרדים…