מליבה אחת פרימיטיבית למפלצת בעלת חמש ליבות ויותר, כשאחת מהן היא בכלל כרטיס מסך – עשור מאוד מעניין עבר עלינו בתחום המעבדים.
ב-2001, עת הגיח האתר לאוויר העולם, שוק המעבדים בדיוק עבר להילוך גבוה: מחסום הגיגה-הרץ נחצה, קודם על ידי AMD, ואז גם על ידי אינטל. האחרונה, שעד היום מובילה את שוק המעבדים הן מבחינה טכנולוגית והן מבחינת נתח השוק, בדיוק השיקה את מעבדי ה-Pentium 4, מתוך תקווה שתדר גבוה יפצה על יעילות עיבוד נמוכה של הארכיטקטורה.
חלקית הטריק הצליח. הפנטיום 4, שבנוסף לתדר גבוה גם הוסיף מספר סטים של פקודות חדשות, אומנם לא הציג יעילות עיבוד גדולה מזו של ה-Athlon MP, אבל מהירויות השעון הגדולות יותר נראו טוב בלוחות המודעות, וזה מכר, למרות ש-AMD מכרה את מעבדיה במחיר של פנטיום 3, אותו השאירה אינטל לשווקים הנמוכים יותר.
לא רק מהירות שעון
כאן צריך לעצור רגע ולהסביר שיכולת של מעבד לא נמדדת אך ורק על ידי מהירות השעון שלו, אלא גם על ידי היכולת שלו להתמודד מהר עם חישובים ספציפיים. כשאנחנו אומרים "סט פקודות" הכוונה היא למספר יחידות במעבד שמובנות בו וייעודיות לאותם חישובים ספציפיים, כמו למשל עריכת וידאו, תמונות, אודיו, דחיסה או פריסה של קבצים, הצפנה ואפילו משחקים. כמובן שדרושה תמיכה של התוכנה, אבל מדובר בחיסרון קטן מאוד ברגע שהן מעבדי אינטל והן מעבדי AMD מכילים אותו סט פקודות.
מעבד +AMD 1500 עם ליבת Palomin |
הבעיה עם הפנטיום 4 הייתה שהוא היה חם. כל כך חם עד שאינטל הייתה הראשונה לפתח דיודה שהייתה מכבה את המעבד ברגע שהיה מתחמם בצורה מסוכנת. כמובן שניתן היה לפתור את הבעיה על ידי רכישת גוף קירור גדול יותר (דבר שמקצועני החומרה עשו בכל מקרה, לשם המהרת המעבד), אבל אינטל לא יכלה להרשות למוניטין שלה לרדת לטמיון. במקום זאת, החלה החברה בתהליך שנמשך עד היום: הקטנת תהליך הייצור של המעבדים.
- כתבה זו היא חלק מפרוייקט סיכום העשור על פי HWzone
דמיינו לעצמכם עוגה: ניתן לחתוך את אותה העוגה (בגודל 300 ננו-מטר מרובע, לצורך העניין) לפרוסות של 180 ננו-מטר (ליבת ה-Willamette, עם הנטיה המרגיזה למות מהתחממות), אבל גם לפרוסות קטנות יותר, של 130 ננו-מטר. באיזה מצב תקבלו יותר פרוסות? כמובן שבמציאות הקטנת הפרוסות משמעותה למצוא דרך להקטין את המרחק בין הטרנזיסטורים תוך מניעת זליגה חשמלית ביניהם, אבל לתהליך ישנם גם יתרונות נוספים מלבד יותר מעבדים לכל פרוסת סיליקון (Wafer), והם צמצום פליטת החום, הקטנת צריכת ההספק, ויכולת השבב לעבוד בתדרים גבוהים יותר.
וואפר של 22 ננומטר שהוצג על ידי אינטל בשנת 2009 |
אם אינטל יכולה להקטין את ה-Willamette מתהליך ייצור של 180 ננו-מטר לתהליך ייצור של 130 ננו-מטר ולקבל ליבת Northwood מוצלחת, גם AMD יכולה לעשות את אותו הדבר. ליבת ה-Palomino של AMD שופרה גם היא לתהליך ייצור של 130 ננו-מטר, ונקראה כעת Thoroughbred. כאן נוצר מצב בו מבחינה שיווקית יש לאינטל יתרון, שכן הפנטיום 4 עם ליבות ה-Northwood הגיע לתדרים אדירים לתקופתו של 2.6 ואפילו 2.8 גיגה-הרץ, בעוד המעבדים של AMD התקשו לעמוד בקצב, אבל היו יעילים יותר. מעבד מבית AMD, דוגמת ה-Athlon XP שכבש את ליבם של חובבי החומרה באותה תקופה, בתדר של 1.8 גיגה-הרץ יכל להציג ביצועים גבוהים יותר ממעבד של אינטל בתדר של 2.4 גיגה-הרץ (וזה בלי להתייחס להפרשי המחירים לטובת AMD).
AMD ביתרון, אבל אינטל מובילה
ב-2003 כבר היו ל-AMD מתחרים חדשים בקנה ל-Northwood המזדקן של אינטל, כאלו שהשיגו אותו גם בביצועים במשחקים ובמולטימדיה. הנקודות החזקות של ה-Athlon XP 2X00+ היו מחיר נמוך ויעילות גבוהה ביחס לתדר, נקודות ש-AMD עבדה עליהן גם במעבדי הדור הבא: ה-Athlon 64 (שעליו פרסמנו בזמנו ביקורת מקיפה באתר). במעבדים אלו נדד בקר הזיכרון של מערכת השבבים אל ליבת המעבד, וכאן עשתה AMD הימור: האם תמיכת המעבד ב-64 ביט (כלומר, היכולת לעבד פיסות מידע גדולות יותר בכל מחזור שעון יחסית למעבד 32 ביט, כמו אלו של אינטל) תשכנע את הצרכנים להעדיף את מעבדיה של AMD?
מעבד פנטיום 4 במהירות 1.5 גיגה-הרץ בעל ליבת Willamette |
עד היום לא עבר כל שוק המחשבים האישיים בסערה לעיבוד ב-64 ביט (למרות שזה קורה, לאט אבל בטוח), אבל זה שיכנע את מקצועני החומרה שמעבדי AMD עדיפים. זה, ומבחני ביצועים מקיפים תוך התייחסות לעלות מול תועלת (שהייתה עדיפה אצל AMD). מצב זה נמשך גם בשנתיים הבאות, כשהקרב בין ליבה אחת לליבה אחת הפך לקרב של שתי ליבות מול שתי ליבות.
ב-2005 כבר היו לנו מעבדי 90 ננו-מטר: ה-San Diego וה-Venice (עטור השבחים), מבית AMD, והמצב בשוק היה כזה שכפולי ליבה היו לשוק הגבוה, וחדי ליבה היו לשווקים הנמוכים יותר. היתרון של AMD בקרב נשמר, שכן שתי ליבות יעילות הובילו בביצועים על שתי ליבות יעילות פחות באותו התדר. למרות זאת, בארץ המשיכו לקנות אינטל, הן בגלל שלא היה יבוא מסודר של מעבדי AMD לארץ, והן בגלל שמה שכן הגיע היה במחיר מופרז.
הויכוח הגדול היה על הצורך: "למה אני צריך שתי ליבות אם רוב התוכנות שאני משתמש בהן מנצלות רק אחת?" התשובה המיידית הייתה תוכנות עריכת וידאו, אודיו ותמונות, שלמדו לנצל יותר מליבה אחת, וכמובן, העובדה שכפולי ליבות התמודדו טוב הרבה יותר עם ריבוי משימות, דוגמת משחק תוך כדי דחיסה או פריסה של קבצים. כעבור מספר שנים גם משחקים למדו לנצל שתי ליבות (או יותר, לא דיברנו עדיין על משולשי ומרובעי ליבות), וכיום כפולי ליבות נשארו האופציה עבור דלי המזומנים או אלו שאינם זקוקים לכוח עיבוד גדול.
אחלה כתבה!
פספת פרט דיי קריטי
לדעתי כל עניין פתיחת הליבות והירידה של זה אל העם (לוחות אם שפותחים ליבות בקליק), הפך את כל נושא הoverclocking וההתעסקות ברמה כזאת עם חומרה למשהו הרבה יותר נגיש. משהו שלפני 10 שנים נעשה בחדרי חדרים.
קיימת איזה השוואה רצינית בין כוח העיבוד שלפני 10 שנים לזה של היום
בכמה המעבדים הממוצעים היום יותר חזקים?
כתבה מלאה בטעויות
הכתבה לצערי מלאה בטעויות. חלק מהן קריטיות. Intel לא התחילה בתהליך מזעור המעבדים ב-2001 כתוצאה מהתחממותם… התהליך היה קיים מאז ומתמיד (ראה חוק מור הידוע). מעבד ה-4004 הראשון של Intel כלל למשל אלפי טרנזיסטורים ספורים, וכעת המעבדים עברו את קו מיליארד הטרנזיסטורים…
התייחסנו לנושא הליבות
במאמר שכתבתי על תחום האוברקלוק, התייחסתי לנושא הליבות. חשבתי שזה שייך לשם יותר מאשר לפה.