הישר מכנס IDF Fall 2007 של אינטל, המתקיים בארה"ב
בכנס IDF העולמי, שבו התגלו פרטים נוספים אודות מיקרו-ארכיטקטורת Nehalem, הודיע גורדון מור, מייסד אינטל וחוזה חוק מור, כי לדעתו החוק הולך להישבר בקרוב מאוד.
חוק מור הוא בעצם השערה של גורדון מור שקובעת שכל שנה וחצי, או שנתיים יוכפל מספר הטרנזיסטורים במעגלים משולבים זולים. חוק זה הוכיח את עצמו לא פעם ולא פעמיים, ומראה נכונות כבר יותר מ-40 שנה.
כששאלו בכנס, כמו בכל שנה, לגבי נכונות חוק מור, השיב מור בלי היסוס שהחוק לא יתקיים לנצח. "החוק יתקיים עוד עשור שלם, אפילו עשור וחצי, אבל לא יותר מזה – עד שנמצא יסוד מתאים (שיאפשר את המשך החוק)" הכריז מור.
![]() |
גרודון מור, מייסד החוק |
על פי מור, אין בידינו טכנולוגיה מספקת בכדי ליצור ליטוגרפיה שתשבור את גבולות הננומטר. הכרזה זו מנוגדת תפיסתית להכרזה של IBM מתחילת החודש, שהצליחה לבנות שער לוגי על אטום בודד – דבר שיאפשר בעתיד ליטוגרפיה שתשבור את גבולות הננומטר.
"אנחנו נמצאים בתקופה מרתקת, והייתי שמח לקפוץ 100 שנים קדימה בזמן ולראות מה באמת קרה" סיכם מור.
אני יגיד לך בדיוק מה קרה
כדור הארץ התחמם והתפוצץ….
נראה על פניו
שאנחנו עוד ממש בתחילת הדרך
אבל לא ממש נראה שאנחנו מפותחים מספיק
חוק מור מעולם לא היה נכון
חוק מור היה חוק שביסס את התפתחות של המעבדים או בעצם הכלכלה הכתיבה את החוק הזה
היום רואים את ה AMD ו INTEL מתנצחים אחד בשני ככה שתפתחות נעשת יותר מהר
השאלה אם זה היה יכול לקרות קודם
המבין יבין
ל – 3 – אתה לא בהכרח צודק
למרות התחרות הנפלאה בין אינטל ו – AMD שהביאה עלינו מעבדים טובים, החוק לא נשבר ועדיין כמות הטרנזיסטורים (שעליו מבוסס החוק) עולה בהתאמה, אל תסתכל על מהירות המעבדים או על כמות הליבות. החוק עדיין נשמר.
מסקנה חשובה
מרובעי הליבה החדשים של אינטל יספיקו לכם להרבה מאוד שנים במחשב
אוח HWZONE למה להטעות?
מדענים הצליחו לאכסן מידע על אטום בודד. הם הצליחו לבנות שער לוגי מכמה אטומים ולא רק מאחד |:
מה ההבדל?
כזכור לי מספר הטרנזיסטורים בכרטיסי המסך כבר מזמן עבר את אלו שמעבדים . . . השאלה היא האם חוק מור מתייחס לכל טרנזיסטור במעגל חשמלי או רק באלו של מעבדים מתמטיים כגון ה CPU ? אם איני טועה מעבד גראפי מחשב FLOATING POINTS.
אגב עוד תמונה של הבחור

תראו מאחורה כמו אצל המוזיקאים שיש אלבומי פלטינה, לו יש מעדלי סיליקון מאחורי זכוכית חח
ל -7
אתה לא טועה אבל גם לא צודק כי כרטיסי מסך גם מחשבים INTEGER, ו CPU יודע גם לחשב FLOAT POINT . אבל (ופה זה מתחיל) ה CPU בנוי בעיקר ל INTEGER ו לפעולות חשבוניות ופונקציות פשוטות כגון: חיבור, חיסור ובזמן האחרון גם שורש, חיזקה (אגב את זה הוא עושה בכפל שנימצא ב LOOP מיספר פעמים כמיספר החיזקה) בקיצור כל משעושה מחשבון פשוט ב 15 שקל, אבל משמש מהר ובקמויות :).
כרטיס המסך לעומתו עושה לרוב פעולות גאומטריות במרחב תלת מימדי (TANGENS ARCTANGENS KOTANGENS SINUS וכו), לדוגמא למה ליצרני המשחקים לקח הרבה זמן לצייר עיגול עגול (ולא מרובע) כי עיגול מצוייר על ידי משולשים שבנויים על נקודת מפגש תיכונים. וזה חישובים עדירים.
ותכלס כרטיס גרפי הוא מחשבון מדעי אבל בהרבה יותר איטי (בהשוואה למעבד).
ל-2:
תיארת את מצב האנושות כיום, לאו דווקא את מצב ההתפתחות הטכנולוגית…
מחשבי קוונטים ישברו את השוק
אבל כבר עובדים עליהם יותר מעשור ועוד לא מצאו להם יציבות לוגית או שליפת מידע מהירה, אבל הביצועים שלו אמורים להיות מהירים קצת, טוענים שמה שיקח למחשב קוונטים אחד לחשב יקח למחשב ביתי החזק ביותר אלפי שנים.
המשך התאוריה
לדעתי התאוריה לא מתה אלה פשוט התקדמה שלב אבולוציוני. פשוט במקום להכפיל את כמות הטרנזיסטורים יוכפלו כמות המעבדים על אותו שטחנתון. תחשהו על זה כמו על עובר, קודם התאים מתחלקים ומתחלקים עד קצה היכולת ואז הופכים למשהו אחר. כבר היום אפשר לראות את זה עם המעבדים כפולי ומרובעי הליבה.