פורסם 2007 בפברואר 1718 שנים אני מחפש דרך לכתוב קטע קוד בתוכנית (Matlab או C++ ) שירוץ על הרכטיס מסך.מדובר סימולציה שאמורהלהציג תהליך מסויים ב- 60 ערוצים ( על המסך מוצגים 60 חלונות קטנים - ראו תמונה מצורפת), עבור כל ערוץ קיים וקטור (מערך) בגודל 5000 כאשר אני מציג 100 ערכים בכל פעם וכך רץ על כל הוקטור. (כל וקטור הוא מערך בגודל 5000 שכולל מספרים ממשיים רנדומאליים). התהליך כרגע עובד אבל לאט מאוד - 577 שניות, אני מעוניין לייעל את העבודה להרבה פחות, וחשבתי על האפשרות להעביר את העבודה לכרטיס מסך.אם למישהו יש רעיון יצירתי אחר אנא שיעדכן. [attachment deleted by admin]
פורסם 2007 בפברואר 1718 שנים מחבר לצערי אני חייב את הדבר הזה עובד... יותר מידי זמן השקעתי בתוכנה הזו כדי לוותר. יש לך רעיונות אחרים ? אפילו בשפת אררת ? (הכל יתקבל בברכה...)
פורסם 2007 בפברואר 1718 שנים 1)אתה יודע אמבדד ?2) אתה צריך REALTIME?3)יש זה חישובים שלא קשורים אחד לשני ניתן לבצע את החישבים במספר מחשבים ...4)חבל על המאמץ להמיר את התוכנית שלך ל אימבדד בכלל ..5) מה זה בכלל ? 6) נב - המחשב שלך קקה בשביל ASIC SIMULATOR .
פורסם 2007 בפברואר 1718 שנים http://en.wikipedia.org/wiki/GPGPUhttp://en.wikipedia.org/wiki/Stream_processing
פורסם 2007 בפברואר 1718 שנים מחבר ל - Omniscience תודה על הקישורים .ל- GSM בסופו של דבר זה יהיה RT, אבל מתכנת RT מנוסה שכמוך (הסקתי מתוך השאלות ששאלת) בטח יודע שלפני עוברים לבצע RT מתחילים מסימולציה Offline. מדובר במערכת שמקליטה פעילות של מערכת העצבים - המערכת עצמה בנויה וקולטת את האותות, ממירה אותם לאותות דיגיטליים (בעזרת מעבד DSP-TI), ואני בשלב של כתיבת תוכנית למתפעול המערכת. כל הסיפר מבוצע במסגרת מחקר אקדמי בתחום הביורפואה.נחזור לעניין, מטריצה בגודל 60 על 5000 (60 ערוצים, 5000 דגימות לערוץ), אני רוצה להציג את בכל חלון על המסך 100 דגימות וכך לרוץ על המטריצה כולה, אני חשבתי שאם אני אעביר את החישובים לכרטיס מסך אני אקבל תוצאות טובות יותר, אם יש לך רעיון אחר אני אשמח. ???
פורסם 2007 בפברואר 1718 שנים אתה יכול לנצל מחשב מרובה ליבות (4?) כדי לפצל את העומס, אבל לא נראה לי שמאטלאב מאפשר את זה ?
פורסם 2007 בפברואר 1718 שנים מחבר אני יכול להפעיל את Matlab מתוך C או ++C ואז לכתוב ל- 4 ליבות זה רעיון טוב, תודה.בכל זאת אם למישהו יש רעיונות נוספים אני אשמח.
פורסם 2007 בפברואר 1718 שנים אני לא חושב שהחישובים שאתה מנסה לעשות יכולים להתבצע ע"י הליבה הגרפית של כרטיסי מסך ביתיים...לעומת זאת יש כרטיסי GPGPU כמו שOMNI הביא לינקים אליו אבל הכרטיסים האלה יקרים ממש
פורסם 2007 בפברואר 1718 שנים אם גם הסנסורים בלתי תלויים וגם החישובים (לפחות עד שלב מסוים), אפשר לחבר אותם לכמה מחשבים ולחלק את העבודה ביניהם, ובסוף דרך לאחד אותם.
פורסם 2007 בפברואר 1718 שנים 1) אתה משתמש בפוטוקול של TI בעזרת- זה פרוטוקGPIB ...לא ממש חזק לנושא הזה.2) אין לך ממש בררה אתה חייב לעבוד מעל מחשב 1 3) על איזה חלק אתה מדבר ....על הדגימה ..אז אני חושב שמש שאתה מציעה זה הכי טוב 4) אם אנו מדברים על עיבודים פשטים ...כדיך ללכת על מחשב חזק או לחלק את זה למספר ממחשבים או מספר DSP של אימבדד(יש אפשרות לחבר אותם ל ML)5)מעבד גרפי לא ממש יעזור פה ...(ולא פיתרון טוב בכלל) דורש שינוי גדול מידי ! 6( SIMLINK ....
פורסם 2007 בפברואר 1718 שנים בנוסף....אני חושב שהדגימות שלך לא טובות (אני רואה המון נקודות שהם זה אף מהסקלה נכנס לרוויה ...יכול להיות שאתה דוגם רעש ? בכלל ? יש מסננים בכל הסיפור הזה ?טעות שלי הכנסה מספרים רנדומלים ...
פורסם 2007 בפברואר 1718 שנים אני ממליץ לך להדפיס כמה שפחות למסך, ולהציג כמה שפחות גרפים בזמן נתון.אם מישהו יכול לעזור לו זה אתה...
פורסם 2007 בפברואר 1818 שנים למדנו בקושי להשתמש בML, לא התעסקנו עם זה יותר מידי. אומנם היו לנו מעבדות על זה, אך ML היא תוכנה גדולה מידי כדי שנוכל לעבור עליה בקורס שזו בכלל לא המטרה שלו.ד.א. ממתי ML רצה על VISTA? זו הייתה אחד הסיבות שלי לחזור לXP.
ארכיון
דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.