עבור לתוכן

מדוע ניתן להבחין בהבדלים באיכויות המקור גם כאשר הן עוברות את יכולת התקן התצוגה?

Featured Replies

פורסם

עניין שסיקרן אותי אבל איני יודע את התשובה לגביו.

איך זה שאני מסוגל להבחין בהבדלים בין SD לבין HD Ready ו-Full HD גם על התקני תצוגה שלא עומדים אפילו בתקן HD Ready לדוגמא? האם אלו משתנים אחרים שנכנסים למשוואה ויוצרים את ההבדל - כלומר, אם היה ההבדל מסתכם רק בהפרשי רזולוציה אז לא הייתי שם לב - או שמא ייתכן הדבר שהתקן תצוגה, שהוא ה"מסננת" האחרונה ואשר עומד בתקן SD, מסוגל לשקף הבדלים ברזולוציות גבוהות יותר?

אם כן, כיצד?

פורסם
  • מחבר

המקרן העתיק שלי, עם רזולוציה טבעית - רחמנא ליצלן - של 800x600, מראה בברור איך 720 עדיף על 480\DVD ואיך 1080 עדיף על 720.

עריכה: רק כדי שלא יהיה ספק שזה לא קשור למעבד התמונה במקרן, אציין שהמחשב הוא זה שמבצע את ה-scaling.

פורסם

ברור ש-720 יראה טוב יותר מאשר 480.

720 נראה קצת פחות טוב מ-1080 בגלל ה-scaling - אלא אם כן הרזולוציה קרובה יותר לכפולה טבעית של רזולוצית המסך, יותר פיקסלים יביא את אלגוריתם ה-scaling להיות מדויק יותר.

פורסם
  • מחבר

זאת אומרת, שתיאורטית, איכות התמונה תמשיך להשתפר ככל שהרזולוציה תעלה, עד אינסוף? איך האלגוריתם מסוגל ליצור תחושה של יש מאין (אין כאן מקרה של אינטרפולציה\אקסטרפולציה כי יש כאן רק downscale ואין upscale), כש"חורי המסננת" תמיד קובעים לו גבול עליון? המידע שיוצא החוצה הוא לא יותר מ-800x600 במקרה שלי.. אז איך?

פורסם

זה לא באמת "מסננת", בהחלט מתבצע אלגוריתם כלשהו של אינטרפולציה. שיטה של "מסננת" (כלומר השמטת מידע) תגרום ל"שגיאות" ולתוצאה לא חלקה.

פורסם
  • מחבר

כוונתי הייתה, אם יש לי רשת בגודל 800x600 שבה כל פיקסל יכול לקבל גוון אחד מתוך משרעת של גוונים - כלומר אני יכול לתת תאור דיסקרטי של הדבר הזה (ודיסקרטי משמעו חסום) - כיצד ניתן לדחוס יותר מידע ממה שהרשת מכילה?

לחילופין, צריך להיות הסבר אחר להתווספות המידע הזה; למשל, פרמטר אחר שלא נופל לתאור הדיסקרטי הזה כמו למשל רצפת רעש נמוכה יותר בתכני HD.

פורסם

לא דוחסים יותר מידע.

הנה, תאר לך מצב כזה - רזולוצית 720P. האלגוריתם נותן לכל פיקסל ב-800X600 צבע. אחרי חישובים יצא לו שפיקסלים a,b,c,d קיבלו כולם את אותו הצבע בדיוק בעוד התמונה ב-720P האזור הספציפי הזה מפורט יותר.

על אותם פיקסלים, האלגוריתם לקח את התמונה ב-1080P והגיע למסקנה ש-a,b,c באותו גוון כמו מקודם, אך d בגוון קצת שונה, מצב קצת יותר קרוב ל"מציאות".

פורסם

התשובה מאוד פשוטה.

כל קבצי הוידאו דחוסים דרך אלגוריתמים משמיטי מידע.

קובץ 720P ישמיט מידע מתוך הפיקסלים ברזולוציה שלו.

קובץ 1080P ישמיט מידע מתוך הפיקסלים ברזולוציה שלו.

ככל שהרזולוציה גודלת יותר מידע מהתמונה המקורית נשמר, למרות איבוד המידע מהאלגוריתמים יחסית למספר הפיקסלים.

בעצם כל קבצי הוידאו הדחוסים הם סוג של טריק לשמור פחות פיקסלים מהרזולוציה המוצגת.

כשאתה מציג וידאו ברזולוציה גבוהה, דרך רזולוציה קטנה ממנו, אומנם מושמטים פיקסלים דרך נוסחת הכיווץ(באותה המידה שהיו מושמטים בהמרה לקובץ עם רזולוציה כאת ממקור BLURAY), אך האיכות הגבוהה יותר של תיאור התמונה המקורית קיימת עדיין ונראית לעיין גם דרך הרזולוציה הנמוכה.

עוד תופעה מעניינת היא שתמונות ברזולוציה גבוהה, שמוקטנות לרזולוציה נמוכה, מקבלות צבעים קצת יותר חזקים.

לכן דרך מקרן זה יכול להיות סוג של יתרון בולט.

פורסם
  • מחבר

על אותם פיקסלים, האלגוריתם לקח את התמונה ב-1080P והגיע למסקנה ש-a,b,c באותו גוון כמו מקודם, אך d בגוון קצת שונה, מצב קצת יותר קרוב ל"מציאות".

אוקי, אבל הוא עדיין מוגבל לרשת של 800*600*256 אם לצורך הפשטות נדבר על 1 ביט צבע. לא כך? אם אני בכל מקרה מקבל אותה כמות פיקסלים שכל אחד מהם יכול לקבל עליו רק גוון *אחד*, איך זה שאני מרגיש שהתמונה חדה יותר? אני באמת ובתמים מרגיש שהעלו לי את הרזולוציה כשאני עובר מ-720 ל-1080.

האיכות הגבוהה יותר של תיאור התמונה המקורית קיימת עדיין ונראית לעיין גם דרך הרזולוציה הנמוכה.

מצוין. השאלה היא כיצד?

עוד תופעה מעניינת היא שתמונות ברזולוציה גבוהה, שמוקטנות לרזולוציה נמוכה, מקבלות צבעים קצת יותר חזקים.

זה אכן מה שקרה, אבל עדיין חסר לי ההסבר לכך שאני שם לב שהתמונה חדה יותר - כלומר, ישנה התחושה שגודל הנקודות הפך קטן יותר ואם אנחנו מדברים על אותו שטח הקרנה מבחינה פיזית, זה שקול ללומר שישנה התחושה שהרזולוציה גבהה.

פורסם

כי רמת ההפרדה של הנקודות ברזולוציה 720P היא לא באמת 720P.

היא 720P פחות המידע שהולך לאיבוד בדחיסה(שמבחינת אמת למקור הוא לא מעט).

אותו הסיפור ב1080P אבל באופן יחסי לרזולוציה הזאת.

כמובן שיש רמות שונות ושיטות שונות של דחיסה.

יש 720P איכותיים יותר ואיכותיים פחות.

אבל בדרך כלל אין כזה דבר 720P מושלם או קרוב למושלם, כי מראש המטרה ב720P היא כמעט תמיד להתפשר על גודל קובץ.

ב1080P יש את הBLURAY שהוא כמעט מושלם, ורמות שונות של איכות כיווץ שמאבדות יותר ויותר איכות ככל שהקובץ נדחס יותר.

כשאתה מציג וידאו 1080P דרך רזולוציה 720P העובדה שב1080P היו יותר פיקסלים המתארים את התמונה המקורית שצולמה, מיתרגמת לתחושה שהתמונה יותר מפורטת.

יש הבדל בין לקחת וידאו ב1080P ולהעביר אותו אלגוריתם דחיסת וידאו שמתמש בכל מיני שיטות שמטשטשות איזורים במטרה להקטין את גודל הקובץ, ללקחת 1080P ולהעביר אותו אלגוריתם שמציג אותו דרך 720P מבלי להעביר אותו פילטרים מטשטשים.

בדרך השניה בגלל שהמקור מכיל יותר מידע, האיכות הסגולית של המידע המקורי גבוהה יותר גם דרך רזולוציה נמוכה.

פורסם
  • מחבר

האיכות הסגולית של המידע המקורי גבוהה יותר גם דרך רזולוציה נמוכה.

אני מתעקש להבין - איך? אתה אומר שאם אני מנגן בלו-ריי מקורי, אני אראה הבדל בינו לבין אותו וידאו באותו תקן איכות רק ב-720, על רשת של 800*600? אם כך, אתה טוען שההבדל כן נופל אל תוך תאור הרשת הדיסקרטית הזו; אם כך, מה מקורו?

פורסם

בוא נניח לרגע שיש סרט BLURAY שוחרר כ1080P ואינו מאבד איכות בדחיסת גודל קובץ.

בוא נניח שאתה ממיר את אותו הסרט ל720P ללא איבוד איכות(דבר שאף אחד לא עושה, אבל סתם בשביל התיאוריה).

זה לא משנה עם ההמרה נעשית באופן קבוע, או ע"י RESIZE למסך ברזולוציה נמוכה, או חלון מוקטן.

התוצאה תהיה זהה.

אבל מה שקורה בקבצים נפוצים הוא שנעשה כיווץ המפעיל אלגוריתמים שמה שהם עושים ברמת העיקרון(ובאמת בלי להיכנס לפרטי השיטות יותר מדי) זה לקחת קבוצת פיקסלים מרובעת של 32X32 ולשמור אותה כנוסחה שבעצם שומרת כל 4 פיקסלים כפיקסל אחד(תהליך שאינו הפיך כי המידע הולך לאיבוד).

דמיין את הדבר.

כל 4 פיקסלים במטריצת ה720P הם בעצם רק פיקסל אחד.

זאת אומרת שאתה מציג ב720P תמונה שהיא בעצם רבע מזה מבחינה ערכית.

או במילים אחרות אתה עושה UPSCALING של נניח 400P לרזולוציה 720P.

ברמת העיקרון זה מה שקורה בדחיסת וידאו.

אפילו שמדובר ב1080P שעבר אותו תהליך, הוא עדיין מכיל יותר פיקסלים המתארים את הפרטים בתמונה המקורית(של המצלמה האיכותית שצילמה את הסרט).

אז כשאתה מקטין את התמונה ל720P, אותם ריבועים של דיפיקסלציה מתאחדים, ומציגים מה שנראה תמונה יותר ברורה מ720P שעבר דיפיקסלציה.

אפשר לומר שוידאו 720P ממוצע הוא בעצם הגדלה של 400P מבחינת פרטים.

לכן כשאתה עושה הקטנה של 1080P ל720P אתה עושה סוג של תהליך הפוך בו תקבל יותר פירוט של התמונה המקורית יחסית לרזולוציה בה אתה מציג.

לכן באופן פרדוקסלי יוצא שאנשים שמורידים סרט 1080P ומציגים אותו במסך 720P יקבלו תמונה יותר טובה מסרט 720P המוצג על אותו מסך.

אלה אם כן מדובר על סרט 720P שתופס רק קצת פחות מגרסת ה1080P אליה אתה משווה.

למשל אם 1080P תופס 8GB,וה720P יתפוס 6GB, יש מצב שדווקא גרסת ה720P תיראה יותר טוב או אותו דבר על מסך 720P כי האיכות הסגולית של התמונה המקורית(ממסרטת הסרט) שומרת על איכותה בתהליך המעבר ל720P בערך באותה המידה.

פורסם
אוקי, אבל הוא עדיין מוגבל לרשת של 800*600*256 אם לצורך הפשטות נדבר על 1 ביט צבע. לא כך? אם אני בכל מקרה מקבל אותה כמות פיקסלים שכל אחד מהם יכול לקבל עליו רק גוון *אחד*, איך זה שאני מרגיש שהתמונה חדה יותר? אני באמת ובתמים מרגיש שהעלו לי את הרזולוציה כשאני עובר מ-720 ל-1080.

כי אמנם הרזולוציה היא 800X600 אבל אפקטיבית בחלקים של התמונה היא נמוכה יותר - כמו שתיארתי עם ריבוע של 4 פיקסלים שקיבלו את אותו הגוון (ואז זה כמו פיקסל גדול על אותו גודל מסך ברזולוציה של 400X300) במקום פירוט רב יותר ב-downscale ממקור מפורט יותר.

פורסם

מה שאתם אומרים מוזר גם לי:

נניח יש קובץ מקור ב-1080p. את הקובץ הזה אני מקרין במסך 720p, ונעשה downscaling.

עכשיו אני לוקח את הקובץ וממיר אותו ל-720p באמצעות דחיסה כלשהי. אם אני מבין נכון, האיכות כאן אמורה להיות נמוכה יותר, תמונה פחות חדה.

מה שלא ברור לי זה מדוע תהליך ההמרה של הקובץ ל-720p לא עובד באותו אופן של on the fly downscaling.

הרי בשני המקרים יש אלגוריתם שממיר 1080p ל-720p. איזו סיבה תהיה לבצע המרה כזו תוך איבוד יותר מידע ממה שצריך?

על פניו זה לא נשמע הגיוני שמי שממיר מ-1080p ל-720p עושה זאת בדרך שמאבדת יותר מידע מהנחוץ כדי לרדת ל-720p.

ארכיון

דיון זה הועבר לארכיון ולא ניתן להוסיף בו תגובות חדשות.

דיונים חדשים