مفهوم Jitter

مفهوم Jitter

جمعه ۲۴ شهریور ۱۳۸۵
/ / /
Comments Closed

در سیستمهای دیجیتال کل تغییرات بر اساس یک زمانبندی مشخص صورت میگیرد. به این شکل که سیستم دیجیتال در لحظه T1 تا T2 بدون تغییر میماند ولی با اعمال سیگنال Clock در لحظه T2 کل خروجی های سیستم (صفرها و یک ها) بر اساس ورودیهای آن تغییر میکند و سیستم بعد از لحظه T2 تا اعمال سیگنال Clock بعدی ،(لحظه T4) بدون تغییر هست تا اینکه سیگنال Clock در لحظه T4 برسد و تغییرات جدیدی ایجاد شود. این روند ادامه داشته و سیستم دیجیتال تغییراتش دقیقا در زمانهای اعمال سیگنال Clock صورت میگیرد. به سیگنال Clock سیگنال ساعت گفته میشود. اطلاعات بیشتر در کتاب های مدار منطقی هست. چون سیگنال صوتی در طول زمان برای شنونده پخش میشود و هرگونه تاخیر یا تقدم باعث اعوجاج سیگنال میشود باید سیستم دیجیتالی که اطلاعات صوتی را با خود دارد بتواند  بطور دقیقی شکل موج آنالوگ را بازسازی کند. برای این کار اگر فرض کنیم سیستم تبدیل آنالوگ به دیجیتال بعد از صدا برداری از یک Clock دقیق و رفرنس استفاده کرده باید سیستم تبدیل دیجیتال به آنالوگ (DAC) هم از یک Clock دقیق استفاده کند تا شکل موج بدون اعوجاج بازسازی شود. منظور از دقیق بودن Clock یا همان ساعت سیستم اینست که فاصله های زمانی اعمال سیگنال ساعت باید یک مقدار ثابت باشد و در طول زمان بر اثر عوامل فیزیکی مثل دما یا … تغییرات نداشته باشد. به عدم دقت در این مقدار Jitter میگویند که یک پارامتر زمانیست. هر چقدر اندازه متوسط آماری تغییرات بیشتر باشد اعوجاج سیگنال آنالوگ خروجی بیشتر است. سیستمهای دقیق تغییراتی بین 100 تا 300 پیکو ثانیه دارند. یعنی اگه فاصله زمانی Clock یک میکرو ثانیه باشد این سیستم در بدترین حالت 300 پیکو ثانیه بعد از زمان رسیدن Clock تاخیر یا تقدم دارد. سایت dCS در بخش Technical Papers اطلاعات جالبی در این زمینه دارد.

Comments are closed.