لقد اقترح دمج هذه المقالة مع مقالةأخرى، شارك في النقاش إذا كان عندك أي ملاحظة.
يرجى مراجعة هذه المقالة وإزالة وسم المقالات غير المراجعة، ووسمها بوسوم الصيانة المناسبة.

ترميز مصدري

من ويكيبيديا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث
N write.svg
هذه مقالة غير مراجعة. ينبغي أن يزال هذا القالب بعد أن يراجعها محرر عدا الذي أنشأها؛ إذا لزم الأمر فيجب أن توسم المقالة بقوالب الصيانة المناسبة. (مايو 2015)
Icon Translate to Arabic.png
هذه المقالة بها ترجمة آلية يجب تحسينها أو إزالتها لأنها تخالف سياسات ويكيبيديا. (سبتمبر 2017)
Commons-emblem-merge.svg
لقد اقترح دمج محتويات هذه المقالة أو الفقرة في المعلومات تحت عنوان ضغط بيانات. (نقاش) (أكتوبر 2015)

في مجال معالجة الإشارات الرقمية, يشير مصطلح ضغط البيانات (Data Compression), أو الترميز المصدري (Source Coding),[1] أو خفض معدّل البيانات إلى ترميز المعلومات باستخدام قدر أقل من النبضات الثنائية من التمثيل الأصلي.[2] يمكن أن يكون ضغط البيانات إمّا ضغط منقوص أو ضغط البيانات غير المضيع بالإنجليزية (Lossy) و(Lossless Compression) على الترتيب. الضغط غير المنقوص يخفض من عدد النبضات الثنائية (البت) اللازمة للتعبير عن البيانات عن طريق التعرف على التكرارية الإحصائية. ,ولا تفقد أي معلومات نتيجة لضغط البيانات. ومن أمثلة هذا النوع البرامج التي تستخدم لضغط ملفات الحاسوب مثل برامج ليتم تخزينها في صيغة (*.rar)أو في صيغة (*.zip).ويتم استعادة ملفات الحاسب أيًا كان نوعها بالكامل بعد فك الضغط. أمّا في حالة الضغط المنقوص فيتم تقليل النبضات الثنائية من خلال التعرف على المعلومات غير الهامة أو غير اللازمة وإزالتها.[3] ومن أمثلة هذا النوع ما يحدث عند تخزين الصور ومقاطع الفيديو بصيغ تقلل الحجم، حيث يتم ضغط حجم الملفات عن طريق تقليل جودة الصورة مثلاً بقدر غير محسوس، مثال: تحويلها من صيغة (*.bmp) الكاملة إلى صيغة (*.jpg) المضغوطة. وكذلك الحال عند تحويل صيغة (*.avi) الكاملة إلى صيغ أخرى مثل (*.mp4) المضغوطة. ولا يمكن استرجاع "المعلومات" المفقودة عند الضغط بهذه الأساليب.

وتسمى عملية خفض حجم ملف البيانات باسم "ضغط البيانات". أمّا في سياق نقل البيانات وفي أنظمة الاتصالات، فيطلق عليها "ترميز المصدر" (حيث يتم الترميز عند مصدر البيانات قبل تخزينها أو إرسالها) وهذا على العكس من ترميز القناة.[4] والذي يقصد منه تصحيح الأخطاء التي تسببها القناة أثناء الإرسال.

يعتبر ضغط البيانات أمرًا مفيدًا نظرًا لأنه يساعد على خفض استخدام الموارد، مثل وسط التخزين أو سعة الإرسال أو حيز التردد. ونظرًا لأن البيانات المضغوطة لابد من فك ضغطها لكي تصبح صالحة للاستخدام، فإن عمليات المعالجة الإضافية هذه تضع قيودًا حسابية أو تكلفة من نوع آخر لعملية فك الضغط، وبالتالي فإن هذه العملية ليست بلا ثمن!. ويتطلب فك ضغط البيانات الموازنة بين الوقت/حيز التخزين من ناحية وبين التعقيد من ناحية أخرى. فعلى سبيل المثال، عند استخدام أحد أساليب ضغط الفيديو، يتطلب الأمر إمّا أجهزة مكلّفة لكي تتمكن من فك ضغط الفيديو أثناء المشاهدة (وهو ما يزيد التعقيد)، أو أن يتم فك الضغط بالكامل قبل المشاهدة وهو ما يكلِّف وقتًا (في أنظمة الإرسال/الاستقبال) ويتطلب أيضًا حيز تخزين كبير يستوعب الفيديو الذي تم فكّه. ويعتمد تصميم أنظمة ضغط البيانات على الموازنة بين عدة عوامل مختلفة، والتي تشمل درجة الضغط، وكمية التشويه (Distortion) التي يمكن احتمالها (وذلك عند استخدام أنظمة الضغط المنقوص), وكمية الموارد الحسابية المطلوبة لفك ضغط البيانات.[5] وتجدر الإشارة إلى أن نظرية المعلومات هي العلم الذي يبحث في كلا نوعي ضغط البيانات، كما سيأتي تفصيله لاحقًا، حيث يهدف الضغط غير المنقوص إلى تمثيل البيانات بعدد من النبضات الثنائية يكافئ بالضبط الإنتروبية بينما يؤدي الضغط المنقوص إلى تمثيل البيانات بأقل من الإنتروبية، وبالتالي يحدث فقد في المعلومات (تشويه) وتبحث النظرية حينئذٍ في تحقيق أقصى استفادة مناظرة لهذا التشويه.

غير المنقوص[عدل]

عادة ما يستخدم ضغط البيانات غير المنقوص خوارزمات تستغل statistical redundancy لتمثيل البيانات بطريقة أكثر إيجازًا وبدون فقد معلومات, بحيث يمكن أن تكون عملية الضغط قابلة للفك بنفس الطريقة. ويمكن إجراء عملية الضغط غير المنقوص نظرًا لأن معظم البيانات في الحقيقة تتمتع بقدر من التكرارية الإحصائية. على سبيل المثال، قد تكون هناك مناطق ذات لون واحد في الصورة لا تتغير على مدار أكثر من بكسل (نقطة)؛ فبدلاً من ترميزها باعتبارها "نقطة حمراء، نقطة حمراء، ..." يمكن ترميز البيانات على هيئة "279 نقطة حمراء" وهذا مثال مبسط عن أسلوب يعرف باسم ترميز طول التشغيل; وهناك العديد من الأساليب التي تقلل من حجم الملف عن طريق إلغاء التكرار. ومن بين أكثر طرق الضغط شيوعًا خوارزم ليمبل زيف Lempel–Ziv (LZ) والتي تستخدم في أوساط التخزين.[6] بينما يعتبر خوارزم DEFLATE أحد الصور المنبثقة من LZ وهو خوارزم تم تصميمه لتحقيق أقصى مواءمة بين سرعة فك ضغط البيانات وبين نسبة الضغط، ولكن عملية الضغط ذاتها قد تكون بطيئة. ويستخدم خوارزم DEFLATE في برنامج PKZIP, وجي زيب وPNG. بينما يستخدم خوارزم خوارزمية لامبل-زيف-ويلش (Lempel–Ziv–Welch) في صور جي آي إف. وجدير بالذكر أيضًا أن خوارزم LZR (Lempel-Ziv–Renau)، يعد أساسًا لطريقة Zip. وتستخدم طرق LZ نموذجًا لضغط البيانات يعتمد على جدول، حيث يتم التعويض عن مدخلات الجدول بدلاً من القيم المكررة من سلاسل البيانات. وبالنسبة لمعظم أساليب LZ، يتم توليد هذا الجدول بصورة ديناميكية من البيانات التي سبق إدخالها. وعادة ما يتم ترميز الجدول ذاته باستخدام طريقة ترميز هوفمان (مثل SHRI, LZX). ويعد نظام الترميز LZX من بين أنظمة الترميز ذات الأداء الجيد والتي تعتمد على خوارزمات LZ وهو مستخدم في صيغة CAB الخاصة بشركة مايكروسوفت. وتستخدم أفضل أساليب ضغط البيانات الحديثة نماذج احتمالية، مثل prediction by partial matching (التنبو من خلال المطابقة الجزئية).

ويمكن ربط التنبؤات الإحصائية بخوارزم فيما يطلق عليه الترميز الحسابي arithmetic coding. وهو خوارزم ابتكره جورما ريسانن ، وقام كل من ويتن ونيل وكليري (Witten, Neal, Cleary) بتطبيقه عمليًا، وهو يحقق أداءً أفضل من خوارزم هوفمان الأكثر شهرة، ويناسب تمامًا مهام ضغط البيانات الموائمة (adaptive)، حيث تعتمد التنبؤات الإحصائية اعتمادًا كبيرًا على السياق. ويستخدم الترميز الحسابي في النظام القياسي ثنائي المستوى لضغط الصور المعروف باسم JBIG، وفي صيغة ضغط الوثائق ديجافو.

الضغط المنقوص[عدل]

ضغط البيانات المنقوص يعتبر عكس عملية ضغط البيانات غير المنقوص. وفي هذه الأساليب، يكون فقدان بعض المعلومات أمرًا مقبولاً. حيث يمكن أن يؤدي إسقاط (ترك) بعض التفاصيل غير الهامة من مصدر البيانات إلى توفير حيز التخزين. وتستند أساليب ضغط البيانات المنقوص إلى دراسات حول كيفية إدراك الأشخاص للبيانات المطلوبة. على سبيل المثال، تزيد حساسية عين الإنسان للتغيرات في الإضاءة استضواء أكثر من حساسيتها للألوان. وبالتالي فيمكن إغفال بعض القيم الخاصة بالألوان اعتمادًا على عدم قدرة الإنسان على تمييز الفرق.

ويعمل نظام ضغط الصور جيه بيه إيه جي عن طريق تقريب القيم غير الأساسية.[7] وبالتالي يجب تحقيق التوازن بين حفظ المعلومات وبين تقليل الحجم. إذ كلما زاد فقدان المعلومات نتيجة عملية التقريب زاد معامل ضغط (خفض) البيانات وهو أمرٌ مرغوبٌ فيه، ولكن هذا يحدث على حساب الجودة، إذ قد يمكن للمستخدم في هذه الحالة الشعور بانخفاض جودة الصورة أو الفيديو. وتستغل صيغ الضغط الشائعة هذه الفروق الإدراكية، كما هو الحال في صيغ الضغط المستخدمة مع ملفات الموسيقى والصور والفيديو.

ويستخدم ضغط الصور المنقوص في الكاميرات الرقمية لزيادة قدراتها على التخزين بأقل قدر ممكن من التدهور في جودة الصورة. وبالمثل تستخدم مشغلات الاسطوانات الرقمية المدمجة دي في دي نظام الضغط المنقوص صيغة ترميز الفيديو إم بي إي جي 2 في ضغط الفيديو.

أمّا في ضغط الصوت المنقوص، فتستخدم أساليب علم النفس السماعي , psychoacoustics لإزالة المكونات غير المسموعة (أو الأقل تأثيرًا في السمع) من الإشارة الصوتية. وعادة ما يتم ضغط الصوت البشري باستخدام طرق أكثر تخصصًا؛ حيث يمكن تمييز عملية ترميز الكلام (speech coding) أو ترميز الصوت الآدمي، باعتبارها مجالاً بحثيًا مختلفًا عن "ضغط الصوت". وهناك العديد من النظم القياسية لضغط الصوت والكلام وهي متضمنة في صيغ ترميز الصوت (audio coding format)، كما يستخدم "ضغط الصوت" في هواتف الإنترنت، ويستخدم ضغط الصوت على سبيل المثال في تخزين الصوت على الاسطوانات المدمجة (CD)[8].

النظرية[عدل]

توفِّر نظرية المعلومات الأساس النظري لعملية الضغط (وهي ترتبط ارتباطًا وثيقًا بنظرية المعلومات الخوارزمية algorithmic information theory) في حالة الضغط غير المنقوص بينما ترتبط بنظرية السرعة-التشويه ( rate–distortion theory بالنسبة للضغط المنقوص). وكان صاحب السبق في فتح هذه المجالات للدراسة هو كلود شانون، والذي نشر بعض الأوراق البحثية الأساسية في هذا الموضوع في أواخر الأربعينات وأوائل الخمسينات من القرن العشرين. كما ترتبط هذه الموضوعات بنظرية الترميز (نظرية الترميز). وتتصل فكرة ضغط البيانات اتصالاً وثيقًا بالاستقراء الإحصائي (استدلال إحصائي.[9])

التعلم الآلي[عدل]

هناك علاقة وثيقة بين التعلم الآلي وبين ضغط البيانات: فالنظام الذي يمكنه التنبؤ بالاحتمالات اللاحقة لتسلسل من القيم بمعلومية القيم السابقة بالكامل يمكن أن يفيد في ضغط البيانات بطريقة مُثلى (باستخدام الترميز الحسابي على التوزيع الاحتمالي الخارج) كما يمكن أن يستخدم ضاغط البيانات الجيد للتنبؤ (عن طريق البحث عن الرمز الذي يحقق أعلى معامل ضغط، بمعلومية القيم السابقة). وقد استخدم هذا التناظر بين التطبيقين كوسيلة لقياس "الذكاء العام."[10]

تفرِقة البيانات[عدل]

يمكن النظر إلى عملية ضغط البيانات كحالة خاصة من عملية تفرقة البيانات:[11][12] تتكون عملية تفرقة البيانات من إنتاج "فرق" بمعلومية "مصدر" و"هدف"، مع إمكانية استخراج "هدف" بمعلومية "مصدر" و"فرق"، في حين أن ضغط البيانات يتكون من إنتاج ملف مضغوط باستخدام هدف، وفك الضغط يتكون من إنتاج هدف بمعلومية الملف المضغوط فقط. وبالتالي يمكن اعتبار ضغط البيانات عبارة عن عملية تفرقة بيانات تكون فيها بيانات المصدر فارغة، حيث يكون الملف المضغوط عبارة عن "الفرق من لا شيء". وهذا مماثل تمامًا للنظر إلى الإنتروبية المطلقة (والتي تناظر ضغط البيانات) كحالة خاصة من الإنتروبية النسبية (والتي تناظر تفرقة البيانات) لا تحتوي على بيانات ابتدائية.

وحين يرغب المرء في التركيز على الرابط بينهما، يمكن أن يستخدم المصطلح "الضغط الفرقي" للإشارة إلى تفرقة البيانات.

نظرة مستقبلية والإمكانيات غير المستخدمة حاليًا[عدل]

تشير التقديرات إلى أن إجمالي كم البيانات المخزنة في جميع أجهزة التخزين في العالم يمكن ضغطها أكثر باستخدام خوارزمات ضغط البيانات الموجودة بالفعل بمعامل متبقي يبلغ 4.5:1. كما تشير التقديرات إلى أن السعة التكنولوجية المجمّعة على تخزين المعلومات يمكنها تخزين 1300 exabyte من الأرقام المخزنة في الأجهزة في عام 2007، ولكن حين يتم ضغط المحتوى بالصورة المُثلى نجد أن هذا الرقم لا يتخطي 295 إكسا بايت من معلومات شانون.[13]

الاستخدامات[عدل]

الصوت[عدل]

قالب:انظر أيضًا

ضغط البيانات الصوتية، تفرقةً له عن ضغط النطاق الديناميكي، هو إمكانية خفض متطلبات نقل الصوت وتخزينه. وتوفر خوارزمات ضغط الصوت المنقوصة نسبة أعلى من الضغط على حساب جودة الصوت. ويتم تنفيذ خوارزمات ضغط الصوت واستخدامها في العديد من تطبيقات الصوت.

وتعتمد كافة هذه الخوارزمات تقريبًا على علم النفس الصوتي psychoacoustics لحذف الأصوات الأقل تأثيرًا في السمع أو الأقل تأثيرًا في المعنى، وبالتالي تخفض من الحيز المطلوب لتخزين الأصوات أو نقلها.[2]

In both lossy and lossless compression, تكرار is reduced, using methods such as نظرية الترميز, تمييز الأنماط, and تنبؤ خطي to reduce the amount of information used to represent the uncompressed data.

The acceptable trade-off between loss of audio quality and transmission or storage size depends upon the application. For example, one 640MB قرص مضغوط (CD) holds approximately one hour of uncompressed high fidelity music, less than 2 hours of music compressed losslessly, or 7 hours of music compressed in the إم بي 3 format at a medium معدل نقل البيانات. A digital sound recorder can typically store around 200 hours of clearly intelligible speech in 640MB.[14]

Lossless audio compression produces a representation of digital data that decompress to an exact digital duplicate of the original audio stream, unlike playback from lossy compression techniques such as فربس and إم بي 3. Compression ratios are around 50–60% of original size,[15] which is similar to those for generic lossless data compression. Lossless compression is unable to attain high compression ratios due to the complexity of شكل موجيs and the rapid changes in sound forms. Codecs like FLAC, Shorten and TTA use تنبؤ خطي to estimate the spectrum of the signal. Many of these algorithms use التفاف (رياضيات) with the filter [-1 1] to slightly ضجيج أبيض or flatten the spectrum, thereby allowing traditional lossless compression to work more efficiently. The process is reversed upon decompression.

When audio files are to be processed, either by further compression or for برامج تحرير الصوت, it is desirable to work from an unchanged original (uncompressed or losslessly compressed). Processing of a lossily compressed file for some purpose usually produces a final result inferior to the creation of the same compressed file from an uncompressed original. In addition to sound editing or mixing, lossless audio compression is often used for archival storage, or as master copies.

A number of lossless audio compression formats exist. Shorten was an early lossless format. Newer ones include Free Lossless Audio Codec (FLAC), Apple's Apple Lossless (ALAC), MPEG-4 ALS, Microsoft's Windows Media Audio 9 Lossless (WMA Lossless), Monkey's Audio, TTA, and WavPack. See list of lossless codecs for a complete listing.

Some صيغة ملف صوت feature a combination of a lossy format and a lossless correction; this allows stripping the correction to easily obtain a lossy file. Such formats include MPEG-4 SLS (Scalable to Lossless), WavPack, and OptimFROG DualStream.

Other formats are associated with a distinct system, such as:

ضغط الصوت المنقوص[عدل]

مقارنة بين التحليل الطيفي الصوتي لأغنية بصيغة غير مضغوطة وأخرى بصيغة مضغوطة باستخدام ضغط الصوت المنقوص. يبرز الاختلاف التحليل الطيفي للصوت المنقوص عن التحليل الطيفي للصوت غير المضغوط حقيقة وجود "نقص" أو "فقد" ولكن لا يمكن من هذه الأشكال أن نفترض أن الإحساس بجودة الصوت سوف يختلف.

Lossy audio compression is used in a wide range of applications. In addition to the direct applications (mp3 players or computers), digitally compressed audio streams are used in most video DVDs, digital television, streaming media on the إنترنت, satellite and cable radio, and increasingly in terrestrial radio broadcasts. Lossy compression typically achieves far greater compression than lossless compression (data of 5 percent to 20 percent of the original stream, rather than 50 percent to 60 percent), by discarding less-critical data.[16]

The innovation of lossy audio compression was to use psychoacoustics to recognize that not all data in an audio stream can be perceived by the human جهاز سمعي. Most lossy compression reduces perceptual redundancy by first identifying perceptually irrelevant sounds, that is, sounds that are very hard to hear. Typical examples include high frequencies or sounds that occur at the same time as louder sounds. Those sounds are coded with decreased accuracy or not at all.

Due to the nature of lossy algorithms, audio quality suffers when a file is decompressed and recompressed (digital generation loss). This makes lossy compression unsuitable for storing the intermediate results in professional audio engineering applications, such as sound editing and multitrack recording. However, they are very popular with end users (particularly إم بي 3) as a megabyte can store about a minute's worth of music at adequate quality.

Coding methods[عدل]

To determine what information in an audio signal is perceptually irrelevant, most lossy compression algorithms use transforms such as the modified discrete cosine transform (MDCT) to convert مجال الزمن sampled waveforms into a transform domain. Once transformed, typically into the مجال التردد, component frequencies can be allocated bits according to how audible they are. Audibility of spectral components calculated using the absolute threshold of hearing and the principles of simultaneous masking—the phenomenon wherein a signal is masked by another signal separated by frequency—and, in some cases, temporal masking—where a signal is masked by another signal separated by time. Equal-loudness contours may also be used to weight the perceptual importance of components. Models of the human ear-brain combination incorporating such effects are often called psychoacoustic models.[17]

Other types of lossy compressors, such as the ترميز تنبؤي خطي (LPC) used with speech, are source-based coders. These coders use a model of the sound's generator (such as the human vocal tract with LPC) to whiten the audio signal (i.e., flatten its spectrum) before quantization. LPC may be thought of as a basic perceptual coding technique: reconstruction of an audio signal using a linear predictor shapes the coder's quantization noise into the spectrum of the target signal, partially masking it.[18]

Lossy formats are often used for the distribution of streaming audio or interactive applications (such as the coding of speech for digital transmission in cell phone networks). In such applications, the data must be decompressed as the data flows, rather than after the entire data stream has been transmitted. Not all audio codecs can be used for streaming applications, and for such applications a codec designed to stream data effectively will usually be chosen.[19]

Latency results from the methods used to encode and decode the data. Some codecs will analyze a longer segment of the data to optimize efficiency, and then code it in a manner that requires a larger segment of data at one time to decode. (Often codecs create segments called a "frame" to create discrete data segments for encoding and decoding.) The inherent كمون of the coding algorithm can be critical; for example, when there is a two-way transmission of data, such as with a telephone conversation, significant delays may seriously degrade the perceived quality.

In contrast to the speed of compression, which is proportional to the number of operations required by the algorithm, here latency refers to the number of samples that must be analysed before a block of audio is processed. In the minimum case, latency is zero samples (e.g., if the coder/decoder simply reduces the number of bits used to quantize the signal). Time domain algorithms such as LPC also often have low latencies, hence their popularity in speech coding for telephony. In algorithms such as MP3, however, a large number of samples have to be analyzed to implement a psychoacoustic model in the frequency domain, and latency is on the order of 23 ms (46 ms for two-way communication)).

Speech encoding[عدل]

Speech encoding is an important category of audio data compression. The perceptual models used to estimate what a human ear can hear are generally somewhat different from those used for music. The range of frequencies needed to convey the sounds of a human voice are normally far narrower than that needed for music, and the sound is normally less complex. As a result, speech can be encoded at high quality using a relatively low bit rate.

If the data to be compressed is analog (such as a voltage that varies with time), quantization is employed to digitize it into numbers (normally integers). This is referred to as analog-to-digital (A/D) conversion. If the integers generated by quantization are 8 bits each, then the entire range of the analog signal is divided into 256 intervals and all the signal values within an interval are quantized to the same number. If 16-bit integers are generated, then the range of the analog signal is divided into 65,536 intervals.

This relation illustrates the compromise between high resolution (a large number of analog intervals) and high compression (small integers generated). This application of quantization is used by several speech compression methods. This is accomplished, in general, by some combination of two approaches:

  • Only encoding sounds that could be made by a single human voice.
  • Throwing away more of the data in the signal—keeping just enough to reconstruct an "intelligible" voice rather than the full frequency range of human سمع.

Perhaps the earliest algorithms used in speech encoding (and audio data compression in general) were the A-law algorithm and the µ-law algorithm.

History[عدل]

A literature compendium for a large variety of audio coding systems was published in the IEEE Journal on Selected Areas in Communications (JSAC), February 1988. While there were some papers from before that time, this collection documented an entire variety of finished, working audio coders, nearly all of them using perceptual (i.e. masking) techniques and some kind of frequency analysis and back-end noiseless coding.[20] Several of these papers remarked on the difficulty of obtaining good, clean digital audio for research purposes. Most, if not all, of the authors in the JSAC edition were also active in the MPEG-1 Audio committee.

The world's first commercial broadcast automation audio compression system was developed by Oscar Bonello, an engineering professor at the جامعة بوينس آيرس.[21] In 1983, using the psychoacoustic principle of the masking of critical bands first published in 1967,[22] he started developing a practical application based on the recently developed آي بي إم الحاسب الشخصي computer, and the broadcast automation system was launched in 1987 under the name Audicom. Twenty years later, almost all the radio stations in the world were using similar technology manufactured by a number of companies.

الفيديو[عدل]

قالب:انظر أيضًا

يستخدم ضغط الفيديو أساليب ترميز حديثة لخفض التكرارية في بيانات الفيديو. وتجمع معظم خوارزمات ضغط الفيديو والمُرمِّزات (Codecs) ما بين ضغط الصور المكاني وتعويض الحركة الزمني. ويقصد بضغط الصور المكاني، استغلال تشابه بعض المساحات مثلاً في الإطار الواحد من إطارات الفيديو (الصورة الثابتة)، بينما يقصد بتعويض الحركة، استغلال التشابه بين كل إطار والإطار الذي يليه، بحيث لا يتم ترميز الأجزاء المتشابهة في الإطارات المتتالية مرتين، بل يمكن من خلال التنبؤ بالحركة أن يتم ترميزها مرة واحدة حتى وإن تحركت ما بين إطار وإطار آخر. ويعتبر ضغط الفيديو أحد تطبيقات الترميز المصدري في نظرية المعلومات. ومن الناحية العملية، تستخدم مُعظم مرمِّزات الفيديو (Codecs) أساليب ضغط الصوت أيضًا على التوازي لضغط بيانات الصوت المنفصلة المصاحبة للصورة في حزمة واحدة.[23]

تستخدم معظم خوارزمات ضغط الفيديو الضغط المنقوص. حيث يتطلب الفيديو غير المضغوط معدل بيانات مرتفع للغاية. وعلى الرغم من أن مرمِّزات (Codecs) الفيديو غير المنقوصة video compression تؤدي إلى معامل ضغط يبلغ نحو 3 مرات، إلا أنه من المعتاد أن يبلغ معامل ضغط فيديو بأسلوب إم بي إي جي - 4 المنقوص ما بين 20 إلى 200.[24]

As in all lossy compression, there is a مفاضلة between جودة الفيديو, cost of processing the compression and decompression, and system requirements. Highly compressed video may present visible or distracting artifacts.

Some video compression schemes typically operate on square-shaped groups of neighboring بكسلs, often called macroblocks. These pixel groups or blocks of pixels are compared from one frame to the next, and the video compression codec sends only the differences within those blocks. In areas of video with more motion, the compression must encode more data to keep up with the larger number of pixels that are changing. Commonly during explosions, flames, flocks of animals, and in some panning shots, the high-frequency detail leads to quality decreases or to increases in the variable bitrate.

Encoding theory[عدل]

Video data may be represented as a series of still image frames. The sequence of frames contains spatial and temporal تكرار (نظرية المعلومات) that video compression algorithms attempt to eliminate or code in a smaller size. Similarities can be encoded by only storing differences between frames, or by using perceptual features of human vision. For example, small differences in color are more difficult to perceive than are changes in brightness. Compression algorithms can average a color across these similar areas to reduce space, in a manner similar to those used in جيه بيه إيه جي image compression.[25] Some of these methods are inherently lossy while others may preserve all relevant information from the original, uncompressed video.

One of the most powerful techniques for compressing video is interframe compression. Interframe compression uses one or more earlier or later frames in a sequence to compress the current frame, while intraframe compression uses only the current frame, effectively being ضغط صورة.[26]

The most powerful used method works by comparing each frame in the video with the previous one. If the frame contains areas where nothing has moved, the system simply issues a short command that copies that part of the previous frame, bit-for-bit, into the next one. If sections of the frame move in a simple manner, the compressor emits a (slightly longer) command that tells the decompressor to shift, rotate, lighten, or darken the copy. This longer command still remains much shorter than intraframe compression. Interframe compression works well for programs that will simply be played back by the viewer, but can cause problems if the video sequence needs to be edited.[27]

Because interframe compression copies data from one frame to another, if the original frame is simply cut out (or lost in transmission), the following frames cannot be reconstructed properly. Some video formats, such as DV, compress each frame independently using intraframe compression. Making 'cuts' in intraframe-compressed video is almost as easy as editing uncompressed video: one finds the beginning and ending of each frame, and simply copies bit-for-bit each frame that one wants to keep, and discards the frames one doesn't want. Another difference between intraframe and interframe compression is that, with intraframe systems, each frame uses a similar amount of data. In most interframe systems, certain frames (such as "I frames" in إم بي إي جي 2) aren't allowed to copy data from other frames, so they require much more data than other frames nearby.[28]

It is possible to build a computer-based video editor that spots problems caused when I frames are edited out while other frames need them. This has allowed newer formats like HDV to be used for editing. However, this process demands a lot more computing power than editing intraframe compressed video with the same picture quality.

Today, nearly all commonly used video compression methods (e.g., those in standards approved by the الاتحاد الدولي للاتصالات or المنظمة الدولية للمعايير) apply a تحويل جيب التمام المتقطع (DCT) for spatial redundancy reduction. The DCT that is widely used in this regard was introduced by N. Ahmed, T. Natarajan and K. R. Rao in 1974.[29] Other methods, such as fractal compression, matching pursuit and the use of a discrete wavelet transform (DWT) have been the subject of some research, but are typically not used in practical products (except for the use of wavelet coding as still-image coders without motion compensation). Interest in fractal compression seems to be waning, due to recent theoretical analysis showing a comparative lack of effectiveness of such methods.[26]

الخط الزمني[عدل]

يعطي الخط الزمني الحالي فكرة عن تاريخ النظم القياسية الدولية المستخدمة لضغط الفيديو.

تاريخ النظم القياسية لضغط الفيديو
العام النظام القياسي الناشر أكثر عمليات تنفيذ هذه الخوارزمات شيوعًا.
1984 H.120 الاتحاد الدولي للاتصالات
1988 H.261 الاتحاد الدولي للاتصالات المؤتمرات المرئية, الهاتف المرئي
1993 مبيج-1 المنظمة الدولية للمعايير, اللجنة الكهروتقنية الدولية Video-CD
1995 H.262/MPEG-2 Part 2 المنظمة الدولية للمعايير, اللجنة الكهروتقنية الدولية, الاتحاد الدولي للاتصالات دي في دي, قرص بلو راي, بث فيديو رقمي, SVCD
1996 H.263 الاتحاد الدولي للاتصالات المؤتمرات المرئية, الهاتف المرئي, الفيديو على الهواتف المحمولة (ثري جي بي)
1999 MPEG-4 Part 2 المنظمة الدولية للمعايير, اللجنة الكهروتقنية الدولية الفيديو على شبكة الإنترنت (ديف إكس, Xvid ...)
2003 أتش 264 سوني, باناسونيك, سامسونج, المنظمة الدولية للمعايير, اللجنة الكهروتقنية الدولية, الاتحاد الدولي للاتصالات قرص بلو راي, أسطوانات الفيديو الرقمية فائقة الدقة, بث فيديو رقمي, آي بود كلاسيك, أبل تي في, videoconferencing
2009 VC-2 (Dirac) SMPTE الفيديو على شبكة الإنترنت, HDTV broadcast, UHDTV
2013 H.265 المنظمة الدولية للمعايير, اللجنة الكهروتقنية الدولية, الاتحاد الدولي للاتصالات

Genetics[عدل]

Genetics compression algorithms are the latest generation of lossless algorithms that compress data (typically sequences of nucleotides) using both conventional compression algorithms and genetic algorithms adapted to the specific datatype. In 2012, a team of scientists from Johns Hopkins University published a genetic compression algorithm that does not use a reference genome for compression. HAPZIPPER was tailored for مشروع هاب ماب الدولي data and achieves over 20-fold compression (95% reduction in file size), providing 2- to 4-fold better compression and in much faster time than the leading general-purpose compression utilities. For this, Chanda, Elhaik, and Bader introduced MAF based encoding (MAFE), which reduces the heterogeneity of the dataset by sorting SNPs by their minor allele frequency, thus homogenizing the dataset.[30] Other algorithms in 2009 and 2013 (DNAZip and GenomeZip) have compression ratios of up to 1200-fold—allowing 6 billion basepair diploid human genomes to be stored in 2.5 megabytes (relative to a reference genome or averaged over many genomes).[31][32]

انظر أيضًا[عدل]

Edit-clear.svg
قسم "انظر أيضا" هذا رُبما يحتوي على عدد مفرط من الاقتراحات. فضلًا احرص على احتوائه فقط على أكثر الاقتراحات ارتباطًا بالمقالة وأن لا تكون وصلاتٍ حمراء، أو حاول وضع هذه الوصلات في نص المقالة نفسها. (نوفمبر 2011)

المراجع[عدل]

  1. ^ Wade، Graham (1994). Signal coding and processing (الطبعة 2). Cambridge University Press. صفحة 34. ISBN 978-0-521-42336-6. اطلع عليه بتاريخ 22 ديسمبر 2011. الهدف العام من الترميز المصدري، هو إزالة التكرار الموجود في البيانات الخارجة من المصدر أو بمعنى آخر وبالتالي تخفيض معدل نقل البيانات المطلوب والذي يرمز له بالرمز R. 
  2. أ ب Mahdi، O.A.؛ Mohammed, M.A.؛ Mohamed, A.J. (نوفمبر 2012). "Implementing a Novel Approach an Convert Audio Compression to Text Coding via Hybrid Technique" (PDF). International Journal of Computer Science Issues. 9 (6, No. 3): 53–59. اطلع عليه بتاريخ 06 مارس 2013. 
  3. ^ Pujar، J.H.؛ Kadlaskar, L.M. (مايو 2010). "A New Lossless Method of Image Compression and Decompression Using Huffman Coding Techniques" (PDF). Journal of Theoretical and Applied Information Technology. 15 (1): 18–23. 
  4. ^ Salomon، David (2008). A Concise Introduction to Data Compression. Berlin: Springer. ISBN 9781848000728. 
  5. ^ Tank، M.K. (2011). Implementation of Limpel-Ziv algorithm for lossless compression using VHDL. Thinkquest 2010: Proceedings of the First International Conference on Contours of Computing Technology. Berlin: Springer. صفحات 275–283. 
  6. ^ Navqi، Saud؛ Naqvi, R.؛ Riaz, R.A.؛ Siddiqui, F. (أبريل 2011). "Optimized RTL design and implementation of LZW algorithm for high bandwidth applications" (PDF). Electrical Review. 2011 (4): 279–285. 
  7. ^ Arcangel، Cory. "On Compression" (PDF). اطلع عليه بتاريخ 06 مارس 2013. 
  8. ^ Mahmud، Salauddin (مارس 2012). "An Improved Data Compression Method for General Data" (PDF). International Journal of Scientific & Engineering Research. 3 (3): 2. اطلع عليه بتاريخ 06 مارس 2013. 
  9. ^ Marak، Laszlo. "On image compression" (PDF). University of Marne la Vallee. اطلع عليه بتاريخ 06 مارس 2013. 
  10. ^ Mahoney، Matt. "Rationale for a Large Text Compression Benchmark". http://cs.fit.edu/~mmahoney/. Florida Institute of Technology. اطلع عليه بتاريخ 05 مارس 2013.  روابط خارجية في |العمل= (مساعدة)
  11. ^ Korn، D.؛ وآخرون. "RFC 3284: The VCDIFF Generic Differencing and Compression Data Format". Internet Engineering Task Force. اطلع عليه بتاريخ 05 مارس 2013. 
  12. ^ Korn، D.G.؛ Vo، K.P. (1995)، المحرر: B. Krishnamurthy، Vdelta: Differencing and Compression، Practical Reusable Unix Software، New York: John Wiley & Sons, Inc. 
  13. ^ Hilbert، Martin؛ López, Priscila (1 April 2011). "The World's Technological Capacity to Store, Communicate, and Compute Information". Science. 332 (6025): 60–65. Bibcode:2011Sci...332...60H. PMID 21310967. doi:10.1126/science.1200970. اطلع عليه بتاريخ 06 مارس 2013. 
  14. ^ The Olympus WS-120 digital speech recorder, according to its manual, can store about 178 hours of speech-quality audio in .WMA format in 500MB of flash memory.
  15. ^ Coalson، Josh. "FLAC Comparison". اطلع عليه بتاريخ 06 مارس 2013. 
  16. ^ Jaiswal، R.C. (2009). Audio-Video Engineering. Pune, Maharashtra: Nirali Prakashan. صفحة 3.41. ISBN 9788190639675. 
  17. ^ Faxin Yu, Hao Luo, Zheming Lu (2010). Three-Dimensional Model Analysis and Processing. Berlin: Springer. صفحة 47. ISBN 9783642126512. 
  18. ^ Jaiswal، R.C. (2009). Audio-Video Engineering. Pune, Maharashtra: Nirali Prakashan. صفحة 3.43. ISBN 9788190639675. 
  19. ^ Jaiswal، R.C. (2009). Audio-Video Engineering. Pune, Maharashtra: Nirali Prakashan. صفحة 3.43. ISBN 9788190639675. 
  20. ^ IEEE Journal on Selected Areas in Communications. Voice Coding For Communications. 6 (2). February 1988 http://www.jsac.ucsd.edu/TOC/1988/feb88.html. اطلع عليه بتاريخ 06 مارس 2013.  مفقود أو فارغ |title= (مساعدة)[وصلة مكسورة]
  21. ^ "Summary of some of Solidyne's contributions to Broadcast Engineering". Brief History of Solidyne. Buenos Aires: Solidyne. اطلع عليه بتاريخ 06 مارس 2013. 
  22. ^ Zwicker، Eberhard؛ وآخرون. (Originally published in 1967; Translation published in 1999). The Ear As A Communication Receiver. Melville, NY: Acoustical Society of America. 
  23. ^ "Video Coding". Center for Signal and Information Processing Research. Georgia Institute of Technology. اطلع عليه بتاريخ 06 مارس 2013. 
  24. ^ Graphics & Media Lab Video Group (2007). Lossless Video Codecs Comparison (PDF). Moscow State University. 
  25. ^ Lane، Tom. "JPEG Image Compression FAQ, Part 1". Internet FAQ Archives. Independent JPEG Group. اطلع عليه بتاريخ 06 مارس 2013. 
  26. أ ب Faxin Yu, Hao Luo, Zheming Lu (2010). Three-Dimensional Model Analysis and Processing. Berlin: Springer. صفحة 47. ISBN 9783642126512. 
  27. ^ Bhojani، D.R. "4.1 Video Compression" (PDF). Hypothesis. اطلع عليه بتاريخ 06 مارس 2013. 
  28. ^ Jaiswal، R.C. (2009). Audio-Video Engineering. Pune, Maharashtra: Nirali Prakashan. صفحة 3.55. ISBN 9788190639675. 
  29. ^ Ahmed، N.؛ Natarajan, T.؛ Rao, K.R. (January 1974). "Discrete Cosine Transform". IEEE Transactions on Computers. C–23 (1): 90–93. doi:10.1109/T-C.1974.223784. 
  30. ^ Chanda P, Bader JS, Elhaik E؛ Elhaik؛ Bader (27 Jul 2012). "HapZipper: sharing HapMap populations just got easier" (PDF). Nucleic Acids Research. 40 (20): e159. PMC 3488212Freely accessible. PMID 22844100. doi:10.1093/nar/gks709. 
  31. ^ Christley S, Lu Y, Li C, Xie X؛ Lu؛ Li؛ Xie (Jan 15, 2009). "Human genomes as email attachments". Bioinformatics. 25 (2): 274–5. PMID 18996942. doi:10.1093/bioinformatics/btn582. 
  32. ^ Pavlichin DS, Weissman T, Yona G؛ Weissman؛ Yona (سبتمبر 2013). "The human genome contracts again". Bioinformatics. 29 (17): 2199–202. PMID 23793748. doi:10.1093/bioinformatics/btt362. 

روابط خارجية[عدل]