Remove ads
From Wikipedia, the free encyclopedia
نظریه اطلاعات[1] (انگلیسی: Information theory)، به مقداردهی (Quantification)، ذخیره و انتقال اطلاعات میپردازد. این نظریه، مدلی ریاضی از شرایط و عوامل مؤثر در پردازش و انتقال اطلاعات (دادهها) بهدست میدهد. تمرکز این نظریه بر محدودیتهای بنیادین ارسال و پردازش اطلاعات است، و کمتر به چگونگی عملکرد و پیادهسازی روشهای انتقال و پردازش اطلاعات میپردازد. پیدایش این نظریه در پی کارهای کلود شانون در ۱۹۴۸ بوده است.
مفاهیم | |
آنتروپی اطلاعات |
|
چهرههای مهم | |
کلود شانون | |
جوایز مهم | |
نظریه اطلاعات مورد استفاده خاص مهندسان مخابرات است؛ هرچند برخی از مفاهیم آن در رشتههای دیگری مانند روانشناسی، زبانشناسی، کتابداری و اطلاعرسانی و علومِ شناختی (Cognitive Sciences) نیز استفاده میشود.[2]
مفهوم اطلاعات که شانون پیش نهاد، از دیدگاه آمار و احتمال بوده و لزوماً با مفهوم رایج اطلاعات به معنی دانش یا دیگر استفادههای روزمره از آن در زبان محاوره مانند بازیابی اطلاعات، تحلیل اطلاعات، چهارراه اطلاعات و ... یکی نیست. اگر چه نظریه اطلاعات بر رشتههای دیگر مانند روانشناسی و فلسفه اثر گذاشته، اثرش به علت مشکل تبدیل مفهوم آماری اطلاعات به مفهوم معنایی دانش و محتوا، بیشتر القای احساسی مفهوم اطلاعات بوده است.[3]
اختراع تلگراف و پس از آن تلفن، توجه به مفهوم اطلاعات و انتقال آن را افزایش داد. در ۱۸۴۴، ساموئل مورس خط تلگرافی میان واشینگتن و بالتیمور در آمریکا برپا کرد. مورس در ارسال اطلاعات به مشکلات الکتریکی عملی برخورد. او دریافت که خطوط انتقالی که زیرِ زمین کشیده شدهاند مشکلات بیشتری از خطوط انتقال هوایی (روی تیر) دارند و این خود زمینهای برای تحقیقات بعدی شد. پس از اختراع تلفن از سوی الکساندر گراهام بل در ۱۸۷۵ و گسترش آن، برخی به بررسی مشکلات انتقال اطلاعات پرداختند. بیشتر این تحقیقات از تبدیل فوریه استفاده میگرد، اما تمرکز آنها بیشتر روی جنبه عملی و مهندسی موضوع بود.[2]
نخستین بار در ۱۹۲۴، هری نایکوئیست در مقالهاش، «عوامل خاصی که بر سرعت تلگراف اثر میگذارند»، به نظریه اطلاعات پرداخت. او به بیشترین نرخ ارسال اطلاعات پی برد و فرمولی برای محاسبه آن پیش نهاد. کار مهم دیگر در آن زمان، مقاله «انتقال اطلاعات» در ۱۹۲۸ از سوی هارتلی بود که نخستین پایههای ریاضی نظریه اطلاعات را بنا گذاشت.[2]
پیدایش واقعی نظریه اطلاعات را میتوان به مقاله «نظریه ریاضی مخابرات» از کلود شانون نسبت داد. یکی از نکات اصلی مقاله شانون این بود که بررسی سیگنالهای مخابراتی را باید از بررسی اطلاعاتی که دربردارند جدا کرد، در حالی که پیش از او چنین نبود. شانون همچنین به این توجه کرد که طول یک سیگنال همیشه متناسب با اطلاعات آن نیست. مثلاً نقل شده است که ویکتور هوگو در نامهای به ناشرش، فقط «؟» نوشته بود، و در پاسخ نامهای دریافت کرد که فقط «!» در آن بود. این دو نماد برای هر دو طرف معنی داشتند، هرچند از دید ناظری که معنی آنها را نمیدانست، مبهم بودند. مثال دیگر، جملهای طولانی است که به زبان فارسی نوشته شده است، ولی برای انگلیسیزبانی که فارسی نمیداند مفهومی ندارد. بدینسان شانون پیشنهاد کرد که مسئله ارسال سیگنال را از ارسال اطلاعات آن جدا کرده، و برای دومی مدلی ریاضی پیش نهاد.[2]
شانون در آن زمان در آزمایشگاههای بل کار میکرد و در تلاش برای طراحی خطوط تلفن با ضریب اطمینان بالا بود. پیش از شانون، عوامل مؤثر در استفاده بهینه از خطوط تلفن شناخته نشده بود و بیشترین تعداد مکالمات تلفنی که میتوان روی خطوط تلفن منتقل کرد، نامشخص بود. شانون پس از تعریف ریاضی کانال مخابراتی، ظرفیتی به آن نسبت داد که بیانگر بیشترین اندازۀ اطلاعاتی است که میتوان روی کانال مخابره کرد. فرمول ظرفیت کانال شانون نه تنها برای کانالهای بینویز، بلکه برای کانالهای نویزدار هم قابل استفاده بود. او فرمولی پیش نهاد که اثر پهنای باند کانال، و نسبت توان سیگنال به توان نویز (نسبت سیگنال به نویز) را در ظرفیت کانال نشان میداد.[2]
مفهوم اطلاعات که شانون پیش نهاد، از دید آمار و احتمال بوده و با مفاهیم روزمره اطلاعات مانند دانش یا استفادههای روزمره از آن در زبان طبیعی مانند بازیابی اطلاعات، تحلیل اطلاعات، چهارراه اطلاعات و ... تفاوت دارد. اگر چه نظریه اطلاعات بر رشتههای دیگر مانند روانشناسی و فلسفه هم اثر گذاشته، اثرش به دلیل مشکل تبدیل مفهوم آماری اطلاعات به مفهوم معنایی دانش و محتوا، بیشتر القای احساسی اطلاعات بوده است.[3]
آمار و احتمال، نقش اساسی در پیدایش و بالندگی نظریه اطلاعات داشتهاست.
شانون در کارهایش، ارسال اطلاعات در یک کانال مخابراتی را پایهای بررسی کرد و برای منبع اطلاعات، کانال ارسال اطلاعات و بازیابی اطلاعات مدل ریاضی پیش نهاد. او ارسال اطلاعات از فرستنده (منبع) به گیرنده (مقصد) را به کمک احتمالات بررسی کرد. دو نتیجهٔ مهم، معروف به قضیههای شانون، اینها هستند:
این دو، به ترتیب به کُدینگ منبع (source coding) و کدینگ کانال (channel coding) میانجامند. از موضوعات مرتبط با کدینگ کانال، میتوان به نظریه کدینگ جبری کانال (Algebraic coding theory) اشاره کرد.
بخش مهم دیگر کار شانون به امنیت انتقال اطلاعات (information security) میپردازد که ربط مستقیمی به دو نتیجه بالا ندارد و مبنای نظری رمزنگاری (cryptography) نوین است.
اطمینان انتقال اطلاعات (information reliability) که با دو قضیه بالا توصیف میشود را نباید با امنیت انتقال اطلاعات (information security) یکی دانست؛ هدف این دو کاملاً متفاوت است.
نظریه اطلاعات بر پایه نظریهٔ احتمالات و فرایندهای اتفاقی (Probability Theory and Stochastic Processes) شکل گرفتهاست. مهمترین کمیتهای مربوط به اطلاعات عبارتند از
آنتروپی نشان میدهد که اطلاعات خروجی یک منبع اطلاعات تا چه اندازه میتواند فشرده شود؛ در حالی که اطلاعات متقابل، نرخ انتقال اطلاعات در یک کانال مخابراتی را تعیین میکند.
رایجترین واحد اطلاعات، بیت است که بر مبنای لگاریتم دودویی (باینری) است. دیگر واحدها شامل نَت (بر اساس لگاریتم طبیعی) و هارتلی (بر اساس لگاریتم معمولی) هستند. انتخاب مبنای لگاریتم، واحد آنتروپی اطلاعات را مشخص میکند.
در عبارت ، زمانی که است، عبارت هم برابر صفر در نظر گرفته میشود، زیرا
آنتروپی یک متغیر تصادفی، با اندازهگیری احتمالات آن متغیر تصادفی بهدست میآید. مفهوم آنتروپی در طول دهههای گذشته دستخوش تغییرات شده و به کاربردهای مهمی در دیگر شاخه های علوم از جمله فشردهسازی دادهها، علوم اعصاب ، مهندسی مخابرات و کدگذاری کانال انجامیده است.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.