Математическая теория связи (статья)
| Математическая теория связи | |
|---|---|
| A Mathematical Theory of Communication | |
| |
| Жанр | Научная статья |
| Автор | Клод Шеннон |
| Язык оригинала | английский |
| Дата первой публикации | 1948 год |
| DOI | 10.1002/J.1538-7305.1948.TB01338.X и 10.1002/J.1538-7305.1948.TB00917.X |
«Математическая теория связи» (англ. A Mathematical Theory of Communication) — статья, опубликованная Клодом Шенноном в 1948 году в реферативном журнале американской телефонной компании «Bell System»[1] и сделавшая его всемирно известным. Содержит в себе большое количество инновационных и плодотворных идей, эта работа инициировала многие научные исследования по всему миру, продолжающиеся по сей день, положив начало развитию методов обработки, передачи и хранения информации.
История
Само понятие теории информации появилось задолго до публикации этой статьи. Множество авторов своими работами закладывали фундамент новой теории. Например, в том же журнале компании «Bell System» в 1924 году была публикация Найквиста, содержащая в себе некоторые положения, лежащие в основе данной статьи[2].
Шеннон при публикации не считал, что делает открытие. Он во многом опирался на опыт предшественников; в самом начале статьи он написал, что «Некоторые основные положения этой теории имеются в важных работах Найквиста и Хартли. В настоящей статье мы расширим теорию с тем, чтобы включить некоторое число новых факторов, в частности, влияние шума в канале».
Содержание
Шеннон обобщил идеи Хартли, используя понятие «информации», содержащейся в передаваемых по каналу связи сообщениях. Само понятие он не разъясняет, только упоминает, что сообщения могут иметь некое «значение», то есть относиться к системе, имеющей свою физическую или умозрительную сущность. Также он начал рассматривать непрерывные множества сообщений, а не только конечные. Его работа позволила решить основные задачи теории информации: кодирование, передачу сообщений и устранение избыточности; также исследовалась помехоустойчивость.
В книге вводится логарифмическая функция как мера информации, и показывается её удобство:
- Она удобна практически. Параметры, важные в инженерных приложениях — такие, как время, пропускная способность, число переключателей и так далее — обычно меняются линейно при логарифмическом изменении числа возможных вариантов. К примеру, добавление одного переключателя удваивает число возможных состояний их группы, увеличивая на единицу его логарифм по основанию 2. Увеличение в два раза времени приводит к квадратичному росту числа сообщений, или удвоению их логарифма, и так далее.
- Она близка к нашему интуитивному представлению о такой мере. Это тесно связано с предыдущим пунктом, так как мы интуитивно измеряем величины, линейно сравнивая их со стандартами. Так, нам кажется, что на двух перфокартах можно разместить в два раза больше информации, а по двум одинаковым каналам — передать её в два раза больше.
- Она удобна математически. Многие предельные переходы просты в логарифмах, в то время как в терминах числа вариантов они достаточно нетривиальны[3].
Также вводится понятие обобщённой системы связи, состоящей из источника информации, передатчика, канала, приемника и пункта назначения. Шеннон разделяет все системы на дискретные, непрерывные и смешанные.
Влияние на различные направления науки
[2] Много времени спустя после своего появления, вопреки распространенному мнению, эта работа Шеннона была почти безвестной. Вот что пишет, например, по этому поводу академик А. Н. Колмогоров:
Мне вспоминается, что ещё на международном съезде математиков в Амстердаме (1954 г.) мои американские коллеги, специалисты по теории вероятностей, считали мой интерес к работам Шеннона несколько преувеличенным, так как это более техника, чем математика[4].
Постепенно ученые из различных областей науки стали проявлять к статье все больший интерес. Количество публикаций росло, что вызвало ответную реакцию самого Шеннона, так как изначально эта мера предназначалась только для сугубо прикладных задач техники связи: в 1956 году он опубликовал коротенькую статью «Бандвагон», в которой призывал писать скромнее о теории информации, не считать эту теорию всемогущей и универсальной, не преувеличивать её значения:
Очень редко удается открыть одновременно несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких, как «информация», «энтропия», «избыточность», нельзя решить всех нерешённых проблем[5].
В результате появилось два понятия — «теория информации» и «теория передачи информации». Первая определяет такие фундаментальные понятия, как «количество информации», и применяется для решения самых разнообразных проблем различных разделов науки. Вторая — уже своим названием отражает адекватную сферу применения её идей[6].
С развитием теории передачи информации стали сталкиваться с проблемой поиска надежных методов кодирования и декодирования. Это привело к появлению нового большого раздела теории передачи информации — теории кодирования. Мы знаем, что, во-первых, из шенноновской теории информации следовал тот важный вывод, что построение слишком хороших каналов является расточительством; экономически выгоднее использовать кодирование. Во вторых, из-за того, что основная теорема кодирования Шеннона не конструктивна, то есть она лишь доказывает существование оптимального помехоустойчивого кода, обеспечивающего предельное согласование сигнала с каналом, только обосновывает принципиальную возможность построения помехоустойчивых кодов, обеспечивающих идеальную передачу, но не указывает способ их построения. В итоге теория Шеннона мобилизовала усилия ученых на разработку конкретных кодов.[7]
В пятидесятые годы много усилий было потрачено на попытки построения в явном виде классов кодов, позволяющих получить обещанную сколь угодно малую вероятность ошибки, но результаты были скудными. В следующем десятилетии решению этой увлекательной задачи уделялось меньше внимания; вместо этого исследователи кодов предприняли длительную атаку по двум основным направлениям:
- первое направление носило чисто алгебраический характер и преимущественно рассматривало блоковые (линейные) коды.
- второе направление исследований по кодированию носило скорее вероятностный характер. С этими исследованиями были связаны попытки понять кодирование и декодирование с вероятностной точки зрения, и эти попытки привели к появлению последовательного декодирования.
В последовательном декодировании вводится класс неблоковых кодов бесконечной длины, которые можно описать деревом и декодировать с помощью алгоритмов поиска по дереву. Наиболее полезными древовидными кодами являются коды с тонкой структурой, известные под названием свёрточных кодов[8].
Также в 1970-х годах в связи с возникшими техническими трудностями стала активно развиваться теория алгоритмов. Необходимо было разработать алгоритмы для сжатия данных, подлежащих передаче. Впоследствии стали разрабатывать алгоритмы для сжатия данных в банках информации, сжатия изображений для передачи по коаксиальному кабелю и другие.
В дальнейшем теория передачи информации стала комплексной, в основном математической теорией, включающей в себя описание и оценки методов извлечения, передачи, хранения и классификации информации. В развитие теории кодирования появилось много различных помехоустойчивых кодов, отличающихся друг от друга основанием, расстоянием, избыточностью, структурой, функциональным назначением, энергетической эффективностью, корреляционными свойствами, алгоритмами кодирования и декодирования, формой частотного спектра. Практические рекомендации, полученные на основе теории алгоритмов, имеют большое значение в области проектирования и разработки программных систем[9].
Литература
- Shannon C. E. A Mathematical Theory of Communication (англ.) // Bell System Technical Journal : журнал. — 1948. — Vol. 27. — P. 379—423.
- К. Шеннон. Теория связи в секретных системах // Работы по теории информации и кибернетике / Пер. С. Карпова. — М.: ИЛ, 1963. — С. 243—322. — 830 с.
Ссылки
- ↑ Shannon, 1948.
- 1 2 Nyquist, H. Certain factors affecting telegraph speed (англ.) // Bell System Technical Journal : journal. — 1924. — Vol. 3. — P. 22:324—346.
- ↑ Шеннон, 1963, с. 243—322.
- ↑ Шеннон, 1963, с. 5.
- ↑ Шеннон К. Э. Бандвагон Архивная копия от 15 апреля 2012 на Wayback Machine
- ↑ Р. Л. Добрушин, Б. С. Цыбаков Теория передачи информации Архивная копия от 15 февраля 2010 на Wayback Machine" // "Вестник АН СССР. — 1976. — С. 76—81.
- ↑ Кузьмин И. В. Основы теории информации и кодирования. — 1986. — 240 с.
- ↑ Кинегин С. В. История кодирования, контролирующего ошибки Архивная копия от 13 января 2012 на Wayback Machine
- ↑ Еремеевый Ф. Теория алгоритмов Архивная копия от 21 ноября 2012 на Wayback Machine»
