Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 44
Описание файла
PDF-файл из архива "Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2", который расположен в категории "". Всё это находится в предмете "квантовые вычисления" из 7 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 44 страницы из PDF
Пусть имеется канал связи, характери.зуемый наборомp(ylx ),и определеннос распределение вероятностей Х = { х, р(х)} :цявходящих букв. Мы посылаем строки изnбукв и прсююлаr·аем, что каналдействует на каждую букву независимо. (О действующем таким образом канале говорят как о ((Канаде без памятю>.) Конечно, как только заданы р(у)з:)иХ~ {х,р(х)}, так сразу определены p(xly) и У= {у,р(у) }.Чтобы установить достижимое быстродействие, вновь рассмотримусреднение по случайным кодам, где кодоные слова выбираются с anpu~орпой вероятностью, определяемой ансамблем хп.
Таким образом, с высокой вероятностью они будут выбраны из типичноm набора строк букв,содержащего около 2nH(X) таких типичных строк.Дня тиnичного, nрина;I,Jiежащсгоyn,получаемого сообщения существует окоJю 2r~н(Xf}"") сообщений, которые моши бы быть nосланы. Мыможем декодировать IIОлученное сообщение, сопоставляя ему <<сферу>>, сtl,,ержащую zn[H(X[Y)+J] возможных входов.
ЕС.1И ВН)'lрИ этой сферы имеется единственное кодовое слово, то им декодируется полученнос сооб~щение.Как и раньше, маловероятно, что инутри сферы не окажется ни о;щогокодового слова, однако мы )(0.1ЖIIЫ ИСКJIЮЧ"ить возможность того, что ихтам больше одного. Каждая сфера декодирования содержит долюzn[H(X\')Hiz ~n[H(X)--ff(XY)~о:znH(X)= z-u[l(X;Y)-o](5.30)от общего числа типичных вxO.rtOR. Если имеется 2нn кодовых слов, товероятность того, что одно и3 них с;1учайно окажется внутри сферы деко~дирования, равна(5.31)Поскольку 6 может быть выбрана ско:ть у1·одно ма."Iой, то R можно взятьнастолько бJш.зким к I (но все же меньшим, чем I), насколько ~то необходимо, чтобы пероятнос1ъ ошибки деi«щирования оставанась :жспоненциалыюмалой приn~ оо.5.1.
lliEHHOH ДЛЯ <<ЧАЙНИКОВ»225Зто дока.1ателъство показывает, чrо, когда мы усредняем по случайнымко;щм и по кодовы~ словам~ вероятность ошибки остается малой при любом бысiродейстпииR < f.Тогда те же самые рассуждения, чю и выше,11оказывают существование особого кода с вероятностью ошибки<g длякаждого кодового слова. Это приемлсмый результат~ поскольку он сопшсуется с пашей интерпретацией1,как информации, которую мы приобретаемо входящем Х, получая сигнал У.
То есть J представляет собой отнесенную к одной букве информацию, которую мы можем послать по данномуканалу связи.D·•аимная информациЯ 1(Х; У) зависит не только от условных вероятностей p(yix), характеризующих капал связи, но также и от анриорныхвероятностей р(х) появления букв. Привсl\енное выше доказатеJн.ство случайного кодирования применимо при любом выборе вероятностей р(х),следова·а~:Jьпо, мы показали, что безоШибочная передача возможна ври :Iюбом: быстроnсйСТIJИИ R, меньшем чемс~ шах{р(х))l(X;Y).(5.32)С на.1ывается емкостью канала или пропусююй способностью каиала и зависит только от усновных вероятностей, определяющих данный канал.Мы показали, что ?J:ОСтижимо любое быстродействие Нжет :шR<С, но моаревзойти С (при условии, что по-прежнему вероятность ошибкистремится к нулю приn----+ оо )'?Доказательство1oro,что С является верхней границей быстродействия, в общем случае может по казаться более щнким, чем для двоичного симме1ричноrо канала-вероятности ошибок дляра·шых букв ра.wичны, и мы свободны в использовании этого при созданиикода.
Булем, однако, рассуждать следующим образом:Допустим, что мы выбрали 2nн строк из n букв n качестве кодовыхслов. Рассмо1рим ансамбль (обозначаемый как Х"), в котором каждое ко;ювое слово 1юзникаст с одинаковой "сроятностью (~ 2 -nR). Тогда очевил;нu, чтоН(Х") = nR.(5.33)Посы;шя кодовые слова через капа;I связи, мы по.'!j'Чаем ансамбль У" выхо;~ящих состояний.Поскольку мы прс,1полагаем, что канал действует на каж!{уЮ буквунсзависимо, условная вероятность для строки изn6уkВ факторизуется:(5.34)226ГЛАВА 5а отсюда следует, что услоnная энтроnия удометооряет услоnиюH(Y"IXn) = (-logp(ynjx")) = 2:)-logp(y,lx,)) ~i(5.35)где Х, н У;-частные (марmнальные) распределения вероятностей для i-ойбуквы, определяемые наnшм распределением по кодоным сJювам. Напомним, что нам также известно, что Н(Х, У),;;Н(Х)+ Н(У)нлн(5.36)Оrсюда следует, что=I;I(Y,;X,),;; пС;(537)nзаимная информация посланного и подученного сообщений ограниченасверху суммой отнесенных к каждой букве взаимных ипформаций, а взаимная информация щrя каждой буквы ограничена сверху емкостью каналасвязи [поскольку С определяется как максимум f(X; У)].Вспоминая о симметрии взаимной информации, мы имеемI(X"; :Yn)= Н(Хп)- H(Xпi:Yn) =~ nR- H(X"IY") ,;; пс.Теперь если мы в состоянии надежно декодировать приозначает, чтовходящее кодовое слово(5.38)n -оо, то зrополностью опредеJIЯетсяполучаемым сигналом нлн чrо условная зитроняя входа (в расчете на одну букву)должна стать малой:(539)Если безошибочность передачи возможна,_ то в преде.1ение(5.38)n .
. . . .,.оо уравнепринимает видR,;; С.(540)2275.2. ЭНТРОПИЯ ФОН НЕЙМАНАБыстродействие не может превзойти емкость канала связи. [Вспомним, ч1.оусловная энтропия, _в о-ушчие от взаимной информации,Действительно,H(YniXn)/nfleсимметрична.не становится малым, поскольку канал вносит неопределенность в то, какое сообщение будет получено. Но если мыможем декодировать точно, то, коль скоро сигнал получен, исчезает неопределенность в том, какое кодовое слово бьто послано.]Мы показа.;w, что емкость. С предст8.1lirяет собой максимальное достижимое быстродействие связи через канад с шумом, при котором вероятность ошибки декодирования стремится к нулю при с·rрсмящсмся :к бесконечности :количестве букв в Сообщении.
В этом сосrоит теорема Шеинонао кодировании для канала связи с шумом.Конечно, использованный нами меrод (усрсдение но случайным коцам) доказательства того, что равенствоR= С асимптотически достижимо, не очень консrруктнвен. Так как случайный КOiJ. не имеет с1руюуры ютсхемы, то кодирование и декодирование будут довольно rромоздкими (намнужна экспоненциально большая книга кодов).
Тем не менее эта теоремаважна и полезна, поскольку она IОворит о том, что в принципс достижимои, более того, что недостижимо, даже в принципе. К тому же, посколькуI(X; У)является вогнутой функцией от Х ~ {х,р(х)} (при фиксированном {p(yl:r)}), ro она имеет единСiвснный локальный максимум, а Г: дляинтересуемого канала связи часто может быть вычислена (по крайней меречисленно).5.2.Энтропия фон НеймаиаБ теории классичесЮJй информации мы часто рассматриваем источник, который гоrовит сообщения изnбуки(n~1),причем кажl(ая букванезависимо извлекается из ансамбля Х = { х, р( х)}. Мы видели, чrо информационная эmропия Пlеннона Н(Х) (асимпrотически при n --+ оо)представляет собой ко:~ичество приходящихся на одну букву несжимаемыхбитов информации.Нас также могут интересовать корреляции между сообщениями. Корреляции между двумя ансамблями букв Х и У харак-rеризуются условнымивероя-пюстямиp(yix).Мы видели, чrо взаимная информацияI(X; У)~ IJ(X)- H(XIY)-~ Н(У)-H(YIX)(5.41)представляет собой приходящееся на одну букву количество битов информации об Х, которую мы можем получить, читая У (и наоборот).
Еслиусловные вероятностиp(-ylx)характеризуют канал с шумом, тоI(X; У) -ГЛАВА 5228приходящсеся на одну букву кодичестно информющи, которое может бытьпередано через канал связи (нри аprioriза,цашюм раснределении вероятностей для Х -ов).Мы хотели бы распространить эти понятия на квaumo(J)Jю информаIЩЮ. Представим источник, который готовит сообщения изnбукв, но тснсрr, каждая буква выбирается из ансамбля квантовых состояний. Алфавитсю·на:юн представляет собой множество квантовых сосrояний Рх• каждоеИ3 которых появ.:-тяется с определенной априорпой вероятностью р х.Как мы уже подробно обсуждали.
если набтодателю неи3вестно, какаябуква приготоnлена, то вероятность любого резудьтата любо1о юмерениябуквы, выбранной из зтого ансамбля, можно нолносп~ю охарактеризоватьматрицей JL'IOТIIOCТИР ,_ L:rxPx;(5.42)хJUJЯ ПОЗМ{F а} мы имеемProb(a) = tr (Fap).(5.43)11Jш этой (или любой другой) матрицы п.1отности можно определить знтроrшю фон НейманаS(p) = -tr (plogp).(5.44)Конечно, если мы выберем ортонормированный базис {!а)}, диагонализущий р:(5.45)атоS(p) = П(А),г,1е Н (А)(5.46)· жтропия Шеинона аuсамб!JЯ А ~ {а, Ла}.В том случае, КОiда алфавит сигпалов состоит из взаимно ортогональных чистых соС'Юяний, квантовый источник сводится к классическому; всесигнальные состояния идеально различимы иS(p) --Н(А). Более интересен квантовый источник, сигна.пт~ныс состоянин которого р взаимно некоммутирукrr.
Мы докажем, что ::штропия фон Пеймана является КОilИЧествеююй мерой несжимаемой информации, содержащсйся в юшн1uном источнике (в том случае, когда сm·нальные состояния янляются чистыми),почти как энтропия Шеинона является количсС1венной мерой информации,содержащейся в классическом ис1ОЧIIИке.5.2. JНТРОПИЯ ФОН НЕЙМАЛА229На самом деле мы обнаружим, что знтропия фон Неймана играет двойственную родь. Она является количественпой мерой не rолько квантовойинформации, содержащейся в одной букве ансамбля (минимальное кошrчество приходящихся на одну букву кубитов, необходимое для надежнОiu ко;щрования информации), но и содержащейся н ней классической информации (максимальное ко.шrчество приходящейся на од:ну букву ипформациив битах, а не в кубитах-которое можно полуtmть с помощью наилучшегоизмерения). Мы увидим, что энтропия фон Неймана вХО!1ИТ в квантовуюинформацию еще одним, третьим способом, количественно определяя занутывание бинарного чистого состояния.