Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 50
Описание файла
PDF-файл из архива "Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2", который расположен в категории "". Всё это находится в предмете "квантовые вычисления" из 7 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 50 страницы из PDF
Чтобыдать настоящее доказательство достижимости, необходимо тщате.'IЬно проанализировать ПОЗМ и пределы пероятиости ее ошибки. Эm бьыо выполнено Хаус;Iсйденом и др 1 • Принелеиное здесь доказательстно на пальцах,по крайней мере, показывает, почему их вывод не удивитс:rеп.Из tрапицы Холево и субаддитивности энтроnии с~tс.цуст также, чrоотнесенная к одной букве дос·rунная информация асимптотически не можетnревзойтиГраница Холево утверждает, чшS(p ).(5.175)гдеp(n)обозначает ~атрицу плотности кодовыхC.IIOB,а субащщтивностьэнтропии предполагает, чтоnsc-(n))Р,<"\' '>(·)---::L_..•Pt,(5.176)i=1где р1 -пpиnCrlei-IНaя матрица uлоnюсти i-ой буквы.
А так как каждаяpiасимптотичсски стремится к р, то(5.177)Чтобы по:~учить это ограничение, мы не дела.ilИ 1шкаких предположений относите.tьно кода, за исключением того, чrо частный ансамбль каждой буквыасимптотичсски стремится к Е. В частности, это ограничение справеДJШво,даже если кодовые слова яRЛЯются не сепарабельными, а запуганными состояниями. Таким образом, мы пока.1али, чтоS(p) яв.ояется оптимальнойдоступной информацией на одну букву.Можно определить разновидность емкости канала связи, связаннойс конкретным а..-1фавитом чистых квантовых состояний, {<емкость д.:LЯ заданпого а.1фавитю>.
Предположим, что Алиса обеспечена источником квантовых состояний. Она может создать тобое из состоянийI'Px),но выбораприорных вероятностей этих состояний зависит от нес. Емкос1ъ ддя заданного алфавита С1" представляет собой максимальную 1\ОС"I)'lШую информацию на одну букву, которой она может достичь при наилучшем nо.з"tожном1 Р. Hausladen, R. Joz!\a, Н. Scbumacher, М. Westmoreland and W. К.
Wooter:s. Classicalinformation capacity of а quantum channcl. Phys. Rev. А 54 (1996) 1869-1876. [См. такжеА. С. Холево. Вве.детrе в 1<вантовую теорию ииформацuи.МЦНМО, М.: 2002.Прим. pei1.]Г.lАВА 5262распределении {Рх}. Мы напши, чтос1о=(5.178)maxS(p).{р.)с1" представляет собой оптимальное количество классических битов, которое можно (асимптотически) закодировать в одной букве данного конкретного алфавита квантовых состояний из источника.5.4А. Достижимость границы Холево: смешанные сос'fоянияТеперь мы хотели бы распространить предыдущие рассуждения на более общий случай.
Будем рассматривать п-буквенные сообщения, в которых частным ансамблем для каждой буквы является ансамб.1ь смеи.шнныхсостояний(5. 179)Мыприxoruмnпоказать, чrо в расчете юt одну букву ( асимптотически~ оо) можно пересдать х( l') битов кдасснческой информации. Вновr.нашей задачей является:(1)конкретизировать кол, которым могут нодьзоватъся Алиса и Боб, ансамбль котор01о (по крайней мере асимптотнчески) буква за буквой создает ансамб;тьl'; (2)конкрстизироватr. декодирующую наблюдаемую Боба, ПОЗМ, которую он будет использовать, пытаясь ра_'tШIЧить кодовые слова;(3)показать, чrо приn --}оо вероятностьошибки Боба стремится к нулю.
Как и при обсуждении случая чистых состояний, я не буду здесь представлять поmюе доказательство (см. Холево', а также Шумахер и Вестморленд 2 ). Вместо этого я предложу вашемувнимаю-по арrументы (даже с большим, чем ранее, количеством объяснений на nальцах, если такое возмоЖно), показывающие, чrо их вывод разумен.Как обычно, мы будем демонстрировать достижимость с гюмощью метода случайного кодирования. Ажса выбирает кодовые слова из смешанных состояний, каждая буква которых извлекается из ансамбля Е.
То естькодовое слово(5.180)1А. S. HoleYo. The Capacity of the Quantum Channel with General Signal States. IEEE Тrащ.44 (1998) 269-273; quaлt-ph/9611023.2_н_ Schurnacher and М. D. Westmoreland. Sending C\assical Infom1ation Via Noisy QuantнmChannels. Pl1ys. Rev. А 56 {1997) 131-138. [На русском язbllre доказательство теоремы ХолевоШумахера-Вестморленда CXllill) можно найти в книге М.
Нильсен, И. Чанг, Кваитовые вычислеиия и квантовая и11формация, М.: Мир, 2006. - Прим. ред.]lnfТheory,5.4.263ДОСТУПНАЯ ИНФОРМАЦИЯвыбирается с вероятностью Рх Рх · · · Рх . Идея в том, что каждо. е типич'2nное кодовое слово может рассматриваться как ансамбль чистых состояний,почти все носители которого находятся в определенном типичном подпространстве. Если перекрытия типичных подпространств различных ЮJдовыхслов малы. то1да Боб будет в состоянии выполнить ПОЗМ, которая с малойвероятностью ошибки идентифицирует характеристику типичного IЮ!ПI]JОстранстиа сообщения А11ИСЫ.Какова размерность типичншо подnространства типичного кодовогослова? Если '><Ы усредняем по кодовь>м словам, то средняя энтропия КDдового сло•а раRна(5.181)Используя аддитивность зптропии произве~ения состояний иLPx=1,мы поаучаем(5.182)При большихnэнтропия ЮJдового слова с бош,шой вероятностью блюкак ее среднему значению, более того, велика вероятность rого, что собственные значения Рх ® · · · ® Рх б:шзки к 2·-niS).
Другими СJ·ювами, типичное'n1 ® · · · ® Рх,.. имеет носитеш» в типичном подпространствекодовое слово Рхразмерности 2ro(S).Это утверждение является блюким аналогом выска1ывания (ключевого в доказательстве теоремы Шеююна о кодировании для канала связис шумом) о том, что если через классический канал связи с шумом посланотипичное сообщение, то количество типичных сообщений, которые могутбыть попучены, равно 2nH(Y;X)Даже доказательство снедует знаЮJмым путем. 1\i!я каждого тиничвоrо сообщения х 1х 2 ...xnБоб может построить «декодирующее подпространство» размерности 2n({S)+J) с уверенностью, что почти все носителисообщения Алисы принадлежат этому подпространству.
Его ПОЗМ будетпредназначена для определения, в каком декодирующем подпространственаходится сообщение Алисы. Ошибки 1\еКDдирования булут маловероятны,если ма.пы перекрытня типичных деКDдирующих подпространств.Несмотря на то, что на самом деле Боба интересует тольЮJ оценкадекодирующего подпространства (и, следовательно, х 1х 2 ...xn),нрсдполuжим, что он выполняет полное ДХИ, онределяемое всеми векторами, образующими линейную оболочку всех типичных поднространстя кодовых!'ЛАВА 5264с:юв АJшсы. (При бодынихnэrо ДХИ будет стремиться к орrоrональному измерению, пока число кодовых сJюв не слишком вс~тико.) Он получаетконкретный резулыат, который, вероятно, находится R тиничном подnространстве размерности 2nS(p), определяемом источником р ® р ® · ·.
0 р.Более тоrо, этот результат, вероятно, находится в декодирующем подпроС1рапствс сообщения, которое Алиса на самом деле носJiала. Посколькурезуш;гаты измерения Боба однородно распределены в нрострапствс размерностиznS,а ансамбль ЧИСТЫХ СОСТОЯНИЙ, ОПреДСJIЯСМЫЙ ЧсtСТНЫМ деКОдируЮЩИМ 1101\ПростраНСТВОМ, ИМССТ размерНОСТЬ zn((S) ,-о), ro среднеепереiСрытие вектора, определенного резулы<rrом Ьоба, с типичнLiм декодирующим лоднространстRОМ равно:2n((S)+д)- - ; ; - - ~ 2-n(S--(S)-J) ~ 2 n(x ' )2n8(5.183)Uсли А."1ИСа выбирает znR кодовых слов, то средняя вероятность ошибкидекодирования бу11ет(5.184)Мы можем выбратьR любым, меныпим х, тоrда эта вероятность ошибкибудет очень мала приn~ ::ю.Эти доводы показывают, что усредненная по Сiтучайным кодам и_ ходовым слоnам вероятность ошибки мала.
Как обычно, мы выбираем конкретный КО/~ и отбрасываем некоторые КО/(Овыс слона, чтобы получить малуювероятность ошибки для каждого кодоRОlО слова. Более юго, конкретныйкод может быть выбран типичным, так чrо частный ансамбль каж.1оrо кодового слова стремится к Е приn ____.оо. Мы нриходим к выво;rу-, что отнесенпая к одной букве дос1упная информация х асимпrотически ;юстижима.Ilo своей структуре ЭIО дoiaзare.lЬCTRO близко к ана.;1о1·ичному доказатсльстnу соответствуюп,ей классической теоремы о кодировании. В частности, величипа х здесь играет такую же роль, как[в теореме Шсннона.В то время как 2-ni является вероятностыо того, ч·ю конкретная типичная лоследовате.;,ьнос·Iъ .
1сжнт.в определенной сфере деколирования,2-nxпредставляет собой переiСрытие конкретного типичного состояния с определенным декодирующим 1101\пространством.5.4.5.Емкость каnала связиКомбинируя rраницу Холево с выво11.ом о том. что достижимы х битов на одну букву, можно получить выражение )J.ЛЯ классической емкости5.4.
JОСТУПНЛЯ ИНФОРМАI{ИЯ265квантового канала связи. (Но с предупреждением: мы уверены, ч10 эту «емкость» нельзя нревысить, если только мы откюываемся от испо.1Ьзованиязанутанных кодовых слов.)А.,1иса 1 отовит п-буквенные сообщения и посьшает их Бобу через квантовый канал сnязи с шумом, описываемый суперопсраторомжим, что упомянуrый супероператор$$.Прс11,полодействуст на каждую букпу независимо (квантовый канаJI без памяти). Боб выполняет ПОЗМ, которая оnтн~шзирует по.'I)'Чаемую им информацию относительно того, что приrотовиJ13Алиса.Фактически окажется, что лучше всего А;шса rотовит сообщенияиз чистых состояний (это следует из субаддитивнuсти энтропии).
Если конкретная буква принJТоwена как чистое состояниеI'Px), тоБоб получит(5.185)А если Л;rиса посЬL>ает чистое состояниесмешанное состояние Ртt® · · · ® P-r--... .I'Px ) · I'P, ),'то lioб получи гnТаким образом, ансамб.1ь кодоныхслов Алисы определяет ансамбТh смешанных состояний f_(n), получаемыхБобом. Сiсдовате~ьио, оптимальное ](()Лнчество получаемой Бобом информации по определению равно Acc(f(n)), что удовлетворяет гранш~е Ходе:но:Acc(i<")) ( x(t<n))_(5.186)Теперь ансамблем Боба является(5.187)где р( т 1 , х 2 ).