Главная » Все файлы » Просмотр файлов из архивов » PDF-файлы » Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2

Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 50

PDF-файл Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 50, который располагается в категории "книги и методические указания" в предмете "квантовые вычисления" изседьмого семестра. Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 50 - СтудИзба 2019-09-18 СтудИзба

Описание файла

PDF-файл из архива "Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2", который расположен в категории "книги и методические указания". Всё это находится в предмете "квантовые вычисления" из седьмого семестра, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст 50 страницы из PDF

Чтобыдать настоящее доказательство достижимости, необходимо тщате.'IЬно про­анализировать ПОЗМ и пределы пероятиости ее ошибки. Эm бьыо выпол­нено Хаус;Iсйденом и др 1 • Принелеиное здесь доказательстно на пальцах,по крайней мере, показывает, почему их вывод не удивитс:rеп.Из tрапицы Холево и субаддитивности энтроnии с~tс.цуст также, чrоотнесенная к одной букве дос·rунная информация асимптотически не можетnревзойтиГраница Холево утверждает, чшS(p ).(5.175)гдеp(n)обозначает ~атрицу плотности кодовыхC.IIOB,а субащщтивностьэнтропии предполагает, чтоnsc-(n))Р,<"\' '>(·)---::L_..•Pt,(5.176)i=1где р1 -пpиnCrlei-IНaя матрица uлоnюсти i-ой буквы.

А так как каждаяpiасимптотичсски стремится к р, то(5.177)Чтобы по:~учить это ограничение, мы не дела.ilИ 1шкаких предположений от­носите.tьно кода, за исключением того, чrо частный ансамбль каждой буквыасимптотичсски стремится к Е. В частности, это ограничение справеДJШво,даже если кодовые слова яRЛЯются не сепарабельными, а запуганными со­стояниями. Таким образом, мы пока.1али, чтоS(p) яв.ояется оптимальнойдоступной информацией на одну букву.Можно определить разновидность емкости канала связи, связаннойс конкретным а..-1фавитом чистых квантовых состояний, {<емкость д.:LЯ за­данпого а.1фавитю>.

Предположим, что Алиса обеспечена источником кван­товых состояний. Она может создать тобое из состоянийI'Px),но выбораприорных вероятностей этих состояний зависит от нес. Емкос1ъ ддя задан­ного алфавита С1" представляет собой максимальную 1\ОС"I)'lШую информа­цию на одну букву, которой она может достичь при наилучшем nо.з"tожном1 Р. Hausladen, R. Joz!\a, Н. Scbumacher, М. Westmoreland and W. К.

Wooter:s. Classicalinformation capacity of а quantum channcl. Phys. Rev. А 54 (1996) 1869-1876. [См. такжеА. С. Холево. Вве.детrе в 1<вантовую теорию ииформацuи.МЦНМО, М.: 2002.Прим. pei1.]Г.lАВА 5262распределении {Рх}. Мы напши, чтос1о=(5.178)maxS(p).{р.)с1" представляет собой оптимальное количество классических битов, кото­рое можно (асимптотически) закодировать в одной букве данного конкрет­ного алфавита квантовых состояний из источника.5.4А. Достижимость границы Холево: смешанные сос'fоянияТеперь мы хотели бы распространить предыдущие рассуждения на бо­лее общий случай.

Будем рассматривать п-буквенные сообщения, в кото­рых частным ансамблем для каждой буквы является ансамб.1ь смеи.шнныхсостояний(5. 179)Мыприxoruмnпоказать, чrо в расчете юt одну букву ( асимптотически~ оо) можно пересдать х( l') битов кдасснческой информации. Вновr.нашей задачей является:(1)конкретизировать кол, которым могут нодь­зоватъся Алиса и Боб, ансамбль котор01о (по крайней мере асимптотнче­ски) буква за буквой создает ансамб;тьl'; (2)конкрстизироватr. декодиру­ющую наблюдаемую Боба, ПОЗМ, которую он будет использовать, пыта­ясь ра_'tШIЧить кодовые слова;(3)показать, чrо приn --}оо вероятностьошибки Боба стремится к нулю.

Как и при обсуждении случая чистых со­стояний, я не буду здесь представлять поmюе доказательство (см. Холе­во', а также Шумахер и Вестморленд 2 ). Вместо этого я предложу вашемувнимаю-по арrументы (даже с большим, чем ранее, количеством объясне­ний на nальцах, если такое возмоЖно), показывающие, чrо их вывод ра­зумен.Как обычно, мы будем демонстрировать достижимость с гюмощью ме­тода случайного кодирования. Ажса выбирает кодовые слова из смешан­ных состояний, каждая буква которых извлекается из ансамбля Е.

То естькодовое слово(5.180)1А. S. HoleYo. The Capacity of the Quantum Channel with General Signal States. IEEE Тrащ.44 (1998) 269-273; quaлt-ph/9611023.2_н_ Schurnacher and М. D. Westmoreland. Sending C\assical Infom1ation Via Noisy QuantнmChannels. Pl1ys. Rev. А 56 {1997) 131-138. [На русском язbllre доказательство теоремы Холево­Шумахера-Вестморленда CXllill) можно найти в книге М.

Нильсен, И. Чанг, Кваитовые вы­числеиия и квантовая и11формация, М.: Мир, 2006. - Прим. ред.]lnfТheory,5.4.263ДОСТУПНАЯ ИНФОРМАЦИЯвыбирается с вероятностью Рх Рх · · · Рх . Идея в том, что каждо. е типич'2nное кодовое слово может рассматриваться как ансамбль чистых состояний,почти все носители которого находятся в определенном типичном подпро­странстве. Если перекрытия типичных подпространств различных ЮJдовыхслов малы. то1да Боб будет в состоянии выполнить ПОЗМ, которая с малойвероятностью ошибки идентифицирует характеристику типичного IЮ!ПI]JО­странстиа сообщения А11ИСЫ.Какова размерность типичншо подnространства типичного кодовогослова? Если '><Ы усредняем по кодовь>м словам, то средняя энтропия КDдо­вого сло•а раRна(5.181)Используя аддитивность зптропии произве~ения состояний иLPx=1,мы поаучаем(5.182)При большихnэнтропия ЮJдового слова с бош,шой вероятностью блюкак ее среднему значению, более того, велика вероятность rого, что собствен­ные значения Рх ® · · · ® Рх б:шзки к 2·-niS).

Другими СJ·ювами, типичное'n1 ® · · · ® Рх,.. имеет носитеш» в типичном подпространствекодовое слово Рхразмерности 2ro(S).Это утверждение является блюким аналогом выска1ывания (ключе­вого в доказательстве теоремы Шеююна о кодировании для канала связис шумом) о том, что если через классический канал связи с шумом посланотипичное сообщение, то количество типичных сообщений, которые могутбыть попучены, равно 2nH(Y;X)Даже доказательство снедует знаЮJмым путем. 1\i!я каждого тинич­воrо сообщения х 1х 2 ...xnБоб может построить «декодирующее подпро­странство» размерности 2n({S)+J) с уверенностью, что почти все носителисообщения Алисы принадлежат этому подпространству.

Его ПОЗМ будетпредназначена для определения, в каком декодирующем подпространственаходится сообщение Алисы. Ошибки 1\еКDдирования булут маловероятны,если ма.пы перекрытня типичных деКDдирующих подпространств.Несмотря на то, что на самом деле Боба интересует тольЮJ оценкадекодирующего подпространства (и, следовательно, х 1х 2 ...xn),нрсдполu­жим, что он выполняет полное ДХИ, онределяемое всеми векторами, об­разующими линейную оболочку всех типичных поднространстя кодовых!'ЛАВА 5264с:юв АJшсы. (При бодынихnэrо ДХИ будет стремиться к орrоrонально­му измерению, пока число кодовых сJюв не слишком вс~тико.) Он получаетконкретный резулыат, который, вероятно, находится R тиничном подnро­странстве размерности 2nS(p), определяемом источником р ® р ® · ·.

0 р.Более тоrо, этот результат, вероятно, находится в декодирующем подпро­С1рапствс сообщения, которое Алиса на самом деле носJiала. Посколькурезуш;гаты измерения Боба однородно распределены в нрострапствс раз­мерностиznS,а ансамбль ЧИСТЫХ СОСТОЯНИЙ, ОПреДСJIЯСМЫЙ ЧсtСТНЫМ де­КОдируЮЩИМ 1101\ПростраНСТВОМ, ИМССТ размерНОСТЬ zn((S) ,-о), ro среднеепереiСрытие вектора, определенного резулы<rrом Ьоба, с типичнLiм декоди­рующим лоднространстRОМ равно:2n((S)+д)- - ; ; - - ~ 2-n(S--(S)-J) ~ 2 n(x ' )2n8(5.183)Uсли А."1ИСа выбирает znR кодовых слов, то средняя вероятность ошибкидекодирования бу11ет(5.184)Мы можем выбратьR любым, меныпим х, тоrда эта вероятность ошибкибудет очень мала приn~ ::ю.Эти доводы показывают, что усредненная по Сiтучайным кодам и_ ходо­вым слоnам вероятность ошибки мала.

Как обычно, мы выбираем конкрет­ный КО/~ и отбрасываем некоторые КО/(Овыс слона, чтобы получить малуювероятность ошибки для каждого кодоRОlО слова. Более юго, конкретныйкод может быть выбран типичным, так чrо частный ансамбль каж.1оrо ко­дового слова стремится к Е приn ____.оо. Мы нриходим к выво;rу-, что отне­сенпая к одной букве дос1упная информация х асимпrотически ;юстижима.Ilo своей структуре ЭIО дoiaзare.lЬCTRO близко к ана.;1о1·ичному дока­затсльстnу соответствуюп,ей классической теоремы о кодировании. В част­ности, величипа х здесь играет такую же роль, как[в теореме Шсннона.В то время как 2-ni является вероятностыо того, ч·ю конкретная типич­ная лоследовате.;,ьнос·Iъ .

1сжнт.в определенной сфере деколирования,2-nxпредставляет собой переiСрытие конкретного типичного состояния с опре­деленным декодирующим 1101\пространством.5.4.5.Емкость каnала связиКомбинируя rраницу Холево с выво11.ом о том. что достижимы х би­тов на одну букву, можно получить выражение )J.ЛЯ классической емкости5.4.

JОСТУПНЛЯ ИНФОРМАI{ИЯ265квантового канала связи. (Но с предупреждением: мы уверены, ч10 эту «ем­кость» нельзя нревысить, если только мы откюываемся от испо.1Ьзованиязанутанных кодовых слов.)А.,1иса 1 отовит п-буквенные сообщения и посьшает их Бобу через кван­товый канал сnязи с шумом, описываемый суперопсраторомжим, что упомянуrый супероператор$$.Прс11,поло­действуст на каждую букпу незави­симо (квантовый канаJI без памяти). Боб выполняет ПОЗМ, которая оnтн­~шзирует по.'I)'Чаемую им информацию относительно того, что приrотовиJ13Алиса.Фактически окажется, что лучше всего А;шса rотовит сообщенияиз чистых состояний (это следует из субаддитивнuсти энтропии).

Если кон­кретная буква принJТоwена как чистое состояниеI'Px), тоБоб получит(5.185)А если Л;rиса посЬL>ает чистое состояниесмешанное состояние Ртt® · · · ® P-r--... .I'Px ) · I'P, ),'то lioб получи гnТаким образом, ансамб.1ь кодоныхслов Алисы определяет ансамбТh смешанных состояний f_(n), получаемыхБобом. Сiсдовате~ьио, оптимальное ](()Лнчество получаемой Бобом инфор­мации по определению равно Acc(f(n)), что удовлетворяет гранш~е Хо­де:но:Acc(i<")) ( x(t<n))_(5.186)Теперь ансамблем Боба является(5.187)где р( т 1 , х 2 ).

Свежие статьи
Популярно сейчас