Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 49
Описание файла
PDF-файл из архива "Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2", который расположен в категории "". Всё это находится в предмете "квантовые вычисления" из 7 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 49 страницы из PDF
Этот результат серьезно оrра>~ичивает возможные ПОЗМ, так что мож>IО проверитьс помощью явных вычислений, что(5.152) оптимальна. Таким образом, мы{J<p.), Ра = 1/З} равнанашли, что доступная информация в а>~самбле ЕАсс( Е)= log232=0,58496 ....(5.155)Граница Холево не достигается.Допустим теперь, что у Алисы достаточно много денег и она можетпозволить себе послать Бобу лва кубита, каждый из которых сноnа извлечениз ансамбля[.Ее естественным решением будет приготовить для этоюодно из девяти состоянийа,Ьс вероятностью Раь =1/9=(5.156)1, 2:3,каждое. Тоща наилучшая стратегия Боба, дающая, как и раньше, взаимпую информациюсосшит п выпшшении ПОЗМ(5.152) на0,58496битов на один куби-r;каждом из двух кубитов.ГJIARЛ 5256Но Алиса и Боб намерены пОС'!)'НИТЬ лyчiiJe. После обсуждения проблемы с А. Пересом и В. Вутерсом они выбирают другую стратегию. Алисаприготовит одно и-1 трех двухкубитовых сос-rоянийа=(5.
157)1, 2, ~i,каждое из которых появляе-rся с априорной вероятностью Ра1/З. Рассматриваемый как один кубит, выбор Алисы управляется ансамблем Е,но теперь меж,'!)' ее двумя кубитами имеется (классическая) корреляция-оба они приготовдены одним способом.Три вектора /Ф ") лиiiейно независимы н, с.~едоватсльпо, образуют линейную оболочку трехмерного подпрос-rранства четырехмерного гильбсртова пространства двух кубитов.
В домашнем упражнении вы покажстс,что матрица шютности'р ~ ~ L IФа)(Фаl(5. 158)а=1имеет непулсвые собственные значенияS(p) =1/2, 1/4 и 1/4, так что_!logl-2(!logl)2244=~2"(5.159)Граница Холсво требуе-r, чтобы до стунная информация на одии кубит быламеньше, чем 3/1 бита. По крайней мере это согласуется с тем. что можнопрсазойtн ее значение 0,58496 на один кубит, достигнутое в методе девятисостояний.На первьrй взгляд, может nоказаться, что АJшса не в состоянии передать такое количество классической информации Бобу,ec;rnона решаетпос;тать ОiЩО из всего лишь трех, вместо девяти, возможных сос·юяний. Однако после некоторых размышлсни:й этот вывод становится не очсви;(ным.Действительно.
Алиса имеет меньший выбор сигналов, но эти сигпа.,1JЫ более различи..,ы; вместо(5. 150) мыимеемаj.Ь.(5.160)Бобу следует исподьзовать З'!)' улучшенную различимость при выборе своего и.змсрения. В частности, он найдет более вьп'Одным выпшшить коллекпшвиое измерение двух кубитов вместо измерения их по одному.Теперь уже не очевидно, каким будет онтимальное И.'1мсрение Боба.Но он может привлечь обп.J.ую процедуру, которая, хотя и не обязательно оптимшrьна, но по крайней мере обычно достаточно хороша. Назовем5.4.
ДОСТУПНАЯ ИНФОР\1АЦИЯ257построенную с tтомощью этой процедуры ПОЗМ «)l;остаrочно хорошим измерением» (и.1и ДХИ).Рассмотрим нскоmрый набор векторов IФ al• коюрые не предполагаются ортогона.гiьны\шwmнормированными. Мы хотим прилумать ПОЭМ,которая может достаточно хорошо разJШчать эти векторы. Прежде всеrо.построим(5.161)аЭто _положительный оператор в подпространстве.
натянутом на векторы IФ а}. Следовательно, в эmм подпространстве он имеет обратный операmр G _,, а обратный операrор имеет положите.1Ьный квадратный кореньG -l/ 2Теперь мы определяем(5.162)и видим, что в .сrинсйной оболочке векторои IФ ,:)~Fa = с- 112 ~ 1Фа}(Ф"1) с- 112 ~(= G -l/ZcG-'12 = l.Если необходимо. мы можем присоединить к этимтельный оператор, проекторF0(5.163)Fаеще один положина ортогона.п:ьное дшюднение рассматриваемого подпространства и таким образом построить ПОЗМ.
Она представляет собой ДХИ, связанное с данным набором векторов IФ а).В частном случае, когда векторы 1Ф а) ортагональны(5.164)(где IФalортонормиропаны), мы имеема,Ь,с~ IФJ(Фal,(5.165)то есть идеа..'IЬно различающее векторы /Фа) ортогона.а:ьное и. следовательно, оптимальное измерение. Rсли векторы IФ n.) mшейно псзанисимы. ноГЛАВА2585не ортогональны, то ДХИ снова является ортогональным измерением (nосколькуnодномерных операторов в п-мерном nространстве мoryt· образовать ПОЭМ, если юлько они взаимно орюгональны), но в эюм случаек'lмерснис может оказаться не оптимальным.В домашней работе вы пос1роите ДХИ для векгоров IФ.) из(5.157)и покажете, что(Ф.IFиiФа) = ~ (1 + ~)2р(Ь/а) = (ФаiFьiФ.) = t (1- ~)2P(aia)(при Ьf== 0,971405,= 0,0142977(5.166)а).
Отсю11а следует, что условная энтропия входаН(Х/У) о•а поскольку Н(Х)0,215893,(5.\67)= log2 3 = 1,58196, то приобретаемая информщияI -_ EI(X)-Н(Х/У) =1,:!6907,(5.168)взаимная информация равна 0,684535 битов на один кубит. Таким образом, уJlучшенная различимость сигналов А.1исы действительно оправдаласебя- мы превзошли 0,58496 битов, которые можно было извлечь из одного кубита. Мы все еще не достигли границы Холево(I < 1,3 в этом случае),хотя н подошлн к ней несколько бдиже, чем раньше.Этот пример, впервые описанный Пересом и Вутерсом, преподноситнесколько rюлсзных уроков. Во-первых, А."'Iиса в состоянии послать Бобу большее КОJшчсство информации, <<сократив>> свой набор КО!1Овых слов.Ей лучше сделать выбор из меньшего количества более различимых сигналов, чем и3 бшJьшсrо количества менее различимых сигна.аов.
Алфавит изтрех букв колирует бодьше, чем алфавит из девяти букв.Во-вторых, Боб сnособен считать больше информации, если он выполняет кшmективное измерение. вместо измерения каждого кубита по отдеi!Ьносm. Его оптимальное ортогональное измерение nроецирует сигналАлисы на базис запутанных состояний.Описанное здесr, ДХИ <<опmмально» в том смысдс, что оно 11ает наибольшее приобретение информации но сравнению с любым ювестным измерением. Скорее всего это действительно максимальное значениеI.которое может быть дОСТИПJУТО при любом измерении, но я не доказал :этого.5.4. ДОСТУПНАЯ ИНФОРМАЦИЯ5.4.3.259Достиж:имосt·ь границы Холево: чистые состоянияУсвоив эти уроки, мы можем показать, что д.;'IЯ заданного ансамблячистых состояний можно построить п-буквенные кодовые слова, которыеасимптотически достигают доступной miформации S(p) на одну букву.Мы должiJы выбрать код, ансамбль кодовых слов, которые может приготовить Алиса, и <<декодирующую набmодаемую» -ПОЭМ, которую будетисnо.1ьзовать Боб, nытаясь ра.'lЛИЧИТЬ кодовые слова.
Наша З(Щача состоитв том, чтобы показать, что Алиса может выбрать 2n(S --О) таких кодовыхслов, что с пренебрежимо малой вероятностью ошибки при--> оо Бобnможет определить, какое из них бьmо послано. Мьi не будем вникать во вседетали доказательства, а удовольствуемся пониманием того, почему этотрезультат весьма правдонодобен.Конечно, главной идеей яв.;JЯется привлечение случайного кодирования.
Алиса выбирает произведение сигнальных состояний(5.1 б9)случайным обра.,ом ювлекая каждую букву из ансамбдя Е={I'Px),Рх}.Как мы видели, для типичного кода каждое типичное кодовое слово имеетбольшое перекрытне с типичным поднространством А (n), рюмерпость которого dimA (п) > zn[S(p)-oJ. Более того, ДJ!Я тнпичного кода управляющийкаждой буквой часnшй ансамбль близок к Е.Поскольку при большихnтипичное нодпрос·rрапство очень веШfко,Алиса может выбрать много ющовых слов, тем не менее оставаясь уверенной в rом, что характерное перекрытис двух тиnичных кодовых словочень мало.
С эвристической rочки зрения типичные кодовые слова случайным образом распределены в типичном подпространствс, а в среднемдва случайных единичных вектора в пространстве рвзмерностнперскрытие1/ D.Следовательно, если !и) и(l(иlw)l 2 )лD имеют!w)- два кодовых слова, то< z-n(S-oJ.(5.170)Здесь (.)л обозначает среднее по случайным типичным кодовым словам.Вы можете убедиться в том, что типичные кодовые слова действительно однородно распределены н. типичном подпространстве, как видноиз дальнейшего: усредневное по ансамб..'!ю перскрытие случайных кодовыхслов I'Рт,)=.. . l'f'x) и i'Pv,) .·I'Py.) равноL.'>x," Рх.,Ру," Pyjl('fx, \'Ру,)\=tr(pg ...
e;p)22" ·I('PxJ'PyJ\2) =(5.171)['ЛАВА 5260Теперь предположим, что мы оrрапичшш след типичным подпространмством Л (п); э-ю прос1ранство нмеет размерность diшЛ (n)< 2п(SЧ),а собственные значения сужения операюра p(n) ~ р@ ... @ р в подпрос1ранство Л (n) удовлетворянл неравенству Л<2-n(S-J). Следонателно:(5.172)гдеt.r_1обозначает след по типичному по~lпространству.Теперь предположим, что выбрано 2n(S-&) С~I)'Чайных кодовых слов{iui) }. Toma если iu1) - произвольное фиксированное кодовое с;юво, то2)(u;/u)/2) <2n(S-J)2- n(S-J') = Tn(J-6')+<:(5.173)i#jздесь суммированис ведется по всем кодовым словам, а усреднение большене ограничивается типичными кол:овыми словамиF в правой части возникает от атиnичного случая. Теперь при любом фиксированномстаточно большомn мь1 можем8и при до1выбрать б и с настолько ма.i1ыми, наскольконам зто нужно; таким образом, при усре,1нснии ноKO,J.aMи кодовым с.:~овамRнуiри кода последние становятся хорошо различимыми приn __._.
_.оо.Теперь при.зовем на помощь несколько стшщартных «шеннонизмов,>:так как уравнение(5.173)снравед."'IИВО в среднем по ко~tам,·mоно справедливо и для векоторого частного 1<011.а. [Более того, поско."JЬку почти всеКОJ'Ы обладают тем свойством, что чаС111ыЙ (мар•·ина.льный) ансамбль каж[, то существует код с таким свойством, удов.п.етворядой буквы близок кющий(5.173).]Теперь уравнениепо частному кодовому сдовуiu1).(5.173)справедливо, если мы усредняемНо, отбрасывая не больше нолонины кодовых слов, можно быть увереннЫми и том, что любое и кажll,ос кодовоеслово хорошо от:шчимо от всех остальных.Итак, Алиса может выбрать 2n(S-b) хорошо разJШЧимых кодовых с::~о.в,которые становятся взаимно ортогона.:rьными в пределе -n---+ оо.
При конечномnБоб может выполнить ДХИ, :которое стремится к оптима.1Ьному ортогональному измерению приn ---+оо. Следовательно, отнесенная к однойбукве доступная информация(5.174)достижима. где f(n) обозначает ансамбль п-буквспных коцовых с~юп А:шеы.5.4. Д ОСТУЛИЛЯ ИНФОРМАЦИЯ261Конечно, при любом конечном п ПОЗМ Боба б~ет прсдстав.LЯть собойсложное ко.исктинное измерение, выпо.-тняемое на исехnбуквах.