Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 47
Описание файла
PDF-файл из архива "Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2", который расположен в категории "". Всё это находится в предмете "квантовые вычисления" из 7 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 47 страницы из PDF
Информация уnакована более зффективно, но ,торогой ценойполучил то, что име_,~а ввиду Алиса, но он не может узнать---Бобч1u. В противоположность классическому случаю~ Боб не может выrюлнить никакого измерения, чтобы корректно дешифровать сообщение А.'IИСЫ. Попыт~<апрочитать сообщение неизбежно внесет в неrо возмущение.5.3.3.Кодирование смешанпого состояния: информации XoJteвoТеорема Шумахера характеризует сжимаемость ансамбля чистых сосrояний. Но чтоecJmбуквы извлекаются из ансамбпя смешанных состояний? В эmм СJ!УЧае сжимаемость надежно не устаноnлела и является предметом текущих исследований 1 .Нетрудно видеть, чm для смешанных состоянийS(p)уже не будет ответом. Чтобы привести тривиа..'lъный пример, предположим) что некотороесмешанное сосmяние р0 с энтропиейстью р0= 1.S(p0 )iО выбирается с вероятноТогда сообщение всеща равно р 0 ® р0 ® · · · ® Ро и не несетникакой информации~ Боб может идеально реконс1руировать сообщение,ничего ие получая от Алисы.
Следовательно, это сообщение можно сжатьдо нуля кубитов на одну букву, чm меньше, чем1S(p0 ) >О.См. М. Horodeck.i, Limits for Compression of Quantum lnformation Carried Ьу Ensemhles ofMixed States, Phys. Rev.,А57,3364-3369 (1997); quant=ph/9712035.Г;IдВА2445Чrобы построить менее 1риниальный пример, вспо'1ним, чrо д."'Я анса:мбдя взаимно ортогошL1Ьных чистых состояний 1птропия lllенпона равнаэнтропии фон Пеймана:Н(Х) ~ 8(р).(5.104)так что классическая и квантовая сжимаемости совnадают.
Это справедливо, !Юсколысу ортогональные состояния идеально различимы. Фактически,если Алиса хочет послать Бобу сообщение(5.1 05)то она может послать каассическое сообщение х 1 ...xn•а Боб может реконструировать состояние с идеапьной точностью воспроизведения.Теперь предподожим, что буквы ювдекаются ю ансамбJtя взаимно ортогональных смешанных состояний {рх,tr РхРу=О,P:zJ:(5.1 06)xfy;то есть Рх и Ру имеют носители во взаимно ортогональных подпространстнах гиш.бертова пространства. Эти смешанные состояния также И)\Са.."Iьноразличимы, то еС'Jъ опять сообщения, по существу, классические и, следоRаТСJJьно, могут быть сжаты до Н (Х) кубитов на одну букву. Например,мы можем расширить гильбертово nространство наших буквширокого пространства НАчистое состояниеI'Px} лп01t Адо болееН в и выбрать очишение каждого Рх• то естьЕ Н л@ Н в, такое что(5.107)Эти чистые состояния взаимно ортогональпы, а апсамбдь {IЧ'х} AlJ' Рх}имеет энтропию фон Неймана Н(Х); оедователшо, мы можем выпо:шитьсжатие сообщения(5.1 08)по Шумахеру до Н(Х) куби·юв на о,1ну букву (асимптотически).
После развертывания этого состояния Боб может взять частичный след, ((Выбрасывая» по!(систему В, и таким образом реконструировать сообщенИе Алисы.Чтобы сделаn~ разумное нредподожение о том, какое выражение характеризует сжимаемость сообщения, построенного из алфавита смешанных состояний, мы моrnи бы поискать выражение, которое сводится к 8(р)ДJIЯ ансамбня чистых состояний, и-к Н(Х) для ансамбля взаимно ортоJ'Ональных смешанных состояний.
Выбирая базис, в котором(5.1 09)СЖАТИЕ КВАН1'UВЫХ ДАННЫХ5.3.245является б.J:очно-аиагонЗJiъным, мы видим, чтотх(5.110)х(вспоминал, чтоtr Рх~1 длякаJ!Щого х). Сдедовате.'!h!Ю, мы можем записать энтронию lllенпона в видеН(Х)=S(p)- LPxS(px)=х(Е).(5.111)хВеличипа х( Е) называется информацией Холево ансамбля Е--{р .. Рх}.Очеви;(но, она за.Rисит не тшiьКО от матрицы плотности р, по и от конкретного способа реализации р как ансамбля смешанных состояний.
Мы нашли, что как для ансамбля чистых состояний, так и для ансамбля взаимиоартагтшльных смешанных состояний информация Холево x(t:) представляет собой оптима.ньное кшrnчество кубитов на о,rщу букву, которого \ЮЖНОдостичh, если мы сжимаем сообщение, сохраняя высокую точность воспроизведеiШЯ 11ри боJJьш ихn.Информация Хопево может рассматривюъся как обобщение энтропии фон Неймана, переходящее в S(p) для ансамбля чистых состояний.Она также является бли·Jким апалшом взаимной информацииI(Y; Х) =Н(У)-lf(YIX)(5.112)в классической теории информации, сообщающей нам, наскодько в сре11пемуменьшается энтропия Шеинона ансамбля У, коща мы узнаем значение Х ~аналогично(5.113)хговорит нам, наско:rыrо в среднем ~сньшается знтропия фон Неймапа ансамбля, КОI')Щ мы узнаем, как он был приrотов.псн.
Подобно классическойв.,анмной информации, информация Холево исеr,С(а неотрнщпельна, как этоследуст ю свойства во шутости 8(р)(5.114)ГЛАВА 5246Теперь мы xornм исследовать связь между информацией Халева и сжимаемостью сообщений, посчюенных из алфавита иеортогопальных смешанных состояний. Фактически можно показать, что в общем случае невозможно сжатие с высокой точностью воспроизведения до обьема, меньшегочем х на одну букву сообщения.Чтобы установить ::пот результат, воспользуемся свойством <<монотонносm>> х. доказанным Линдбладом и }С"IЬманом: супероператор не можетувеличивать информацию Холево. То есть если$-произвольный сунсроператор, лействующий на ансамбль смешанных состояний как$: Е= {р"' Рх} ~ Е'~ {$(р.), Рх},(5.115)тох(Е')Монотонность Линдблада-";;х(Е).(5.116)Ульмапа тесно связана с сильной субаддитивностью энтропии фон Неймана, что вы покажете в домашнем упражнении.Монотонность х обеспечивает еще одно свидетельство того, что х характеризует количество информации, закодированной в квантовой системе.Декогерентизация, описываемая суnероператором, может лишь сохранитьили сократить :пу величину информации, но не увеличип.
ее. Заметим, ч·юв противоположность зтому знтропия фон Неймана не монотонна. Супереператор может прообразовать начальное чисrое состояние в смешанное,увеличивая S(p). Однакu другой супероператор иреобразует тобое смешанное состояние в «основное»jO) (OIи, следовательно, уменьшает энтровию начального смешанного состояния до нуля.
Было бы ошибкой интерпретировать зто уменьшениеSкак <<приобретение информацию>, так какнаша способность отличить разные возможные приготовления полностьюуrрачена. Соответственно распад в основное состояние сокращает до нуляинформацию Хо.пево, отражая то. что мы потеряли возможность реконструировать начальное состояние.Рассмотрим теперь сообщения изnбукв, независимо извлекаемыхиз ансамбля Е = {Рх, Рх}; ансамбль всех таких входящих сообщений обозначается как E(n). Пусть разработан код, который сжимает сообщения так,что они все занимают гильбертпво пространство if_(n); ансамбт.
сжатыхсообщений обозначается как ,E(n). Тогда развертывание выполняется супероператором $(5.117)чтобы получить ансамбль E',(n) выходящих сообщений.2475.4. ДОСТУПНАЯ ИНФОРМАЦИЯТеперь предположим, чrо эта схема кодирования имеет высокую rочность восnроизведения. Чтобы свести к минимуму техническую сторону,не будем вдаваться в деталиroro, как следует охаракrеризовать количественно точность воспроизведения fl(n) относительно t:(n)_ Мы простопримсм, что ес~ш Е 1 (и) имеет высокую rочность воспроизведения, то длялюбого о и при достаточно большихn(5.118)отнесенная к одной букве информаnии Холево выходящего и входящегосообшений приближаются друг к другу. Поскольку входящие сообщенияS(p) следует, чтоявляются произnедениями состояний, то из аддитивности(5.
119)а из монотонносrn ЛиндбJшдаУльмана мы знаем, чтоx(E'(n)) <; x(E(n))Комбинируя уравнения(5.120)(5.118Н 5. 120), находим, что(5.121)Наконец, x(E(n)) ограничена сверху велнчин~й S(p(n)), которая, в своюочередь, ограничена сверху числом logdim')-{(n). Так как J можно nыбра1.ъ сколь угоцно малой, мы приходим к выводу, что асимптотически приn--+ооklogdimJi<n)) х(Е);(5.122)хорошо воспроизводимое сжатие, до менее чем х( Е) кубнтов на одну букву,невозможно.Нередко возникает соблазн nред110ложить, что ежатис до х(Е) кубитовна одну букву сообшения асимптотическв достижимо. с середины января1998 г.
зто предноложение все еще ждет своего доказатс.Тhства ипи 0_вержения.про5.4.Доступная ннформапияТесная аналогия между информацией Холевооимнои инФоормациеиI(X ; ,,.).r ,"(.")"иа также монотmщость Хклас-сическои вза-наводят на мысль,248ГЛАВА5что х связана с кол:ичсством классической информации, которая может храниться в квантовой системе и извлекаться из нее. В зтом разделе ~ы дадимточную формулировку зтой связи.Предыдущий раздел бьш посвящен количественному определениюобъема квантовой информации - измеряемой в кубитах - в сообщениях,построенных из алфавита квантовых состояний.
Теперь же мы обратимся к совсем другому вопросу. Мы хотим количественно определить объемклассической информации-измеряемой в битах-которую можно изк~Iсчьиз таких сообщений, в частности, в случае, когда алфавит включает взаимно неортоrональные буквы.Но почему мы должны быть столь неразумны, чтобы хранить классическую информацию в пеортогональных квантовых состояниях, КО1орыенельзя идеально различитъ? Несомненно, следует избегать такого снособахранения информации, так как 'ПО недет к il:Сградации классического сигна.:"'Iа. Но, возможно, мы не можем обойтись без него. Допустим.
например,я инженер связи и интересуюсь существенными физическими ограничеiшями классической емкости широкополосного онтичсскоiu волокна. Чтобыполучип, наилучшую пропускную способность классической информациина единицу мощности, нам, очевидно, следует выбрать кодирование информации в отдельных фотонах, а чтобы добиться высоwго темпа, мы до:rжныувеличивать кшичество передаваемых за одну секунду фотонов.