Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2, страница 48
Описание файла
PDF-файл из архива "Дж. Прескилл - Квантовая информация и квантовые вычисления. Тома 1-2", который расположен в категории "". Всё это находится в предмете "квантовые вычисления" из 7 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 48 страницы из PDF
Но еслимы сжимаем фотонные волновые па1ееты достаточно тесно друг с друюм, они начнут перскрываться и мы не сможем их идеально разJШЧать.Как максимизировать передаваемую в этом случае к.шссичсскую информацию? Другой важный nример: допусrnм, что яфизик-экспериментатори хочу испо.lЬЗовать тонкую квантовую систему, чтобы сконструироватьочент> чувствительный прибор, измеряющий дейстние классической си;Iына систему. Мы можем моде.rшрова·ть силу как свободный параметр х в гамильтониане системы Н(х).
В зависимости от значениях СОС1ояние системы будет эволюционировать к раЗJ.шчным возможным конечным (неортогuнальным) состояниям Рх· Как много информации относительно х можетnолучить наш прибор?Несмотря на то, что с точки зрения физики эта проблема сильно отличается от сжимаемости квантовой информаrщи, математически они связанымежду собой. Мы обнаружим, что центральную роль в нашем обсуждениииграют энтропия фон Неймана и ее обобщение, информания Холево.Предположим, например, •по Алиса готовит чистое квшгrовое состояние, извлекая его из анса,.бля Е: ={I'Px),px}.Бобу изнестен ансамбль,но пе конt:ретное выбранное Алисой состояние. Оп хочет получить максимально возможную информацию относительно х.5.4.
ДОСТУПНАЯ ИНФОРМАЦИЯ249Jioб собирает информацию, выполняя обобщенное юмерение, ПОЗМ{F у}.Если Алиса нриГОТОВИJJа х, то nоб получит результат измерения ус условной верояшостью(5.123)Эти условные вероятности вместе с ансамблем Х определяют ко;шчествов среднем по.l)'<rаемой Бобом информации, взаимную информациюl(X;У)Щ)Иготовнепия и результата измерения.Боб снободев в выборе своего измерения. «Наилучшее» возможное измерение, максимизирующее получение информации, называется оптимшzьllЫ.« и."'tерением, определяемым ансамблем.
~аксимальное получение информации равноАсс(Е) ~max I(X ·У){F 11}''(5.124)rде 111ах определяется по нсем возможным ПОЗМ-ам. Эта величипа называется достутюй и11форwацией ансамбля Е.Конечно, если состоянияl<r?x)взаимно ортогонадьны, то они идеальнора1личимы. Условная верояшость результата оргогонального измерения(5.125)раина(5.126)так что Н(Х!У) = О, атимаJIЬПО-J(X;У) ~ Н(Х). Это измерение, очевидно, опприготовление полностью оnределено -так что для ансамблявзаимно ортогональных (чистых или смешанных) состоянийАсс(Е) = Н(Х).(5.127)Однако проблема становится гораздо интереснее, когда сигнальнымисос1uяниями являются нсортогональные чистые состояния. Д.ля эrого случая не известно пи одного полезного обще1u выражения для Асс( Е), но существует верхняя границаАсс(Е) (: S(p).(5.128)Мы видели, ч1u эта граница достигается в саучае ортоruналыiых сиnJа:Iьных состояний, кощаS(p) = Н(Х).
В общем епучае ю классической теоJ(X; У)(: Н(Х); по для неортогопальныхрии информации известно, чтоГЛАВА 5250сост<>яний S(p)<Н(Х), так что неравснство (5.128) onpcJ\eJiяeт наилучшую границу. Тем не менее эта граница не яВJIЯется точной, во многихслучаях Асс( Е) строго менъшеS(p).lioлee определенное соотношение между Асс( Е) и S(p) мы подучим,если рассмотрим доступную информацию в расчете на одну букву в сообщении, содержащем n букв.
Теперь Боб имеет большую свободу - онможет реnшть выполнить ко;шективное измерение всехn букв и такимобразом получить больше информации, чем если бы он ограничивалея измерением только по одной букве за один раз. Более того, Алиса можетрешить приготовить скорее ансамбль частных, максимаю~но разmrчимых,сообщений (код), нежеJШ произволъные сообщения, каждая буква которыхизвлечена из ансамбля Е.Тогда мы увидим, что Алиса и Боб мoryr найти такой код, чтобы маргнна_1ьным (частным) анса..,.блем каждой буквы был Е, а отнесенная к одпой букве дос·l)'Пная информация асимптотнчески стремилась к S(p) приn--+ оо. В этом смысJiе S(p) характеризует дос1упНУЮ информацию в ансамбле чистых квантовых состояний.lioлce того, заменой энтропии фон Неймана на информацню Холевоэти результаты обобщаются на ансамбли смешанных квантовых состояний.Доступная информаnня ансамбля смешанных состояний {Рх, Рх} удовлетворяет нсравенствуАсс( Е),:;х.(Е),(5.129)результат, известный как граница Холево.
Эта граница в общем случае неявляется точной (хотя она достигается для аясамблей взаимно орwгональных смешанных состояний). Однако если Алиса и lioб выбирают п-буквенный код, в котором частным ансамб~1ем для каждой буквы является Е, а Боб выполняет комективное оптнмалыюе обобщенное измерение(IIOЗM) всех n букв, тогда максимальной достижимой информацией на одну букву является х.(Е), если потребовать, чтобы все кодовые слова представляли собой произведения состояний. В этом смысле х.(Е) характеризуетдоступную информацию в ансамбле смешашtых- квантовых состояний.Алфавит из смешанных квантовых состояний может возни:кнуrъ, селиАписа попытается послать Бобу чистые квантовые состояния через квантоный канал с шумом. Вследствие декогерентизации в канале связи, Бобполучает смешанные состояния, которые он должен декодировать.
В :номс.l)'Чае х.( Е) характеризует максимаJiьное КОJШчество классической информации, которое может быть передано lioбy через кваН1овый юШЗ-1 с шумом.Нацример, А.Jшса может наслать Бобу n фотонов в определенных соС1uяниях поляризации. Если предположить, что шум действует на каждый5.4. ДОСТУПНАЯ ИНФОРМАЦИЯ251фотон независимо и что Алиса посылает фотоны 11 незапутанных состояниях, югда х( Е) - максимальное количество информации, которое можетбыть передано Бобу с каждым фотоном.
Посколькух(Е) "; S(p) "; 1,(5.130)отсюда, в частности, следует, что отдельный (нсзапутанпый) фотон можетпереносить, самое большее, один бит классической информации.5.4.1.Граница ХолевоГранш1а Холево для доступной информации не относится к разрядуочевидных теорем. но подобно многим интересным результатам квантвой теории информации, она становится очевидной, коль скоро установленасильная субаддитивность энтропии фон Неймана. Здесь мы nредположимнатrчке свойства сильной субаддитивности и nокажем, ч·ю отсюда следуетграница Холево.Напомним исходные данные: Алиса готовит квантовое состояние, извжкасмое из ансамбля Е= {Р.,Рх}, а затем Боб выполняет ПОЗМ {Fу}Совместным распределением вероятностей, управляющим нриrотов;rенисмАJшсы х и результатом Боба у является(5 131)Мы хотим показать, чтоI(X; У) ( х(Е).(5.132)Поскольку сильная субаддитивность является свойством трех подсистем, нам нужно определить три системы, к коrорым оно будет применяться.
Наша стратегия состоит в приготовлепии входящей системы Х) в которой хранится классическая запись тоrо, какое приmтовлсние было выбрано,и иыходящей системы У, классические корреляции которой с Х управляются совместным распределением р(х, у). Тогда, применяя свойство си.аьнойсубаддитиnности к Х, У и нашей квантовой системе Q, мы сможем связать l(X; У) с х(Е).Допустим, что начальным состоянием системы Х QY являетсяPxQY =I>xlx)(xl0 Рх@ IO)(OI,(5.133)хгде пекторы jx) - взаимно ортогональные чистые состояния входящей системы Х, а jO) - частное чистое состояние выходЯщей системы У. Вычис-252ГЛАВА5дяя частичные следы, мы видим, чтоРх =I>,lx)(xl->8(рх) = Н(Х),х(5.134)а так как векторыlx)взаимно ортоrона.пьны, мы также имеемххТеперь выношrим унитарное преобразование~ которое «отпечатывает»результат измерения Боба на выходящей системе У.
Предположим тюка,что Боб выполняет ортогональное измерение {Е }, где11(5.136)(вскоре мы кратко рассмотрим более общие ПОЗМ-ы). Наше унитарноепреобразование VQY действуст наQYVqy: l'f')q ®IO}y ~сошасноL Eyi'P)q ®iy}y(5.137)у(где векторыетPxqvIY)vвзаимно ортогональны) и, с.1едовательно, иреобразукакUqy: PXQY-> P'xqv ~LPxlx)(xi®E11 pxEy,®!y)(y'l.(5.138)х,у,у'Поскольку энтропия фон Неймана инвариантна относитеm.но унитарноrоизменения базиса, тохS(Pqv) ~ 8(р,2 у) = S(p),(5.139)2535.4.
/lОLТУПНАЯ ИНФОРМАЦИЯа вычисляя часшчный с.1ед уравнения(5.138) и нспо:п.зуя (5.136), мы находимР'пI>т. tr (EyPт.)lx)(xl @\y)(YI ==х,уLP(x,y)lx,y)(x,yl- S(p',:v) = П(Х, У).=(5.140)х,уОтсюда. очевищю. с;Iсдует~ чrор'у = LP(Y)iy)(yl -S(p'y) = Н(У).(5.141)уПрименим тепер1. свойство сильной суба!Щишвности в формеS(p'xqy) t- S(p'y) ( S(p'xy) ·! S(pqy ),(5.142)которая принимает ВИ/\Н (Х)+ L::>xs(px) +- Н(У) (Н(Х, У) 1 S(p)(5.143)хИJШ:::>то и сеть 1рапипа Холево.Одним из способов рассмотрения более общих ПОЗМ является расширение системы путем присоединения к ней еще одной подсистемымы конструируем унитарное прообразованиеVqyzi'P)q ® IO)y ® IO)z =U qy z,Z.Тшдадействующее какL /F.I'I')q ® IY)y ® IY)z,(5.145)утак ч·юP'xqy;-; =LPxlx)(xl ®/F.Px.jF: ® IY)(y'l ® IY)(y'l·(5.146)с,у,у'Тогда вычисление частичного слс11а поZдает(5.147)I)JABA 5254иР'ХУ ~ L:Px tr (FyPx)\x)(x\@ \у)(у\ ~х,у= L:p(x, у)\х, у)(х, у\ ---> S(p'xy) = II(X, У).(5.148)Оставшаяся часть доказательства проводится так же, как и выше.5.4.2.Улучшение различимости: меrоц Переса-ВутерсаЧтобы лучше познакомиться с концепцией доступпой информации,рассмотрим однокубитовый пример.
Алиса готовит одно из трех возможных чистых состояний:\'1'1)=1iп,) = ( t ),\'1'2) = 1iп,)=(1),(5.149)I'Рз) iп,) --~}=1= (объект со спином-1/2 орие11тирован в одном из трех ншiравлений. симметрично распределенных в хz-плоскости. Каждое состояние авероятностьpriori имеет1/3. Очевидно, что «сигнальные состояния» АJшсы не ортого~НВJlЬНЫ:(5.150)Задачей Боба является: выполняя подходящее измерение, как можнобольше узнать о том, что приготамена Алисой. Матрицей плотности ЮJсамбля Алисы является(5.151)энтропия юноройS(p) = 1.Сждовательно, граница Холево говорю нам,что взаимная информщия прнrотовления Аlшсы и результата измеренияБоба не может превышать одноrо бита.5.4.
ДОСТУПНАЯ ИНФОРМАЦИЯ255Хотя фактически доступная информация существенно меньше донуекаемого границей Хоnево одного бита. В этом едучае ансамбль Алисы достаточно симметричен, поэтому петрудно угадать оптимальное измерение.Боб может выбрать ПОЗМ с тремя результатами, гдеа=(5.152)1) 2,3;мы видим, чтоО,p(c.Jb) = ('PьiF.I'Pь) = { 12'а= Ь,-J.bат(5.153).Сдедовате.аьно, результат измерения: а исключает возможность того, чтоАлиса(рприготовила а.,· . 1/2) двухно оставдяет аposterioriравнымивероятности11руrих состояний. Полученная Бобом информация равна1~Н(Х)-H(XJY)-~log2 3- l = 0,58496.(5.154)Чmбы показатt~, что это измерение действите:Iьно оптимально, мы можемсослаться па вариант теоремы Дэвиса, которая гарантирует, что оптимальная ПОЗМ может быть выбрана с тремя F "' обра.1уюшими, как и три состояния входящего а>Iсамfiтя, семейство симметрии третьего норядка.