А.С. Холево - Введение в квантовую теорию информации, страница 12
Описание файла
PDF-файл из архива "А.С. Холево - Введение в квантовую теорию информации", который расположен в категории "". Всё это находится в предмете "квантовые вычисления" из 7 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 12 страницы из PDF
Например, двоичный оптическийквантовый канал может быть реализован следующим образом: если x = 0,то поле излучения находится в вакуумном состоянии; если x = 1, то лазергенерирует когерентное состояние. Роль квантовой степени свободы можеттакже играть поляризация или направление спина.Теперь рассмотрим передачу слова — последовательности букв w ={x1 , .
. . , xn }, которому сопоставляется состояние Sw :x1−→Sx1 .. ⊗ . ·w= . = Sw в H⊗n = H ⊗ · · · ⊗ H·⊗ .. −→ Sxn xnПредположение о том, что w кодируется в тензорное произведение состояний Sxj , соответствует определению канала без памяти в классическомслучае.(n)На выходе производится измерение некоторой наблюдаемой M = {Mwb }⊗nв пространстве H (получив исход измерения w,b считаем, что было послано w).b В итоге приемник выдает ответ о принятом решении; таким образом,разложение единицы в пространстве H⊗n описывает статистику всей решающей процедуры, которая включает в себя физическое измерение и последующую классическую обработку его результатов.
Выбор наблюдаемой Mформально аналогичен выбору решающей процедуры в классическом случае, но как мы увидим, играет здесь гораздо более важную роль. Послетого, как M выбрана, мы получаем классический канал pM (y|x) = Tr Sx My(n)в однобуквенном случае, и pM (n) (w|w)b= Tr Sw Mwb – в n-буквенном.Определим шенноновскую взаимную информацию между входом и выходом. Если есть априорное распределение вероятностей p на X и выбрана64Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫпроцедура измерения M на выходе, то шенноновская информация междувходом и выходом дается формулойihXX XI1 (p, M ) =pxpM (y|x) log pM (y|x) − logpM (y|z)pz ,xyzа максимальное количество информации, допустимое законами квантовоймеханики, равноmax I1 (p, M ) = C1 .p,MАналогично, если для n-й степени канала задано априорное распределениеp(n) на словах длины n и измерение M (n) в гильбертовом пространстве H⊗n ,то соответствующие информационные количества равныIn (p, M )hiX XX=pwpM (n) (w|w)blog pM (n) (w|w)b− logpM (n) (w|wb 0 )pw0 ,wmaxp(n) ,M (n)w0wbIn (p(n) , M (n) ) = Cn .Имеет место удивительный факт: если для классического канала без памяти всегда Cn = nC1 , то в квантовом случае уже для d = 2 (двоичный канал) возможно строгое неравенство Cn > nC1 (строгая супераддитивностьклассической информации в квантовом канале).
Причина этого в том, чтодля n-й степени квантового канала существуют коллективные (сцепленные)наблюдаемые, которые ни в каком смысле не сводятся к разделимым наблюдаемым, даже с последующей классической обработкой результатов ихизмерений.Можно сказать, что это есть двойственное проявление корреляций Эйнштейна–Подольского–Розена. Последние возникают, когда рассматривается сцепленное (т. е. неразделимое) состояние составной квантовой системы, а измерения разделимы. Строгая супераддитивность информации имеет местодля разделимых состояний и обусловлена существованием коллективных(сцепленных) измерений.Перейдем к формулировке теоремы кодирования, из которой, в частности, будет следовать свойство супераддитивности.О п р е д е л е н и е .
Кодом (W, M ) длины n и размера N называется наборслов W = {w(1) , . . . , w(N ) } вместе с разложением единицы M = {Mj } вH⊗n с исходами j = 0, 1, . . . , N ; исход 0 означает уклонение от принятиярешения.Средняя ошибка кода равнаP e (W, M ) =NN1 X1 X[1 − pM (j| w(j) ) ] =[1 − Tr Swj Mj ]| {z }N j=1N j=1вероятностьправильногорешения4.4. КВАНТОВАЯ ТЕОРЕМА КОДИРОВАНИЯ65Обозначим min P e (W, M ) = pe (n, N ) минимальную среднюю ошибку поW,Mвсем кодам размера N , использующим слова длины n.Обозначим( Ã!)XXCχ = max Hpx Sx −px H(Sx ) ,pxxгде H(S) – энтропия фон Неймана (4.26).Т е о р е м а 16 (Квантовая теорема кодирования6 ).
При n → ∞1) pe (n, 2nR ) → 0, если R < Cχ (прямая теорема);2) pe (n, 2nR ) 9 0, если R > Cχ (слабое обращение);(сильное обращение: pe (n, 2nR ) → 1, n → ∞).Эта теорема оправдывает название классическая пропускная способностьдля величины Cχ . В самом деле, определим C∞ как limn Cn /n, где Cn =max In (p, M ). Из классической теоремы кодирования (теорема 12) вытекает, что утверждение теоремы 16 выполняется с заменой Cχ на C∞ . Такимобразом, утверждение теоремы 16 состоит в том, что C∞ = Cχ .Если состояния Sx = |ψx ihψx | чистые, тоÃ!XCχ = max Hpx |ψx ihψx | .pxИз свойства 1) энтропии следует, что всегда Cχ ≤ log d. Таким образом,несмотря на то, что в унитарном пространстве имеется бесконечно многоразных чистых состояний, это обстоятельство не может быть использованодля передачи неограниченного количества информации.
Грубо говоря, чемгуще расположены векторы, тем труднее становится их различить. Верхняя граница и максимум информации достигаются, если выходные состояния являются ортогональными |ex ihex |, x = 1, . . . , d, и px = d1 . Заметим,что такие выходные состояния, как правило, не могут быть получены навыходе реального канала связи.
Замечательно, однако, что как показывает следующий пример, ортогональность выходных состояний не являетсянеобходимой для достижения пропускной способности идеального канала.Рассмотрим конфигурацию (4.22) из трех равновероятных “равноугольных” векторов ψ0 , ψ1 , ψ2 . Тогда2Xx=0px |ψx ihψx | =1I2и, как следует из теоремы кодирования, пропускная способность такого канала имеет то же максимальное значение Cχ = 1 бит, что и для ортогональных состояний. Заметим, что это достигается только благодаря использованию оптимального кода, включающего коллективное измерение.6 A.S. Holevo, The capacity of quantum channel with general signal states.
IEEE Trans.Inform. Theory, 1998, v. 44, N1, 269-273; Arxiv quant-ph/9611023, 1996, а также B.Schumacher, M. D. Westmoreland, Sending classical information via noisy quantum channel,Phys. Rev. A. 56, 131-138 1997.66Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫЗ а д а ч а 24. ВеличинаÃC1 = 1 − h1+√23/2!≈ 0, 645достигается для не-равномерного распределения p0 = p1 = 1/2, p2 = 0 исоответствующего оптимального измерения для двух равновероятных состояний (см. пример 1 в разделе 4.3).З а д а ч а 25. Рассмотрим двоичный квантовый канал с чистыми состояниями ψ0 , ψ1 . Докажите, чт1−εCχ = h,2а максимум информации по измерениям и априорным распределениям заодин шагmax I1 (p, M ) = C1p,Mдается формулой (4.25). В пределе слабого сигнала (ε → 1) выигрыш от использования сцепленности на выходе канала Cχ /C1 ∼ − log(1−ε) стремитсяк бесконечности.Эти примеры иллюстрируют феномен супераддитивности классическойинформации в квантовом канале связи.
Именно, из неравенства C1 < Cχследует свойство супераддитивности nC1 < Cn , для достаточно больших n.4.5Квантовая граница классическойинформациии доказательство обратной теоремыТ е о р е м а 17 (Квантовая граница классической информации).Для любогораспределения p и любой наблюдаемой M³X´ XI1 (p, M ) ≤ Hpx Sx −px H(Sx ),(4.32)причем имеет место строгое неравенство, если среди операторов pi Siесть некоммутирующие.З а д а ч а 26.
Если все операторы pi Si коммутируют, то равенство достигается для наблюдаемой M = {|ek ihek |}, где {ek } – о.н.б. из общих собственных векторов операторов pi Si .Первое, прямое доказательство этой теоремы7 , опирающееся на исследование свойств выпуклости квантовой энтропии, достаточно сложно, поэтому мы приведем здесь лишь его схему. Впоследствии Линдбладом было7 А. С.
Холево, Некоторые оценки для количества информации, передаваемого квантовым каналом связи. Пробл. передачи информ., 1973, т.9, N3, 3-11.4.5. КВАНТОВАЯ ГРАНИЦА ИНФОРМАЦИИ67установлено общее свойство монотонности относительной энтропии (доказательство которого, однако, не менее сложно, но более формально), изкоторого вытекает и неравенство (4.32), см. часть II.Доказательство (схема). Прежде всего докажем теорему в случае двухсостояний S0 , S1 . Обозначим St = (1 − t)S0 + tS1 ,χ(t) = H(St ) − (1 − t)H(S0 ) − tH(S1 ),t ∈ [0, 1].(4.33)Пусть M = {My } – произвольная наблюдаемая, Pt (y) = Tr St My = (1 −t)P0 (y) + tP1 (y) – ее распределение в состоянии St иJM (t) = I1 (p, M ),где p = {1 − t, t}.
Заметим, чтоχ(0) = χ(1) = 0;IM (0) = IM (1) = 0.Мы докажем, что функция χ(t) “более вогнута”, чем IM (t):χ(t)00 ≤ IM (t)00 ,t ∈ [0, 1].(4.34)Отсюда, очевидно, следуетχ(t) ≥ IM (t),t ∈ [0, 1].(4.35)Положим D = S1 − S0 и пустьSt =Xsk Ekk– спектральное разложение оператора St . Доказательство следующей леммы8 опирается на интегральную формулу Коши для матричных функций.Л е м м а 8.Xχ00 (t) = −(Tr Ek DEj D)f (sk , sj ), t > 0,(4.36)k,jгдеlog a − log b, a 6= b;a−bИспользуя элементарное неравенствоf (a, b) =f (a, b) ≥2,a+bf (a, a) = a−1 .(4.37)0 < a, b ≤ 1,в котором равенство достигается тогда и только тогда, когда a = b, получаемX2Tr Ek DEj D,(4.38)χ00 (t) ≤ −sk + sjk,j8 ibid.68Глава 4.