А.С. Холево - Введение в квантовую теорию информации (1156787), страница 11
Текст из файла (страница 11)
. .] + pM (j2 |i)[. . .] ≥2 M2≥pM (j1 |i) + pM (j2 |i)2½logX [. . .][. . .]− log22¾.и просуммируем по i. Теперь утверждение следует из выпуклости функцииf.Т е о р е м а 142 .Пусть дан набор квантовых состояний S1 , . . . Sm с определенными вероятностями π1 , . . . , πm , тогда существует наблюдаемая M 0 ,для которой max J {M } = J {M 0 } и такая, что ее компоненты — линейноMнезависимые операторы ранга 1, т.е. Mj0 = |ψj ihψj |j=1,...,n , а число компонент n ≤ d2 , где d = dim H. Если все операторы Sj имеют вещественныематрицы в некотором базисе, то n ≤ d(d + 1)/2.2 E. B.
Davies, “Information and quantum measurement,” IEEE Trans. Inform. Theory 24,no. 6, 596-599 (1978).4.2. ОПТИМАЛЬНОЕ РАЗЛИЧЕНИЕ КВАНТОВЫХ СОСТОЯНИЙ 59f0 — оптимальная наблюдаемая, Mf0 = {Mf0 ,..., Mf0 ,...}.Доказательство. Пусть M1jПоскольку ее компоненты — эрмитовы операторы, согласно спектральнойтеореме каждый из них можно разложить по ортонормированному базису собственных векторов, оставляя только компоненты с положительнымисобственными числами:XX√X√0≤X=xj |ej ihej | =xj |ej ihej | xj =|ψj ihψj |,√где |ψj i = xj |ej i.
Построим “разукрупненную"наблюдаемую M 0 = {|ψj ihψj |}j=1,...,n(можем считать все ψj различными после объединения одинаковых в однуf0 }.компоненту.) Пользуясь леммой 7 об укрупнении, имеем J {M 0 } ≥ J {M0Согласно лемме 6 и задаче 22, можно считать, что M крайняя точка,имеющая компоненты Mj0 = |ψej ihψej | (j = 1, . .
. , n). Отсюда по теореме6 следует, что операторы |ψj ihψj | линейно независимы. Но максимальноечисло линейно независимых эрмитовых операторов в d-мерном унитарномпространстве равно d2 (d(d + 1)/2 в вещественном случае).Явное решение возможно в случаях, когда есть некоторая симметрия.П р и м е р 1. Рассмотрим простейший случай — два вектора на плоскостиSj = |ψj ihψj |; j = 0, 1.Конфигурацию состояний полностью характеризует вещественный параметр ε = |hψ0 |ψ1 i|. Кроме того, имеется априорное распределение π0 , π1 .Согласно теореме, достаточно взять n = 3 (d = 2, вещественный случай.)Специальными рассуждениями можно показать, что на самом деле максимум достигается на ортонормированном базисе, оптимальном по максимумуправдоподобия (т.е.
минимуму средней ошибки), так что фактически n = 2(Левитин, 1994).Интересен симметричный случай, когда π0 = π1 = 1/2. В этом случаеÃmax J {M } = 1 − hM1+√1 − ε22!(4.25)и максимум информации достигается на базисе, расположенном симметрично по отношению к векторам ψ0 , ψ1 (рис. 4.2), оптимальном по критериюмаксимальногоправдоподобия.П р и м е р 2. Случай трех равновероятных “равноугольных” чистых состояний (4.23) с углами 2π/3e0ψ1между направлениями спинов. Согласно теореме,6AKm ≤ d(d + 1)/2 = 3. Используя симметрию задачи,Aможно доказать, что информационно-оптимальнаяAнаблюдаемая имеет вид Mk = 32 |ek ihek |k=0,1,2 , гдеAH-ψ0©ek ⊥ψk (см.
рис. 4.2.3; задача 23 ). Таким образом,e1©© ¢ HH e2она не совпадает с наблюдаемой, оптимальной по©¼Hj¢¢максимуму правдоподобия, для которой ek = ψk .¢®Более того, можно показать, что последняя являψ2ется наихудшей с точки зрения информационногоРис. 4.4: Информационный оптимум для3-хравноугольныхсостояний.60Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫкритерия.
Максимум информации по всевозможным наблюдаемым: max J {M } = log(3/2) ≈ 0.585,тогда какmaxMM -стандартныеJ (M ) ≈ 0.458.П р и м е р 3. Пусть имеется n чистых состояний с линейно независимыми векторами. “Естественное” предположение,что существует информационно-оптимальная наблюдаемая с m = n исходами, оказывается неверным. Это было показано в работе Шора3 ,который рассмотрел конфигурацию из трех равноугольных векторов втрехмерном вещественном пространстве. Согласно теореме 7, число исходов информационно-оптимальной наблюдаемой ограничено величинойd(d + 1)/2 = 6 и именно такое число исходов оказывается необходимым (хотя выигрыш по сравнению с тремя исходами настолько мал, что его труднозаметить при численной оптимизации).Однако, как показал Дэвис4 , если состояния получены действием неприводимого представления некоторой группы симметрий, то существует ковариантная информационно-оптимальная наблюдаемая с числом исходовm = n.
В случае трех равноугольных векторов на плоскости имеется вращательная симметрия, которая действует неприводимо над полем вещественных чисел (хотя, конечно, приводимо над полем комплексных чисел). Нов трех измерениях вращения вокруг оси приводимы даже над полем вещественных чисел, и упомянутый результат оказывается неприменим.4.3Сжатие квантовой информацииВыше уже было отмечено, что квантовая информация — это новый вид информации, который можно передавать, но нельзя размножать. Пусть имеется источник, производящий чистые состояния |ψ1 i, . .
. , |ψa i с вероятностями p1 , . . . , pa (аналог классического алфавита). Могут посылаться длинныепоследовательности букв (слова), т.е. каждое слово задается последовательностью w = (x1 , . . . , xn ), xj ∈ {1, . . . , a}.Источник посылает сигнал |ψw i = |ψx1 i⊗· · ·⊗|ψxn i с вероятностью pw =px1 · · · · · pxn . Кодирование – это сопоставление чистому состоянию |ψw ihψw |оператора плотности Sw в гильбертовом пространстве Hd ⊂ H⊗n . Проблемасостоит в том, чтобы кодирующие состояния не слишком сильно отличалисьот исходных, и в то же время находились в подпространстве по возможностиминимальной размерности. Точность воспроизведения исходных состоянийкодирующими измеряется величинойXpw hψw |Sw |ψw i;Fn =w3 P.
W. Shor, “On the number of elements needed in a POVM attaining the accessibleinformation,” Arxiv:quant-ph/0009077.4 E. B. Davies, Information and quantum measurement, IEEE Trans. Inform. Theory 24N6, pp. 596-599 1978.4.3. СЖАТИЕ КВАНТОВОЙ ИНФОРМАЦИИ61чем ближе она к единице, тем точнееP воспроизведение.Для оператора плотности S =sj |ej ihej | рассмотрим энтропию фонНеймана:XH(S) = −sj log sj = − Tr S log S.(4.26)jДалее нам понадобятся элементарные свойства квантовой энтропии:1) 0 ≤ H(S) ≤ log d, причем минимум достигается на чистых состояниях(и только на них), а максимум – на хаотическом состоянии S = I/d.2) H(U SU ∗ ) = H(S), где U унитарный оператор (сохранение энтропиипри обратимых преобразованиях).3) H(S1 ⊗ S2 ) = H(S1 ) + H(S2 ) (аддитивность).Следующий результат показывает, что, подобно энтропии Шеннона вклассическом случае, квантовая энтропия определяет максимальную степень сжатия квантовых данных, т.е.
количество квантовой информации.PaТ е о р е м а 155 .Обозначим S p = x=1 px |ψx ihψx |. Тогда1) Для любых ε, δ > 0 и для достаточно больших n существует подпространство Hd ⊂ H⊗n размерности d 6 2n(H(S p )+δ) и такие кодирующие состояния Sw в Hd , что Fn > 1 − ε;2) для любого подпространства Hd с d 6 2n(H(S p )−δ) и любого выбора Swв Hd имеет место Fn < ε для достаточно больших n.З а м е ч а н и е . Это утверждение раскрывает информационный смыслквантовой энтропии, подобно тому как идея сжатия данных раскрываласмысл классической энтропии. Для смеси чистых квантовых состоянийaXpx |ψx ihψx | = S px=1энтропия оператора плотности S p является мерой квантовой информации,содержащейся в ансамбле, поскольку 2nH(S p ) есть критическое значениеразмерности гильбертова пространства.
(Напомним классический результат: пусть имеется источник, посылающий символы 1, . . . , a с вероятностямиp1 , . . . , pa , тогда количество слов, асимптотическиPбезошибочно пересылаемых источником, есть N ∼ 2nH(p) , где H(p) = − x px log px ).Доказательство.1) В однобуквенном пространстве H рассмотрим спектральное разложение оператораXSp =λj |ej ihej |.(4.27)j5 R.Jozsa, B. Schumacher, “A new proof of the quantum noiseless coding theorem,” J.Modern Optics 41, no.
12, 2343-2349 1994.62Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫПусть J = (j1 , . . . , jn ), λJ = λj1 . . . λjn , |eJ i = |ej1 i ⊗ · · · ⊗ |ejn i, тогда спектральное разложение тензорной степени оператора S p имеет вид⊗nSp=XλJ |eJ iheJ |.JВыделим в множестве всевозможных значений J подмножествоnoJn,δ = J : 2−n(H(S p )+δ) < λJ < 2−n(H(S p )−δ) ,и обозначим E проектор на собственное подпространство, состоящее из векторов |eJ i, λJ ∈ Jn,δ . Подпространство EH⊗n называется типичным подпространством. Оценим его размерность:dim EH⊗n = Tr E 6 TrSπ2−n(H(S π )+δ)6 2n(H(S π )+δ) .(4.28)Возьмем подпространство Hd = EH⊗n , а кодирование зададим правиломE|ψw ihψw |ESw =.hψw |E|ψw iТогда точность воспроизведенияXXFn =pw hψw |Sw |ψw i =pw hψw |E|ψw iwwXX= Tr E(pw |ψw ihψw |) = Tr ESp⊗n =λJ .w(4.29)J∈Jn,δПусть λJ = {λj1 .
. . λjn } — классическое распределение вероятностей. Тогдасумма в правой части равна вероятностиP{2−n(H(S p )+δ)) < λJ < 2−n(H(S p )−δ)) } =n1Xlog λjk < H(S p ) + δ}= P{H(S p ) − δ < −nk=1¯¯n¯ 1X¯¯¯= P{¯−log λjk − H(S p )¯ < δ},(4.30)¯ n¯k=1Paгде E{− log λ(·) } = − x=1 λx log λx H(S p ).
Согласно закону больших чиселFn −→ 1 при n → ∞.2) Пусть Sw произвольные операторы плотности в произвольном подпространстве Hd размерности d, и пусть Pd проектор на Hd . Тогда Sw 6 PdиXX⊗npw hψw |Sw |ψw i 6 Tr Pdpw |ψw ihψw | = Tr Pd S pFn =w4.4. КВАНТОВАЯ ТЕОРЕМА КОДИРОВАНИЯ63Выберем теперь E как проектор на типичное подпространство, отвечающее ²/2, δ/2. Тогда правая часть оценивается как⊗n⊗n⊗n⊗nTr S p EPd + Tr S p (1 − E)Pd 6 Tr Pd kS p Ek + Tr S p (1 − E) 66 d2−n(H(S p )−δ/2) +εε6 2−nδ/2 + < ε22(4.31)для достаточно больших n.4.4Формулировка и обсуждениеквантовой теоремы кодированияТеорема Шеннона дает основу для введения такого понятия, как пропускная способность классического канала с шумом (максимальная скоростьасимптотически безошибочной передачи информации через канал). Простейшая модель квантового канала предполагает, что есть классический параметр x, пробегающий (конечный) входной алфавит и отображение x → Sxв квантовые состояния на выходе канала.