Главная » Все файлы » Просмотр файлов из архивов » PDF-файлы » А.С. Холево - Введение в квантовую теорию информации

А.С. Холево - Введение в квантовую теорию информации, страница 13

Описание файла

PDF-файл из архива "А.С. Холево - Введение в квантовую теорию информации", который расположен в категории "книги и методические указания". Всё это находится в предмете "квантовые вычисления" из седьмого семестра, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст 13 страницы из PDF

КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫпричем равенство достигается тогда и только тогда, когда Tr Ek DEj D = 0для k 6= j. Но последнее эквивалентно тому, что [D, St ] = 0, т.е. [S0 , S1 ] = 0,в силу тождестваXTr[D, St ]∗ [D, St ] =(sk − sj )2 Tr Ek DEj D.k,jЗ а д а ч а 27. Покажите, что операторLt =XEk DEjk,j2sk + sjявляется решением уравненияSt ◦ Lt ≡причемXk,jTr Ek DEj D1[St Lt + Lt St ] = D,22= Tr DLt = Tr St L2t .sk + sj(4.39)Оператор Lt является некоммутативным аналогом логарифмической производной семейства St , а (4.39)– аналогом информационного количестваФишера в математической статистике.Из (4.38), (4.39) вытекает, чтоχ00 (t) ≤ − Tr St L2t ,(4.40)причем равенство достигается тогда и только тогда, когда [S0 , S1 ] = 0. Вчастности χ00 (t) ≤ 0, так что χ(t) – вогнутая функция на отрезке [0, 1].Пусть теперь M = {My } – произвольная наблюдаемая, Pt (y) = Tr St My =(1 − t)P0 (y) + tP1 (y) – ее распределение в состоянии St .

Положим такжеD(y) = P1 (y) − P0 (y) = Tr DMy . Применяя полученные результаты к диагональной матрице diag[Pt (y)] в роли состояния St и учитывая коммутативность диагональных матриц, получаем вместо (4.40)00IM(t) = −X D(y)2yPt (y).Доказательство неравенства (4.34). ИмеемppD(y) = Tr My St ◦ Lt Mypp= < Tr My St Lt Myp p pp= < Tr My St St Lt My= < Tr A∗ B,p√ p√где A = St My , B = St Lt My . В силу неравенства| Tr A∗ B|2 ≤ Tr A∗ A Tr B ∗ B,(4.41)4.5.

КВАНТОВАЯ ГРАНИЦА ИНФОРМАЦИИ69получаем D(y) ≤ Tr St My · Tr Lt St Lt My . Подставляя в (4.41), имеем00IM(t) ≥ −XTr Lt St Lt My = Tr St L2t ≥ χ00 (t),yпричем при [S0 , S1 ] 6= 0 имеет место строгое неравенство.Это доказывает утверждение теоремы для случая двух состояний. Случай нескольких состояний Sx ; x = 0, 1, . . . , k, сводится к случаю двух состояний путем представления их выпуклой комбинации с распределениемp = {px ; x = 0, 1, . . . , k} в виде последовательности попарных выпуклыхкомбинаций9 . ¤Теперь докажем слабое обращение теоремы кодирования, используя классическое неравенство Фано и квантовую границу информации. ВозьмемN = 2N R , R > Cχ , и рассмотрим произвольный набор кодовых слов W ={w(1) ,..., w(N ) } на входе, а на выходе — произвольное разложение единицыM = {Mj ; j = 0, 1, .

. . , N }. Рассмотрим классическую случайную величину X со значениями 1, . . . , N (номер посланного слова), которые имеютравные вероятности 1/N. На выходе после измерения получим классическую случайную величину Y со значениями 0, 1, . . . , N. Взаимная информация равна I(X; Y ) = H(X) − H(X|Y ), где H(X) = log N = nR – энтропия равномерного распределения. Условная энтропия оценивается с помощью неравенства Фано: H(X| Y ) ≤ 1 + P(X 6= Y ) log N . Таким образом,max I(X, Y ) ≥ nR(1−pe (n, 2nR ))−1 (это повторение доказательства слабогообращения классической теоремы Шеннона).Из (4.32) вытекает неравенство" Ã!#XXI(X; Y ) ≤ max Hp w Sw ) −pw H(Sw )= Cχ(n) .pww(n)(n)аддитивна: CχЛ е м м а 9.

Последовательность Cχ= nCχ .Доказательство. Достаточно рассмотреть случай n = 2, когда H =H1 ⊗ H2 , i → Si1 , j → Sj2 . Надо доказать, чтоmax H pijXpij Si1 ⊗ Sj2  −Xijijpij H(Si1 ⊗ Sj2 ) = max[ ] + max[ ].12pipjОчевидно, что max ≥ max , тогда в силу свойства аддитивности квантоpijpij =pi pjвой энтропииÃ!XXXXHp1i Si1 ⊗p2j Sj2  = Hp1i Si1 + H p2j Sj2  ,i9 ibid.jij70Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫ(n)откуда Cχ ≥ nCχ .Обратное неравенство вытекает из свойства субаддитивностиквантовой энтропии (см. п.

7.2), из которого вытекает³X´³X´³X´Hpij Si1 ⊗ Sj2 ≤ Hp1i Si1 + Hp2i Si2 ,где p1i =Pjpij , p2j =Pipij – маргинальные распределения.¤Окончательно, nCχ ≥ nR[1 − pe (n, 2nR )] − 1, т.е. pe (n, 2nR ) ≥ 1 − Cχ /R −1/nR, и если R > Cχ , то не может быть pe (n, 2nR ) → 0 при n → ∞. Этозавершает доказательство слабого обращения. ¤4.6Доказательство прямой теоремыдля канала с чистыми состояниямиДоказательство прямого утверждения теоремы кодирования дадим в простейшем случае чистых состояний Sx = |ψx ihψx |10 , когдаÃ!XCχ = max Hpx Sx .pxДоказательство нетривиально уже в этом случае, тогда как классическийаналог этой проблемы тривиален, поскольку чистые состояния с необходимостью ортогональны.

Доказательство. Пусть R < Cχ . Докажем, чтоpe (n, 2nR ) → 0. Рассмотрим среднюю вероятность ошибки кодаN´1 X³1 − hψw(j) |Mj ψw(j) i = P e (W, M ),N j=1которая зависит от выбора слов W и наблюдаемой M. Для ее минимизации желательно выбрать Mj как можно ближе к |ψw(j) ihψw(j) |, при этомразмерность подпространства, в котором действуют Mj , должна быть повозможности минимальной.С этой целью произведем сжатие квантовых данных, следуя процедуре,описанной в разделе 4.3.

Рассмотрим оператор плотностиaXpx |ψx ihψx | = S p ,x=1в которомP распределение p выбрано так, что оно максимизирует энтропию,т.е. H ( x px Sx ) = Cχ . Фиксируем ε, положим 2δ = Cχ − R > 0 и обозначим E проектор на типичное подпространство Hn,δ = EH⊗n оператора⊗nплотности S p .10 P. Hausladen, R. Jozsa, B. Schumacher, M. Westmoreland, W. Wootters, “Classicalinformation capacity of a quantum channel,” Phys.

Rev. A 54, no. 3, 1869-1876 1996.4.6. ДОКАЗАТЕЛЬСТВО ПРЯМОЙ ТЕОРЕМЫПоложими пусть G =71|ψew(j) i = E|ψw(j) i ∈ Hn,δ(4.42)NP|ψew(j) ihψew(j) | — оператор Грама системы (4.42). Операторj=1Грама всегда можно обратить на подпространстве Hn,δ . Обозначим G−1/2корень из обобщенного обратного к G, равного 0 на ортогональном дополнении к Hn,δ .

Для данного набора кодовых слов W введем наблюдаемуюM , обобщающую “square-root measurement” (1.18):M0 = I − E,Mj = G−1/2 |ψew(j) ihψew(j) |G−1/2 ,j = 1, . . . , N.Тогда средняя ошибка кода (W, M ) равнаP e (W ; M ) =N1 X(1 − |hψew(j) |G−1/2 |ψew(j) i|2 ).N j=1Используя неравенство 1 − α2 = (1 − α)(1 + α) ≤ 2(1 − α), получимP e (W ; M ) ≤=N2 X(1 − hψew(j) |G−1/2 |ψew(j) i)N j=1N1 X(2 Tr Sw(j) − 2 Tr Sw(j) G−1/2 ).N j=1(4.43)Получим теперь удобную оценку для G−1/2 . Имеем−2x−1/2 ≤ −3 + x,Отсюда следует, чтоx ≥ 0.−2G−1/2 ≤ −3E + G.Подставляя в (4.43), получаемP e (W ; M ) ≤N1 X(2 Tr Sw(j) − 3 Tr Sw(j) E + Tr Sw(j) G).N j=1Учитывая, чтоG=ENXSw(j) Ej=1иTr Sw(j) E = Tr ESw(j) E ≥ Tr[ESw(j) E]2 ,получаем окончательную оценкуP e (W ; M ) ≤NX1 XTr ESw(j) ESw(k) E].[2 Tr Sw(j) (I − E) +N j=1k6=j(4.44)72Глава 4.

КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫТеперь применим метод случайных кодов. Надо доказать существованиекода, для которого вероятность ошибки стремится к нулю. Идея состоит втом, чтобы рассмотреть случайное распределение на всевозможных словах,тогда минимальная ошибка оценивается сверху средним по ансамблю случайных слов.Пусть слова w(1) , . . .

, w(N ) — независимы, и каждое из них имеет распределениеP (w = (i1 , . . . , in )) = pi1 · . . . · pin(буквы берутся также независимо с одинаковым распределением p на алфавите). Усреднение по такому случайному ансамблю слов будет обозначаться¿À. Отметим, что⊗n¿ Sw(j) À=¿ |ψw(j) ihψw(j) | À= S p .Тогда, используя одинаковую распределенность, а также независимость словw(j) , w(k) , получаем⊗n⊗n¿ P e (W, M ) À≤ 2 Tr S p (I − E) + (N − 1) Tr(ES p E)2⊗n⊗n≤ 2 Tr S p (I − E) + (N − 1)kS p Ek.Согласно свойствам типичного подпространства, для достаточно большихn⊗n⊗nTr S p (I − E) ≤ ², kS p Ek ≤ 2−n(Cχ −δ) .Так как N = 2nR ≤ 2n(Cχ −2δ) , и абсолютный минимум не превосходитсреднего по ансамблю, тоpe (n, 2nR ) ≤¿ P e (W, M ) À≤ 2² + 2−nδ ≤ 3²для достаточно больших n.

Итак, pe (n, 2nR ) → 0 при R < Cχ . ¤ПРИЛОЖЕНИЕОператоры в конечномерномгильбертовом пространствеЕсли A – оператор в H, то A∗ обозначает оператор, сопряженный к A ,который определяется равенствомhφ|A∗ ψi = hAφ|ψi φ, ψ ∈ H.(4.45)Оператор A называется эрмитовым, если A = A∗ . (Ортогональным) проектором называется эрмитов оператор P , такой, что P 2 = P . Областьюзначений проектора P является подпространствоL = {ψ : P |ψi = |ψi}.Если kψk = 1, то оператор |ψihψ| является проектором на единичный вектор|ψi.P Более обще, для любой ортонормированной системы {ei }i∈I , операторi∈I |ei ihei | = P является проектором на подпространство, порожденноесистемой {ei }i∈I .Унитарным называется оператор U , такой что U ∗ U = I; в конечномерном случае это равенство влечет U U ∗ = I.

Частичной изометриейназывается оператор U такой, что U ∗ U = P является проектором; в этомслучае U U ∗ = Q также есть проектор. Оператор U отображает область значений P на область значений Q изометрично, то есть сохраняя скалярноепроизведение и нормы векторов.Т е о р е м а 18[Спектральное разложение]Для любого эрмитова оператора A существует ортонормированный базис из собственных векторов, которым отвечают вещественные собственные значения ai , так чтоA=dXai |ei ihei |.(4.46)i=1Другая полезная форма спектрального разложения получается, еслирассмотреть различные собственные значения {a} и соответствующие имспектральные проекторыXEa =|ei ihei |.i:ai =a7374Глава 4.

КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫНабор различных собственных значений spec(A) = {a} называется спектром оператора A. В этих обозначенияхXA=aEa .(4.47)a∈spec(A)Такое представление единственно с точностью до порядка перечислениясобственных значений. Набор проекторов {Ea } образует ортогональное разложение единицы:XEa Ea0 = δaa0 Ea ,Ea = I.(4.48)a∈spec(A)Гильбертово пространство H разлагается в прямую ортогональную суммуобластей значений проекторов {Ea }, на которых A действует как умножениена число a.Эрмитов оператор A называется положительным, A ≥ 0, если hψ|Aψi ≥0 для любого ψ ∈ H.

Свежие статьи
Популярно сейчас