М. Нильсен, И. Чанг - Квантовые вычисления и квантовая информация (1156771), страница 119
Текст из файла (страница 119)
Глава 9 МЖРЫ РАЗЛИЧИЯ КВАНТОВОЙ ИНФОРМАЦИИ Что означает утверждение, что два набора информации похожир Что понимать под тем, что информация сохраняется в некотором процессер Эти вопросы являются цевтральиыми в теории обработки квантовой информации. В этой главе мы дадим количествевиые ответы иа иих, используя меры различия. Основываясь ва этих двух вопросах, мы рассмотрим два широких класса мер, различая статические и динамические меры. Статические меры определают, насколько близки два квантовых состояния, динамические — насколько сохраняется информация в некотором процессе.
Мы начнем со статических мер и затем используем их в качестве основы для разработки динамических. При введении мер различия как в классической, так и в квантовой механике существует определенный произвол. В теории кваитовых вычислений и квантовой ииформации, используется иесколько мер различия. В этой главе мы рассмотрим две иаиболее широко используемые из иих: следовую метрику и степень совпаденил. В большинстве случаев их свойства почти одинаковы, однако ииогда удобиее использовать какую-либо одну из вих.
9.1 Меры различия классической информации Поиск различий в распределениях вероятностей — скользкое дело. Кристофер Фукс Давайте начнем с интуитивно более понятных мер различия для классической виформации. Сравним строки битов, например, 00010 и 10011. Один из способов определения расстояния между ними — метрика Хэмминга, которая определяется как число разрядов, различающихся в двух строках. Строки 00010 и 10011 различаются только в первом и последнем разрядах, так что расстояиие между ними в метрике Хэммиига равио двум. К сожалению, метрика Хэммивга вводвтся только для дискретных состояний. В квантовой механике состояния непрерывны и эта метрика работать ие будет.
Лучше иачать изучение мер различия квантовой ивформации со сравнения классических распределений вероятностей. Источник классической информации обычно рассматривают как случайную величину, распределеивую в соответствии с некоторым алфавитом. Например, иеизвествый источник аиглий- 496 Глава 9. Меры различия квантовой информации 1 2~ (9.1) Эта величина называется также Ь1 метрикой, или метрикой Колмогорова. Мы предпочитаем термин «следовая метрика», потому что в квантовой механике аналогичная величина определяется через функцию следа. Она действительно является метрикой, так как симметрична (Р(х, у) = Р(у, х)) и удовлетворяет неравенству треугольника Р(х, х) < Р(х, у) + Р(у, «).
з пражнение 9.1. Найдите расстояние между распределениями вероятностей (1, О) и (1/2, 1/2) в следовой метрике; между распределениями (1/2, 1/3, 1/6) и (3/4, 1/8, 1/8) . э'пражнение 9.2. Покажите, что расстояние между распределениями вероятностей (р, 1 — р) и (4, 1 — д) в следовой метрике равно ~р — 4~. Другой мерой различия, которую мы введем, являетоя степень совпадения.
Степень совпадения распределений вероятностей р и д определяется как (9.2) Степень совпадения сильно отличается от следовой метрики. Прежде всего, она не является метрикой, так как для одинаковых распределений (р ) и (д,), имеем Е(р„дэ) = 2 р = 1. Позднее мы обсудим метрику, которую можно получить из степени совпадения. Геометрическая интерпретация степени совпадения дана на рис. 9.1.
Степень совпадения — это скалярное произведение векторов единичной длины с компонентами /рэ и /ою з пражнение 9.3. Найдите степень совпадения для распределениями вероятностей (1, О) и (1/2, 1/2); для распределений (1/2, 1/3, 1/6) и (3/4, 1/8, 1/8). Следовая метрика и степень совпадения позволяют определять расстояние между двумя распределениями вероятностей. Но имеют ли они физический смысл? Для следовой метрики физический смысл, действительно, существует. Легко доказать, что ского текста может быть представлен как последовательность случайных букв латинского алфавита. Перед тем, как прочитать текст, мы можем сделать векоторые предположения об относительной частоте различных букв и о корреляциях между ними, например, можно предположить, что в английском тексте сочетание 'йп' встречается гораздо чаще, чем 'эх'.
Возможность характеризовать информацию с помощью распределения вероятностей подталкивает нас к тому, чтобы провести сравнение разных распределений. Что означает утверждение, что два распределения вероятностей р и и с одним набором индексов х похожи друг на друга? Однозначный ответ на этот вопрос дать трудно, вместо этого мы определим две меры различия, каждая из которых широко используется при изучении квантовых вычислений и квантовой информации. Одной из этих мер является следовал метрика, которая определяется как 9.1.
Меры различия классической информации 497 Р(р„дх) = шах)р(Я) — д(8)) = шах ~~в р — ~ 9, . (9.3) хез хея Здесь максимум берется по всем подмножествам Я набора индексов х. Величина под знаком максимума †разнос вероятностей события Я, соответствующих первому и второму распределениям.
При максимизации находится событие Я, для которого сильнее всего различаются рассматриваемые распределения вероятностей, а следовая метрика показывает величину этого различия. К сожалению, для степени совпадения нет такой простой интерпретации. Однако мы будем изучать степень совпадения, так как она полезна для различных математических целей. Не исключено, что ее физический смысл будет найден в будущем. Кроме того, существует тесная связь между степенью совпадения и следовой метрикой, и свойства одной из этих величин часто можно получить из свойств другой. Рис. 9.1. Геометрическая интерпретация степени совпадения как скалярного произведения векторов,/рх хи Я~ единичной длины (1 = 1: (т/рхх)з = Я ( /Ох)з) Упражнение 9.4. Докажите соотношение (9.3).
Упражнение 9.5. Покажите, что в формуле (9.3) можно убрать знак модуля, т. еч что Р(р, д ) = шах )р(Я) — д(Я)! = шах ( ~ р — ~ ~г) ~) . (9.4) ~вез хез / Следовая метрика и степень совпадения — статические меры различия. С их помощью можно определять расстояние между двумя постоянными распределениями вероятностей. Существует третья мера различия, которал является динамической, т. е. она позволяет определить, насколько меняется информация в некотором физическом процессе.
Предположим, что некоторая случайная величина Х передается по каналу с шумом. В канале происходит марковский процесс Х вЂ” г )г и на выходе получается другая случайная величина У. 32 К ч е мв е 498 Глава 9. Меры различия квантовой информации Для удобства предположим, что возможные значения величин Х и У одинако- вы и мы будем обозначать их через х. Тогда вероятность того, что величина У не равна Х, р(Х ф У), и будет очевидной мерой того, насколько информация сохраняется в зтом процессе.
Рис. 9.2. Можно сделать копию Х величины Х, перед тем, как она под действием шума перейдет в у в марковсном процессе. Эта динамическая мера различия может рассматриваться как специальный случай статической следовой метрики. Предположим, что перед передачей по каналу с шумом случайной величины Х мы делаем ее копию Х = Х. После передачи получаем случайную величину У, как показано на рис. 9.2. Насколько близка исходная, идеально коррелированнал пара (Х, Х) к полученной (Х, У)? Используя следовую метрику, находим: 11((Х,Х),(Х,У)) = — ~~ ~6 р(Х = х) — р(Х = х,У = х')~ 1 р(Х = х, У = х') 2 еФа' + — ~~~ ~р(Х = х) — р(Х = х, У = х) ~ р(Х =х,У =х') + — ~ (р(Х =х) — р(Х =х,У =х)) р(Х ~ У)+1 — р(Х = У) 2 р(Х + У) + р(Х ~ У) 2 ьк р(Х ~У).
(9.5) (9.6) (9.7) (9.8) (9.9) (9.10) Таким образом, как показано на рис. 9.3, вероятность ошибки в канале равна расстоянию между распределениями вероятностей (Х, Х) и (Х, У) в следовой метрике. Это важное утверждение будет основой аналогичного утверждения для квантовой информации. Его необходимо использовать, так как в 9.2. Насколько близки два квантовых состояния? 499 квантовой механике не существует прямого аналога вероятности р(Х ф У). Мы ие можем говорить о совместном распределении вероятностей величин Х н У, так как они не суцестпе(дота одноерслсеппо.
Вместо этого, мы определим динамическую меру для квантовой информации способом, похожим на только что описанный, учитывая, что в квантовом процессе важно сохранение не классической корреляции, а квантовой запутанности состояний. Ря ее Ю =)'исстояниес Рис. 9.3. Вероятность оюибки в канале равна расстоянию между распределениями, вероятностей (Х, Х) и (Х, У) в следовой метрике Х ь У. 9.2.1 Следовая метрика Начнем с определения следовой лаетрихи для квантовых состояний р и о 1 Ю(р, о) гн — сг )р — о(, 2 (9.11) где, как обычно, ~А~ ьи т/А~А. Заметим, что квантовая следовая метрика является обобщением классической, т.
е., если состояния р и о коммутируют, то в квантовой следовой метрике расстояние между ними равно расстоянию между их собственными значениями в классической следовой метрике. Действительно, если р и о коммутируют, то существует некоторый ортонормированный базис ~а), в котором они диагональны: 9.2 Насколько близки два квантовых состояния? Насколько блвяхи деа хеаппаоемх состояния? Ниже мы опишем квантовые обобщения классических понятий следовой метрики и степени совпадения и детально обсудим свойства этих величин. 500 Глава 9. Меры различия квантовой информации Тогда 1 Р(р, а) = — Фг ~~ (т; — еп)!1)(1! 2 — Р(то еи). (9.13) (9.14) л пражнение 9.6. Найдите расстояние между матрицами плотности в следовой метрике -!0>(0! + -!1>(1! и -!0>(0! + -!1?(1! 3 1 2 1 4 4 3 3 (9.15) между матрицами плотности — !0)(0!+ — !1)(1! и ->+)(+!+ -!-)( — !, 3 2 1 4 4 3 3 (9.16) где !х) ш (>О) х /1))/ъГ2 Лучше понять следовую метрику можно на примере одного кубита, представленного с помощью сферы Блоха.