Главная » Просмотр файлов » М. Нильсен, И. Чанг - Квантовые вычисления и квантовая информация

М. Нильсен, И. Чанг - Квантовые вычисления и квантовая информация (1156771), страница 144

Файл №1156771 М. Нильсен, И. Чанг - Квантовые вычисления и квантовая информация (М. Нильсен, И. Чанг - Квантовые вычисления и квантовая информация) 144 страницаМ. Нильсен, И. Чанг - Квантовые вычисления и квантовая информация (1156771) страница 1442019-09-18СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 144)

608 Глава 10. Исправление квантовых ошибок Китаев [212, 213] предложил множество замечательных идей о том, как получить устойчивость к ошибкам с использованием топологическиз методов. Основная идея заключается в том, чтобы хранить информацию в топологии системы. Такая информация очень устойчива к шуму. Эти и многие другие красивые идеи были в дальнейшем развиты Бравым и Китаевым [57], а также Фридманом и Мейером [153]. Прескилл ]327] сделал очень хороший обзор по теме квантового исправления ошибок в целом, который включает замечательное описание топологического исправления ошибок, а также интригующие рассуждение о его связи е фундаментальными Вопросами черных дыр и квантовой гравитации. Многие группы установили различные пороговые значения для квантовых вычислений. Эти результаты получены при различных предположениях и приводят к существенно разным пороговым теоремам.

Пороговые теоремы Аароновой и Бен-Ора [1, 2], а также Китаева [214, 213] не требуют быстрых или надежных классических вычислений. Ааронова и Бен-Ор также показали, что для выполнения пороговой теоремы в каждый момент времени необходимо проведение параллельных вычислений [1]. При доказательстве пороговой теоремы Готтесман ]166] и Прескилл [330, 169] провели детальную оптимизацию пороговой величины.

Нилл, Лафлам и Зурек ]220, 221] доказали пороговую теорему для широкого класса моделей ошибки. Ааронова, Бен-Ор, Импальяццо и Нисан ]3] также показали, что для выполнения пороговой теоремы необходим постоянный расход свежих кубитов. Дальнейшие ссылки и исторические ма териалы могут быть найдены в перечисленных работах. В частности, каждая группа ссылается на работу Шора [356] об устойчивых к ошибкам квантовых вычислениях. Существует множество отличных обзоров квантовых вычислений, устойчивых к ошибкам, в которых основные идеи описываются гораздо более детально, чем мы, и с различных точек зрения.

В диссертация Аароновой [8] рассматриваются пороговая теорема и связанные с ней вопросы. Диссертация Готтесма на ]166] также содержит обзор устойчивых к ошибкам квантовых вычислений, причем особое внимание уделяется свойствам квантовых кодов и построению устойчивых к ошибкам конструкций для множества различных кодов. Нилл, Лафлам и Зурек сделали популярный обзор, посвященный пороговой теореме [220]. Прескилл написал две замечательные статьи [330, 328] о квантовом исправлении ошибок и об устойчивых к ошибкам квантовых вычислений. Глава 11 ЭНТРОПИЯ И ИНФОРМАЦИЯ Эишровил является ключевым понятием в квантовой теории информации, которое позволяет определить степень неопределенности в состоянии физической системы.

В настоящей главе мы рассмотрим основные определения и свойства энтропии в классической и квантовой теории информации. В главе встречаются разделы, содержащие подробные и довольно длинные математические доказательства. При первом чтении через эти разделы можно перескочить, возвращаясь к ним по мере необходимости.

11.1 Шенноновская энтропия Важнейшим понятием классической теории информации является шеинововская эив»ровил. Предположим, что нам стало известно значение случайной величины Х. Шенноновская энтропия Х является мерой количества информации, которое мы получаем, узнав значение Х. Можно также сказать, что энтропия Х является мерой иеовреда«еииос»ви величины Х до того, как нам стало известно ее значение. Эти две точки зрения дополняют друг друга; мы можем рассматривать энтропию как меру неопределенности до того как мы узнали значение Х, или как меру количества информации„которое мы получим яос«е того, как узнаем значение Х.

Интуитивно ясно, что энтропия случайной величины не должна зависеть от того, какие символы мы используем для описания множества значений, принимаемых случайной величиной. Например, ясно, что случайная величина, принимающая значения «орел» и «решка» (монета) с вероятностями 1/4 и 3/4, содержит то же самое количество информации, что и случайная величина принимающая значения О и 1 с вероятностями 1/4 и 3/4. По этой причине, энтропия случайной величины определяется как функция от вероятностей ее возможных значений и не зависит от выбора символов для описания этих значений.

Часто мы записываем энтропию как функцию распределения вероятностей рз,...,р„. Шеиноноескол энтропия этого распределения вероятностей определяется как Н(Х) ьэ Н(рм...,р„) ш — ~~> р 1ояр (11.1) Заметим,что в этом определении (также как и во всей книге) логарифм «1ой» берется по основанию два (тогда как 1п обозначает натуральный логарифм).

Этот выбор основания логарифма эквивалентен условию, что энтропия измеря- 39 квв аваев а ею~я 610 Глава 11. Энтропия и информация ется в «битахм Может возникнуть вопрос, что произойдет при р = О, поскольку 1ояО неопределен. Интуитивно понятно, что событие, которое никогда ие Вставка 11.1. Соотношение неопределенности с использованием энтропии Существует изящный способ переформулировать принцип неопределенности квантовой механики с помощью энтропии.

Напомним, что соотношение иеопределепиостей Гайзенберга (вставка 2.4) для стандартных отклонений Ь(С) и МР) наблюдаемых С и Р имеет вид (11.2) где ~«г) — состояние квантовой системы. Пусть С = 2 '«с)с)(с( и Р = 2 «НА(д~ — спектральные разложения С и Р. Определим /(С, Р) = шах«д ~(сф ! как максимальную степень совпадевия между собственными векторами операторов ~с) и р1). Например, для матриц Паули Х и Я мы имеем /(Х, Я) = 1/~/2.

Предположим, что квантовая система находится в состоянии ~ф). Пусть р(с) и р(п) — распределения вероятиостей результатов измерения С и Р, а Н(С) и Н(Р) — их энтропии. Соотношение неопределенности через энтропию имеет вид Н(С) + Н(Р) > 2)оя 1 (11.3) Доказательство этого результата довольно сложно (см. ссылки в рэзд. «История и дополнительная литератураэ), поэтому мы ограничимся доказательством более слабого неравенства (11.4) Н(С) + Н(Р) ) — 2 1ок Для доказательства заметим, что Н(С) + Н(Р) = — ~ р(с)р(д) 1ой(р(с)р(«()). (11.5) Оценим сверху величину р(с)р(Ы) = )(с)ф)(фф(~.

Пусть ф) — проекция ~ф) иа плоскость векторов )с) и (а), Л < 1 — норма вектора рР), д — угол между !с) и ф, а у — угол между рг) и ф, так что р(с)ря = ~(с/Ф)(4~фа = Лз сова (д — у) совз (у). Максимум этого выражения р(с)р(Н) = соэ«(д/2) достигается при Л = 1 и ~р = д/2, что можно записать в виде р(с)р(И) = (11.6) 11.1. Шенноновская энтропия 611 происходит, не дает вклада в энтропию, поэтому мы условимся, что 0 1ояО = О. Это равенство можно также получить, заметив, что 1пп, о х!о8 х = О. Почему энтропия определяется именно так? В упр. 11.2, предложенном далее в этом разделе, дается интуитивное подтверждение определения энтропии (11.1), основанное на «разумныхэ аксиомах, постулирующих свойства мер информации. Это интуитивное подтверждение достаточно убедительно, однако определение (11.1) имеет более глубокую мотивацию.

Дело в том, что энтропия, определенная таким образом, может быть использована для количественной оценки физических ресурсов, необходимых дяя хранения информации. Предположим, что имеется некоторый источник (скажем, радиоантенна), который выдаег инфорь1ацию, например, в виде последовательности битов.

Если Х— случайная величина, можно рассмотреть источник информации, который генерирует последовательность Хп Хэ,... независимых одинаково распределенных случайных величин. Хотя реальные источники информации не всегда можно описать таким образом, эта модель часто является хорошим приближением. Шеннон предложил следующую задачу: какие минимальные физические ресурсы необходимы для того, чтобы сохранять информацию, получаемую из такого источника, так, чтобы впоследствии можно было восстановить ее? Оказывается, что для хранения последовательности длины н требуется (в среднем) нН(Х) битов, где Н(Х) ээ Н(Х~) = Н(Хз) = ...— энтропия случайной величины Х, входящей в определение источника.

Этот результат известен как теорема Шеннона о кодировании дяя канала без шума Ее доказательство как для классического, так и для квантового случая приведено в гл. 12. Проиллюстрируем теорему Шеннона следующим примером. Пусть источник на каждом шаге генерирует один из символов 1, 2, 3 или 4. Если не пытаться сжать данные, можно просто отвести два бита памяти для хранения символа, полученного на каждом шаге.

Предположим теперь, что символы 1, 2, 3, 4 генерируются с вероятностями 1/2, 1/4, 1/8, 1/8 соответственно. Мы можем сжать полученные из источника данные, отводя меньшее число бит для запоминания наиболее часто встречающихся символов и используя ббльшее число бит для запоминания редко встречающихся символов. Один из вариантов сжатия выглядит так: символ 1 кодируется одним битом О, символ 2 кодируется битами 10, символ 3 кодируется битами 110, символ 4 кодируется битами 111. Если из источника была получена последовательность длины н, то после сжатия будем иметь строку бит средней длины з 1+ 4 ° 2+ е . 3+ з ° 3 = (7/4) ° н.

Заметим, что без сжатия мы имели бы строку длины 2н. Удивительно, что наш вариант сжатия согласуется с энтропией источника 612 Глава 11. Энтропия и информация Н(Х) = — 1/2 1о8 (1/2) — 1/4 1о8 (1/4) — 1/8 1о8 (1/8) — 1/8 1о8 (1/8) = 7/4! Оказывается, что любые попытки дальнейшего сжатия информации, полученной из источника, приведут к тому, что часть информации окажется безвозвратно утерянной, т.

Характеристики

Тип файла
DJVU-файл
Размер
11,78 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6390
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее