По
оценке известного американского физика Джона Арчибальда Уилера (John
Archibald Wheeler, 1911- 2008), примерно одна треть ВВП США
непосредственно основана на достижениях квантовой механики. Это и не
удивительно, если учесть, что на этой науке построена практически вся
электроника, нанотехнологии, лазерные технологии, атомная
промышленность, новые химические материалы и препараты и т.п. Успешное
развитие указанных отраслей невозможно без проведения подробных расчетов
квантовых систем, таких как наноструктуры, сложные химические и
биологические молекулы, новые лекарства и т.п. Однако, несмотря на
впечатляющие успехи в изучении фундаментальных законов природы,
полномасштабное моделирование сложноорганизованных квантовых систем все
еще остается практически неосуществимой задачей.
Исторический
анализ показывает, что информационные технологии (ИТ) растут
экспоненциально быстро. В целом, развитие ИТ следует так называемому
закону Мура, который основан на эмпирических наблюдениях, сделанных
сотрудником Intel Гордоном Муром (Gordon Earle Moore) еще на заре
интегральной микроэлектроники в 1965 году. Проанализировав развитие
микроэлектроники в течение нескольких первых лет с момента ее рождения,
Мур представил прогноз, согласно которому число транзисторов в
микросхеме будет удваиваться примерно каждые 2 года. Тенденции,
описываемые законом Мура, смогут продолжаться и после 2020 года, если на
смену имеющимся технологиям придут новые технологии, такие как
оптические, молекулярные и квантовые компьютеры.
Квантовые
задачи, за исключением простейших, являются алгоритмически очень
сложными (практически неосуществимыми) для вычислений на классическом
компьютере. Проиллюстрируем сказанное примером. Для полномасштабного
моделирования квантовых свойств атома железа нужно рассматривать
движение всех его 26 электронов в трёхмерном пространстве, что приводит к
необходимости решать уравнение Шредингера в конфигурационном
пространстве размерности 26 · 3 = 78 (и это без учёта спинов электронов,
которые делают динамику ещё более сложной). Если взять весьма грубую
сетку, которая делит каждую координату всего на 10 частей, то
понадобится 1078 узлов для реализации соответствующей разностной схемы.
Такого рода моделирование, однако, никогда не сможет быть осуществлено,
хотя бы потому, что полное число элементарных частиц во Вселенной, таких
как протоны и нейтроны, также «всего» порядка 1078. Таким образом, для
моделирования всего одного и далеко не самого сложного атома требуется
ресурс, который превышает механический ресурс всей Вселенной.
Из
этих, давно известных и, на первый взгляд, негативных наблюдений
Р.Ф.Фейнман (Richard Phillips Feynman) в 1982 г. сумел сделать
позитивный вывод: раз природа с успехом решает эти задачи, то, может
быть, и мы могли бы использовать квантовые системы в качестве некоторой
новой элементной базы для вычислений. Компьютеры, основанные на
квантовых логических элементах, могли бы быть намного более мощными по
сравнению со своими классическими собратьями. Интересно, что за два года
до Фейнмана, в 1980 г., похожие идеи выдвигал российский математик Юрий
Манин в своей небольшой, но очень содержательной книге «Вычислимое и
невычислимое».
Основным элементом квантового компьютера является
квантовый бит (кубит), представляющий собой двухуровневую квантовую
систему. В качестве кубитов могут выступать ионы, атомы, электроны,
фотоны, спины атомных ядер, структуры из сверхпроводников и многие
другие физические системы. Квантовое состояние кубита представляет собой
суперпозицию базисных состояний физической системы. Основным ресурсом
квантовых вычислений служит явление запутанности, которое не имеет
аналога в классической физике. Явление квантовой запутанности приводит к
тому, что квантовое состояние многокубитовой системы не сводится к
описанию состояний отдельных кубитов, ее составляющих. Каждый отдельный
кубит, входящий в состав квантового регистра, теряет свою
индивидуальность, становясь частью единого целого.
Любое
квантовое вычисление может быть выполнено с помощью универсального
набора одно- и двухкубитовых элементарных операций. Преимущества этих
компьютеров – в распараллеливании, которое присуще процессам в квантовой
механике. Согласно законам квантовой механики, получается, что природа
одновременно «прощупывает» большое число альтернатив. В настоящее время
предложены и активно развиваются различные варианты квантовых
компьютеров: на ионах в ловушках, на ядерных спинах, на квантовых
точках, на зарядовых и потоковых состояниях в сверхпроводниковых
структурах, на поляризационной степени свободы фотонов и др.
Основное
препятствие на пути создания квантовых компьютеров – явление
декогерентизации, обусловленное неконтролируемым взаимодействием
квантовой системы с окружением. Удобным инструментом для оценки качества
и эффективности квантовых информационных технологий может служить
квантовая томография.
Основное достижение проведённых до сих пор
исследований состоит в практически доказанной справедливости физических
принципов, лежащих в основе идеи квантовых вычислений. Основные
препятствия на пути реализации концепции полномасштабных квантовых
компьютеров состоят в недостаточном уровне развития технологии
изготовления квантовых регистров, в трудностях измерения и контроля
квантовых состояний квантового регистра и необходимой степени подавления
декогерентизации.
Достигнутая, в настоящее время, в
экспериментах точность реализации, характеризуемая вероятностью
совпадения F между теоретическим и экспериментальным квантовыми
состояниями, составляет всего 60...80 %, в то время как требуемая
точность должна быть 99.99 % и более.
Наиболее узкое место в
развитии квантовых информационных технологий связано с отсутствием
должной методологии контроля квантовых состояний и процессов. Такая,
основанная на квантовых измерениях методология, призвана обеспечить
интерфейс между разработкой элементной базы квантовых компьютеров и её
практическим воплощением.
Средством контроля квантовых состояний
и процессов служит квантовая томография, основанная на статистическом
восстановлении квантовых состояний по результатам взаимно-дополнительных
измерений (в соответствии с принципом дополнительности Нильса Бора). В
настоящее время квантовая томография является необходимым инструментом,
позволяющим адекватно оценить качество процедур, связанных с
приготовлением и преобразованием квантовых состояний.
Среди
возможных методов статистического восстановления квантовых состояний и
процессов наибольшее значение имеют те, которые имеют точность, близкую к
фундаментальному пределу в задачах высокой размерности. Именно такой
подход обеспечивает универсальный метод томографии квантовых состояний,
разработанный в Физико-технологическом институте РАН в тесном
сотрудничестве с МГУ им. М.В. Ломоносова. Предложенное универсальное
статистическое распределение для степени согласия между теоретическим и
восстановленным квантовыми состояниями, позволяет осуществлять полный
анализ точности квантовой томографии для протоколов измерений и
состояний самого общего вида. Разработанный подход, основанный на
анализе адекватности, полноты и точности квантовых измерений, очень
важен для эксперимента. Он позволяет экспериментатору наилучшим образом
распорядиться имеющимися ресурсами для оптимизации квантовых
информационных технологий.
Эффективность предложенного подхода
недавно была продемонстрирована в работах, выполненных
Физико-технологическим институтом РАН совместно с группой профессора
С.П. Кулика из МГУ им М.В. Ломоносова и группой доктора Марко Дженовезе
(Marco Genovese) из INRIM (Италия). В последнее время в качестве
возможного подхода для создания элементной базы квантовых компьютеров
активно исследуются топологические изоляторы.
Интерес к
топологическим изоляторам значительно усилился в связи с предсказанием
существования в этих материалах квазичастиц, подчиняющихся неабелевой
статистике и обеспечивающих реализацию устойчивой к ошибкам
(fault-tolerant) элементной базы квантовых компьютеров. Роль таких
частиц могут играть образующиеся на границе топологического изолятора и
сверхпроводника так наз. майорановские фермионы, ранее в природе не
обнаруженные. По-видимому, топологический квантовый компьютер, на
сегодняшний день, – одно из наиболее перспективных направлений решения
проблемы реализации квантовых алгоритмов вычислений, устойчивых к
декогерентизации и ошибкам. Новые компьютеры помогут решить важные
задачи, связанные с моделированием очень сложных процессов, поэтому
через 100 лет их изобретение будут сравнивать с открытием огня.
По
мнению главного научного сотрудника Лаборатории рентгеновской оптики
ФИАН, д.ф-м.н Александра Виноградова, идея квантовых компьютеров крайне
привлекательна, поскольку обещает качественный скачок производительности
вычислений. Однако, несмотря на то, что эта идея была высказана 30 лет
назад, работающие квантовые компьютеры пока не появились. Нет также и
прогнозов их создания в обозримые сроки. Тем не менее, работы (в
основном теоретические) в этой области ведутся, и обсуждаются на многих
научных конференциях. Квантовые компьютеры затрагивают фундаментальные
основы квантовой механики, логическая завершённость которой до сих пор
не является общепризнанной.
Источник: CyberSecurity |