Ідея створення квантового комп’ютера з’явилася ще на початку 1980-х. Річ у тім, що звичайні комп’ютери (з кремнієвим процесором) не могли обчислювати деякі фізичні системи. Наприклад, для точнішого тестування лікарських препаратів потрібно було проводити обчислення з великими молекулами. Вчені замислилися, чи можуть вони використовувати для таких складних дій не звичну двійкову логіку (0 — ні, 1 — так), а принципи квантової механіки, які дозволяють одночасно оперувати ймовірностями комбінацій станів.
Одиницями обчислень у квантових комп’ютерах є не біти, а кубіти — одиниці інформації, що можуть з певною ймовірністю приймати значення або 0 або 1 одночасно. Таке накладання називають квантовою суперпозицією. Якщо таких кубітів кілька — то в суперпозиції можуть бути й усі можливі комбінації їх двійкових значень.
Більше про принцип роботи квантових комп’ютерів можна дізнатися тут.
Хоча більшість спеціалістів вважають, що квантові комп’ютери допоможуть людству з викликами ХХІ століття, наразі їхнє використання обмежене розв’язанням задач, які не мають практичного значення, зокрема через невелику потужність наявних процесорів. Але галузь активно розвивається, у неї вкладають великі кошти, а технологічні гіганти, як-от Google та IBM, змагаються за досягнення квантової переваги, тобто намагаються довести, що квантові комп’ютери працюють краще за звичайні.
Один з останніх проривів — новий квантовий процесор Osprey1 від IBM з 433 кубітами. Разом з молодшим віцепрезидентом з технологій у SoftServe Миколою Максименком «Куншт» з’ясовував, як вдосконалення квантових комп’ютерів наближає нас до відповіді на питання життя, Всесвіту і взагалі.
9 листопада компанія IBM представила квантовий процесор Osprey з 433 кубітами. Чому це важливо та які нові можливості відкриває потужність нового процесора порівняно з випущеним у 2021 році процесором Eagle, який мав 127 кубітів?
У новому процесорі Osprey розробники з IBM представили поступові покращення більшості компонент їхньої попередньої системи Eagle (на 127 кубітів), але архітектурно це дуже подібні речі. Порівняно з попередниками, основні інновації пов’язані з розташуванням кубітів та підведенням до них дротів для оперування та зчитування даних. Так, щоб ці операції не створювали додаткового «шуму» (йдеться про перепони для обчислювання, а не звук). Тому в останніх моделях інженери прийшли до багатошарової тривимірної структури.
Кубіти у квантовому стані — дуже крихка і нестабільна система. Тому поступове збільшення їх кількості пов’язане з багатьма труднощами: від створення кожного окремого кубіту до зв’язування їх у поєднаний і ефективного контролю операцій з індивідуальними кубітами. Відповідно, недостатньо просто збільшити кількість кубітів в регістрі. Потрібно також покращити всі інші системи для того, щоб ефективно вводити ці кубіти у квантовий стан і оперувати ними.
За останній рік IBM суттєво збільшили час когеренції кубітів. Когеренція — це час, протягом якого кубіти перебувають у квантовому стані, і в обчисленнях можна використовувати квантові ефекти. Відповідно, збільшивши число кубітів до 433, ми маємо достатньо часу, поки вони у квантовому стані, щоб запустити на них алгоритм. Хоч цифра у 433 кубітів здається великою, у 10 разів більшою, аніж ми можемо симулювати на класичних комп’ютерах, час когеренції цих процесорів ще відносно короткий для виконання корисних задач. Сьогодні ми можемо зробити лише кілька десятків операцій. Такими елементарними операціями є поворот кубіта або його «контрольоване перевертання» залежно від стану іншого кубіта. З таких простих операцій можна скласти будь-який складний алгоритм.
Але IBM працює над покращеннями, і вже скоро ми отримаємо нові версії цього процесора, які потенційно можуть збільшити кількість операцій до сотні. У цьому випадку є кілька застосувань, де такі комп’ютери вже можуть потенційно давати практичні результати. Наприклад, для симуляцій малих молекул у хімічній і фармацевтичній індустріях
IBM мають свою «квантову» дорожню карту2: створення процесорів Condor на 1121 кубіта та Flamingo на 1386 кубіт у 2023 й 2024 роках відповідно. Як це працює, що з кожним роком вони випускатимуть процесори з більшою кількістю кубітів? Чому вони не можуть випустити найкращий комп’ютер вже зараз?
Я вже говорив вище, що на шляху створення повноцінного (fault-tolerant) квантового комп’ютера в нас дуже багато викликів. Це навіть не питання грошей і величини команди. Інновації теж мають свій темп. Сьогодні в нас часто немає ще усіх технологічних цеглинок, які дозволять нам збудувати великий квантовий комп’ютер. Різні гравці у цій індустрії працюють над цим: хтось покращує якість матеріалів для кубітів (наприклад, нові надпровідні матеріали з яких створюють надпровідні кубіти), хтось працює над принципово новим типом квантових комп’ютерів, хтось створює алгоритми виправлення помилок в обчисленнях, хтось працює над архітектурою розподілених квантових обчислень, яка дозволить виконувати великі алгоритми на багатьох дрібніших квантових процесорах.
Дорожня карта дозволяє нам наближатись до мети маленькими кроками. Це вирішує кілька завдань. З одного боку, ми можемо починати тестувати ранні квантові комп’ютери й знаходити нові способи їхньої оптимізації та покращення. З іншого боку, ми можемо готувати ґрунт для застосувань цих комп’ютерів на практиці. Спершу на малих прототипах рішень, які надалі можна буде запускати на більших машинах.
Створення застосунків для квантових комп’ютерів також займає багато років. Тому бізнеси вже зараз починають придивлятись до цієї технології й експериментувати з нею. Щоб за 10 років, коли з’являться маштабовані моделі, вже мати певні напрацювання.
У 2025 році IBM планує випустити процесор Kookaburra на 4000 кубітів. Ми можемо уявити, що нам дасть такий процесор?
Сьогодні квантова індустрія перебуває на етапі так званої NISQ-ери. Це «шумні», середнього розміру квантові комп’ютери (noisy intermediate scale quantum computers). Такі комп’ютери дуже чутливі, їхній результат зазвичай має багато помилок. Є приклади алгоритмів, які ми можемо запускати вже сьогодні на таких комп’ютерах, але їхня ефективність порівняно з класичними комп’ютерами є часто під питанням. В такому режимі, навіть маючи 4000 кубітів, ми в кращому разі зможемо застосувати їх для дуже вузького кола задач. Найімовірніше, це буде незначне покращення обчислень у хімії.
Для прикладу, компанія D-Wave має комп’ютер Advantage з 5000 кубітів, який вирішує лише одну задачу й із обмеженим успіхом уже може застосовуватись в логістиці та фінансах.
Алгоритми виправлення помилок потребують від кількох сотень до кількох тисяч кубітів. З появою комп’ютерів з 1000 і більше кубітів ми поступово наближатимемо цю еру fault-tolerant quantum computing, коли обчислення стануть набагато точнішими. Це означатиме, що 4000 фізичних кубітів після операцій виправлення помилок будуть представлені як лише близько 10 логічних кубітів, які, власне, і використовуватимуться в квантових алгоритмах. Відповідно, це знову будуть маленькі прототипи, які ми можемо симулювати і на класичному комп’ютері.
Справжнього прориву варто очікувати, коли кількість кубітів зможе досягти десятків або сотень тисяч. Такі процесори відкриють шлях до багатьох цікавих застосувань.
Скільки коштує робота над квантовими комп’ютерами?
Створити невеликий квантовий комп’ютер в лабораторії може коштувати й до мільйона доларів. Це типова ціна створення університетської лабораторії в експериментальній фізиці. Це вже відносно звична академічна вправа, і такі системи різного типу є в багатьох університетах. Але перетворити прототип на комерційну історію набагато складніше і дорожче.
Цього року IBM анонсували інвестиції у квантову екосистему в розмірі 20 мільярдів доларів протягом наступних 10 років лише у регіоні Нью-Йорку. Google також говорить про кілька мільярдів інвестицій в наступні роки. Мої власні оцінки дали мені бюджет від 100 до 500 мільйонів на рік у цих фірмах.
Стартапи, як-от Rigetti, Xanadu, Quantum Brilliance часто більш ощадливі, але їх витрати також вимірюються десятками мільйонів доларів.
Ми знаємо, що параметри квантового комп’ютера — об’єм пам’яті (кількість кубітів, яку використовує система), кількість послідовних операцій (когерентність) та універсальність — конфліктують між собою. Як працюють із тим, щоб зберегти баланс?
Зі збільшенням об’єму квантового регістру збільшується ймовірність того, що цей регістр десь буде розгерметизованим, в якийсь з його кубітів прилетить космічна частинка чи вони зазнають впливу електромагнітного поля навколишніх дротів. Це все, своєю чергою, призводить до декогеренції квантового стану і зменшення числа операцій, які з ним можна зробити. Тому на практиці найбільш поширеними є експерименти з процесорами з меншою кількістю кубітів або з використанням лише малої частини кубітів більших процесорів.
Кожне збільшення числа кубітів пов’язане з переглядом архітектури системи: її кращою ізоляцією, зміною топології розміщення кубітів та дротів, які підведені для контролю стану та створення логічних операцій. Тут недостатньо лише надрукувати більше кубітів на інтегральній схемі.
Універсальність — це можливість розв’язувати будь-яку алгоритмічну задачу й оперувати з індивідуальними кубітами в процесі обчислень. Це складна задача, якщо ми хочемо зберегти «квантовість» нашого стану і не пошкодити його під час виконання.
Часто ми можемо сформулювати проблему як задачу квадратичної оптимізації. В цьому випадку ми можемо змінювати квантовий стан «глобально» і не вдаватись до індивідуальних операцій. Це технічно простіше і дозволяє працювати з більшою кількістю кубітів. Подібний підхід використовується в комп’ютерах на кшталт D-Wave, Pasqal, QEra.
У 2019 році Google заявив, що досяг квантової переваги, оскільки їхньому комп’ютеру вдалося розв’язувати задачу за три хвилини замість 10 тисяч років, які б витратив на неї звичайний суперкомп’ютер. Але ІВМ звинуватила Google у спекуляції: мовляв, вирішення цієї задачі насправді б зайняло кілька днів. А ми не можемо перевірити, хто правий? Це можна якось довести?
Квантова перевага — це практичний приклад задачі, на якій квантовий комп’ютер працює краще, ніж класичний. Сьогодні найпоширенішою є задача відтворення дії масиву випадкових квантових операцій. Ця задача немає практичного сенсу, але є дуже складною для симуляції на класичному комп’ютері.
Справді, існують класичні методи, які можуть дозволити ефективно проводити подібні обчислення. Ці методи часто є евристичними і наближеними, тоді як квантові комп’ютери виконують «точні» обчислення.
Є багато наукових статей, у яких люди змагаються з квантовими алгоритмами, використовуючи класичні суперкомп’ютери. Цікаво, що одні з найкращих експертів у класичних обчислювальних методах для фізики, які часто спростовували квантовий гайп у своїх публікаціях, сьогодні працюють у квантових групах великих корпорацій. Це, для прикладу, Матіас Троєр (Microsoft), Гельмут Кацграбер (Amazon Quantum Solutions Lab).
Ти казав, що проривів нам слід чекати, коли кількість кубітів зможе досягнути десятків або сотень тисяч. А ми знаємо, коли приблизно це може статися?
Більшість розробників квантових комп’ютерів обіцяють розробку таких системи ближче до 2030 року. Існують технологічні виклики, які ще треба подолати, але сьогоднішній темп інновацій дозволяє нам бути достатньо оптимістичними.
Микола Максименко — молодший віцепрезидент з Технологій, відповідальний за R&D напрямок в SoftServe. Зокрема, наша команда займається комерційними Quantum Computing дослідженнями і застосуваннями. Директор програми з Менеджменту Технологій у Львівській Бізнес-школі УКУ. Розвиває розробку та дослідження у напрямку прикладної науки, квантових обчислень, штучного інтелекту, людино-машинної взаємодії та сенсорних технологій. До того, як приєднатись до SoftServe, займався науковими дослідженнями в Інституті комплексних систем Макса Планка (Німеччина) та в Інституті Вайцмана (Ізраїль).