Tylko Bóg potrafi liczyć równie szybko, czyli świat komputerów kwantowych

Postęp dokonujący się od kilku lat w informatyce jest olbrzymi. Możliwości obliczeniowe tradycyjnych komputerów wydają się jednak ograniczone. Dlatego wszyscy, którym bliska jest idea nieograniczonego postępu technologicznego, kierują uwagę na urządzenie, które może spowodować kolejny przełom - komputer kwantowy.

Podziel się

facebook twitter google+ linkedin email
Norbert Biedrzycki blog komputer kwantowy

Postęp dokonujący się od kilku lat w informatyce jest olbrzymi. Możliwości obliczeniowe tradycyjnych komputerów wydają się jednak ograniczone. Dlatego wszyscy, którym bliska jest idea nieograniczonego postępu technologicznego, kierują uwagę na urządzenie, które może spowodować kolejny przełom – komputer kwantowy.                                                                                                                                                                                                                                

O komputerach kwantowych mówi się od lat 80-tych, ale dopiero w ostatnich kilku latach stało się jasne, że ich rozwoju nie da się powstrzymać. Od tej pory zaczęły one budzić duże emocje. Specjaliści twierdzą wręcz, że jesteśmy coraz bliżej przekroczenia granicy, jeśli chodzi o szybkość procesów obliczeniowych.

Dlaczego? Współczesne procesory składają się z miliardów tranzystorów wielkości kilku nanometrów zgrupowanych na bardzo małej powierzchni. Według prawa Moore’a liczba tranzystorów w mikroprocesorze podwaja się co mniej więcej dwa lata. Niestety wzrost mocy obliczeniowych w procesorach ulega ciągłemu spowolnieniu. Powoli osiągamy bowiem granice technologiczne w możliwościach “upakowania” coraz większej liczby tranzystorów na tak małych powierzchniach. Granica, której fizycznie przekroczyć się nie da, to tranzystor o rozmiarze pojedynczego atomu oraz pojedynczy elektron służący do przełączania jego stanu od 0 do 1.

Być może ten rok będzie przełomowy, jeśli chodzi o rozwój tej technologii. Spory wpływ na formułowanie takiej tezy ma fakt dużego zaangażowania Microsoftu i Google w badania dotyczące takich urządzeń.

Również firma Atos, którą mam przyjemność reprezentować, zainwestowała w ostatnich miesiącach sporo energii w prace przybliżające nas do zbudowania ultra szybkiego komputera kwantowego.

 

Skąd biorą się wielkie zalety komputera kwantowego?

Najprościej można to wytłumaczyć, przez porównanie go do komputera tradycyjnego. Urządzenie, które znamy z codziennej pracy, dokonuje wszystkich operacji, wykorzystując podstawowe jednostki informatyczne, jakimi są bity. A te mogą reprezentować w zasadzie tylko dwa stany: 0 i 1.

W przypadku komputera kwantowego mówimy o wykorzystaniu stanu pośredniego, czyli wyjściu poza schemat dwóch przeciwnych wartości. Kubit (od bitów kwantowych) – bo tak się nazywa jednostka urządzeń kwantowych – może przyjmować jednocześnie wartość 0 i 1, a dokładnie może przyjmować nieskończoną liczbę stanów między 0 a 1. Taki stan nazywa się superpozycją. Dopiero podczas sprawdzenia wartości kubita, przyjmuje on jeden z dwóch stanów podstawowych – 0 lub 1.

Wydaje się, że to mała różnica, jednakże kubit znajdujący się w stanie superpozycji może podczas obliczeń wykonywać wiele poleceń jednocześnie. Pomagają nam tu podstawowe zasady fizyki kwantowej. Fizycznie kubit może być reprezentowany przez dowolny układ kwantowy o dwóch różnych stanach podstawowych, na przykład spinu elektronu lub atomu, dwóch poziomów energetycznych w atomie czy dwóch poziomów polaryzacji fotonu – pionową i poziomą.

O ile w klasycznym komputerze bit przechowuje dwie wartości, dwa bity przechowują cztery wartości itd, dwa kubity przechowują nie jedną, a cztery wartości jednocześnie a 16 kubitów może przechowywać 256 wartości naraz, czyli przy każdym kubicie jest dwa razy więcej możliwości. Bezpośrednią konsekwencją tego faktu jest to, że komputer kwantowy potrafi dokonywać jednocześnie wielu operacji na raz, czego nie potrafi urządzenie tradycyjne.

By jeszcze bardziej uściślić: kwantowy stan, o którym mowa, doprowadza nas do sytuacji, w której maszyna przetwarza potężne zbiory danych w niewyobrażalnie krótkim czasie. Wyobraźmy sobie tak pokaźne zbiory, że ich przetworzenie wymagałoby milionów lat, gdybyśmy wykorzystali do tego celu komputery tradycyjne.

Ta całkowicie abstrakcyjna sytuacja nabiera realności, gdy zaczynamy mówić o użyciu komputera kwantowego. Potrafi on liczyć nawet o setki tysięcy – a w założeniu miliony – razy szybciej od urządzeń zbudowanych w oparciu o zaawansowane podzespoły krzemowe! Idealne zastosowanie dla takiej maszyny to rozpoznawanie obiektów z ogromnego zasobu zdjęć, obliczenia na dużych liczbach, czy szyfrowanie i łamanie szyfrów. Operując na danych matematycznych, tę różnicę w wydajności między kwantowym a tradycyjnym komputerem możemy teoretycznie zwiększyć nawet do poziomu 1:18 000 000 000 000 000 000 razy!

 

Chłód i pełna izolacja

Jeśli chodzi o praktyczne wdrożenia z omawianej przez nas dziedziny, do dzisiaj największe zasługi ma kanadyjska firma D–Wave The Quantum Computing Company. Jej klientami są zarówno agencje rządowe czy NASA, jak i podmioty komercyjne, np, Google. To w tej firmie powstał pierwszy komputer, który otrzymał miano kwantowego – D–Wave.

Dużo bardziej rozwiniętym urządzeniem jest produkt The D-Wave 2X™ System. Procesor komputera nie wytwarza ciepła, pracuje w środowisku o temperaturze 0,015 Kelvina (-273°C), która jest temperaturą 180 razy niższą od temperatury przestrzeni międzygwiezdnej. W środowisku procesora panuje próżnia, mamy bowiem do czynienia z ciśnieniem aż 10 miliardów razy niższym od ciśnienia w atmosferze!

Kubity muszą być całkowicie odizolowane od otoczenia, są bowiem bardzo nietrwałe i mogą być niszczone między innymi przez zmiany temperatury otoczenia, promieniowanie zewnętrzne, światło czy zderzenia z cząsteczkami powietrza. Dlatego próżnia, super niska temperatura i pełna izolacja środowiska są konieczne.

Chociaż już kilkakrotnie ogłaszano i dementowano informacje o pojawieniu się urządzenia, które spełniałoby warunki, by nazwać je komputerem kwantowym, The D-Wave 2X™ System przybliża nas do idei maszyny, dla której nie istnieje niemożliwe. Od razu zaprzęgnięto ten komputer nauczania maszynowego, systemów sztucznej inteligencji i do rozwiązywania problemów znanych z biologii, takich jak skręcanie białek. Jednak warto w tym miejscu wskazać też na głosy sceptyków i specjalistów, którzy od kilku lat z prawdziwą pasją poddają w wątpliwość fakty, które rozgrzewają dziennikarzy i ludzi biznesu.

 

A może to jest science fiction?

Aby przybliżyć z jak ciekawym, a jednocześnie kontrowersyjnym, zjawiskiem mamy do czynienia, przytoczę przykłady skrajnych reakcji przedstawicieli branży IT. Nie tak dawno jeden z przedstawicieli Google stwierdził, że kwantowy komputer D-Wave rozwiązał zadany mu problem w czasie 1 sekundy. Standardowy potrzebowałby na to podobno 10 000 lat! Z drugiej strony nierzadkie są opinie jak ta, którą wyraził fizyk Matthias Toyer. Gdy trzy lata temu ogłoszono, że komputer The D-Wave2 w specjalnym teście rozwiązał wyznaczone mu zadanie o 3600 razy szybciej, niż komputer tradycyjny, naukowiec zakwestionował te wyniki wykazując, że trudno mówić o takiej wydajności, bo żadne dowody jej nie potwierdzają. Najlepszym podsumowaniem zamieszania na tym polu, mogą być słowa pracownika Narodowego Instytutu Standardów i Technologii w USA, Davida Winelanda, który powiedział: „Jestem optymistą, co do tego, że w dłuższej perspektywie osiągniemy sukces. Jednak ten “dłuższy czas” oznacza, że nie wiem, kiedy to nastąpi”.

A może jednak rację mają przedstawiciele IBM, według których omawiane cuda techniki trafią do użytku nie wcześniej niż za kilkanaście lat, i będą to zdecydowanie urządzenia przeznaczone dla instytutów i laboratoriów, a nie dla przeciętnego użytkownika? Trudno mi dzisiaj jednoznacznie wyrokować.

 

I co możemy z tego mieć?

Do działania komputera kwantowego potrzeba systemu do sterowania, odpowiednika system operacyjnego, algorytmów pozwalających przeprowadzić kwantowe obliczenia i oprogramowania do obliczeń.

Tworzenie algorytmów kwantowych jest bardzo trudne, bo muszą one być opracowywane w oparciu o zasady mechaniki kwantowej. Algorytmy wykonywane przez komputer kwantowy są algorytmami działającymi w oparciu o zasadny prawdopodobieństwa. Oznacza to, że uruchamiając ten sam algorytm na komputerze kwantowym dwukrotnie, można otrzymać zupełnie różne wyniki ze względu na losowość samego procesu. Z tego wynika, że – upraszczając – dla uzyskania wiarygodnych wyników obliczenia należy uwzględniać zasady prawdopodobieństwa.

Brzmi to jak bardzo skomplikowany proces. I niestety tak jest. Komputery kwantowe nadają się do bardzo wyspecjalizowanych, określonych obliczeń – algorytmów, które pozwolą zaprzęgnąć całą ukrytą w nich moc. Czyli komputery kwantowe nie pojawią się na każdym biurku i w każdym domu. Nie miałoby to najmniejszego sensu.

Jednak bez względu na to, ile czasu potrzebujemy na uzyskanie danego wyniku pracy algorytmu, możemy już dzisiaj wyobrazić sobie sytuację, w której do rozwiązania konkretnego problemu angażujemy maszynę kwantową. Przykładowo, gdybyśmy założyli, że chcemy przetworzyć miliardy zmagazynowanych danych medycznych, które związane są z poszukiwaniem leku na raka, to właśnie komputer kwantowy, przy zastosowaniu odpowiednich algorytmów, mógłby zbliżyć nas do stworzenia skutecznej receptury. Bo możliwość interpretacji tych wszystkich danych bez popełnienia błędu, czy bez przeoczenia istotnych informacji, jest praktycznie niemożliwa dla ludzkiego mózgu, czy tradycyjnego komputera.

Technologie kwantowe mogą wpłynąć też mocno na takie obszary ludzkiej aktywności jak: astronomia, matematyka, czy fizyka. Komputery kwantowe mogą błyskawicznie przeszukiwać olbrzymie ilości danych – być może to jest główny powód dlaczego służby specjalne i Google tak inwestują w tą technologię. Komputery kwantowe mogą być idealnymi narzędziami do łamania szyfrów. Metodę RSA, chroniącą połączenia przeglądarek internetowych i połączenia w aplikacjach bankowości mobilnej i internetowej można by błyskawicznie złamać za ich pomocą. Ponoć jest to też pierwsza technologia, która zagrozi algorytmom kryptograficznym sieci blockchain i krypto walutom, jak bitcoin.

Jak widać technologia ma nie tylko blaski, ale i cienie. Czy możliwe będzie dalsze działanie zabezpieczeń szyfrujących, funkcjonujących do tej pory w naszym świecie? Czy będziemy w stanie zabezpieczyć się przed niebezpieczeństwem łamania najważniejszych dla nas szyfrów i kodów, których do tej pory pokonać się nie dało? Jak będzie wyglądał świat, w którym każda informacja będzie dostępna w mgnieniu oka? W mgnieniu oka, ale oczywiście nie dla wszystkich, tylko tych którzy będą wyposażeni w komputery kwantowe.

 

Powiązane artykuły:

Niewidzialna pajęczyna wokół nas, czyli Internet Rzeczy

Według naszych komputerów … Pan nie istnieje

Upadek hierarchii, czyli kto właściwie rządzi w Twojej firmie

Koniec życia jakie znamy, czyli witajcie w zdygitalizowanym świecie

Twoi klienci przybywają z przyszłości, a ty gdzie jesteś?

Blockchain ma potencjał do wzruszenia podstawowych filarów naszego społeczeństwa

Praca przyszłości, czyli zaczniemy pracować od nowa

Bańka internetowa 2.0

 

Pic 1 Quantum computer processor qubit

Obrazek 1: Komputer kwantowy. Kubit umieszczony w centrum procesora

 

Pic 2 Quantum computer funnel

Obrazek 2: Komputer kwantowy. Cylindryczne rozmieszczenie płytek w tunelu komputera kwantowego

 

Pic 3 Quantum computer cooling

Obrazek 3: Komputer kwantowy. Obudowa układu umieszczona pomiędzy wymiennikami ciepła chłodzonymi ciekłym helem

 

Pic 4 Quantum computer processor mounted

Obrazek 4: Komputer kwantowy. Procesor zamontowany na końcu wieży z wymiennikami ciepła i urządzaniami do sterowania układem

 

Pic 5 PUB_CQC_Cambridge_Quantum_Computing_Explained_lg

Obrazek 5: Komputer kwantowy. What are the quantum computers?; University of Cambridge

 

 

Skomentuj

24 comments

  1. Jacek Krasko

    Obecnie w pracach nad komputerami kwantowymi dominują dwie koncepcje. Jedna, wykorzystywana przez Google’a, IBM-a, Rigetti czy Quantum Circuits zakłada kodowanie stanów kwantowych w oscylującym prądzie elektrycznym krążącym w nadprzewodzących pętlach. Metoda druga, używana przez IonQ i wiele instytucji naukowych, to kodowanie kubitów w pojedynczych jonach utrzymywanych w próżniowych pułapkach przez pole elektryczne i magnetyczne.

  2. Grzegorz Wiatr

    Bardzo fajnie tłumaczy Pan skomplikowane zagadnienia. Bardzo dobrze czyta się Pana artykuły. Polecam Pana bloga moim znajomym.

    • Norbert Biedrzycki  

      Bardzo dziękuje. Pisanie bloga zmusza mnie do ciągłego rozwoju w tych kierunkach technologicznych które mnie interesują. Jest to fantastyczna stynulacja do nauki i rozwoju

  3. Andrzej K

    Ciekawy artykuł. Nie wiem czy Pan zauważył ale system weryfikacji „czy nie jestem robotem” na Pana blogu działa dosyć koszmarnie. Nie pomaga w pisaniu komentarzy 🙂

    • Norbert Biedrzycki  

      Panie Andrzeju. Dziękuje za uwagi. Czy mógłby Pan wysłać maila z informacją co tak przeszkadza przy obecnym set-upie wtyczki anty-spamowej?

  4. Andrzej44

    Ciekawe co będzie nastepne i czy wizje pisarzy sci-fi czy futurologów się ziszczą? Świat zaczyna coraz mocniej przyśpieszać

  5. CabbH

    Tak jak zostało to tutaj już napisane – są to komputery przeznaczone do bardzo wąsko wyspecjalizowanych zadań. Nie będzie to maszyna na biurko każdego z nas

  6. JacekPaczka

    Prace naukowe trwają – pełna zgoda. Ale kiedy powstanie taki system dostępny dla każdego? I czy każdemu będzie potrzebny? Raczej nie. To będą komputery do bardzo wyspecjalizowanych zadań. Algorytmy (tak jak czytałem) są bardzo skomplikowane i oparte na statystyce

  7. Jacek Czyz

    Bardzo ciekawy punkt widzenia. Przyśpieszamy przetwarzanie danych a nie pracujemy nad aspektem emocjonalnym. Tylko jak odwzorować emocje u maszyny?

  8. Ania_Kielak

    Już dawno statystycznie wykazano, że ludzki przeciętny neuron pamięta ok. 4 bitów informacji. Czyli natura sama znalazła optimum. Owszem, są neurony niezwykle złożone głównie w hipokampie, które pamiętają znacznie więcej ale te 4 bity są w każdym

  9. Robert Kaczkowski

    IBM już dawno wyprodukował drugą wersję chipa neuronowego, który pracuje podobnie jak neuron w organiźmie zwierzęcym. W tym całym wywodzie który skupia się wyłącznie na elektrycznej percepcji neuronu zabrakło jednego. A mianowicie prawdziwy neuron nie jest sumatorem wagowym, lecz układem całkującym. I to realizuje chip IBM. pierwszy lepszy artykuł na ten temat który znalazłem:
    http://www.benchmark.pl/aktualnosci/IBM_pr…mozg-36521.html. Ale takich artykułów jest sporo

  10. Jacek B2

    Ciekawostką jest, że te wszystkie projekty machine learning, artificial intelligence i teraz szybkość przetwarzania danych przez komputery kwantowe, zmierzają do zasymulowania centralnego ośrodka nerwowego lub mózgu. Problem w tym, że odwzorowuje się jedynie jego część elektryczną, przy kompletnym braku odwzorowania części chemicznej, tj. wszelkich neuroprzekaźników, w tym chormonów. Także murem nie do przebicia jest zrozumienie zjawiska samo świadomości. Tu nie chodzi tylko o szybkość przetwarzania informacji

  11. Norbert Biedrzycki  

    Ostatnie wiadomości:

    China has beaten the world at building the first ever quantum computing machine that is 24,000 times faster than its international counterparts.
    Making the announcement at a press conference in the Shanghai Institute for Advanced Studies of University of Science and Technology, the scientists said that this quantum computing machine may dwarf the processing power of existing supercomputers.
    Researchers also said that quantum computing could in some ways dwarf the processing power of today’s supercomputers.

    http://indiatoday.intoday.in/story/worlds-first-quantum-computing-machine-build-in-china/1/944280.html

  12. Grzegorz Wiatr

    Ciekawie napisany artykuł. Szkoda że tylko jak wynika z tego co Pan napisał jeszcze daleka droga do komercjalizacji tej technologii. No i niestety ale z tego też wynika że komputery które używamy na co dzień niestety ale osiągnęły swój kres jeżeli chodzi o wzrost prędkości przetwarzania danych. To jest zła informacja

  13. Andrzej_Ko

    Nie zgodzę się z opinią o zastosowaniach odpowiednika systemu 3 cząstek do obliczeń matematycznych. W świecie obliczeniowym nie ma to sensu. Logika trójkowa to spora komplikacja. Jak komuś mało stanów w superpozcji można sięgnąć po logikę analogową – wiele systemów nie tylko binarny, np. czwórkowy, szesnastkowy … Trójkowy to tzw. nazywa logika rozmyta – wielostanowa na zasadzie ‚chyba tak’, ‚prawie na pewno nie’.

    Co do materii – znowu błąd. Elektron, neutron i proton to są trzy zupełnie różne cząstki elementarne, które same w sobie mają pary, tj. anty elektron, anty neutron i anty proton. Jedynie teoria strun zakłada istnienie trójek ale to zupełnie inna część fizyki.

  14. TomaszK1

    Pełna zgoda – nie do każdych zastosowań. System 0 i 1 ma podstawowe ograniczenie. System siperpozycyjny (kwantowy) tzw 0 i 1 powinny mieć opowiednie stany + dodatkowy stan pomiędzy 0 i 1 albo większy lub mniejszy od 0 i 1 – oznaczony rachunkiem prawdopodobieństwa. Cała materia składa się 3 cząstek, elektron (jako zero), neutron (jako jeden) i proton (wszystkie stany pomiędzy).

    • Norbert Biedrzycki  

      Bardzo ciekawa koncepcja. Można powiedzieć że trzeci stan to właśnie superpozycja, nieoznacznie stanu QB. To właśnie jest przestrzeń na oznaczenie wg. mechaniki kwantowej za pomocą rachunku prawdopodobieństwa pozycji cząstki. Co defacto daje mam przybliżenie prawdopodobieństwa wyniku