Komputery kwantowe w porównaniu do tradycyjnych, tranzystorowych rozwiązań dużo lepiej sprawdzają się tam, gdzie trzeba wyliczyć prawdopodobieństwo wystąpienia jakiegoś zjawiska i zasymulować działanie określonego mechanizmu. Niestety mimo ogromnego rozwoju w tej dziedzinie posiadane przez nas maszyny wciąż są dość słabe i wymagają skomplikowanego osprzętu do działania. Problemem jest też to, że kubity będące podstawowymi jednostkami dokonującymi obliczeń mogą wchodzić w interakcje jedynie z sąsiadującymi kubitami, co wyraźnie zmniejsza skalowanie istniejących układów. Na szczęście opracowano już rozwiązania pozwalające ominąć to ograniczenie. Takie jak architektury zbudowane na bazie uwięzionych jonów, które pozwalają na zmianę pozycji kubitów w czasie co wyraźnie zwiększa wydajność całego układu.

Mimo wszystko żadna innowacja nie zmieni tego, że aby osiągnąć odpowiednią wydajność musimy zbudować komputery kwantowe składające się z większej ilości kubitów niż obecnie istniejące rozwiązania. W tym miejscu pojawia się pytanie jak wydajne powinny być takie maszyny by można było myśleć o wykorzystaniu ich na szeroką skalę. Na to pytanie postanowili odpowiedzieć badacze z ośrodków naukowych zlokalizowanych w Wielkiej Brytanii i Holandii.

Komputer kwantowy IBM, źródło: chip.pl

Przedmiot badania

Na początku naukowcy wybrali dwa problemy z którymi nie są w stanie poradzić sobie obecnie tworzone superkomputery, a następnie określili ramy czasowe, w których należy dokonać obliczeń by cały wysiłek miał sens. Pierwszym zadaniem jest złamanie zabezpieczeń blockchaina wykorzystywanego w algorytmie Bitcoina. W tym przypadku atak musi zostać ukończony w około godzinę od rozgłoszenia, w przeciwnym razie atak będzie nieskuteczny. Drugim zagadnieniem jest symulacja pracy kofaktora FeMo (FeMoco), będącego fragmentem białka używanego w procesie asymilacji azotu. Jest to kluczowy proces tworzenia nawozów sztucznych. W tym przypadku przyjęto, że analiza musi zakończyć się w około 10 dni.

Jakiego potrzebujemy do tego sprzętu?

Po przyjęciu wytycznych naukowcy przystąpili do wyliczeń. Okazało się, że w zależności od stopnia dokładności i korekcji błędów do złamania Bitcoina potrzeba komputera złożonego z około 30 – 300 milionów kubitów, a do symulacji FeMoco potrzeba maszyny o wydajności od 7,5 do 600 milionów kubitów. 

Biorąc pod uwagę fakt, że obecne mikroprocesory o powierzchni około 300mm^2 mogą mieć kilka miliardów tranzystorów wydaje się to wielkością niedużą, ale to tylko złudne przeczucie. Procesory kwantowe są bowiem o wiele większe od tranzystorowych kuzynów i hipotetyczny układ zbudowany z 1 miliarda kubitów zająłby powierzchnię co najmniej 9 m^2. 

Poza tym problemem jest też zasilanie i chłodzenie, które musi być w tym przypadku ekstremalnie wydajne. To właśnie te problemy sprawiają, że obecnie najmocniejsze komputery kwantowe składają się z około 100 – 150 kubitów. Innymi słowy przed nami jeszcze daleka droga.

Źródło: AWS Quantum Science / Kopalnia Wiedzy

Udostępnij

Dodaj komentarz