map II LO im. ks. prof. Tischnera, Rabka-Zdrój

Perspektywy

Jednym ze sposobów na generowanie nowych odkryć przy użyciu superkomputerów jest przetwarzanie i analiza coraz większych i cenniejszych zestawów danych. Wynika z tego, że obecnie najważniejsze trendy w obliczeniach z wykorzystaniem superkomputerów dotyczą samego rozmiaru zestawów danych z połączeniem technik sztucznej inteligencji, analizy dużych zbiorów danych oraz przetwarzania brzegowego.

Sztuczna inteligencja. Techniki AI umożliwiają superkomputerom dokonywanie wnioskowań poprzez analizę coraz większych zestawów danych. Jednocześnie AI potrzebuje mocy obliczeniowej do analizy wszystkich tych danych, a użycie eksaskali umożliwia znacznie szybsze ich przetwarzanie. Naukowcy będą mogli zadawać pytania i otrzymać odpowiedzi, które nigdy wcześniej nie były możliwe.

Analiza dużych zbiorów danych. Duże zbiory danych stały się czynnikiem napędzającym nowe i rozszerzone instalacje HPC. Obecnie większość obciążeń roboczych dużych zbiorów danych HPC opiera się na tradycyjnej symulacji i modelowaniu. Jednakże w przyszłości siły techniczne i biznesowe kształtujące duże zbiory danych doprowadzą do powstania nowych form konfiguracji HPC, aby czerpać informacje z niewyobrażalnie dużych zbiorów danych.

Systemy przetwarzania brzegowego. Systemy przetwarzania brzegowego stały się bogatym źródłem nowych zestawów danych. Te zestawy danych pochodzą od pojedynczych instrumentów przechwytywania ogromnych ilości danych oraz od miliardów połączonych urządzeń rozmieszczonych na całym świecie. Na przykład teleskop lidarowy w Andach i radioteleskop Square Kilometre Array działający w Australii Zachodniej i Południowej Afryce generują ogromne ilości danych. Tak samo inteligentne miasta, które korzystają z niezliczonych czujników i kamer do zarządzania ruchem i zapewnienia bezpieczeństwa publicznego. Wszystkie te dane stwarzają problemy, których rozwiązywanie wymaga HPC.

Wyzwania związane z superkomputerami, zwłaszcza w tworzeniu komputera eksaskalowego takiego jak Aurora, dotyczą trzech głównych obszarów: mocy, skalowania i heterogeniczności. Najszybszy komputer petaskalowy na świecie wymaga 28,3 megawata do działania1. Choć żadna z organizacji obecnie budujących komputer eksaskalowy nie przedstawiła szczegółowych informacji, wiadomo, że komputery eksaskalowe będą potrzebowały do funkcjonowania od 30 do 50 megawatów mocy. Zmieniając perspektywę, 50 megawatów wystarczyłoby do zasilania budynków mieszkalnych w mieście o populacji od 50 000 do 70 000 ludzi. W ciągu roku zużycie jednego megawata energii elektrycznej kosztuje około miliona dolarów, więc zmniejszenie poboru mocy przez superkomputery pozostaje kluczowym celem. Procesory oparte na innowacyjnych mikroarchitekturach umożliwiają skalowalną wydajność i energooszczędność.

W ciągu ostatnich 30 lat superkomputery przeszły od jednego procesora z jednym wątkiem do wielu rdzeni i wielowątkowości z tysiącami węzłów pracujących razem.

superkomputery
Superkomputery