Jednym ze sposobów na generowanie nowych odkryć przy użyciu superkomputerów jest przetwarzanie i analiza coraz większych i cenniejszych zestawów danych. Wynika z tego, że obecnie najważniejsze trendy w obliczeniach z wykorzystaniem superkomputerów dotyczą samego rozmiaru zestawów danych z połączeniem technik sztucznej inteligencji, analizy dużych zbiorów danych oraz przetwarzania brzegowego.
Sztuczna inteligencja. Techniki AI umożliwiają superkomputerom dokonywanie wnioskowań poprzez analizę coraz większych zestawów danych. Jednocześnie AI potrzebuje mocy obliczeniowej do analizy wszystkich tych danych, a użycie eksaskali umożliwia znacznie szybsze ich przetwarzanie. Naukowcy będą mogli zadawać pytania i otrzymać odpowiedzi, które nigdy wcześniej nie były możliwe.
Analiza dużych zbiorów danych. Duże zbiory danych stały się czynnikiem napędzającym nowe i rozszerzone instalacje HPC. Obecnie większość obciążeń roboczych dużych zbiorów danych HPC opiera się na tradycyjnej symulacji i modelowaniu. Jednakże w przyszłości siły techniczne i biznesowe kształtujące duże zbiory danych doprowadzą do powstania nowych form konfiguracji HPC, aby czerpać informacje z niewyobrażalnie dużych zbiorów danych.
Systemy przetwarzania brzegowego. Systemy przetwarzania brzegowego stały się bogatym źródłem nowych zestawów danych. Te zestawy danych pochodzą od pojedynczych instrumentów przechwytywania ogromnych ilości danych oraz od miliardów połączonych urządzeń rozmieszczonych na całym świecie. Na przykład teleskop lidarowy w Andach i radioteleskop Square Kilometre Array działający w Australii Zachodniej i Południowej Afryce generują ogromne ilości danych. Tak samo inteligentne miasta, które korzystają z niezliczonych czujników i kamer do zarządzania ruchem i zapewnienia bezpieczeństwa publicznego. Wszystkie te dane stwarzają problemy, których rozwiązywanie wymaga HPC.
Wyzwania związane z superkomputerami, zwłaszcza w tworzeniu komputera eksaskalowego takiego jak Aurora, dotyczą trzech głównych obszarów: mocy, skalowania i heterogeniczności. Najszybszy komputer petaskalowy na świecie wymaga 28,3 megawata do działania1. Choć żadna z organizacji obecnie budujących komputer eksaskalowy nie przedstawiła szczegółowych informacji, wiadomo, że komputery eksaskalowe będą potrzebowały do funkcjonowania od 30 do 50 megawatów mocy. Zmieniając perspektywę, 50 megawatów wystarczyłoby do zasilania budynków mieszkalnych w mieście o populacji od 50 000 do 70 000 ludzi. W ciągu roku zużycie jednego megawata energii elektrycznej kosztuje około miliona dolarów, więc zmniejszenie poboru mocy przez superkomputery pozostaje kluczowym celem. Procesory oparte na innowacyjnych mikroarchitekturach umożliwiają skalowalną wydajność i energooszczędność.
W ciągu ostatnich 30 lat superkomputery przeszły od jednego procesora z jednym wątkiem do wielu rdzeni i wielowątkowości z tysiącami węzłów pracujących razem.
Obecnie programiści piszący aplikację na potrzeby przetwarzania eksaskalowego muszą rozłożyć problem na wiele elementów, które w pełni wykorzystają równoległą naturę komputera i zapewnią synchronizację wątków.
Przyszłość superkomputerów obejmuje różne rodzaje przetwarzania danych oraz skupia się na zastosowaniu AI, aby wykorzystać potencjał zwiększającej się ilości zebranych danych. Chociaż superkomputery początkowo wykorzystywały jedynie procesory, obecnie korzystają również z wydajnych procesorów graficznych, układów FPGA i innych akceleratorów, które wprowadzają funkcje służące do szybszego wykonywania operacji lub zapewnienia większej energooszczędności. Procesory graficzne przyspieszają procesory w zastosowaniach naukowych i inżynieryjnych poprzez obsługę niektórych zadań wymagających dużej mocy obliczeniowej i czasu. Układy FPGA można skonfigurować w zależności od potrzeb różnorodnych aplikacji, aby znacząco zwiększyć wydajność. Natomiast nowy procesor szkolenia AI Habana Labs i procesor wnioskowania AI mogą przyspieszyć zmieniające się obciążenia robocze AI. A to dopiero początek. W miarę jak naukowcy rozkładają aplikacje na części, inne technologie umożliwią dalsze postępy.
Informatyka neuromorficzna oferuje wyjątkowe właściwości obliczeniowe w przeliczeniu na zużywaną moc. Wykorzystuje ona sprzęt, aby naśladować sposób organizowania, komunikowania i uczenia się neuronów w mózgu. Informatyka neuromorficzna ułatwi AI radzenie sobie z nowymi i abstrakcyjnymi sytuacjami w ramach automatyzacji zwykłych działań ludzkich.
Informatyka kwantowa ma niesamowity potencjał w zakresie skracania czasu potrzebnego do rozwiązywania problemów. Przeobraża ona binarne kodowanie danych w trybie on-off, które jest fundamentem współczesnych obliczeń, i zastępuje bity kubitami, które mogą jednocześnie manifestować wiele stanów. Dzięki temu przetwarzanie danych może wznieść się na niespotykane wcześniej poziomy równoległości.
W miarę jak naukowcy włączają AI w aplikacje HPC, pozyskują więcej informacji i pomysłów na temat możliwości jej wykorzystania. AI umożliwi modelowanie i symulację na nową skalę, aby rozwiązywać niezwykle złożone problemy, takie jak modelowanie klimatu. AI może również identyfikować nieprawidłowości w ogromnych ilościach danych i wskazywać naukowcom kolejne tematy do przebadania. Zaawansowane biblioteki i narzędzia, takie jak te z zestawów narzędzi Intel® oneAPI upraszczają programowanie i umożliwiają programistom poprawę wydajności i innowacyjności.
Superkomputery, a teraz także komputery eksaskalowe, dostarczają badaczom potężnych narzędzi do dokonywania wcześniej niewyobrażalnych przełomów, aby napędzać postęp społeczny. Osiąganie niesamowitej wydajności w różnorodnych rzeczywistych obciążeniach roboczych HPC i AI w zakresie produkcji, nauk przyrodniczych, energii i usług finansowych wymaga partnera i technologii, która dostosowuje się do zmieniających się oczekiwań. Ten czynnik oraz wsparcie ze strony szerokiego ekosystemu superkomputerów pozwoli uwolnić pełen potencjał danych w administracji państwowej, środowiskach akademickich i przedsiębiorstwach.