Przejdź do treści

OpenCL w akcji: aplikacje do przetwarzania końcowego, przyspieszone

    1652144343

    Co naprawdę obiecują heterogeniczne obliczenia?

    Nikt nie jest gotowy, aby zadeklarować koniec wieku procesorów. W końcu firmy takie jak Xilinx nadal sprzedają programowalne urządzenia logiczne specyficzne dla aplikacji, które są znacznie mniej zintegrowane funkcjonalnie i wielofunkcyjne niż nowoczesne jednostki centralne. Czasami prostsze jest bardziej efektywne. Jest prawdopodobne, że wyspecjalizowane procesory będą nadal odnosić sukcesy w niektórych segmentach rynków, zwłaszcza tam, gdzie głównym problemem jest wysoka wydajność. Spodziewamy się jednak, że w coraz bardziej zróżnicowanych środowiskach głównego nurtu, przetwarzanie heterogeniczne — obejmujące wiele rodzajów zasobów obliczeniowych upakowanych w jednym, zintegrowanym urządzeniu — będzie nadal stawało się coraz bardziej popularne. A jako urządzenia produkcyjne, te urządzenia również staną się bardziej złożone.

    Logicznym zakończeniem przetwarzania heterogenicznego jest system na chipie (SoC), w którym wszystkie (lub przynajmniej wiele) głównych systemów obwodów jest zintegrowanych w jednym pakiecie. Na przykład układy AMD Geode (obecnie napędzające projekt One Laptop Per Child) wyewoluowały z konstrukcji SoC z lat 90. XX wieku. Podczas gdy wielu produktom SoC wciąż brakuje mocy do zasilania nowoczesnego, popularnego komputera stacjonarnego, zarówno AMD, jak i Intel sprzedają architektury łączące rdzenie procesora, zasoby graficzne i kontrolę pamięci. Te akcelerowane jednostki przetwarzania (APU), jak je nazywa AMD, osiągają, a nawet przekraczają poziomy wydajności oczekiwane od typowych stacji roboczych zorientowanych na produktywność. Przede wszystkim uzupełniają one znane projekty procesorów wieloma, wieloma jednostkami ALU zwykle używanymi do przyspieszania grafiki 3D. Jednak te programowalne zasoby nie muszą być używane do gier.

    Historycznie rzecz biorąc, wbudowane rozwiązania graficzne były włączane przez logikę w mostku północnym chipsetu. Zmęczony poważnymi wąskimi gardłami i opóźnieniami, w pewnym momencie po prostu trudniej było zwiększyć wydajność przy użyciu tak odległych od siebie komponentów platformy. W rezultacie zauważyliśmy, że funkcjonalność przenosi się na północ do procesora, tworząc nowy rodzaj produktów, które mogą nie tylko oferować znacznie lepszą wydajność w grach, ale także radzić sobie z bardziej ogólnymi zadaniami, które wykorzystują hybrydowy charakter układów SoC z procesorem i funkcjonalność GPU. 

    Dla AMD oznacza to długo poszukiwaną kulminację inicjatywy Fusion, która prawdopodobnie była motorem przejęcia firmy ATI Technologies przez AMD w 2006 roku. AMD dostrzegło potencjał swoich procesorów i technologii graficznej ATI w wypieraniu czystych procesorów w stale rosnącym udziale w rynku, a firma była zdeterminowana, aby być w awangardzie tej zmiany. Intel oczywiście stosuje własną technologię graficzną, ale w innym celu. Zdecydowanie nacisk położono bardziej na rdzenie przetwarzania, a mniej na technologię graficzną.

    Na początku 2011 roku pojawiła się pierwsza rodzina APU AMD serii C i E, wyprodukowana w procesie 40 nm. Zastosowanie integracji umożliwiło modele o niskim poborze mocy 9 i 18 W, które trafiły do ​​ultraprzenośnych notebooków. Dziś mamy rodzinę APU serii A z Llano. Zastosowanie technologii 32 nm umożliwia zmieszczenie wystarczającej ilości zasobów, aby uzyskać architekturę prawdziwie klasy komputerów stacjonarnych w przystępnej cenie.

    Chociaż w grę wchodzą różne specyfikacje, być może największym wyróżnikiem wśród modeli wymienionych poniżej są ich odpowiednie silniki graficzne. A8 wykorzystuje konfigurację, którą AMD określa jako Radeon HD 6550D. Składa się z 400 procesorów strumieniowych, rdzeni Radeon lub shaderów, w zależności od tego, jakiej nazwy chcesz używać. A6 schodzi do Radeona HD 6530, który może pochwalić się 320 procesorami strumieniowymi. A4 skaluje się z powrotem do Radeona HD 6410D ze 160 procesorami strumieniowymi.

    Przetestowaliśmy już procesory i układy APU o wartości poniżej 200 USD w wielu naszych ulubionych testach gier, więc wiemy, jak najnowsze chipy szybują lub spadają w nowoczesnych tytułach. Teraz chcemy przyjrzeć się innym sposobom, w jakie entuzjaści mogą korzystać z zasobów obliczeniowych, wykorzystując obciążenia, które obciążają konwencjonalne rdzenie procesorów i procesory programowalne, które można znaleźć w produktach zorientowanych na grafikę.

    W tej początkowej części tego, co będzie dziewięcioczęściową serią, pod lupę umieszczamy obróbkę wideo. W tamtych czasach byłby to czasochłonny model użytkowania, nawet z wielordzeniowym procesorem pod maską. Ponieważ jest to w dużej mierze równoległe obciążenie, przyspieszenie go za pomocą wielu rdzeni procesora graficznego stało się świetnym sposobem na zwiększenie produktywności i poprawę wydajności.

    Poprosiliśmy AMD o pomoc w tworzeniu tej serii, więc zamierzamy skupić się na sprzęcie firmy, aby stworzyć kilka dość podstawowych porównań. Jak działa samodzielny procesor w oprogramowaniu obsługującym OpenCL? Co powiesz na samodzielny układ APU oparty na Llano? Następnie dopasujemy tańsze APU i droższe procesory do kilku różnych dyskretnych kart, aby zobaczyć, jak wydajność rośnie i maleje w każdej konfiguracji.

    0 0 votes
    Rating post
    Subscribe
    Powiadom o
    guest
    0 comments
    Inline Feedbacks
    View all comments
    0
    Would love your thoughts, please comment.x