Podczas corocznego wydarzenia „Advancing AI” odbywającego się 12 czerwca 2025 w Santa Clara, AMD przedstawiło swoją ambitną wizję otwartego ekosystemu w dziedzinie Sztucznej Inteligencji (AI). Dzięki wprowadzeniu serii komponentów sprzętowych, oprogramowania i rozwiązań infrastrukturalnych, AMD zamierza w pełni pokryć spektrum AI, stawiając na otwartość, wydajność i elastyczność.
Znaczące przyspieszenie dzięki GPU AMD Instinct™ Serii MI350
Nowe akceleratory GPU AMD Instinct Serii MI350, w tym modele MI350X i MI355X, stanowią ogromny skok generacyjny z czterokrotnie większą wydajnością obliczeniową w porównaniu do poprzedniej generacji. Specjalnie zaprojektowane z myślą o rosnących potrzebach AI generatywnej i obliczeń wysokowydajnych, te akceleratory oferują 35-krotne zwiększenie wydajności wnioskowania i do 40% więcej tokenów na dolara w porównaniu z konkurencyjnymi rozwiązaniami.
Otwarta i skalowalna infrastruktura AI
AMD zaprezentowało również kompletną infrastrukturę AI na skalę racka, opartą na otwartych standardach. Integruje ona procesory AMD EPYC™ piątej generacji, karty sieciowe AMD Pensando™ Pollara i GPU Instinct™ Serii MI350. Już teraz operacyjna u kluczowych graczy, takich jak Oracle Cloud Infrastructure (OCI), ta infrastruktura będzie szeroko dostępna w drugiej połowie 2025 roku.
Dodatkowo, AMD ujawniło swoją przyszłą generację infrastruktury o nazwie „Helios”, wyposażoną w nadchodzące GPU Instinct MI400, procesory AMD EPYC™ „Venice” oparte na architekturze Zen 6 oraz karty sieciowe AMD Pensando „Vulcano”. Ta nowa infrastruktura obiecuje wydajność do 10 razy większą na modelach Mixture of Experts w porównaniu do obecnej generacji.
Otwarte oprogramowanie: ROCm 7 i AMD Developer Cloud
AMD kontynuuje promocję otwartego ekosystemu oprogramowania dzięki wydaniu ROCm 7. Ta najnowsza wersja poprawia wsparcie dla standardowych frameworków, rozszerza kompatybilność sprzętową i oferuje nowe narzędzia ułatwiające rozwój aplikacji AI generatywnej.
Aby wspierać deweloperów, AMD ogłosiło również globalną dostępność AMD Developer Cloud, oferującą kompletną chmurową przestrzeń do przyspieszania projektów AI.
Ambitne cele w zakresie efektywności energetycznej
AMD przekroczyło swój pięcioletni cel poprawy efektywności energetycznej, osiągając wzrost o 38 razy dla węzłów treningowych AI. Firma wyznaczyła również nowy ambitny cel na 2030 rok: poprawa efektywności energetycznej 20 razy na skalę racka w porównaniu do 2024 roku, mając na celu znaczną redukcję zużycia energii przez infrastrukturę AI.