Na konferencji w Las Vegas dyrektor generalny Amazon Web Services (AWS), Adam Selipsky, przedstawił Trainium2, drugą generację chipu przeznaczonego do szkolenia systemów AI. Selipsky zaznaczył, że nowa wersja jest czterokrotnie szybsza od swojego poprzednika, przy jednoczesnym dwukrotnym zwiększeniu efektywności energetycznej.
Ten ruch ze strony AWS następuje krótko po tym, jak Microsoft ogłosił wprowadzenie własnego układu sztucznej inteligencji o nazwie Maia. Chip Trainium2 będzie konkurować również z chipami AI firmy Alphabet, która od 2018 roku dostarcza swoim klientom moduł przetwarzania Tensor (TPU) w chmurze.
Selipsky ogłosił również plany wprowadzenia nowych chipów szkoleniowych przez AWS w przyszłym roku. Wprowadzanie niestandardowych chipów stanowi odpowiedź na rosnące zapotrzebowanie na moc obliczeniową, zwłaszcza w kontekście rozwijających się technologii, takich jak duże modele językowe, które stanowią podstawę wielu usług (np. Chatu GPT).
Firmy oferujące usługi przetwarzania w chmurze, takie jak AWS i Microsoft, prezentują swoje chipy jako alternatywę dla produktów lidera rynku chipów AI, Nvidii. W tym kontekście AWS ogłosiło również, że będzie oferować najnowsze chipy Nvidii w swojej usłudze chmurowej.