Если верить процитированному изданием Tom’s Hardware сообщению некоего высокопоставленного программного архитектора из Alphabet (материнской компании Google), то сверхмощные серверные графические ускорители (GPU), что пользуются сегодня невероятным спросом на фоне общей увлечённости задачами искусственного интеллекта (для исполнения которых именно такие ускорители наилучшим образом подходят), фактически служат в составе высоконагруженных облачных серверов год, два; много — три, после чего с крайне значительной вероятностью выходят из строя.

И хотя серверное «железо» в дата-центрах гиперскейлеров вроде AWS, Microsoft или той же Google в любом случае подлежит регулярной плановой замене, обычный срок его службы составляет не менее 3-5 лет, так что чрезмерно низкая надёжность «тяжёлых» GPU поневоле оборачивается для заказчиков таких продуктов дополнительными расходами. А следовательно, не снижаются цены и на услуги доступа к облачному ИИ, оказываемые этими заказчиками множеству корпоративных и частных клиентов по всему миру.

С технической точки зрения заявление это, даром что сделано анонимным экспертом, не выглядит неправдоподобным: действительно, в составе гиперскейлерских облачных серверов мощные GPU работают под полной нагрузкой 60-70% всего своего времени службы, потребляя при этом в среднем по 700 Вт мощности на каждый ускоритель (в состав типичного современного ИИ-сервера в форм-факторе 4U таких ускорителей входит до 8, и в одну стойку дата-центра обычно монтируется сразу несколько таких серверов). Понятно, что даже при весьма эффективном теплоотводе нагрузка на выполненные по сверхминиатюрным техпроцессам («5 нм», «3 нм») кремниевые микросхемы выходит избыточно высокой, что и приводит нередко к выходу из строя как самих чипов GPU, так и работающей с ними в связке высокопроизводительной видеопамяти HBM — уже на протяжении первого года столь интенсивной эксплуатации. К исходу же третьего года неработоспособными оказываются, как свидетельствует приводимая изданием статистика, уже около трети исходно закупленных ускорителей.

Снижать же нагрузку на ИИ-серверы облачные провайдеры не готовы: графические ускорители обходятся им в несколько десятков тысяч долларов США каждый, и как раз ради скорейшего возврата инвестиций это «железо» эксплуатируют с предельно возможной интенсивностью. Вдобавок, производственные мощности TSMC — единственной в мире фабрики, способной сегодня выпускать микросхемы требуемого класса, — уже расписаны под заказы партнёров (Nvidia, Apple, AMD, Qualcomm и прочих) на год и более вперёд, что не позволяет оперативно нарастить количество выводимых на рынок серверных GPU. В результате, указывают эксперты, усиленный износ применяемых для работы с ИИ ускорителей создаёт самоподдерживающийся высокий спрос на обновление их парка (даже для поддержания прежнего количества ИИ-серверов заказчикам приходится закупать всё новые GPU). Что, в свою очередь, заставляет провайдеров услуг облачного доступа к ИИ держать уже для своих заказчиков цены на высоком уровне и искусственно разогревает этот сегмент в целом стагнирующего мирового ИТ-рынка.