С развитием генеративного ИИ и языковых моделей (LLM) стало ясно, что стандартные Ethernet-сети не всегда справляются с требованиями по скорости и минимизации задержек при параллельной обработке данных. В ответ на это AMD выпустила Pensando Pollara 400, которая может увеличить производительность ИИ-приложений до шести раз по сравнению с традиционными решениями.