Всем известные видеокарты, или, точнее сказать, GPU, изначально разработанные для обработки визуальных артефактов и видеоигр, оказались идеально подходящими для ML-задач. Это стало возможным благодаря тому, что графические процессоры способны обрабатывать множество операций параллельно, что критически важно для тренировки моделей, где одновременно обрабатываются огромные объёмы данных.