Раджа Кодури возглавил в Intel разработку топовых видеокарт
Сегодня стало известно, что уволившийся из AMD Раджа Кодури, курировавший там разработку видеокарт (включая анонсированные летом Radeon RX Vega 64 и RX Vega 56), перешел на работу в Intel. В пресс-релизе компании сообщается назначении Кодури главным архитектором и старшим вице-президентом новообразованной Группы ядерных и визуальных вычислений (Core and Visual Computing Group). «Кодури дополнит лидирующие позиции Intel во встроенной графике на рынке ПК топовыми решениями дискретной графики для широкого диапазона вычислительных сегментов«. Проще говоря, бывший архитектор видеокарт AMD возглавит в Intel разработку высокопроизводительных видеокарт — по всей видимости игровых в том числе.
Это весьма значимое событие, которое обещает стать историческим в случае успеха. На сегодня рынок видеокарт поделен между Nvidia и AMD примерно так же, как между Intel и AMD поделен рынок x86-процессоров. Intel, как справедливо говорится в её пресс-релизе, лидирует в сегменте интегрированной графики. Но самые производительные из процессоров Intel со встроенной графикой не достигают уровня даже самых младших моделей видеокарт с дискретной графикой. Например, в бенчмарке GFXBench Manhattan 3.1 off-screen процессор Intel Core i7-6770HQ с ГПУ Iris Pro Graphics 580 (45 Вт, $434) показывает 76.7 к/с, а Nvidia GeForce GT 1030 (30 Вт, $69) — 111.9 к/с.
Возникают два закономерных вопроса: 1) воспользуется ли Intel уже имеющейся в её распоряжении архитектурой встроенной графики — или начнет разработку новой; и 2) присоединится ли Раджа Кодури к уже проводимым разработкам дискретных ГПУ — или возглавит их проектирование с нуля? По поводу второго вопроса можно только гадать, а в первом лично я склоняюсь скорее к новой архитектуре, поскольку буквально на днях стало известно о переходе Intel на встроенную графику AMD. Если этот переход связан с отказом Nvidia продлевать с Intel перекрестное патентное соглашение, то использование Intel принадлежащих Nvidia технологий в своих новых ГПУ станет попросту невозможным. Поэтому вопрос скорее в том, воспользуется ли Intel архитектурой AMD, которая будет реализована в её будущих процессорах со встроенными ГПУ, или пойдет другим путем. Напомню, что при равных с GTX 1080 и GTX 1070 производительности и цене, Vega 64 и Vega 56 потребляют на 48% и 27% больше электроэнергии и заметно шумнее. Если Intel всерьез рассчитывает на конкуренцию не только с AMD, но и Intel, то очевидно должна избавиться от этих недостатков.
Вообще же это не первая попытка Intel войти на рынок видеокарт. Первой стал графический ускоритель i740 в 1998 году, а в 2000е компания начала работать над проектом Larrabee, в рамках которого планировалось создать собственный аналог APU с ГПУ достаточно производительным для конкуренции с Nvidia GeForce и AMD Radeon. Впоследствии Intel отказалась от этой идеи, и на свет появилась архитектура Intel MIC, впоследствии переименованная в Xeon Phi.
Самая старшая модель этого семейства, прошлогодний Xeon Phi 7290, содержит процессор, ядра которого способны запускать до четырех потоков одновременно. Но в основе этих многоядерных процессоров лежит классическая архитектура x86, представляющая собой набор достаточно сложных инструкций. Поэтому Xeon Phi вполне подходит для задач, требующих множества параллельно выполняемых вычислений и успешно конкурирует с предназначенными для тех же целей Nvidia Tesla.
Но вместе с тем ускорители Xeon Phi слишком дороги для чисто графических задач, где эффективнее использовать простые инструкции, выполняемые тысячами одновременно работающих ядер. Если в Xeon Phi 7290 ($6,254) число ядер составляет 72, что дает 288 потоков, то например ГПУ топовой игровой видеокарты Nvidia GTX 1080 Ti ($699) содержит 3,584 ядер. Базовая тактовая частота ядер у обоих ускорителей при этом одинаковая — 1.5 ГГц. Аналогично AMD Radeon RX Vega 64 ($499) — имеет 4,096 ядер, работающих на базовой частоте 1.25 ГГц.
Так или иначе, после десятилетнего безраздельного доминирования Nvidia и AMD на рынке видеокарт, Intel делает очередную попытку выйти на него при помощи одного из лучших в мире специалистов в этой области. Если ей это удастся, то конкуренция между производителями игровых графических ускорителей обострится и наверняка ускорит рост их быстродействия и/или снижения цен.