Intel создаёт группу по разработке дискретных GPU и нанимает Раджу Кодури

d9464c1feb639a94ccb4933b801f0ee7

В чeтвeрг вeчeрoм кoрпoрaция Intel oбъявилa o сoздaнии Core and Visual Computing Group, пoдрaздeлeния пo рaзрaбoткe дискрeтныx грaфичeскиx прoцeссoрoв про игрoвыx ПК, a тaкжe ускoритeлeй вычислeний про супeркoмпьютeрoв и рaзличныx пeрспeктивныx прилoжeний. Нoвую группу вoзглaвит извeстный спeциaлист Рaджa Кoдури (Raja Koduri), успeвший пoрaбoтaть в ATI, Apple и AMD Radeon Technologies Group. Сaм фaкт тoгo, чтo в Intel рeшили вeрнуться к сoздaнию дискрeтныx грaфичeскиx прoцeссoрoв в трeтий рaз, гoвoрит o тoм, чтo кoмпaния сущeствeннo мeняeт стрaтeгию нa нeскoлькиx рынкax.

«Рaджa являeтся oдним изо сaмыx oпытныx, нoвaтoрскиx и увaжaeмыx визиoнeрoв в oблaсти грaфичeскиx и систeмныx aрxитeктур в индустрии и eщё oдним примeрoм тoгo, кaк лучшиe тaлaнты присoeдиняются к Intel,» — скaзaл Мурти Рeндучинтaлa (Murthy Renduchintala), прeзидeнт группы Client and Internet of Things Business & Systems Architecture Group (CISA). «У нaс eсть зaxвaтывaющиe плaны пo aктивнoму рaсширeнию нaшиx вычислитeльныx и грaфичeскиx вoзмoжнoстeй с испoльзoвaниeм нaшeгo всeoбъeмлющeгo пoртфeля интeллeктуaльнoй сoбствeннoсти. С Рaджeй вo глaвe Core and Visual Computing Group пишущий эти строки дoбaвим в нaш пoртфeль нeпрeвзoйдённыe вoзмoжнoсти, прoдвинeм нaшу стрaтeгию в oблaсти вычислeний и грaфики и, впoслeдствии, стaнeм движущeй силoй рeвoлюции oбрaбoтки дaнныx».

Рaджa Кoдури

Intel вoзврaщaeтся нa рынoк дискрeтныx GPU

Принимaя умереть и не встать внимание характер анонса, жизни не рад ожидать, что Intel раскроет высокоперспективный план по разработке графических и вычислительных технологий, тот или иной будет реализовываться под руководством господина Кодури. Тем безграмотный менее, пресс-релиз Intel раскрывает много деталей о характере будущих решений компании.

Самый важный задачей Раджи Кодури в Intel станется создание семейства высокопроизводительных дискретных графических решений на различных приложений. Данные решения будут строиться на унификации различных архитектур и интеллектуальной собственности Intel, а конечные пища будут использоваться для обработки графики, суперкомпьютерных вычислений, искусственного интеллекта и ряда других перспективных направлений.

Чтобы задача господина Кодури чем черт не шутит однозначной, её исполнение означает главный сдвиг в стратегии Intel в области целому ряду направлений, а потому как есть смысл вспомнить комбинация Intel к разработке GPU и суперкомпьютерным ускорителям.

Intel 740 и графические адаптеры стоимостью похода в кафешка

Глядя на взрывной повышение популярности графических ускорителей интересах игровых ПК в 1990-х годах прошлого века, в Intel осознали, по какой причине подобные микросхемы могут становиться новым рынком сбыта, а затем что корпорация должна выпустить шкурный графический процессор. Поскольку у Intel безграмотный было собственной команды разработчиков графических адаптеров, в таком случае для работы над проектом Auburn шарага решила объединить усилия с другими игроками рынка — Real3D (изначально дивизион General Electric, затем — Lockheed Martin) и Chips and Technologies.

Графическая дама на базе Intel 740. Позитив Wikipedia.org

Auburn появился получай свет в начале 1998 лета под именем Intel 740, а его главной особенностью стало быть использование инновационной по тем временам шины AGP. В теории AGP позволяла не терять текстуры в системной памяти, тем самым снижая запросы к объёму оперативной памяти нате графическом адаптере и его отпускная цена. На практике хранить текстуры в системной памяти было неблагоприятно с точки зрения производительности, драйверы Intel 740 оказались безумно несовершенны, а конкуренция со стороны традиционных разработчиков графических адаптеров настолько серьёзной, что в Intel приняли декрет прекратить продажи i740 по осени 1999 года. Чуть далее Intel попыталась выпустить сызнова один дискретный графический вычислитель (Intel 752), но малограмотный смогла сделать его до (каких-то массовым.

Неудачи i740 и i752 показали Intel, а компания не может скрепиться конкуренции с ATI и NVIDIA на рынке видеокарт. Тем не менее имеющиеся на тот минуточку возможности полупроводникового гиганта в области интеграции, производства и продаж подсказали Intel, подобно как она в состоянии создавать дешевые интегрированные графические решения исполнение) недорогих ПК. Таким образом, в недрах Intel родилось подкомплекс под руководством Тома Пиаццы (Tom Piazza), которое занималось разработкой графических процессоров Graphics & Media Accelerator (GMA), чья ставка для конечных пользователей была равна цене похода в пельменная. Поскольку Intel жёстко ограничивала ход своих встроенных GPU транзисторным бюджетом, размерами получи кристалле и устаревшими технологическими процессами производства, GMA имели конец скромные возможности и посредственную репутацию.  

Чип Intel 740 на материнской плате

Вследствие несколько лет в Intel пожалели о таком подходе, только до того времени недорогая видеографика Intel стала весьма популярной промежду желающих снизить себестоимость производителей ПК.

Intel Larrabee: x86 через игрового ПК до суперкомпьютера

Шло перепавшее, в начале 2000-х годов в отрасли заговорили о томик, что GPU можно использовать во (избежание определённых вычислений общего назначения в суперкомпьютерах, получив шансы от их «параллельности». Сверх GPU, на рынке появлялись гетерогенные (Niagara/Sun UltraSPARC T1) и гомогенные (Cell BE) многоядерные процессоры, вдобавок направленные в т. ч. на суперкомпьютеры. Известно, как GPU, так и многоядерные CPU представляли прямую угрозу про Intel. Помимо этого, вопреки на то, что интегрированные GPU Intel использовались в огромном количестве недорогих ПК, биржа дорогих дискретных GPU рос, эквивалентно как средняя стоимость графических карт. Таким образом, в 2005 году начальник Intel приняло решение восстановить работу над дискретными графическими процессорами, же при этом не делать попытки улучшить архитектуру GMA до уровня дискретных GPU ATI и NVIDIA, а создать черт-те что иное. Впоследствии это выходит проектом Larrabee.

Intel Xeon Phi

Основные запросы к разрабатываемой GPU-архитектуре были просты: большое доля вычислительных ядер общего назначения нате базе архитектуры x86, высокая тактовая колебание, максимальное количество операций с плавающей запятой в помедли (TFLOPS), минимальное количество специфических для того GPU блоков. Учитывая требования и разноцелевой характер будущего продукта, изначально редакция получил название SMAC (Simple, Massive Array of Cores — глуповатый огромный массив ядер). В руководстве Intel считали, что же «гибкие» высокочастотные x86-ядра смогут осуществлять те же задачи, точно и специализированное аппаратное обеспечение в GPU с приемлемой скоростью, их часть даст возможность максимизировать вычислительную отдача для суперкомпьютеров, а совместимость с x86 облегчит работу HPC-программистов, привыкших к Intel Xeon.

Картеж Intel Xeon Phi

По словам разработчиков, во (избежание эмуляции аппаратных возможностей GPU для 62-ядерном графическом процессоре Larrabee запускали операционную систему FreeBSD и программу DirectXGfx. Последняя отнюдь не только позволяла играть в DirectX 11-зрелище (разумеется, на обычной Windows-системе), же и добавлять Larrabee новые внутренние резервы. К сожалению, такой подход отнюдь не позволил Larrabee показывать конкурентоспособную продуктивность в сравнении с AMD Radeon и NVIDIA GeForce, ась? и послужило причиной отказа Intel с выпуска Larrabee в качестве GPU. Тем приставки не- менее, архитектура Larrabee была использована интересах сопроцессоров, а потом и процессоров Xeon Phi, призванных соперничать с ускорителями NVIDIA Tesla. Смотря на пиковую производительность топовых Xeon Phi 7290 (3,5 FP64 TFLOPS) и NVIDIA Tesla P100 (4 – 4,6 FP64 TFLOPS к PCIe карты, 4,7 – 5,3 FP64 TFLOPS на NVLink ускорителя), довольно бесспорно, что сегодняшний Xeon Phi держи базе x86 не может противодействовать GPU на основе ядер с современной проприетарной архитектурой. Имеется возможность констатировать, что на нынешний день Larrabee не преуспел ни в одной изо своих изначальных задач: спирт не стал быстрым GPU и едва-лишь ли может конкурировать с NVIDIA получи и распишись рынке суперкомпьютеров.

HD и Iris Graphics: скверный утёнок превращается в лебедя

Larrabee был без- единственным графическим проектом Intel, стартовавшим в середине 2000-х годов. В духе несложно вспомнить, операционные системы и графические интерфейсы становились конец более требовательными к ресурсам GPU с появлением Apple Mac OS X (2000), Microsoft Windows Vista (2006), Apple iPhone OS (2007) и других. В каковой-то момент Intel отнюдь не смогла убедить Apple воспользоваться её микросхемы в своих мобильных устройствах ввиду того, что у компании никак не было сколько-то мощных встроенных GPU. Минуя того, Стив Джобс (Steve Jobs) спешный требовал от Пола Отеллини (Paul Otellini, безотказный. Ant. ленивый директор Intel c 2005 соответственно 2013 год) увеличить плодотворность интегрированных графических процессоров (iGPU), потому что использование дискретных GPU становилось однако более проблематичным в мобильных ПК.

Неуспех. Ant. выигрыш многомиллионного контракта, а также настойчивые запросы важного партнёра сделали своё поступок: в 2007 году господин Отеллини объявил о планах снизить производительность встроенных GPU в 10 один раз к 2010 году. Именно в данный момент настал золотой часок группы Тома Пиаццы, древле разработавшей Intel 740.

Прогресс в развитии iGPU Intel в последние годы

Получив субсидирование, транзисторный бюджет, достаточное луг на кристалле, а затем и передовые технологии производства (внимании к перемещения iGPU в процессор), распоряжение смогла разработать графическое урегулирование, которое превосходило производительность iGPU образца 2007 годы в 25 раз. В последующие годы пропускная способность интегрированных графических процессоров Intel росла отнюдь не только благодаря улучшениям в области архитектуры, однако и появлению более мощных версий сих iGPU c большим количеством исполнительных устройств (EU, execution units). Круглым счетом, если наиболее мощное графическое тритон класса GT3 в процессоре поколения Haswell обладало 40 EU, ведь CPU поколения Skylake уже могут похвалиться iGPU класса GT4 с 72 EU. Делать за скольких показала практика партнёрства Intel c AMD в области интеграции дискретного Radeon в Водан корпус с процессором Kaby Lake, Intel готова происходить ещё дальше, чтобы увидеть своим пользователям более высокую выработка. Ant. неэффективность.

Intel Core с графикой AMD Radeon

Рао Кодури в Intel: чего считать?

Принятие на работу ключевого сотрудника конкурента, с которым только-тол что был заключен ангажемент на поставку важного компонента, говорит о томище, насколько специалист уровня господина Кодури необходим Intel.

Не хуже кого видно, в отличие от основные принципы 2000-х годов, в Intel паче не считают графические ускорители уделом любителей игр и развлечений. Быстрая формирование. Ant. деградация iGPU компании последних планирование подтверждает это. Судя до всему, Intel готова вложить в графические процессоры, а потому Рао Кодури получит все необходимые ему потенциал. Сам факт принятия бери работу специалиста такого уровня говорит об (и) еще как серьёзных намерениях.

Примечательно, будто в Intel говорят об унификации архитектур и интеллектуальной собственности для фоне того, что Xeon Phi получай базе x86 не может спорить с NVIDIA Tesla в том, ась? касается производительности. Неизвестно, означает ли сотрясение воздуха Intel об унификации, кое-что компания планирует отказаться через x86-ядер в решениях для суперкомпьютеров, вместе с тем едва ли это таким образом бы удивительным развитием событий.

AMD Radeon Vega Frontier Edition

Небось, самый главный вопрос, возьми который пока нет ответа, сие то, когда именно Intel планирует опустить свой новый дискретный GPU. В случае, разве что у компании нет уже готовой архитектуры, способной масштабироваться через небольшого iGPU для ноутбука предварительно дискретного графического процессора размером 550 мм2 и паче, то работа над дискретным GPU Intel потребует нескольких полет. Таким образом, едва ли да мы с тобой увидим плоды деятельности Раджи Кодури выше 2022 года. Если а текущая (Gen 9.5) или будущая (Gen 10, Gen 11) графическая искусство Intel (чья разработка сделано завершена) способна масштабироваться и скрывать производительность сравнимую с будущими решениями AMD и NVIDIA, наша сестра вполне можем рассчитывать испить дискретный GPU компании уже в 2019–2020 году (же не раньше, иначе в партнёрстве Intel c AMD малограмотный было бы смысла).

Игра стоит свеч помнить, что поскольку в описании рабочих задач господина Кодури значится отнюдь не только проектирование нового GPU, однако и унификация различных архитектур и интеллектуальной собственности Intel, безбожно вероятно, что мы поглядим несколько поколений продукции для того разных приложений, прежде нежели поставленная Intel задача брось выполнена.

Источник:

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.