Кодовое имя «Conroe» — заявка на победу
Евгений Патий
"Экспресс Электроника"
Известно, что в историческом плане все развивается по спирали. В доказательство можно привести массу примеров. А сегодня это утверждение как нельзя лучше подходит к процессорному бизнесу компании Intel.
На архитектуре NetBurst можно ставить крест. Хотелось бы добавить: «Как на не оправдавшей надежд». Но поостережемся и не будем рубить с плеча — все не так однозначно, кое-какие выводы компания Intel для себя сделала. Более того, NetBurst стала родительницей многих технологий и заставила производителей ощутимо напрячься в конкурентной борьбе. Как сказал кто-то из древних, опыт берет большую плату за обучение, но и учит лучше других учителей.
Уже можно считать, что процессора Pentium 4 нет, он стал достоянием истории. Блеск и нищета платформы NetBurst — это был Pentium 4.
Давайте припомним, как все началось и чем закончилось. За прекрасным процессором Pentium III (Tualatin), последним отпрыском семейства P6, свет увидел первый Pentium 4 с ядром Willamette, крайне неоднозначно принятый рынком. Первые модели безоговорочно проигрывали Pentium III практически по всем фронтам, несмотря на более высокую тактовую частоту. Однако Intel заверяла общественность, что это лишь старт и Pentium 4 попросту не способен раскрыть свой потенциал на такой невысокой, с точки зрения новой архитектуры NetBurst, частоте. Дальше, мол, все будет гораздо радужнее.
Процессор Pentium 4 и архитектура NetBurst оказались заложниками тактовой частоты, что привело к достаточно неприятным последствиям. Хотя и здесь дела обстоят не просто: изначально, на бумаге, процессоры — потомки NetBurst выглядели великолепно. Но выяснилось, что, если воплотить все инженерные идеи в кремнии, цена конечного изделия будет совершенно не совместима со здравым смыслом, его попросту никто не купит. Скрепя сердце, пришлось здесь урезать, тут ужать, там уменьшить и переделать. Осталось уповать лишь на сверхвысокую тактовую частоту, на которой процессор действительно способен себя проявить.
Ведь непривычно длинный конвейер NetBurst частично избавится от своей «болезни непредсказуемости» лишь на высокой частоте, точнее, именно в этом случае частый сброс конвейера из-за очередного неверного предсказания не будет столь сильно бить по производительности. В итоге получился замкнутый круг: длинный конвейер позволяет разогнать ядро до очень высокой частоты, а частота, в свою очередь, позволяет закрыть глаза на промашки алгоритмов предсказания. Как видим, повышение частоты — единственный возможный путь развития архитектуры NetBurst.
Достаточно быстро и без особых проблем удалось достичь тактовой частоты в 2 ГГц. Затем последовали перевод производства чипов на более тонкий технологический процесс (со 180 до 130 нм), перепрофилирование фабрик на выпуск 300-мм кремниевых пластин вместо 200-мм и выпуск нового процессорного ядра Northwood (разумеется, также спроектированного с учетом идей NetBurst). Northwood выглядел намного привлекательнее Willamette: увеличенный объем полноскоростной кэш-памяти второго уровня, утонченный техпроцесс, позволяющий еще больше разогнать ядро, и значительно переработанный блок ветвлений и предсказаний, предоставляющий возможность конвейеру подольше оставаться на плаву без сброса.
Этот момент можно назвать переломным: именно Northwood помог привлечь покупателей и утвердить их в мысли, что Pentium 4 — все-таки хороший процессор. Про Pentium III тем временем и про архитектуру P6 забыли. Как выяснилось, до поры до времени.
Далее следует новейшая история. Еще более усовершенствованное ядро Prescott вкупе с еще более тонкими технологическими нормами и очередной сменой форм-фактора процессора, все та же архитектура NetBurst, и… технологический потолок достигнут. Этому способствовала тактовая частота, на которую ставила Intel. Первые тревожные звоночки появились еще до Prescott: последние модели Pentium 4 (Northwood) ощутимо нагревались и требовали мощной системы охлаждения. Причина проста: процессор, состоящий из многих миллионов транзисторов (львиная доля которых «откусывается» кэш-памятью второго уровня — для организации только одной ячейки необходимо шесть транзисторов) и работающий на высокой частоте, требует значительного количества энергии.
Если бы вся она уходила лишь на вычислительные нужды, на это можно было бы смело закрыть глаза: все-таки расходуется с пользой. Но из-за несовершенства технологии очень большая часть энергии расходовалась на паразитные токи утечки, то есть в никуда. Но и без этого не обойтись: либо данный процессор работает с токами утечки, либо не работает вовсе. Токи утечки стали причиной того самого нагрева, который необходимо свести к минимуму при помощи радиаторов и вентиляторов. Техпроцесс 90 нм у Prescott проблему не решил, а лишь ненадолго отодвинул неизбежное.
Pentium 4 официально так и не добрался даже до отметки 4 ГГц, несмотря на то что еще в 2001–2002 годах Intel называла цифры 5 и даже 10 Гц. Сегодня представители Intel признают, что такого поворота событий они не ожидали. Конечно, теоретически можно «загнать» частоту до 5 ГГц, применив какую-нибудь хитроумную систему охлаждения (с жидким азотом), но для массового рынка такое решение неприемлемо, хотя и неоднократно опробовано энтузиастами.
Казалось бы, ситуация практически тупиковая, однако спасение пришло оттуда, откуда его мало кто ждал. Параллельно с Pentium 4 компания развивала линейку мобильных процессоров, предназначенных для использования в портативных компьютерах — Pentium M (ядро Banias, затем — Dothan). В данном секторе о высокой тактовой частоте речи в принципе не заходило: слишком уж дорогое удовольствие для аккумулятора ноутбука. Поэтому архитектура NetBurst здесь была совершенно не к месту. Но ведь не из воздуха появилось ядро Banias? Разумеется нет. Для его разработки инженеры взяли лучшее от проверенной архитектуры P6, основы процессоров от Pentium Pro до Pentium III, которая при достаточно низкой тактовой частоте показывает прекрасную производительность (конвейер-то намного короче, чем у NetBurst, часто сбрасывать его нет необходимости). А если к этому добавить уже отлаженный тонкий техпроцесс, позволяющий заметно снизить тепловыделение и нарастить кэш-память второго уровня, получается практически идеальный мобильный процессор.
Вполне можно считать, что P6 вовсе не умирала. Она развивалась параллельно с NetBurst, чтобы, согласно упомянутой исторической спирали, в нужный момент вновь появиться на сцене.
После того как NetBurst оказалась в технологическом тупике, события развивались довольно стремительно. Intel, вооруженная отработанной к тому времени технологией размещения двух ядер в рамках одного чипа, оценив перспективы совершенствования Pentium M, поступила единственно правильным способом: совместила обе разработки и заодно внесла необходимые усовершенствования. Кроме того, весьма кстати оказались отточенные в эпоху NetBurst алгоритмы ветвления и предсказания, а также многие технологии из области энергосбережения.
Так родилась архитектура Intel Core — по сути P6 в квадрате, доработанная буквально до неузнаваемости. Здесь уже не декларируются высокие тактовые частоты: во-первых, они уже не так важны, как прежде, во-вторых, как бы не случилось конфуза (как с NetBurst). Два ядра показывают достойную производительность и на частотах, далеких от 4, 5 или 10 ГГц.
Intel Core успешно стартовала на рынке мобильных и настольных систем, только в первом случае это были ноутбуки на платформе Windows, а во втором — компьютеры Apple Macintosh, что в свое время наделало много шуму на рынке. Все-таки не будем забывать: пока речь идет о мобильных процессорах, которые Apple решилась использовать в нехарактерной для них среде настольных ПК.
Компания Intel решила полностью заместить NetBurst на Intel Core в сегменте мобильных, настольных и серверных систем. И если на первом и последнем рынках это уже произошло (портативные ПК на базе Intel Core продаются несколько месяцев, а серверная платформа Bensley, включающая как вариант процессор на базе Core, совсем недавно увидела свет), то сегмент традиционных настольных ПК, не допускающих вживление мобильных или серверных чипов, пока не охвачен вниманием. Точнее, соответствующего процессора для него не было объявлено. Хотя все прекрасно знают, что это чип с кодовым именем “Conroe”.
Задолго до официального анонса и начала продаж Conroe о новом процессоре было известно практически все, включая цены. Чипы Conroe будут поставляться в четырех вариантах: E6300, E6400, E6600 и E6700 с тактовой частотой 1,86, 2,13, 2,40 и 2,67 ГГц соответственно. Буква Е в названии процессора обозначает энергопотребление свыше 50 Вт, аналогично, U — до 14 Вт, L — 15–24 Вт, T — 25–49 Вт. Цена варьируется в пределах $209–530 в партиях от 1000 штук.
Согласно стратегии платформизации, Intel не может не охватить вниманием огромный рынок настольных систем. Она планирует создать две платформы на базе Conroe, которые нацелены на бизнес-сегмент рынка, традиционно приносящий компании хорошую прибыль: Averill Pro и Averill Fundamental. Первая из них — сочетание процессора серии E6000, чипсета Q965 и южного моста ICH8 с поддержкой технологий виртуализации и активного управления (Virtualization Technology и Active Management Technology). Редакция платформы Averill Fundamental включает процессоры Pentium 4 и D, а также серии E4000 и E6000 вкупе с наборами системной логики Intel 946, 975X, Q963 или Q965. Справедливости ради отметим, что есть вполне реальные шансы увидеть Conroe не только в десктоп-системах. Некоторые азиатские производители ноутбуков (в первую очередь речь идет о ноутбуках класса «замена настольного ПК») начинают задумываться об использовании в мобильных ПК процессоров нового поколения Intel Conroe, изначально разработанных для настольных ПК. Новая серия мобильных процессоров Intel Merom при меньшей производительности оказывается дороже с точки зрения цены. Так, процессор Conroe с частотой 2,67 ГГц обходится на $107 дешевле, нежели Merom с частотой 2,33 ГГц.
Необходимо более пристально рассмотреть организацию и архитектуру процессора, хотя бы для того, чтобы в первом приближении оценить его рыночные перспективы. А также по той простой причине, что Conroe кардинально отличается от предшествующих разработок корпорации Intel.
Предыдущие поколения настольных двухъядерных процессоров от Intel состояли из двух отдельных процессорных ядер, находящихся в одном чипе.
Ядра связывались системной шиной FSB. Каждое из них оснащалось собственным кэшем L2, и к кэшу другого процессорного ядра можно было получить доступ лишь через упомянутую шину.
Архитектура Conroe придерживается иного принципа. На кристалл интегрируются два раздельных ядра, которые используют общий кэш L2. Кэш распределяется между ядрами, в зависимости от нагрузки на них, с помощью технологии Intel Advanced Smart Cache, о чем наш журнал уже писал ранее в материале об архитектуре Intel Core. Если запущено неоптимизированное однопоточное приложение, потребляющее ресурсы одного из ядер (а большинство программ сегодня по-прежнему однопоточные, то есть неоптимизированные), то активное ядро может получить доступ ко всем 4 Мбайт кэш-памяти L2. Это одна из причин, почему процессор в итоге оказывается гораздо быстрее Pentium D. Если же параллельно запущены два приложения и одно из них требует лишь небольшого объема кэша, то второе приложение может получить весь оставшийся объем кэша L2. Собственно, технология общего кэша появилась чуть раньше, когда были выпущены мобильные двухъядерные процессоры Core Duo (кодовое имя Yonah). Эта технология является одной из характерных особенностей Intel Core.
В принципе, Conroe очень близка к своему мобильному родственнику с ядром Yonah, хотя и обладает некоторыми отличиями. В первую очередь необходимо отметить развитие идей энергосбережения, которые, по правде говоря, более уместны именно у Yonah, в мобильном сегменте. Но так или иначе, Conroe гораздо тщательнее проработан в отношении энергопотребления и, как следствие, рассеиваемого тепла. Intel уделила много внимания реализации технологии SpeedStep, позволяющей управлять тактовой частотой процессора в зависимости от вычислительной нагрузки — совершенно аналогично решениям для мобильного рынка.
Conroe очень близок к своему мобильному родственнику с ядром Yonah, хотя и обладает некоторыми отличиями. В частности, гораздо тщательнее проработана в отношении энергопотребления и, как следствие, рассеиваемого тепла Conroe представляет собой очередную часть «сериала» под общим названием “SSE”.
На повестке дня — еще одно расширение набора инструкций для обработки потоковых данных, на этот раз — SSE4. О чем это говорит прежде всего? Разумеется, об оптимизации программного обеспечения, без которой SSE4 будет совершенно бесполезен. А рынок ПО издавна знаменит своей латентностью, поэтому до того момента, когда SSE4 станет полезным, может пройти немало времени.
Из действительно полезных нововведений упомянем еще более отполированные механизмы работы с памятью и аппаратной предвыборки данных. Пожалуй, у Intel, как ни у одной другой компании — производителя микропроцессоров, имеется колоссальный опыт в доводке предвыборки данных — в славные времена Pentium 4 это был единственный путь не потерять в производительности.
Мы уже говорили, что, как и у Yonah, в Conroe реализована общая кэш-память для обоих ядер процессора, причем балансировка ее объема для каждого ядра выполняется динамически в зависимости от загрузки каждого ядра.
128-разрядные инструкции SIMD выполняются за один машинный такт в каждом исполнительном устройстве (по этому параметру Conroe вдвое превосходит Yonah, у которого обработка SIMD выполняется за два машинных такта). Также отличие состоит в количестве декодеров макроопераций — четыре у Conroe и три у Yonah (как и у Pentium M).
Чтобы не быть голословными, мы решили оценить производительность нового процессора. Для этого был собран стенд следующей конфигурации:
- процессор Intel Conroe (инженерный образец) 2,66 ГГц, системная шина 1066 МГц, кэш-память второго уровня 4 Мбайт;
- системная плата Intel D975XBX (Intel 975X), rev. 304;
- оперативная память Hynix DDR2-667, 1 Гбайт;
- видеоадаптер ATI Radeon 1900XTX, 512 Мбайт видеопамяти;
- жесткий диск Western Digital WD1600JS, 160 Гбайт.
Во времена доминирования NetBurst разработчикам ПО приходилось несладко — существовала необходимость скрупулезнейшей отладки кода с учетом капризного многостадийного конвейера.
Желательно было свести к минимуму количество ветвлений в программном коде, чтобы процессор не ошибся в предсказании и не пришлось сбрасывать все стадии конвейера. Core позволяет программировать «в лоб», максимально сосредоточившись на решении задачи. Это простой и мощный процессор, выполняющий то, что от него ожидается в соответствии с алгоритмической логикой программы.
Пожалуй, такого значимого продукта не было уже давно. Извечному противнику Intel, компании AMD, придется сильно напрячься, дабы удержать завоеванные позиции. И мы не рискнем давать каких-либо прогнозов относительно ситуации на этом рынке в ближайшем будущем. Как говорят, будет такая битва за мир, что камня на камне не останется.
Что же ожидает нас? Сегодня известны некоторые планы Intel касательно архитектуры Core, хотя, конечно, здесь нельзя быть уверенным на все сто процентов: история знает немало примеров, когда из роадмапов компаний выпадали процессоры либо добавлялись новые. Мы будем руководствоваться апрельской информацией от Intel и считать ее актуальной.
К концу 2006 года компания собирается выпустить преемника Conroe — процессор с кодовым именем Allendale. Можно предположить, что этот чип не станет революционным. Скорее всего, в нем будут развиты идеи Conroe, ведь два знаковых процессора для одного сегмента рынка, да еще в течение полугода, — это чересчур даже для Intel.
В 2007 году появится процессор, также из семейства Core, Penryn, который будет производиться с применением технологических норм 45 нм. Более того, Intel планирует применить новый литографический материал для «печатания» процессора. Уже добрый десяток лет компания использует для этого двуоксид кремния, Penryn же будет первым процессором компании, в котором она отойдет от традиций и применит изолятор под кодовым наименованием P1266.
Компания планирует, что Penryn окажется последним настольным процессором с архитектурой Intel Core (недолгая, однако, ей уготована судьба на этом рынке), — в 2008 году его сменит Nehalem, представитель еще более инновационной архитектуры, хотя и запланированный к производству по нормам 45 нм. Еще через год, в 2009-м, будет выпущен Nehalem-C, для которого Nehalem станет своеобразным отладочным полигоном (аналогично тому, как мобильный Yonah стал базой для настольного Conroe). Nehalem-C, наконец-то, будет выпускаться с использованием технологии глубокого ультрафиолета (Extreme Ultraviolet), о которой говорят уже пять лет и которая все никак не может быть отлажена до производственного уровня ввиду различных сложностей.
Вслед за Nehalem-C ожидается процессор Gesher, который, видимо, станет результатом внедрения еще более тонких технологических норм, 32 нм. Кроме того, в Gesher будет воплощена идея пространственного размещения транзисторов. С точки зрения нынешнего дня, когда реальны 65 нм, это выглядит как достаточно далекое будущее. Есть предположения, что уровень пространственной упаковки полупроводниковых элементов — 32 и 22 нм, а нанотехнологии станут актуальными не ранее 2013–2014 годов.