Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Введение. Лекция 12. Особенности архитектуры современных высокопроизводительных ВС




Лекция 12. Особенности архитектуры современных высокопроизводительных ВС

Основная цель создания современных вычислительных систем – сделать так, чтобы они работали быстрее, чем однопроцессорные машины. При этом, надо помнить, что машина, которая работает в два раза быстрее, чем однопроцессорная, но стоит в 50 раз дороже, не будет пользоваться особым спросом. Когда мы говорим о производительности вычислительной системы, то в первую очередь нас интересует скорость работы процессоров, скорость устройств ввода/вывода и скорость коммуникационной сети (ведь как то надо связать процессоры, память и т.д.).

Попробуем разобраться, какой из факторов оказывается решающим для достижения рекордной производительности. Обратимся к известным историческим фактам. На одном из первых компьютеров мира - EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (2*10-6 секунды), можно было выполнить 2*n арифметических операций за 18*n миллисекунд, то есть в среднем 100 арифметических операций в секунду. Сравним с одним векторным процессором современного (2006 год) суперкомпьютера SX-6 (NEC): время такта приблизительно 1.8 наносекунды (1.8*10-9 секунд), а пиковая производительность около 10 миллиардов операций в секунду. Что же получается? Более чем за полвека производительность компьютеров выросла почти в 10миллионовраз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1.8 наносекунд, составляет лишь около 1000 раз. Откуда же взялось остальное? Ответ очевиден - использование новых решений в архитектуре компьютеров.

Давайте разберемся, от чего зависит производительность (Performance – P) процессора. Общепринято отождествлять производительность со временем выполнения процессором инструкций программного кода, входящих в задание (процесс).

 

1 команда 2 команда 3 команда 4 команда

 


t T

n

 

N- общее число инструкций

 

Тогда, P = N/T, где T – общее время выполнение кода;

N – общее число инструкций;

t – период тактовой чистоты F;

n – количество тактов на одну инструкцию.

Преобразуем это выражение:

N n

P = n x T = N/n x Fтактовая = IPC x Fтактовая

 

Где: T= n x t, а IPC (Instructions per Cycle) – среднее число команд выполненных за один такт.

Повышение производительности за счет повышения частоты предполагает:

  • меньшие проектные нормы (например: 45 нм вместо 90 нм);
  • переход на медь и увеличение слоев металлизации;
  • новые технологии и др.

Но эти возможности существенно ограничены физическими пределами, потребляемой мощностью и выделяемой мощностью.

Несколько лет назад в моде были казавшиеся вполне обоснованными прогнозы, когда именно будет преодолен тот или иной порог по тактовой частоте процессоров. Четыре-пять гигагерц виделись практически свершившимся фактом, десять маячили где-то недалеко впереди. Однако прогнозы эти на долгое время так и остались прогнозами. В некоторый момент оказалось, что тепло, выделяемое процессором, становится настолько большим, что о стабильной работе на частотах выше четырех гигагерц в условиях, характерных для обычных персональных компьютеров, и говорить не приходится 2) . Энтузиасты, используя дополнительное охлаждение, вплоть до жидкого азота, научились разгонять процессоры производства Intel выше 6 гигагерц, в отдельных случаях до 7 и даже 8, но о стабильной продолжительной работе на таких частотах речь не идет. Как просто было когда-то сравнивать процессоры компании Intel между собой. Все знали, есть Pentium, есть его "урезанный" вариант Celeron, а в остальном, чем выше частота, тем лучше. Эта простота была следствием того факта, что в формуле, определяющей производительность вычислительной системы "тактовая частота процессора * число инструкций, выполняемых за один такт (Instructions Per Cycle, IPC)" переменной величиной была только частота. Необходимо, конечно, отметить, что получаемая по этой формуле величина, дает только так называемую "пиковую производительность", приблизиться к которой на практике можно лишь на отдельных специально подобранных задачах.

Остается надеяться на новые решения в архитектуре ВС. Основное место среди них занимает принцип параллельной обработки команд и данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий.




Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 535; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.