Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Новейшие достижения ПК




 

Супер память. Недавно американская фирма Nantero из Бостона, разработала технологию, позволяющую серийно производить чипы памяти на нанотрубках до 10Гб данных. Память нового поколения, использующая массив фуллереновых трубок на поверхности чипа кремния (NRAM, Nanoscale Random Access Memory) будет хранить данные даже после отключения питания устройства. Это наводит на мысли, как резко может измениться структура компьютера. Ведь по сути, это качественный скачок в производстве компьютеров. Загрузка компьютеров, оснащенных такой памятью, при включении будет происходить мгновенно. Да и быстродействие компьютеров значительно возрастет, так как не будет обращения к винчестеру. Винчестеры как таковые будут не нужны! Можно будет отказаться от системного блока!

Суперкомпьютер. Суперкомпьютер (англ. supercomputer, СуперЭВМ) — вычислительная машина, значительно превосходящая по своим техническим параметрам большинство существующих компьютеров. Как правило, современные суперкомпьютеры представляют собой большое число высокопроизводительных серверных компьютеров, соединённых друг с другом локальной высокоскоростной магистралью для достижения максимальной производительности в рамках подхода распараллеливания вычислительной задачи. В настоящее время суперкомпьютерами принято называть компьютеры с огромной вычислительной мощностью («числодробилки» или «числогрызы»). Такие машины используются для работы с приложениями, требующими наиболее интенсивных вычислений (например, прогнозирование погодно-климатических условий, моделирование ядерных испытаний и т. п.), что в том числе отличает их от серверов и мэйнфреймов (англ. mainframe) — компьютеров с высокой общей производительностью, призванных решать типовые задачи (например, обслуживание больших баз данных или одновременная работа с множеством пользователей).

Процессорные технологии. В настоящее время компьютеры превратились в мощные высокопроизводительные устройства. По всем основным показателям (быстродействие, емкость оперативной и дисковой памяти и др.) они в сотни раз превосходят первоначальную модель, а стоят обычно даже дешевле. Если бы такими же темпами развивалось, скажем, автомобилестроение, то сейчас за несколько тысяч долларов предлагались бы автомобили, передвигающиеся со скоростью космических ракет и вмещающих сотни человек.

Процессоры, предназначенные для работы одной копии операционной системы на нескольких ядрах, представляют собой высокоинтегрированную реализацию мультипроцессорности.

Первым многоядерным микропроцессором стал POWER4 от IBM, появившийся в 2001 и имевший два ядра.

В октябре 2004 Sun Microsystems выпустила двухъядерный процессор UltraSPARC IV, который состоял из двух модифицированных ядер UltraSPARC III. В начале 2005 был создан двухъядерный UltraSPARC IV+.

14 ноября 2005 года Sun выпустила восьмиядерный UltraSPARC T1, каждое ядро которого выполняло 4 потока.

5 января 2006 года Intel представила первый двухъядерный процессор на одном кристале Core Duo, для мобильной платформы.

В ноябре 2006 года вышел первый четырёхъядерный процессор Intel Core 2 Quad на ядре Kentsfield, представляющий собой сборку из двух кристаллов Conroe в одном корпусе. Потомком этого процессора стал Intel Core 2 Quad на ядре Yorkfield (45 нм), архитектурно схожем с Kentsfield но имеющем больший объём кэша и рабочие частоты. В октябре 2007 года в продаже появились восьмиядерные UltraSPARC T2, каждое ядро выполняло 8 потоков.

10 сентября 2007 года были выпущены в продажу нативные (в виде одного кристалла) четырёхъядерные процессоры для серверов AMD Opteron, имевшие в процессе разработки кодовое название AMD Opteron Barcelona. 19 ноября 2007 года вышел в продажу четырёхъядерный процессор для домашних компьютеров AMD Phenom. Эти процессоры реализуют новую микроархитектуру K8L (K10).

Компания AMD пошла по собственному пути, изготовляя четырёхъядерные процессоры единым кристаллом (в отличие от Intel, первые четырехъядерные процессоры которой представляют собой фактически склейку двух двухъядерных кристаллов). Несмотря на всю прогрессивность подобного подхода первый «четырёхъядерник» фирмы, получивший название AMD Phenom X4, получился не слишком удачным. Его отставание от современных ему процессоров конкурента составляло от 5 до 30 и более процентов в зависимости от модели и конкретных задач[источник не указан 628 дней.

К 1-2 кварталу 2009 года обе компании обновили свои линейки четырёхъядерных процессоров. Intel представила семейство Core i7, состоящее из трёх моделей, работающих на разных частотах. Основными изюминками данного процессора является использование трёхканального контроллера памяти (типа DDR-3) и технологии эмулирования восьми ядер (полезно для некоторых специфических задач). Кроме того, благодаря общей оптимизации архитектуры удалось значительно повысить производительность процессора во многих типах задач. Слабой стороной платформы, использующей Core i7, является её чрезмерная стоимость, так как для установки данного процессора необходима дорогая материнская плата на чипсете Intel X58 и трёхканальный набор памяти типа DDR3, также имеющий на данный момент высокую стоимость.

Компания AMD в свою очередь представила линейку процессоров Phenom II X4. При её разработке компания учла свои ошибки: был увеличен объём кэша (явно недостаточный у первого «Фенома»), изготавливается по 45-нм техпроцессу (это, соответственно, позволило снизить тепловыделение и значительно повысить рабочие частоты). В целом, AMD Phenom II X4 по производительности стоит вровень с процессорами Intel предыдущего поколения (ядро Yorkfield) и весьма значительно отстаёт от Intel Core i7. Однако, с выходом процессора AMD Phenom II X6 Black Thuban 1090T ситуация значительно изменилось в пользу AMD. Этот процессор по цене стоит на уровне Core i7 930, однако может потягаться с линейкой процессоров Core i7 в плане производительности. Его полноценных 6 ядер отлично подходят для сложных многопоточных задач.

На данный момент массово доступны двух-, четырёх- и шести- ядерные процессоры (Intel Core 2 Duo на 65-нм ядре Conroe и 45-нм ядре Wolfdale) и Athlon 64 X2 на базе микроархитектуры K8. Также восьмиядерные процессоры Xeon и Nehalem (Intel) и 12-ядерные Opteron (AMD).

Пределы, обусловленные существующими технологиями, и законы физики не помешают лучшим в мире инженерам создать в течение предстоящих 15 лет поражающие воображение микросхемы. Необходимые затраты производят впечатление, но и они, видимо, не станут реальным препятствием. Представляя себе микропроцессоры 2012 г. с сотнями миллионов транзисторов, мы видим открывающийся новый мир.

Дисковая подсистема. Как уже упоминалось, общая производительность ПК ограничивается скоростью самого медленного компонента. Для большинства операций слабым звеном традиционно остается жесткий диск и вся дисковая подсистема, включая внешние накопители. Редко случается, что производительность жесткого диска сдерживается «узостью» его интерфейса. Диск — едва ли не единственный компонент ПК, в котором почти все зависит от механики. Кроме увеличения скорости вращения шпинделя (до 100 тыс. оборотов в минуту) конструкторы ведут активные исследовательские работы по повышению плотности записи на фиксированной стандартами площади диска, что также способствует повышению скорости считывания данных. [12]

Обмен, резервное копирование и просто хранение данных рождают сегодня всё возрастающую потребность в носителях больших объемов. С учётом требований по надёжности, удовлетворить эту потребность пока что могут лишь жёсткие диски. Так что возросший в последнее время интерес к внешним накопителям имеет под собой достаточно плодородную почву, на которой, наверняка, "взойдёт" ещё немало достойных и интересных продуктов.

Высокопроизводительные устройства хранения данных для ноутбуков и настольных ПК теперь создаются на базе 34-нанометровой флэш-памяти NAND с набором инструментов Intel® SSD. В отличие от традиционных жестких дисков, в твердотельных дисках отсутствуют движущиеся части, благодаря чему они обеспечивают бесшумную работу, низкий уровень тепловыделения и высокое быстродействие системы. Использование твердотельных дисков в ноутбуках позволяет увеличить время автономной работы и уменьшить вес ноутбуков.

Графические процессоры. Накал конкурентной борьбы между компаниями ATI и NVIDIA (а именно они играют роль "законодателей моды" на рынке графических процессоров) и, соответственно, темпы развития отрасли чрезвычайно высоки: новое поколение графических адаптеров сменяет предыдущее в среднем - раз в полтора года. Поэтому многие из тех, кто не имеет возможности регулярно отслеживать события, происходящие в настоящее время на рынке компьютерной графики, уверены, что там царит самый настоящий хаос, и разобраться в ситуации "простому смертному" никак не возможно. Отчасти они правы: сегодня в магазинах можно встретить более сотни различных реализаций видеокарт, полученных путем самых причудливых комбинаций, самых разных типов графических чипов и видеопамяти, их рабочих частот и разрядности шин.[13]

Операционные системы следующего поколения, начиная с Windows 7, будут использовать графический API нового типа, который получил условное обозначение WGF 2.0 (бывший DirectX 10). Стараниями ATI и Microsoft, в основу этого графического интерфейса, заложена философия унификации шейдерных операций на программном уровне, реализовать которую будут способны графические процессоры с принципиально новой, унифицированной архитектурой, в которой не будет разделения на пиксельные и вершинные шейдеры. За распределением нагрузки будет следит специальный блок, динамически определяющий, что в данный момент требует первоочередной обработки: вершины или пиксели. Судя по всему, ATI уже решила, что за унифицированной архитектурой будущее, так как для своего чипа C1 (или Xenos), который станет сердцем графической подсистемы игровой консоли Xbox 360, канадская компания выбрала именно такую архитектуру. Чип будет содержать 16 блоков выборки значений из текстур и 48 универсальных конвейеров, которые смогут выполнять как пиксельные операции, так и вершинные. На его базе, в следующем году можно ожидать появление по-настоящему революционного семейства видеочипов R6xx.

Компания NVIDIA, планирующая внедрить решения WGF 2.0 в графических ускорителях нового поколения G8x, вряд ли сильно отстанет в деле продвижения принципиально новой архитектуры от связки Microsoft/ATI. Так что в 2006 году, а именно на этот период был запланирован анонс Windows Vista с унифицированным API WGF 2.0, мы можем стать свидетелями настоящего прорыва, благодаря которому, наконец-то, исчезнет асимметрия в возможностях текстурных блоков вершинных и пиксельных шейдеров, свойственной всем современным видеопроцессорам, включая и самые последние - G70 и R520.

Будущее памяти. С появлением технологии Hybrid Memory Cube оперативная память станет трехмерной, а ее пропускная способность увеличится в 12 раз по сравнению с нынешними модулями DDR3. Прототипы этой разновидности памяти бьют все рекорды по скорости работы, а выход первых образцов на рынок ожидается уже к 2013 году.

Высокая пропускная способность Memory Cube обеспечивается многочисленными кремниевыми «столбиками», которые передают данные от кристаллов памяти к уровню управляющей логики со скоростью до 1 Тбайт/с. От применения подобной технологии сильно выиграет операционная система Windows, которая во время работы постоянно записывает в RAM данные и считывает их оттуда. Программы, требующие интенсивных вычислений, также станут функционировать быстрее (например, значительно возрастет скорость обработки видео в соответствующих редакторах).

 




Поделиться с друзьями:


Дата добавления: 2014-12-27; Просмотров: 958; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.02 сек.