Ее графический процессор используется в. В чем отличие CPU от GPU

Диспетчер задач Windows 10 содержит подробные инструменты мониторинга графического процессора (GPU ). Вы можете просматривать использование каждого приложения и общесистемного графического процессора, а Microsoft обещает, что показатели диспетчера задач будут более точными, чем показатели сторонних утилит.

Как это работает

Эти функции графического процессора были добавлены в обновлении Fall Creators для Windows 10 , также известном как Windows 10 версия 1709 . Если вы используете Windows 7, 8 или более старую версию Windows 10, вы не увидите эти инструменты в своем диспетчере задач.

Windows использует более новые функции в Windows Display Driver Model, чтобы извлекать информацию непосредственно из графического процессора (VidSCH) и менеджера видеопамяти (VidMm) в графическом ядре WDDM, которые отвечают за фактическое распределение ресурсов. Он показывает очень точные данные независимо от того, какие приложения API используют для доступа к GPU-Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle или чему-либо еще.

Именно поэтому в диспетчере задач отображаются только системы с совместимыми с WDDM 2.0 графическими процессорами . Если вы этого не видите, графический процессор вашей системы, вероятно, использует более старый тип драйвера.

Вы можете проверить, какая версия WDDM используется вашим драйвером GPU , нажав кнопку Windows+R, набрав в поле «dxdiag », а затем нажмите «Enter », чтобы открыть инструмент «Средство диагностики DirectX ». Перейдите на вкладку «Экран » и посмотрите справа от «Модель » в разделе «Драйверы ». Если вы видите здесь драйвер WDDM 2.x, ваша система совместима. Если вы видите здесь драйвер WDDM 1.x, ваш GPU несовместим.

Как просмотреть производительность графического процессора

Эта информация доступна в диспетчере задач , хотя по умолчанию она скрыта. Чтобы открыть ее, откройте Диспетчер задач , щелкнув правой кнопкой мыши на любом пустом месте на панели задач и выбрав «Диспетчер задач » или нажав Ctrl+Shift+Esc на клавиатуре.

Нажмите кнопку «Подробнее » в нижней части окна «Диспетчер задач », если вы видите стандартный простой вид.

Если GPU не отображается в диспетчере задач , в полноэкранном режиме на вкладке «Процессы » щелкните правой кнопкой мыши любой заголовок столбца, а затем включите опцию «Графический процессор ». Это добавит столбец графического процессора , который позволяет увидеть процент ресурсов графического процессора , используемых каждым приложением.

Вы также можете включить опцию «Ядро графического процессора », чтобы увидеть, какой графический процессор использует приложение.

Общее использование GPU всех приложений в вашей системе отображается в верхней части столбца Графического процессора . Щелкните столбец GPU , чтобы отсортировать список и посмотреть, какие приложения используют ваш GPU больше всего на данный момент.

Число в столбце Графический процессор - это самое высокое использование, которое приложение использует для всех движков. Так, например, если приложение использует 50% 3D-движка GPU и 2% декодирования видео движка GPU, вы просто увидите, что в столбце GPU отображается число 50%.

В столбце «Ядро графического процессора » отображается каждое приложение. Это показывает вам, какой физический GPU и какой движок использует приложение, например, использует ли он 3D-движок или механизм декодирования видео. Вы можете определить, какой графический процессор соответствует определенному показателю, проверив вкладку «Производительность », о которой мы поговорим в следующем разделе.

Как просмотреть использование видеопамяти приложения

Если вам интересно, сколько видеопамяти используется приложением, вам нужно перейти на вкладку «Подробности » в диспетчере задач. На вкладке «Подробности » щелкните правой кнопкой мыши любой заголовок столбца и выберите «Выбрать столбцы ». Прокрутите вниз и включите колонки «Графический процессор », «Ядро графического процессора », « » и « ». Первые два доступны также на вкладке «Процессы », но последние две опции памяти доступны только на панели «Подробности ».

Столбец «Выделенная память графического процессора » показывает, сколько памяти приложение использует на вашем GPU . Если на вашем ПК установлена дискретная видеокарта NVIDIA или AMD, то это часть его VRAM, то есть сколько физической памяти на вашей видеокарте использует приложение. Если у вас встроенный графический процессор , часть вашей обычной системной памяти зарезервирована исключительно для вашего графического оборудования. Это показывает, какая часть зарезервированной памяти используется приложением.

Windows также позволяет приложениям хранить некоторые данные в обычной системной памяти DRAM. Столбец «Общая память графического процессора » показывает, сколько памяти приложение использует в настоящее время для видеоустройств из обычной системной ОЗУ компьютера.

Вы можете щелкнуть любой из столбцов для сортировки по ним и посмотреть, какое приложение использует больше всего ресурсов. Например, чтобы просмотреть приложения, использующие наибольшую видеопамять на вашем графическом процессоре, щелкните столбец «Выделенная память графического процессора ».

Как отследить использование общего ресурса GPU

Чтобы отслеживать общую статистику использования ресурсов GPU , перейдите на вкладку «Производительность » и посмотрите на «Графический процессор » внизу на боковой панели. Если на вашем компьютере несколько графических процессоров, здесь вы увидите несколько вариантов GPU .

Если у вас несколько связанных графических процессоров - используя такую функцию, как NVIDIA SLI или AMD Crossfire, вы увидите их, идентифицированные «#» в их имени.

Windows отображает использование GPU в реальном времени. По умолчанию диспетчер задач пытается отобразить самые интересные четыре движка в соответствии с тем, что происходит в вашей системе. Например, вы увидите разные графики в зависимости от того, играете ли вы в 3D-игры или кодируете видео. Однако вы можете щелкнуть любое из имен над графиками и выбрать любой из других доступных движков.

Название вашего GPU также отображается на боковой панели и в верхней части этого окна, что позволяет легко проверить, какое графическое оборудование установлено на вашем ПК.

Вы также увидите графики использования выделенной и общей памяти GPU . Использование общей памяти GPU относится к тому, какая часть общей памяти системы используется для задач GPU . Эта память может использоваться как для обычных системных задач, так и для видеозаписей.

В нижней части окна вы увидите информацию, такую как номер версии установленного видеодрайвера, дату разработки и физическое местоположение GPU в вашей системе.

Если вы хотите просмотреть эту информацию в более маленьком окне, которое проще оставить на экране, дважды щелкните где-нибудь внутри экрана графического процессора или щелкните правой кнопкой мыши в любом месте внутри него и выберите параметр «Графическая сводка ». Вы можете развернуть окно, дважды щелкнув на панели или щелкнув правой кнопкой мыши в нем и сняв флажок «Графическая сводка ».

Вы также можете щелкнуть правой кнопкой мыши по графику и выбрать «Изменить график »> «Одно ядро », чтобы просмотреть только один график движка GPU .

Чтобы это окно постоянно отображалось на вашем экране, нажмите «Параметры »> «Поверх остальных окон ».

Дважды щелкните внутри панели GPU еще раз, и у вас будет минимальное окно, которое вы можете расположить в любом месте на экране.

Все мы знаем, что у видеокарты и процессора несколько различные задачи, однако знаете ли вы, чем они отличаются друг от друга во внутренней структуре? Как CPU (англ. - central processing unit ), так и GPU (англ. - graphics processing unit ) являются процессорами, и между ними есть много общего, однако сконструированы они были для выполнения различных задач. Подробнее об этом вы узнаете из данной статьи.

CPU

Основная задача CPU, если говорить простыми словами, это выполнение цепочки инструкций за максимально короткое время. CPU спроектирован таким образом, чтобы выполнять несколько таких цепочек одновременно или разбивать один поток инструкций на несколько и, после выполнения их по отдельности, сливать их снова в одну, в правильном порядке. Каждая инструкция в потоке зависит от следующих за ней, и именно поэтому в CPU так мало исполнительных блоков, а весь упор делается на скорость выполнения и уменьшение простоев, что достигается при помощи кэш-памяти и конвейера .

GPU

Основная функция GPU - рендеринг 3D графики и визуальных эффектов, следовательно, в нем все немного проще: ему необходимо получить на входе полигоны, а после проведения над ними необходимых математических и логических операций, на выходе выдать координаты пикселей. По сути, работа GPU сводится к оперированию над огромным количеством независимых между собой задач, следовательно, он содержит большой объем памяти, но не такой быстрой, как в CPU, и огромное количество исполнительных блоков: в современных GPU их 2048 и более, в то время как у CPU их количество может достигать 48, но чаще всего их количество лежит в диапазоне 2-8.

Основные отличия

CPU отличается от GPU в первую очередь способами доступа к памяти. В GPU он связанный и легко предсказуемый - если из памяти читается тексел текстуры, то через некоторое время настанет очередь и соседних текселов. С записью похожая ситуация - пиксель записывается во фреймбуфер, и через несколько тактов будет записываться расположенный рядом с ним. Также графическому процессору, в отличие от универсальных процессоров, просто не нужна кэш-память большого размера, а для текстур требуются лишь 128–256 килобайт. Кроме того, на видеокартах применяется более быстрая память, и в результате GPU доступна в разы большая пропускная способность, что также весьма важно для параллельных расчетов, оперирующих с огромными потоками данных.

Есть множество различий и в поддержке многопоточности: CPU исполняет 12 потока вычислений на одно процессорное ядро, а GPU может поддерживать несколько тысяч потоков на каждый мультипроцессор, которых в чипе несколько штук! И если переключение с одного потока на другой для CPU стоит сотни тактов, то GPU переключает несколько потоков за один такт.

В CPU большая часть площади чипа занята под буферы команд, аппаратное предсказание ветвления и огромные объемы кэш-памяти, а в GPU большая часть площади занята исполнительными блоками. Вышеописанное устройство схематично изображено ниже:

Разница в скорости вычислений

Если CPU - это своего рода «начальник», принимающий решения в соответствии с указаниями программы, то GPU - это «рабочий», который производит огромное количество однотипных вычислений. Выходит, что если подавать на GPU независимые простейшие математические задачи, то он справится значительно быстрее, чем центральный процессор. Данным отличием успешно пользуются майнеры биткоинов.

Майнинг Bitcoin

Суть майнинга заключается в том, что компьютеры, находящиеся в разных точках Земли, решают математические задачи, в результате которых создаются биткоины . Все биткоин-переводы по цепочке передаются майнерам, чья работа состоит в том, чтобы подобрать из миллионов комбинаций один-единственный хэш, подходящий ко всем новым транзакциям и секретному ключу, который и обеспечит майнеру получение награды в 25 биткоинов за раз. Так как скорость вычисления напрямую зависит от количества исполнительных блоков, получается, что GPU значительно лучше подходят для выполнения данного типа задачи, нежели CPU. Чем больше количество произведенных вычислений, тем выше шанс получить биткоины. Дело даже дошло до сооружения целых ферм из видеокарт.

Исходным материалом для рендеринга является множество треугольников различного размера, из которых складываются все объекты виртуального мира: пейзаж, игровые персонажи, монстры, оружие и т.д. Однако сами по себе модели, созданные из треугольников, выглядят как проволочные каркасы. Поэтому на них накладываются текстуры - цветные двухмерные «обои». И текстуры, и модели помещаются в память графической карты, а дальше, при создании каждого кадра игрового действия выполняется цикл рендеринга, состоящий из нескольких этапов.

1. Игровая программа отправляет графическому процессору информацию, описывающую игровую сцену: состав присутствующих объектов, их окраску, положение относительно точки наблюдения, освещение и видимость. Передаются и дополнительные данные, характеризующие сцену и позволяющую видеокарте увеличить реалистичность получаемого изображения, добавив туман, размытие, блики и т.д.

2. Графический процессор располагает трехмерные модели в кадре, определяет, какие из входящих в них треугольников находятся на виду и отсекает скрытые другими объектами или, например, тенями.

Затем создаются источники света и определяется их влияние на цвет освещаемых объектов. Этот этап рендеринга называется «трансформация и освещение» (T&L - Transformation & Lighting).

3. На видимые треугольники накладываются текстуры с применением различных технологий фильтрации. Билинейная фильтрация предусматривает наложение на треугольник двух версий текстуры с различным разрешением. Результатом ее использования являются хорошо различимые границы между областями четких и размытых текстур, возникающие на трехмерных поверхностях перпендикулярно направлению обзора. Трилинейная фильтрация, использующая три варианта одной текстуры, позволяет создать более мягкие переходы.

Однако в результате использования обеих технологий по-настоящему четко выглядят лишь те текстуры, которые расположены перпендикулярно к оси зрения. При взгляде под углом они сильно размываются. Для того чтобы это предотвратить, используется анизотропная фильтрация.

Такой метод фильтрации текстур задается в настройках драйвера видеоадаптера либо непосредственно в компьютерной игре. Кроме того, можно изменять силу анизотропной фильтрации: 2х, 4х, 8х или 16х - чем больше «иксов», тем более четкими будут изображения на наклонных поверхностях. Но при увеличении силы фильтрации возрастает нагрузка на видеокарту, что может привести к снижению скорости работы и к уменьшению количества кадров, генерируемых в единицу времени.

На этапе текстурирования могут использоваться различные дополнительные эффекты. Например, наложение карт среды (Enironmental Mapping) позволяет создавать поверхности, в которых будет отражаться игровая сцена: зеркала, блестящие металлические предметы и т.д. Другой впечатляющий эффект получается с применением карт неровностей (Bump Mapping), благодаря которому свет, падающий на поверхность под углом, создает видимость рельефа.
Текстурирование является последним этапом рендеринга, после которого картинка попадает в кадровый буфер видеокарты и выводится на экран монитора.

Электронные компоненты видеокарты

Теперь, когда стало понятно, каким образом происходит процесс построения трехмерного изображения, можно перечислить технические характеристики компонентов видеокарты, которые определяют скорость процесса. Главными составными частями видеокарты являются графический процессор (GPU - Graphics Processing Unit) и видеопамять.

Графический процессор

Одной из основных характеристик этого компонента (как и центрального процессора ПК), является тактовая частота. При прочих равных условиях, чем она выше, тем быстрее происходит обработка данных, а следовательно - увеличивается количество кадров в секунду (FPS - frames per second) в компьютерных играх. Частота графического процессора - важный, но не единственный, влияющий на его производительность параметр - современные модели производства Nvidia и ATI, имеющие сопоставимый уровень быстродействия, характеризуются различными частотами GPU.

Для адаптеров Nvidia, обладающих высокой производительностью, характерны тактовые частоты GPU от 550 МГц до 675 МГц. Частоту работы графического процессора меньше 500 МГц имеют «середнячки» и дешевые низкопроизводительные карты.
В то же время GPU «топовых» карт производства ATI имеют частоты от 600 до 800 МГц, и даже у самых дешевых видеоадаптеров частота графического процессора не опускается ниже 500 МГц.

Однако, несмотря на то, что графические процессоры Nvidia обладают меньшей частотой, чем GPU, разработанные ATI, они обеспечивают, по крайней мере, такой же уровень производительности, а зачастую - и более высокий. Дело в том, что не меньшее значение, чем тактовая частота, имеют другие характеристики GPU.

1. Количество текстурных модулей (TMU - Texture Mapping Units) - элементов графического процессора, выполняющих наложение текстур на треугольники. От количества TMU напрямую зависит скорость построения трехмерной сцены.
2. Количество конвейеров рендеринга (ROP - Render Output Pipeline) - блоков, выполняющих «сервисные» функции (пару примеров, pls). В современных графических процессорах ROP, как правило, меньше, чем текстурных модулей, и это ограничивает общую скорость текстурирования. К примеру, чип видеокарты Nvidia GeForce 8800 GTX имеет 32 «текстурника» и 24 ROP. У процессора видеокарты ATI Radeon HD 3870 только 16 текстурных моделей и 16 ROP.

Производительность текстурных модулей выражается в такой величине как филлрейт - скорость текстурирования, измеряемая в текселах за секунду. Видеокарта GeForce 8800 GTX имеет филлрейт в 18,4 млрд текс/с. Но более объективным показателем является филлрейт, измеряемый в пикселах, так как он отражает скорость работы ROP. У GeForce 8800 GTX эта величина равна 13,8 млрд пикс./с.
3. Количество шейдерных блоков (шейдерных процессоров), которые - как следует из названия - занимаются обработкой пиксельных и вершинных шейдеров. Современные игры активно используют шейдеры, так что количество шейдерных блоков имеет решающее значение для определения производительности.

Не так давно графические процессоры имели отдельные модули для выполнения пиксельных и вершинных шейдеров. Видеокарты Nvidia серии GeForce 8000 и адаптеры ATI Radeon HD 2000 первыми перешли на унифицированную шейдерную архитектуру. Графические процессоры этих карт имеют блоки, способные обрабатывать как пиксельные, так и вершинные шейдеры - универсальные шейдерные процессоры (потоковые процессоры). Такой подход позволяет полностью задействовать вычислительные ресурсы чипа при любом соотношении пиксельных и вершинных расчетов в коде игры. Кроме того, в современных графических процессорах шейдерные блоки часто работают на частоте, превышающей тактовую частоту GPU (например, у GeForce 8800 GTX эта частота составляет 1350 МГц против «общих» 575 МГц).

Обращаем ваше внимание на то, что компании Nvidia и ATI по-разному считают количество шейдерных процессоров в своих чипах. К примеру, Radeon HD 3870 имеет 320 таких блоков, а GeForce 8800 GTX - только 128. На самом деле, ATI указывает вместо целых шейдерных процессоров их составные компоненты. В каждом шейдерном процессоре содержится по пять компонентов, так что общее количество шейдерных блоков у Radeon HD 3870 - всего 64, поэтому и работает эта видеокарта медленнее, чем GeForce 8800 GTX.

Память видео карты

Видеопамять по отношению к GPU выполняет те же функции, что и оперативная память - по отношению к центральному процессору ПК: она хранит весь «строительный материал», необходимый для создания изображения - текстуры, геометрические данные, программы шейдеров и т.д.

Какие характеристики видеопамяти влияют на производительность графической карты

1. Объем. Современные игры используют огромное количество текстур с высоким разрешением, и для их размещения требуется соответствующий объем видеопамяти. Основная масса выпускаемых сегодня «топовых» видеоадаптеров и карт среднего ценового диапазона снабжается 512 Мб памяти, которая не может быть увеличена впоследствии. Более дешевые видеокарты оснащаются вдвое меньшим объемом памяти, для современных игр его уже недостаточно.

В случае нехватки памяти графический процессор вынужден постоянно загружать текстуры из оперативной памяти ПК, связь с которой осуществляется гораздо медленнее, в результате производительность может заметно снижаться. С другой стороны, чрезмерно большой объем памяти может не дать никакого увеличения скорости, так как дополнительное «место» просто не будет использоваться. Покупать видеоадаптер с 1 Гб памяти имеет смысл только в том случае, если он принадлежит к «топовым» продуктам (видеокарты ATI Radeon HD 4870, Nvidia GeForce 9800, а также новейшие карты серии GeForce GTX 200).

2. Частота. Этот параметр у современных видеокарт может изменяться от 800 до 3200 МГц и зависит, в первую очередь, от типа используемых микросхем памяти. Чипы DDR 2 могут обеспечить рабочую частоту в пределах 800 МГц и используются только в самых дешевых графических адаптерах. Память GDDR 3 и GDDR 4 увеличивает частотный диапазон вплоть до 2400 МГц. Новейшие графические карты ATI Radeon HD 4870 используют память GDDR-5 с фантастической частотой - 3200 МГц.

Частота памяти, как и частота графического процессора, оказывает большое влияние на производительность видеокарты в играх, особенно при использовании полноэкранного сглаживания. При прочих равных условиях, чем больше частота памяти, тем выше быстродействие, т.к. графический процессор будет меньше «простаивать» в ожидании поступления данных. Частота памяти в 1800 МГц является нижней границей, отделяющей высокопроизводительные карты от менее быстрых.

3. Разрядность шины видеопамяти гораздо сильнее влияет на общую производительность карты, чем частота памяти. Она показывает, сколько данных может передать память за один такт. Соответственно, двукратное увеличение разрядности шины памяти эквивалентно удвоению ее тактовой частоты. Основная масса современных видеокарт имеют 256-битную шину памяти. Уменьшение разрядности до 128 или, тем более, до 64 бит наносит сильный удар по быстродействию. С другой стороны, в самых дорогих видеокартах шина может быть «расширена» до 512 бит (пока этим может похвастаться лишь новейший GeForce GTX 280), что оказывается весьма кстати, принимая во внимание мощность их графических процессоров.

Где найти информацию о технических характеристиках видеокарты

Если графическая карта обладает некими выдающимися параметрами (высокая тактовая частота процессора и памяти, ее объем), то они, как правило, указываются непосредственно на коробке. Но наиболее полные спецификации видеоадаптеров и GPU, на которых они основаны, можно найти только в Интернете. Общая информация выкладывается на корпоративных сайтах производителей графических процессоров: Nvidia (www.nvidia.ru) и ATI (www.ati.amd.com/ru). Подробности можно узнать на неофициальных веб-сайтах, посвященных видеокартам - www.nvworld.ru и www.radeon.ru. Хорошим подспорьем станет электронная энциклопедия Wikipedia (www.ru.wikipedia.org). Пользователи, покупающие карту с прицелом на разгон могут воспользоваться ресурсом www.overclockers.ru.

Одновременное использование двух видеокарт

Для того чтобы получить максимальную производительность, можно установить в компьютер сразу две видеокарты. Производители предусмотрели для этого соответствующие технологии - SLI (Scalable Link Interface, используется картами Nvidia) и CrossFire (разработка ATI). Для того чтобы воспользоваться ими, материнская плата должна не только иметь два слота PCI-E для видеокарт, но и поддерживать одну из названных технологий. Многие «материнки» на чипсетах Intel могут использовать платы ATI в режиме CrossFire, а вот объединить в одну «упряжку» две (или даже три!) видеокарты производства Nvidia могут лишь платы на чипсетах этой же фирмы. В случае, если материнская плата не обладает поддержкой этих технологий, две видеокарты смогут с ней работать, но в играх будет использоваться только одна, а вторая лишь даст возможность выводить изображение на пару дополнительных мониторов.
Заметим, что использование двух видеокарт не приводит к удвоению производительности. Средний результат, на который стоит рассчитывать - 50% прироста скорости. Кроме того, весь потенциал тандема будет раскрыт лишь при использовании мощного центрального процессора и монитора с высоким разрешением.

Что такое шейдеры

Шейдеры - микропрограммы, присутствующие в коде игры, с помощью которых можно изменять процесс построения виртуальной сцены, открывая возможности, недостижимые при использовании традиционных средств 3D-рендеринга. Современная игровая графика без шейдеров немыслима.

Вершинные шейдеры изменяют геометрию трехмерных объектов, благодаря чему можно реализовать естественную анимацию сложных моделей игровых персонажей, физически корректную деформацию предметов или настоящие волны на воде. Пиксельные шейдеры применяются для изменения цвета пикселей и позволяют создавать такие эффекты, как реалистичные круги и рябь на воде, сложное освещение и рельеф поверхностей. Кроме того, с помощью пиксельных шейдеров осуществляется постобработка кадра: всевозможные «кинематографические» эффекты размытия движущихся объектов, сверхъяркого света и т.д.

Существует несколько версий реализации шейдерной модели (Shader Model). Все современные видеокарты поддерживают пиксельные и вершинные шейдеры версии 4.0, обеспечивающие по сравнению с предыдущей - третьей - версией более высокую реалистичность эффектов. Shader Model 4.0 поддерживается API DirectX 10 , которая работает исключительно в среде Windows Vista. Кроме того, сами компьютерные игры должны быть «заточены» под DirectX 10.

Нужна ли AGP-видеокарта старой системе

Если «материнка» вашего ПК оснащена портом AGP, возможности апгрейда видеокарты сильно ограничены. Максимум, который может себе позволить обладатель такой системы - это видеокарты серии Radeon HD 3850 фирмы AMD (ATI).

По современным меркам, они обладают производительностью ниже среднего. Кроме того, подавляющее большинство материнских плат с поддержкой интерфейса AGP предназначено для устаревших процессоров Intel Pentium 4 и AMD Athlon XP, так что общее быстродействие системы все равно будет недостаточно высоким для современной трехмерной графики. Только на материнские платы для процессоров AMD Ahtlon 64 с разъемом Socket 939 стоит устанавливать новые видеокарты с портом AGP. Во всех остальных случаях лучше купить новый компьютер с интерфейсом PCI-E, памятью DDR 2 (или DDR 3) и современным ЦП.

Теги материала: графическая карта, видео, карта, ускоритель, графики

Графический процессор (GPU) является не менее важным компонентом SoC мобильного устройства, чем (CPU). За последние пять лет бурное развитие мобильных платформ Android и iOS подстегнуло разработчиков мобильных графических процессоров, и сегодня никого не удивить мобильными играми с трехмерной графикой уровня PlayStation 2 или даже выше. Вторую статью цикла “Ликбез по мобильному железу” я посвятил графическим процессорам.

В настоящее время бОльшую часть графических чипов производят используя ядра: PowerVR (Imagination Technologies), Mali (ARM), Adreno (Qualcomm, ранее ATI Imageon) и GeForce ULP (nVIDIA).

PowerVR – это подразделение компании Imagination Technologies, которая в недавнем прошлом разрабатывала графику для настольных систем, но под давлением ATI и nVIDIA вынуждена была покинуть этот рынок. Сегодня PowerVR разрабатывает, пожалуй, самые мощные GPU для мобильных устройств. Чипы PowerVR используют при производстве процессоров такие компании, как Samsung, Apple, Texas Instruments и др. Например, разные ревизии GPU от PowerVR установлены во всех поколениях Apple iPhone. Актуальными остаются серии чипов 5 и 5XT. К пятой серии относятся одноядерные чипы: SGX520, SGX530, SGX531, SGX535, SGX540 и SGX545. Чипы серии 5XT могут иметь от 1 до 16 ядер: SGX543, SGX544, SGX554. Спецификации 6 серии (Rogue) пока уточняются, но уже известен диапазон производительности чипов серии – 100-1000GFLOPS.

Mali – это графические процессоры, разрабатываемые и лицензируемые британской ARM. Чипы Mali являются составной частью различных SoC, производимых Samsung, ST-Ericsson, Rockchip и др. Например, Mali-400 MP входит в состав SoC Samsung Exynos 421x, используемых в таких смартфонах, как Samsung Galaxy SII и SIII, в двух поколениях “смартфонпланшетмаша?” Samsung Note. Актуальным на сегодня является Mali-400 MP в двух- и четырехядерных вариантах. На подходе чипы Mali-T604 и Mali-T658, производительность которых до 5 раз выше, чем у Mali-400.

Adreno – это графические чипы, которые разрабатывает одноименное подразделение американской Qualcomm. Название Adreno является анаграммой от Radeon. До Qualcomm подразделение принадлежало ATI, а чипы носили название Imageon. Последние несколько лет Qualcomm при производстве SoC использовала чипы 2xx серии: Adreno 200, Adreno 205, Adreno 220, Adreno 225. Последний из списка – совсем свежий чип – выполненный по 28нм технологии, самый мощный из Adreno 2хх серии. Его производительность в 6 раз выше, чем у “старичка” Adreno 200. В 2013 году все больше устройств получат графические процессоры Adreno 305 и Adreno 320. Уже сейчас 320-ый установлен в Nexus 4 и китайскую версию Nokia Lumia 920T, по некоторым параметрам чип в 2 раза мощнее 225-го.

GeForce ULP (ultra-low power) – мобильная версия видео-чипа от nVIDIA, входит в состав системы-на-кристалле Tegra всех поколений. Одним из важнейших конкурентных преимуществ Tegra является специализированный контент, предназначенный только для устройств на основе этой SoC. У nVIDIA традиционно тесная связь с разработчиками игр, и их команда Content Development работает вместе с ними для того, чтобы оптимизировать игры для графических решений GeForce. Для доступа к таким играм nVIDIA даже запустила Android-приложение Tegra Zone, специализированный аналог Android Market, в котором можно скачать оптимизированные для Tegra приложения.

Производительность графических процессоров обычно измеряется по трем параметрам:

– количество треугольников в секунду обычно в миллионах – Мега (MTriangles/s);

– количество пикселей в секунду обычно в миллионах – Мега (MPixel/s);

– количество операций с плавающей точкой в секунду обычно в миллиардах – Гига (GFLOPS).

По “флопсам” требуется небольшое пояснение. FLOPS (FLoating-point Operations Per Second) – это количество вычислительных операций или инструкций, выполняемых над операндами с плавающей точкой (запятой) в секунду. Операнд с плавающей точкой – это нецелое число (корректней было бы сказать “с плавающей запятой”, ведь знаком, отделяющим целую часть числа от дробной в русском языке является именно запятая). Понять какой графический процессор установлен в твоем смартфоне поможет ctrl+F и таблица приведенная ниже. Обратите внимание на то, что GPU разных смартфонов работают на разной частоте. Что бы вычислить производительность в GFLOPS для конкретной модели необходимо число указанное в столбце “производительность в GFLOPS” разделить на 200 и умножить на частоту отдельно взятого GPU (например в Galaxy SIII GPU работает на частоте 533МГц значит 7,2 / 200 * 533 = 19,188):

Название смартфона/планшета Процессор Графический процессор Производительность в GFLOPS
Samsung Galaxy S 4 Samsung Exynos 5410 PowerVR SGX544MP3 21,6 @200МГц
HTC One Qualcomm Snapdragon 600 APQ8064T Adreno 320 20,5 @200МГц
Samsung Galaxy S III, Galaxy Note II, Galaxy Note 10.1 Samsung Exynos 4412 Mali-400 MP4 7,2 @200МГц
Samsung Chromebook XE303C12, Nexus 10 Samsung Exynos 5250 Mali-T604 MP4 36 @200МГц
Samsung Galaxy S II, Galaxy Note, Tab 7.7, Galaxy Tab 7 Plus Samsung Exynos 4210 Mali-400 MP4 7,2 @200МГц
Samsung Galaxy S, Wave, Wave II, Nexus S, Galaxy Tab, Meizu M9 Samsung Exynos 3110 PowerVR SGX540 3,2 @200Мгц
Apple iPhone 3GS, iPod touch 3gen Samsung S5PC100 PowerVR SGX535 1,6 @200Мгц
LG Optimus G, Nexus 4, Sony Xperia Z Qualcomm APQ8064(ядра Krait) Adreno 320 20,5 @200МГц
HTC One XL, Nokia Lumia 920, Lumia 820, Motorola RAZR HD, Razr M, Sony Xperia V Qualcomm MSM8960(ядра Krait) Adreno 225 12,8 @200МГц
HTC One S, Windows Phone 8x, Sony Xperia TX/T Qualcomm MSM8260A Adreno 220 ~8,5* @200МГц
HTC Desire S, Incredible S, Desire HD, SonyEricsson Xperia Arc, Nokia Lumia 800, Lumia 710 Qualcomm MSM8255 Adreno 205 ~4,3* @200МГц
Nokia Lumia 610, LG P500 Qualcomm MSM7227A Adreno 200 ~1,4* @128МГц
Motorola Milestone, Samsung i8910, Nokia N900 TI OMAP3430 PowerVR SGX530 1,6 @200Мгц
Samsung Galaxy Nexus, Huawei Ascend P1, Ascend D1, Amazon Kindle Fire HD 7″ TI OMAP4460 PowerVR SGX540 3,2 @200Мгц
RIM BlackBerry Playbook, LG Optimus 3D P920, Motorola ATRIX 2, Milestone 3, RAZR, Amazon Kindle Fire первого и второго поколений TI OMAP4430 PowerVR SGX540 3,2 @200Мгц
Motorola Defy, Milestone 2, Cliq 2, Defy+, Droid X, Nokia N9, N950, LG Optimus Black, Samsung Galaxy S scLCD TI OMAP3630 PowerVR SGX530 1,6 @200Мгц
Acer Iconia Tab A210/A211/A700/ A701/A510, ASUS Transformer Pad, Google Nexus 7, Eee Pad Transformer Prime, Transformer Pad Infinity, Microsoft Surface, Sony Xperia Tablet S, HTC One X/X+, LG Optimus 4X HD, Lenovo IdeaPad Yoga nVidia Tegra 3 GeForce ULP 4,8 @200МГц
Acer Iconia Tab A500, Iconia Tab A501, Iconia Tab A100, ASUS Eee Pad Slider, Eee Pad Transformer, HTC Sensatoin/XE/XL/4G, Lenovo IdeaPad K1, ThinkPad Tablet, LG Optimus Pad, Optimus 2X, Motorola Atrix 4G, Electrify, Photon 4G, Xoom, Samsung Galaxy Tab 10.1, Galaxy Tab 8.9, Sony Tablet P, Tablet S nVidia Tegra 2 GeForce ULP 3,2 @200МГц
Apple iPhone 5 Apple A6 PowerVR SGX543MP3 19,2 @200МГц
Apple iPad 2, iPhone 4S, iPod touch 5gen, iPad mini Apple A5 PowerVR SGX543MP2 12,8 @200МГц
Apple iPad, iPhone 4, iPod touch 4gen Apple A4 PowerVR SGX535 1,6 @200МГц

* – данные приблизительные.

Приведу еще одну таблицу с абсолютными значениями производительности самых популярных смартфонов верхнего ценового диапозона:

* – неофициальные данные.

Мощность мобильной графики растет от года к году. Уже в этом году в топовых смартфонах мы можем увидеть игры уровня PS3/X-Box360. Одновременно с мощностью сильно растет энергопотребление SoC и неприлично снижается автономность мобильных устройств. Что ж, будем ждать прорыва в области производства источников питания!

Еще один пожиратель энергии в современном мобильном устройстве – это, безусловно, дисплей. Экраны в мобильных телефонах становятся все краше. Дисплеи смартфонов выпущенных с разницей всего лишь в год, разительно отличаются по качеству картинки. В следующей статье цикла я расскажу о дисплеях: каких типов они бывают, что такое PPI, от чего зависит энергопотребление и прочее.

Здравствуйте, уважаемые пользователи и любители компьютерного железа. Сегодня порассуждаем на тему, что такое интегрированная графика в процессоре, зачем она вообще нужна и является ли такое решение альтернативой дискретным, то бишь внешним видеокартам.

Если рассуждать с точки зрения инженерного замысла, то встроенное графическое ядро, повсеместно используемое в своих продуктах компаниями Intel и AMD, не является видеокартой как таковой. Это видеочип, который интегрировали в архитектуру ЦП для исполнения базовых обязанностей дискретного ускорителя. Но давайте разбираться со всем более подробно.

Из этой статьи вы узнаете:

История появления

Впервые компании начали внедрять графику в собственные чипы в середине 2000‑х. Интел начали разработку еще с Intel GMA, однако данная технология довольно слабо себя показывала, а потому для видеоигр была непригодной. В результате на свет появляется знаменитая технология HD Graphics (на данный момент самый свежий представитель линейки – HD graphics 630 в восьмом поколении чипов Coffee Lake). Дебютировало видеоядро на архитектуре Westmere, в составе мобильных чипов Arrandale и десктопных – Clarkdale (2010 год).

AMD пошла иным путем. Сначала компания выкупила ATI Electronics, некогда крутого производителя видеокарт. Затем начала корпеть над собственной технологией AMD Fusion, создавая собственные APU – центральный процессор со встроенным видеоядром (Accelerated Processing Unit). Дебютировали чипы первого поколения в составе архитектуры Liano, а затем и Trinity. Ну а графика Radeon r7 series на долгое время прописалась в составе ноутбуков и нетбуков среднего класса.

Преимущества встроенных решений в играх

Итак. Для чего же нужна интегрированная карта и в чем заключаются ее отличия от дискретной.

Постараемся сделать сравнение с пояснением каждой позиции, сделав все максимально аргументировано. Начнем, пожалуй, с такой характеристики как производительность. Рассматривать и сравнивать будем наиболее актуальные на данный момент решения от Intel (HD 630 c частотой графического ускорителя от 350 до 1200 МГц) и AMD (Vega 11 с частотой 300‑1300 Мгц), а также преимущества, которые дают эти решения.
Начнем со стоимости системы. Встроенная графика позволяет неплохо сэкономить на покупке дискретного решения, вплоть до 150$, что критически важно при создании максимально экономного ПК для офисного и использования.

Частота графического ускорителя AMD заметно выше, да и производительность адаптера от красных существенно выше, что говорит о следующих показателях в тех же играх:

Игра Настройки Intel AMD
PUBG FullHD, низкие 8–14 fps 26–36 fps
GTA V FullHD, средние 15–22 fps 55–66 fps
Wolfenstein II HD, низкие 9–14 fps 85–99 fps
Fortnite FullHD, средние 9–13 fps 36–45 fps
Rocket League FullHD, высокие 15–27 fps 35–53 fps
CS:GO FullHD, максимальные 32–63 fps 105–164 fps
Overwatch FullHD, средние 15–22 fps 50–60 fps

Как видите, Vega 11 – лучший выбор для недорогих «игровых» систем, поскольку показатели адаптера в некоторых случаях доходят до уровня полноценной GeForce GT 1050. Да и в большинстве сетевых баталий она показывает себя прекрасно.

На данный момент с этой графикой поставляется только процессор AMD Ryzen 2400G, но он определенно стоит внимания.

Вариант для офисных задач и домашнего использования

Какие требования чаще всего вы выдвигаете к своему ПК? Если исключить игры, то получится следующий набор параметров:

  • просмотр фильмов в HD-качестве и роликов на Youtube (FullHD и в редких случаях 4К);
  • работа с браузером;
  • прослушивание музыки;
  • общение с друзьями или коллегами с помощью мессенджеров;
  • разработка приложений;
  • офисные задачи (Microsoft Office и похожие программы).

Все эти пункты прекрасно работают со встроенным графическим ядром на разрешениях вплоть до FullHD.
Единственный нюанс, который необходимо учитывать в обязательном порядке – поддержка видеовыходов той материнской платой, на которую вы собираетесь ставить процессор. Заранее уточните этот момент, чтобы не возникло проблем в дальнейшем.

Недостатки встроенной графики

Поскольку разобрались с плюсами, нужно проработать и недостатки решения.

  • Главный минус подобной затеи – производительность. Да, вы можете с чистой совестью играть в более-менее современные игрушки на низких и высоких настройках, однако любителям графики, такая затея точно не придется по вкусу. Ну а если вы работаете с графикой профессионально (обработка, рендеринг, монтаж видеороликов, постпродакшн), да еще и на 2–3 мониторах, то интегрированный тип видео вам точно не подойдет.

  • Момент номер 2: отсутствие собственной скоростной памяти (в современных картах это GDDR5, GDDR5X и HBM). Формально видеочип может использовать хоть до 64 ГБ памяти, однако вся она будет браться откуда? Правильно, из оперативной. А значит необходимо заранее построить систему таким образом, чтобы ОЗУ хватило и для работы, и для графических задач. Учитывайте, что скорость современных DDR4-модулей значительно ниже, нежели GDDR5, а потому времени на обработку данных будет тратиться больше.
  • Следующий недостаток – тепловыделение. Помимо собственных ядер на процессе появляется еще одно, которое, в теории, прогревается ничуть не меньше. Охлаждать все это великолепие боксовой (комплектной) вертушкой можно, но готовьтесь к периодическим занижениям частот в особо сложных расчетах. Покупка более мощного кулера решает проблему.
  • Ну и последний нюанс – невозможность апгрейда видео без замены процессора. Иными словами, чтобы улучшить встроенное видеоядро, вам придется в буквальном смысле покупать новый процессор. Сомнительная выгода, не так ли? В таком случае проще через некоторое время приобрести дискретный ускоритель. Производители вроде AMD и nVidia предлагают отличные решения на любой вкус.

Итоги

Встроенная графика – отличный вариант в 3 случаях:

  • вам необходима временная видеокарта, поскольку денег на внешнюю не хватило;
  • система изначально задумывалась как сверхбюджетная;
  • вы создаете домашнюю мультимедийную станцию (HTPC), в которой основной акцент делается именно на встроенное ядро.

Надеемся одной проблемой в вашей голове стало меньше, и теперь вы знаете, для чего производители создают свои APU.

В следующих статьях поговорим о таких терминах как виртуализация и не только. Следите за , чтобы быть в курсе всех актуальных тем, связанных с железом.