Darbe.ru

Быт техника Дарби
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Что такое графика UMA

Что такое графика UMA?

UMA обычно означает унифицированную архитектуру памяти. Это косвенно относится к тому факту, что встроенная видеокарта использует системную оперативную память, поскольку у нее нет собственной встроенной оперативной памяти. Поэтому всякий раз, когда вы сталкиваетесь с термином UMA, это указывает на какую-то интегрированную графику.

В чем разница между UMA и дискретной графикой?

Дискретная память означает, что графический чип имеет собственные выделенные микросхемы памяти, припаянные к графической карте вместе с ним. UMA или общая память — это место, где графический чип заимствует часть системной оперативной памяти для использования в качестве графической памяти.

Подходит ли графика UMA для игр?

UMA — это интегрированная графика Intel, которая не принесет вам хорошего игрового опыта. Если вы хотите играть, вам нужно искать дискретную графику NVidia или AMD (или интегрированную графику AMD Radeon).

Что такое режим графического процессора UMA?

Полный ответ: UMA (унифицированная архитектура памяти) — это не видеокарта. Он особенно отличается от видеокарт. UMA — это то, что используют встроенные графические процессоры (которые являются частью процессоров / APU). Графические карты представляют собой дискретные (т.е.не являются частью CPU / APU) графические процессоры, которые включают в себя собственную VRAM / видеопамять.

Что такое Intel UMA?

Intel UMA (Unified Memory Architecture) означает, что VRAM используется совместно. Или, проще говоря, память, необходимая для рендеринга видео, заимствуется из основной памяти (RAM). Это худшее, что вы можете купить с точки зрения видеокарты. Intel HD также основан на концепции UMA.

Nvidia лучше Intel?

По данным NASDAQ, сейчас Nvidia стоит больше, чем Intel. Компания GPU, наконец, превысила рыночную капитализацию компании CPU (общую стоимость выпущенных акций) на 251 млрд долларов до 248 млрд долларов, что означает, что теперь она технически стоит больше для своих акционеров.

Насколько хороша интегрированная графика?

Для всех остальных подойдет интегрированная графика. Это может работать для казуальных игр. Этого более чем достаточно для большинства программ Adobe. И если у вас достаточно современный процессор, он сможет обрабатывать видео 4K.

Что такое переключаемая графика?

Переключаемая графика — это технология, которая использует как возможности графической обработки дискретного графического адаптера, так и энергоэффективность интегрированного графического адаптера. … Назначение переключаемого графического режима приложению. Мониторинг использования встроенного и дискретного графического процессора.

Что такое дискретная графика?

Дискретная графика — это графический процессор, отдельный от процессора. Дискретная графика имеет собственную выделенную память, которая не используется совместно с ЦП. Поскольку дискретная графика отделена от микросхемы процессора, она потребляет больше энергии и выделяет значительное количество тепла.

Как мне переключиться с CPU на GPU?

Закройте панель управления графикой Intel и снова щелкните рабочий стол правой кнопкой мыши. На этот раз выберите панель управления для выделенного графического процессора (обычно NVIDIA или ATI / AMD Radeon). 5. Для карт NVIDIA нажмите «Настроить параметры изображения с предварительным просмотром», выберите «Использовать мои предпочтения» с акцентом на: «Производительность» и нажмите «Применить».

Как использовать графический процессор вместо процессора?

— Откройте вкладку «Настройки программы» и выберите игру из выпадающего меню. — Затем выберите предпочтительный графический процессор для этой программы во втором раскрывающемся списке. Ваш графический процессор Nvidia должен отображаться как высокопроизводительный процессор Nvidia. Наконец, сохраните изменения.

Как перейти на встроенную графику?

Переключение между дискретной и интегрированной графикой (Windows)

  1. Закройте Live.
  2. Щелкните правой кнопкой мыши значок Live на рабочем столе.
  3. Щелкните «Запуск с графическим процессором → Интегрированная графика».
  4. Запустите Live, чтобы увидеть, улучшилась ли производительность.

Что такое гибридный графический процессор?

Гибридная графика — это концепция, в которой задействованы две видеокарты на одном компьютере. … Гибридная графика была разработана для поддержки вариантов использования как с высокой производительностью, так и с энергосбережением.

Что такое размер буфера кадра UMA?

Если для размера буфера кадра UMA установлено значение «Авто» (настройка по умолчанию), система может управлять объемом общей памяти для графики. … Например, для систем с 8 ГБ ОЗУ или более установите размер буфера UMA на 1 ГБ или 2 ГБ.

Как процессор и графический процессор взаимодействуют при отображении компьютерной графики?

Здесь вы можете увидеть скриншот небольшой программы на C ++ под названием Triangle.exe с вращающимся треугольником на основе OpenGL API.

введите описание изображения здесь

По общему признанию очень простой пример, но я думаю, что это применимо к другим операциям с графическими картами.

Мне было просто любопытно, и я хотел узнать весь процесс от двойного щелчка на Triangle.exe под Windows XP, пока не смогу увидеть вращающийся треугольник на мониторе. Что происходит, как взаимодействуют процессор (который сначала обрабатывает .exe) и графический процессор (который, наконец, выводит треугольник на экран)?

Я полагаю, что для отображения этого вращающегося треугольника в первую очередь используется следующее аппаратное / программное обеспечение:

аппаратные средства

  • жесткий диск
  • Системная память (RAM)
  • ЦПУ
  • Видеопамять
  • GPU
  • ЖК дисплей

Программное обеспечение

  • Операционная система
  • DirectX / OpenGL API
  • Nvidia Driver

Может кто-нибудь объяснить процесс, может быть, с какой-то блок-схем для иллюстрации?

Это не должно быть сложное объяснение, которое охватывает каждый отдельный шаг (предположим, что оно выходит за рамки), а объяснение, за которым может следовать специалист по ИТ.

Я уверен, что многие люди, которые даже называют себя ИТ-специалистами, не могли правильно описать этот процесс.

Я решил написать немного о программном аспекте и о том, как компоненты взаимодействуют друг с другом. Может быть, это поможет пролить свет на некоторые области.

Презентация

Что нужно, чтобы нарисовать на экране то единственное изображение, которое вы разместили в своем вопросе?

Есть много способов нарисовать треугольник на экране. Для простоты предположим, что буферы вершин не использовались. ( Буфер вершин — это область памяти, в которой хранятся координаты.) Предположим, что программа просто сообщила конвейеру графической обработки о каждой отдельной вершине (вершина — это просто координата в пространстве) в строке.

Но прежде чем мы сможем что-то нарисовать, мы должны сначала запустить некоторые строительные леса. Мы увидим почему позже:

Так, что это сделало?

Когда вы пишете программу, которая хочет использовать видеокарту, вы обычно выбираете какой-то интерфейс для драйвера. Некоторые хорошо известные интерфейсы для драйвера:

  • OpenGL
  • Direct3D
  • CUDA

Для этого примера мы будем придерживаться OpenGL. Теперь, ваш интерфейс драйвера является то , что дает вам все инструменты, необходимые , чтобы сделать вашу программу поговорить с видеокартой (или водителем, который затем разговаривает с картой).

Этот интерфейс должен предоставить вам определенные инструменты . Эти инструменты принимают форму API, который вы можете вызывать из вашей программы.

Читайте так же:
Может ли алиса включить компьютер

Этот API — это то, что мы видим, используя в приведенном выше примере. Давайте внимательнее посмотрим.

Прежде чем вы действительно сможете сделать какой-либо рисунок, вам нужно будет выполнить настройку . Вы должны определить ваш видовой экран (область, которая будет фактически визуализироваться), вашу перспективу ( камеру в ваш мир), какое сглаживание вы будете использовать (чтобы сгладить края вашего треугольника) .

Но мы не будем на это смотреть. Мы просто взглянем на то, что вам придется делать в каждом кадре . Подобно:

Очистка экрана

Графический конвейер не собирается очищать экран для каждого кадра. Вы должны будете сказать это. Почему? Вот почему:

введите описание изображения здесь

Если вы не очистите экран, вы просто будете рисовать над ним каждый кадр. Вот почему мы звоним glClear с GL_COLOR_BUFFER_BIT сетом. Другой бит ( GL_DEPTH_BUFFER_BIT ) говорит OpenGL очистить буфер глубины . Этот буфер используется для определения того, какие пиксели находятся перед (или позади) другими пикселями.

преобразование

введите описание изображения здесь
Источник изображения

Преобразование — это та часть, где мы берем все входные координаты (вершины нашего треугольника) и применяем нашу матрицу ModelView. Эта матрица объясняет, как наша модель (вершины) вращается, масштабируется и переводится (перемещается).

Далее мы применяем нашу матрицу проекции. Это перемещает все координаты так, чтобы они правильно смотрели на нашу камеру.

Теперь мы снова преобразуем нашу матрицу Viewport. Мы делаем это, чтобы масштабировать нашу модель до размеров нашего монитора. Теперь у нас есть набор вершин, которые готовы к визуализации!

Мы вернемся к трансформации чуть позже.

рисунок

Чтобы нарисовать треугольник, мы можем просто сказать OpenGL начать новый список треугольников , вызвав glBegin эту GL_TRIANGLES константу.
Есть и другие формы, которые вы можете нарисовать. Как треугольная полоса или треугольный веер . Это прежде всего оптимизация, так как они требуют меньше связи между процессором и графическим процессором, чтобы нарисовать одинаковое количество треугольников.

После этого мы можем предоставить список наборов из 3 вершин, которые должны составлять каждый треугольник. Каждый треугольник использует 3 координаты (как в 3D-пространстве). Кроме того, я также предоставляю цвет для каждой вершины, вызывая glColor3f перед вызовом glVertex3f .

Тень между 3 вершинами (3 угла треугольника) рассчитывается OpenGL автоматически . Он будет интерполировать цвет по всей поверхности многоугольника.

взаимодействие

Теперь, когда вы нажимаете на окно. Приложение должно только захватить сообщение окна, которое сигнализирует о щелчке. Затем вы можете запустить любое действие в вашей программе, которое вы хотите.

Это становится намного сложнее, если вы хотите начать взаимодействовать с 3D-сценой.

Сначала вы должны четко знать, в каком пикселе пользователь щелкнул окно. Затем, принимая во внимание вашу перспективу , вы можете рассчитать направление луча от точки щелчка мыши до вашей сцены. Затем вы можете рассчитать, пересекается ли какой-либо объект в вашей сцене с этим лучом . Теперь вы знаете, нажал ли пользователь на объект.

Итак, как вы делаете это вращаться?

преобразование

Мне известны два типа преобразований, которые обычно применяются:

  • Матричное преобразование
  • Костная трансформация

Разница в том, что кости влияют на отдельные вершины . Матрицы всегда влияют на все нарисованные вершины одинаково. Давайте посмотрим на пример.

пример

Ранее мы загружали нашу матрицу идентичности перед тем, как нарисовать наш треугольник. Тождественная матрица — это матрица, которая просто не обеспечивает никакого преобразования . Таким образом, все, что я рисую, зависит только от моей точки зрения. Таким образом, треугольник не будет вращаться вообще.

Если я хочу , чтобы повернуть его сейчас, я мог либо сделать математику сам (на CPU) и просто звонить glVertex3f с другими координатами (которые поворачиваются). Или я мог бы позволить GPU делать всю работу, позвонив glRotatef перед рисованием:

amount это, конечно, просто фиксированное значение. Если вы хотите анимировать , вам придется отслеживать amount и увеличивать его каждый кадр.

Итак, подождите, что случилось со всеми матричными разговорами ранее?

В этом простом примере нам не нужно заботиться о матрицах. Мы просто звоним, glRotatef и он обо всем этом позаботится.

glRotate производит вращение angle градусов вокруг вектора xyz. Текущая матрица (см. GlMatrixMode ) умножается на матрицу вращения с продуктом, заменяющим текущую матрицу, как если бы glMultMatrix вызывался со следующей матрицей в качестве аргумента:

x 2 ⁡ 1 — c + cx ⁢ y z 1 — c — z ⁢ sx ⁢ z ⁡ 1 — c + y ⁢ s 0 y ⁢ x ⁡ 1 — c + z ⁢ sy 2 ⁡ 1 — c + cy ⁢ z ⁡ 1 — c — x ⁢ s 0 x ⁢ z ⁡ 1 — c — y ⁢ sy ⁢ z ⁡ 1 — c + x ⁢ sz 2 ⁡ 1 — c + c 0 0 0 0 1

Ну, спасибо за это!

Заключение

Что становится очевидным, так это много разговоров с OpenGL. Но это ничего не говорит нам . Где связь?

Единственное, что OpenGL говорит нам в этом примере, — это когда это сделано . Каждая операция займет определенное количество времени. Некоторые операции занимают невероятно много времени, другие — невероятно быстро.

Отправка вершины в GPU будет настолько быстрой, что я даже не знаю, как это выразить. Отправка тысяч вершин из ЦП в ГП, каждый отдельный кадр, скорее всего, не проблема.

Очистка экрана может занять миллисекунду или даже хуже (имейте в виду, что у вас обычно есть только около 16 миллисекунд времени для прорисовки каждого кадра), в зависимости от размера вашего окна просмотра. Чтобы очистить его, OpenGL должен нарисовать каждый пиксель в цвет, который вы хотите очистить, это может быть миллионы пикселей.

Кроме этого, мы можем только спросить у OpenGL о возможностях нашего графического адаптера (максимальное разрешение, максимальное сглаживание, максимальная глубина цвета, . ).

Но мы также можем заполнить текстуру пикселями, каждый из которых имеет определенный цвет. Таким образом, каждый пиксель содержит значение, а текстура представляет собой гигантский «файл», заполненный данными. Мы можем загрузить это в видеокарту (создав буфер текстур), затем загрузить шейдер , сказать этому шейдеру использовать нашу текстуру в качестве входных данных и выполнить некоторые чрезвычайно тяжелые вычисления для нашего «файла».

Затем мы можем «визуализировать» результат нашего вычисления (в форме новых цветов) в новую текстуру.

Вот как вы можете заставить работать графический процессор другими способами. Я предполагаю, что CUDA работает аналогично этому аспекту, но у меня никогда не было возможности работать с ним.

Мы действительно лишь слегка коснулись всей темы. Программирование 3D-графики — адское чудовище.

Трудно понять, что именно ты не понимаешь.

Графический процессор имеет ряд регистров, которые отображаются в BIOS. Они позволяют ЦПУ получать доступ к памяти графического процессора и инструктируют графический процессор выполнять операции. Процессор вставляет значения в эти регистры, чтобы отобразить часть памяти графического процессора, чтобы процессор мог получить к ней доступ. Затем он загружает инструкции в эту память. Затем он записывает значение в регистр, который указывает графическому процессору выполнять инструкции, загруженные ЦПУ в его память.

Читайте так же:
Игровой ноутбук dell inspiron 7577

Информация состоит из программного обеспечения, необходимого для работы графического процессора. Это программное обеспечение поставляется вместе с драйвером, а затем драйвер обрабатывает разделение ответственности между процессором и графическим процессором (выполняя части своего кода на обоих устройствах).

Затем драйвер управляет серией «окон» в памяти графического процессора, из которого процессор может читать и записывать. Как правило, шаблон доступа включает в себя инструкции или информацию CPU записывать в отображенную память GPU, а затем инструктировать GPU через регистр выполнять эти инструкции или обрабатывать эту информацию. Информация включает в себя шейдерную логику, текстуры и так далее.

Мне было просто любопытно, и я хотел узнать весь процесс от двойного щелчка на Triangle.exe под Windows XP, пока не смогу увидеть вращающийся треугольник на мониторе. Что происходит, как взаимодействуют процессор (который сначала обрабатывает .exe) и графический процессор (который, наконец, выводит треугольник на экран)?

Давайте предположим, что вы на самом деле знаете, как исполняемый файл выполняется в операционной системе и как этот исполняемый файл отправляется с вашего графического процессора на монитор, но не знаете, что происходит между ними. Итак, давайте взглянем на аппаратный аспект и расширим ответ на вопрос программиста .

Каков интерфейс между процессором и графическим процессором?

Используя драйвер , ЦПУ может обмениваться данными с такими функциями материнской платы, как PCI, с графической картой и отправлять ей команды для выполнения некоторых инструкций графического процессора, доступа / обновления памяти графического процессора , загрузки кода для выполнения на графическом процессоре и многого другого .

Но вы не можете прямо говорить с аппаратным обеспечением или драйвером из кода; поэтому это должно происходить через такие API, как OpenGL, Direct3D, CUDA, HLSL, Cg. В то время как первый запускает инструкции GPU и / или обновляет память GPU, последний фактически выполняет код на GPU, поскольку они являются языками физики / шейдеров.

Зачем запускать код на GPU, а не на CPU?

Несмотря на то, что процессор хорош для запуска наших ежедневных программ для рабочих станций и серверов, о всей этой блестящей графике, которую вы видите в играх наших дней, не особо задумывались. Когда-то были рендеры программного обеспечения, которые добивались цели из некоторых 2D и 3D вещей, но они были очень ограничены. Итак, вот где GPU вступил в игру.

Графический процессор оптимизирован для одного из самых важных вычислений в графике, Matrix Manipulation . В то время как ЦП должен вычислять каждое умножение в матричной манипуляции один за другим (позже, такие вещи, как 3DNow! И SSE перехватили), GPU может выполнять все эти умножения одновременно! Параллельность.

Но параллельные вычисления — не единственная причина, другая причина в том, что графический процессор гораздо ближе к видеопамяти, что делает его намного быстрее, чем необходимость совершать обходы через процессор и т. Д.

Как эти инструкции / память / код графического процессора показывают графику?

Есть одна недостающая часть, чтобы заставить это все работать, нам нужно что-то, что мы можем написать, что мы можем затем прочитать и отправить на экран. Мы можем сделать это, создав кадровый буфер . Какую бы операцию вы ни делали, вы в конечном итоге обновите пиксели в кадровом буфере; которые помимо местоположения также содержат информацию о цвете и глубине.

Давайте приведем пример, где вы хотели нарисовать спрайт крови (изображение) где-нибудь; во-первых, сама текстура дерева загружается в память графического процессора, что позволяет легко перерисовывать ее по желанию. Затем, чтобы действительно нарисовать спрайт где-нибудь, мы можем перевести спрайт, используя вершины (расположив его в правильном положении), растеризовав его (превратив его из трехмерного объекта в пиксели), и обновив буфер кадров. Чтобы получить лучшее представление, вот схема потока OpenGL из Википедии:

Это основной смысл всей графической идеи, больше исследований — это домашнее задание для читателя.

Как увеличить выделенную видеопамять (VRAM) в Windows 10

Графическая карта является наиболее определяющим элементом оборудования вашей системы, когда дело касается влияния на общую производительность вашего ПК. Если у вас старая видеокарта (выделенная или встроенная) с посредственными характеристиками, вам, скорее всего, будет запрещен доступ к новым и популярным приложениям и играм. Если у вас нет денег на новый графический процессор, вы можете обмануть свою систему, подделав увеличение VRAM.

Что такое VRAM?

Большинство ошибок, возникающих из-за отсутствия видеокарты, как-то связаны с видеопамятью (VRAM). VRAM — это особый тип ОЗУ, за который отвечает для хранения информации, которая нужна графическому процессору. Он повышает производительность, позволяя графическому процессору извлекать информацию и передавать ее на ваш монитор в спешке.

VRAM — это намного быстрее при выполнении задач, связанных с графическим процессором, потому что он специально создан для этой высокоинтенсивной цели и физически намного ближе к графическому процессору. Вы, вероятно, знаете, что встроенная видеокарта экономична, но не может сравниться с графической продукцией специализированных решений. Но имейте в виду, что наличие большего количества VRAM не обязательно приведет к повышению производительности вашего компьютера.

Недостаточное количество VRAM означает, что ваша система должна использовать стандартную RAM — это приводит к падению производительности, более низкому частота кадров, всплывающие окна с текстурами и другие подобные вещи.

Если вам не позволяют запускать определенные игры или приложения из-за недостатка видеопамяти, у вас есть несколько путей вперед.

Как увеличить выделенную видеопамять вашего графического процессора

Конечно, лучший способ увеличить видеопамять — это купить новую видеокарту . Если ваш выделенный графический процессор устарел или вы все еще полагаетесь на встроенную видеокарту, переход на новую модель графического процессора значительно повысит общую производительность (если у вас достаточно хороших ЦП и ОЗУ для поддержания роста). p>

Однако, если у вас нет денег на обновление, есть два других способа, которые вы можете использовать для увеличения выделенной видеопамяти вашего графического процессора (по крайней мере, на бумаге). Не стесняйтесь следовать тому методу, который кажется более подходящим с учетом вашей конкретной ситуации.

Как проверить объем видеопамяти

Перед вы начинаете процесс имитации увеличения VRAM, важно, чтобы вы не теряли реальный счетчик. Вот краткое руководство по просмотру объема видеопамяти (VRAM), имеющейся на вашем компьютере.

Примечание. Приведенные ниже шаги были созданы с Windows 10 в помните, но вы, скорее всего, сможете воссоздать их в более старых версиях Windows. Для получения дополнительной справки см. Параграфы примечания к каждому шагу.

  1. Нажмите клавишу Windows + R , чтобы открыть Окно «Выполнить «. Затем введите «ms-settings: easyofaccess-display» и нажмите Enter , чтобы открыть вкладку Display в Настройки .
    Примечание. Для Windows 7 и Windows 8, замените приведенную выше команду на dpiscaling и нажмите Enter .
  2. Прокрутите вниз и нажмите Расширенные настройки дисплея, затем нажмите Свойства адаптера дисплея для Дисплей 1 .
  3. Вы можете проверить количество видеопамяти в разделе Информация об адаптере на Выделенное видео Память . Но имейте в виду, что если у вас есть и выделенный графический процессор, и встроенная видеокарта, это окно покажет вам интегрированное решение, если ваш компьютер находится в режиме ожидания.
    Примечание. Если выделенный графический процессор простаивает, вы можете принудительно переключиться на него, выполнив стрессовую деятельность. Кроме того, вы можете получить доступ к специальной служебной программе графического процессора (например, панели управления NVIDIA) и увидеть оттуда выделенную видеопамять.
Читайте так же:
Мини клавиатура для компьютера

Метод 1: увеличение выделенной видеопамяти из BIOS

Первое и наиболее рекомендуемое временное решение — отрегулировать распределение VRAM из BIOS вашего компьютера. Конечно, этот метод применим не ко всем материнским платам, но большинство производителей включают возможность настройки распределения VRAM.

Вот краткое руководство по увеличению выделенной VRAM из настроек BIOS:

  1. Перезагрузите компьютер и войдите в настройки BIOS при следующем запуске, нажав специальный ключ BIOS несколько раз во время загрузки. Попробуйте несколько раз нажать клавишу F2, F5, F8 или Del. Если это не сработает, поищите в Интернете конкретные шаги по вводу настроек BIOS в зависимости от производителя вашей материнской платы.
  2. Когда вы попадете в меню BIOS, найдите меню, подобное Настройки графики , Настройки видео или Размер общей памяти VGA . Обычно вы можете найти его в меню Advanced .
  3. Затем увеличьте предварительно выделенную VRAM до того, какой вариант вам больше подходит.
  4. Сохраните конфигурацию и перезагрузите компьютер. При следующем запуске используйте описанную выше процедуру, чтобы увидеть, увеличилось ли количество VRAM.

Если этот метод неприменим, или вы ищете другой подход, который не не требует изменения настроек BIOS, перейдите к способу 2 .

Метод 2: увеличение выделенной видеопамяти с помощью редактора реестра

Имейте в виду, что для большинства интегрированных видеокарт количество Объем VRAM, отображаемый в окне Свойства адаптера , совершенно не влияет на фактическую производительность, поскольку система автоматически настраивает ее по требованию.

Однако в некоторых играх и другие типы приложений не позволят вам запускать их, если у вас меньше указанного минимума VRAM. В этом случае вы можете использовать трюк с редактором реестра, чтобы изменить значения, чтобы игра больше не сталкивалась с ошибкой. Вот краткое руководство о том, как это сделать:

Примечание. Помните, что следующие шаги применимы только для встроенных графических процессоров Intel. Кроме того, этот метод не даст вам никакой производительности или дополнительного повышения в ваших играх/приложениях, этот метод только обманом заставит игры/приложения работать с более низким VRAM.

  1. Нажмите Клавиша Windows + R , чтобы открыть окно «Выполнить». Затем введите « regedit » и нажмите Enter , чтобы открыть редактор реестра.
  2. Внутри редактора реестра используйте левую панель, чтобы перейти в следующее место:
    HKEY_LOCAL_MACHINE Software Intel
  3. Щелкните правой кнопкой мыши раздел Intel, выберите New> Key и назовите его GMM .
  4. Выбрав ключ GMM, перейдите на правую панель и выберите New> Dword (32-bit) Value и назовите его DedicatedSegmentSize .
  5. Дважды щелкните DedicatedSegmentSize , установите Base на Decimal и вставьте значение от до 512 . Это значение будет объемом VRAM, отображаемым в меню Свойства адаптера .
  6. Сохраните изменения и перезагрузите компьютер, чтобы изменения вступили в силу. При следующем запуске проверьте, сможете ли вы запустить игру без ошибки.

Характеристики видеокарты: что нужно знать для правильного выбора?

Характеристики видеокарт

Видеокарта – один из ключевых компонентов компьютера, который отвечает за преобразование графической информации в сигнал для вывода на монитор. Представляет собой небольшую плату, которая устанавливается в слот материнской платы. Чтобы самостоятельно выбрать подходящую видеокарту, рядовому пользователю придется изучить элементы комплектующих и определяющие характеристики: объем видеопамяти, чип платы, частота, система охлаждения, принцип работы – знание данных позиций позволит избежать ошибок при совершении покупки.

Устройство видеокарты компьютера

Современное устройство видеокарты вмещает в себя множество различных компонентов: от собственного графического процессора до системы охлаждения. Их формирование и организация взаимодействия выстроены таким образом, чтобы добиться выполнения своей задачи – обработки информации и вывода графических данных.

Графический процессор GPU

Графический процессор считается центральным элементом работы видеокарты, отвечающим за проведение математических расчетов изображения с последующим выводом на экран. Модель процессора определяет все иные характеристики видеокарт.

При выборе GPU нужно учитывать особенности наименования. Фирма NVIDIA называет свои процессоры как GeForce GTX 123, где цифры указывает на параметры используемого графического чипа. Первая уточняет поколение устройства. Две последующие – положение чипа в линейке видеокарт данного поколения. Чем они больше, тем выше производительность видеокарты.

Компания AMD использует аналогичную оценку. Пример: Radeon HD 1234. Первая цифра определяет поколение, три последующих – положение чипа в поколении.

Видеопамять

Чтобы хранить изображения, команды и промежуточные элементы, не отображаемые на экране, требуется некоторое количество памяти. За это в графическом адаптере отвечает видеопамять. Может быть выражена в различных типах, которые могут отличаться по частоте или скорости обработки информации. Здесь же стоит уточнить, что видеокарта задействует не только собственный объем памяти, но также обращается и к ОЗУ на ПК.

Видеоконтроллер

Отвечает за генерацию изображения в памяти путем отправления команды на преобразователь и проведения обработки команды центрального процессора. Состоит из нескольких компонентов: шины данных (внутренняя и внешняя), контроллер памяти. Их функционирование обеспечивается вне зависимости друг от друга, что позволяет вести одновременное управление экранами дисплеев.

Цифро аналоговый преобразователь (RAM DAC)

Видеоконтроллер генерирует картинку, но для вывода в понятном виде на экран изначально потребуется преобразовать изображение в искомый сигнал с заданными параметрами цвета. За это и отвечает Цифро-аналоговый преобразователь. Представляет собой построение из четырех элементов, три из которых формируют данные посредством RGB (система красный-зеленый-синий), а последний отвечает за сведения о последующей коррекции яркости и гаммы.

Постоянное запоминающее устройство

Хранит в себе ряд центральных элементов, сведения с BIOS и отдельные таблицы с информацией о системе. Взаимодействует непосредственно с центральным процессором – видеоконтроллер в этом случае не принимает никакого участия. ПЗУ обеспечивает активацию и функционирование устройства еще до полного запуска операционной системы.

Читайте так же:
Зачем нужен виртуальный сервер

Система охлаждения видеокарты

Охлаждение видеокарты

Работа видеокарты, ее бесперебойность и качество обработки информации – зависит от системы охлаждения. Устройство считается одной из наиболее горячих комплектующих ПК, поэтому для работы при сильных нагрузках монтируется радиатор и несколько кулеров. Таким образом обеспечивается сохранность приемлемой температуры. В мощных карточках используются водяные системы, которые позволяют добиться большего эффекта охлаждения.

Чтобы оценить показатели данной позиции, следует обратить внимание на ряд понятных критериев:

  • охлаждение должно быть активным, поэтому наличие вентиляторов необходимо;
  • чем больше вентиляторов – тем лучше;
  • чем больше диаметр вентиляторов – тем лучше. Это же относится и к количеству лопастей;
  • наличие тепловых труб и обильного радиатора свидетельствует о приемлемых показателях охлаждения.

Выбрать карту с мощной системой охлаждения важно для сохранности персонального компьютера. Карта с некачественным охлаждением будет перегреваться, при этом поднимется и температура в самом корпусе, что может сказаться на всех комплектующих компьютера. Систему можно приобрести отдельно. Чтобы добиться должного эффекта, придется потратиться: замена отличается немалой стоимостью – от 50 долларов.

Основные характеристики видеокарты

Для получения ожидаемого эффекта от устройства перед его выбором важно определить главные параметры видеокарты.

Тип видеопамяти (GDDR)

Используется несколько типов видеопамяти. Чем позже был разработан типовой вариант, тем выше скорость обработки информации. Высокими показателями обладает стандарт GDDR5. Однако стоимость приобретения на порядок выше, чем более востребованного, но не столь быстрого типа GDDR3.

Объем видеопамяти

Объем видеопамяти переоцененный неопытными пользователями параметр. Такое отношение обусловлено не слишком честной рекламой, где на данной характеристике делают лишний акцент за счет цепочки «причина-следствия», которая понятна даже рядовым пользователям – чем больше объем памяти, тем быстрее устройство. Более подробно о том как узнать сколько памяти на видеокарте.

На практике же этот показатель играет второстепенную роль. Но все же при наличии достаточного бюджета, рекомендуется отдать предпочтение видеокарте, у которой больше памяти. Однако существуют определенный предел, когда размер уже не имеет значения (у каждой модели свой лимит).

К примеру, следует приобрести карту с памятью GDDR5 в 256 бит и объемом в 1 Гб, чем тип памяти GDDR3 в 128 бит и в три раза большим объемом.

Частота видеопамяти

Важная характеристика видеокарты, которая указывает на сколько быстро процессор обрабатывает информацию, что непосредственно определяет быстродействие самого устройства. Выражается в МГц (мегагерцах) или ГГц (гигагерцах).

Важно уточнить, что один тип графического процессора при различных составляющих может выдавать неодинаковую частоту. Подобное обусловлено наличием в некоторых моделях заводского разгона. Также многое зависит от архитектуры графического ядра, количества и качества шейдерных блоков. К сожалению, эти параметры обычно не указываются в описании товара или на ценниках, поэтому перед покупкой рекомендуется посетить официальный сайт производителя и получить полную информацию по выбранной модели.

О невысокой производительности видеокарты косвенным образом может свидетельствовать отсутствие разъема для подключения дополнительного питания. Стандартная шина от материнской платы PCIe не способна обеспечить необходимое питание для пользования программными продуктами.

Ширина шины видеопамяти

Шина памяти и ее пропускная способность также признаются в качестве основных характеристик видеокарты, так как этот компонент отвечает за прогон информации между графическим процессором и памятью. Шина измеряется в bit: отсчет идет с 64. Чем больше показатель, тем быстрее происходит взаимодействие элементов.

Распространенный вариант – 128 бит шина. Но в игровых и топовых компьютерах устанавливается шина с шириной 256 или 384.

Версия DirectX

DirectX

Видеокарта – это устройство с рядом конкретных функций, поэтому для взаимодействия с ПК требуется программное обеспечение. В этом качестве выступает Direct X. Чем выше версия ПО, тем больше возможностей доступно пользователю.

Интерфейсы подключения к материнской плате

Интерфейс необходим для соединения элементов и материнской платы. Периферийные компоненты подключаются стандартно через стандартные шины типа PCI. Однако при использовании видеокарт используются другие интерфейсы.

AGP разъем видеокарты

Разработан на основании принципов PCI, но предназначен для карточек. Характеризуется более высокой пропускной способностью, чем стандартная шина. По данным обновления последней версии этот показатель составлял 2,1 Гб/с. Платы не выпускаются с 2006 года, так как был создан другой интерфейс с характеристиками повыше – PCIe.

PCI_разъем видеокарты

Если сравнивать с предыдущим вариантом, этот интерфейс обладает большей пропускной способностью, до сих пор обновляется, при этом предусмотрен вариант с обратной совместимостью.

Несмотря на наличие 5 спецификаций интерфейса, в большинстве ПК используется 4 версия. Обусловлено это тем, что последний доступный вариант был введен лишь в мае 2019 года, поэтому еще не столь распространен.

SLI и CrossFire

Продолжительное время обеспечить совместную работу видеокарт было возможно лишь при помощи SLI (для видеокарт NVidia) или с использованием CrossFire (AMD). Однако относительно недавно проблема была решена путем выпуска новой версии DirectX, что позволило использовать сразу несколько видеопроцессоров на уровне API. Но подобные нововведения не стали причиной утраты актуальности указанных технологий. Следует уточнить особенности использования. Вне зависимости от типа используемой карты взаимодействие нескольких плат при обработке одной графической информации осуществляется таким образом:

  1. Изображение разбивается на несколько блоков, которые распределяется по отдельности между картами.
  2. Происходит покадровая разбивка картинки – первое устройство обрабатывает четные кадры, второе – нечетные.
  3. Полученные в результате исчисления результаты смешиваются и накладываются, что позволяет достичь четкости и детализированности.

Недостаток использование двух карт – чрезмерные затраты энергии и большая стоимость. При этом нужно учитывать, что на практике производительность повышается не в 2 раза, как хотелось бы, а на 50-70%.

Чтобы заставить видеокарты фирмы NVidia работать совместно, необходимо наличие материнской платы, которая позволяет использовать несколько комплектующих. Второй важный момент – применение режима SLI возможно лишь в случае с одинаковыми видеопроцессорами. То есть GTX 1060 и GTX 1080 объединить не выйдет.

CrossFire

Использование данной технологии не характеризуется высокими требованиями и допускает некоторые «вольности» в виде разных видеопроцессоров. Однако, они должны быть из одной серии.

Немного про разъемы

Разъемы видеокарты

Современные версии видеокарт обладают несколькими портами для подключения двух и более экранов. Монитор же может иметь ряд различных типов разъемов, о которых следует знать пользователю.

VGA — Video Graphics Array

VGA

Самый старый вариант, используемый до сих пор и предполагающий вывод аналогового сигнала, качество которого могло определяться даже длиной провода. Постепенно вытесняется другими типами, так как не справляется с большим разрешением экрана.

S-Video

S-Video

Еще один аналоговый разъем с качеством передачи хуже, чем у предыдущего варианта. Преимущество в сохранении хорошего качества изображения даже при длинном кабеле – до 20 метров.

Читайте так же:
История возникновения первых компьютеров

DVI — Digital Visual Interface

DVI

Позволяет подключать мониторы с высоким разрешением, что сделало его популярным и среди другого оборудования (проектор и т.п.). Что примечательно, качество выводимой картинки не определяется длиной кабеля.

HDMI — High Definition Multimedia Interface

Также используется для вывода картинки с высоким разрешением, но имеет преимущество перед DVI в виде наличия не только видео, но и аудиоканала. Еще один плюс – компактность и отсутствие креплений.

DP — Displayport

Мало чем отличается от предыдущего варианта, кроме наличия переходников на более популярные типы разъемов. Пропускная способность выше, чем у HDMI, но все же встретить факт его использования среди рядовых пользователей намного меньше.

Thunderbolt

Аппаратный интерфейс для периферийных устройств. Характеризуется разнообразием функционала и большой пропускной способностью. Ранее применялся исключительно для продукции фирмы Apple, но в дальнейшем начал распространяться и на пользователей Windows, и на другие ОС и устройства. Может быть использован для передачи изображения на мониторы с разрешением в 4К.

Существуют и иные параметры видеокарты, будь то количество блоков рендеринга и текстурных блоков, число потоковых процессоров, поддержка шрейдеров. Однако их изучение не считается обязательным, так как они играют второстепенную роль. И все же при необходимости подобрать карту только для определенной цели (игры, работа с графикой), когда даже подобные моменты имеют вес, следует обратить внимание и на данные тонкости. Но для этого придется заняться изучением официального сайта производителя, так как в стандартных прайсах магазина эти характеристики обычно не указываются.

Персональный компьютер

Здесь будут размещены статьи по работе с компьютером, с компьютерными программами. Будут рассказаны в подробной и ясной форме тонкости и хитрости по работе с компьютером. Много других разных инструкций по работе с компьютером.

главная

  • Главная страница
  • Конкурсы
  • кроссворды
  • Контакты
  • Обо мне

15 мая

видеокарта

Привет, всем пользователям!

Видеока́рта – устройство, преобразующее графический образ, хранящийся как содержимое памяти компьютера (или самого адаптера), в форму, пригодную для дальнейшего вывода на экран монитора. Видеокарту выполняют в виде платы. Эта плата вставляется в свой слот расширения. Есть видеокарты, встроенные в материнскую плату. Но в этом случае, сложно назвать устройство видеокартой.

Видеокарта не просто выводят изображение, у них есть встроенный графический процессор, который производит дополнительную обработку видео, тем самым снимая задачу с центрального процессора.

видеокарта

видеокарта

Устройство видеокарты.

Современная видеокарта состоит из следующих частей:

Графический процессор

Графический процессор производит расчеты выводимого на монитор изображения, тем самым освобождая центральный процессор от такой задачи. От графического процессора зависят быстродействие и возможности всего компьютера. Графические процессоры почти ничем не уступают центральному процессору компьютера. Иногда, он даже превосходит центральный процессор по характеристикам.

Видеоконтроллер

Видеоконтроллер отвечает за формирование изображения в видеопамяти. Дает команды на получение сигналов развертки для монитора, и осуществляет обработку запросов центрального процессора. Есть контроллер внешней шины данных, есть контроллер внутренней шины данных и контроллер видео памяти. Ширина внутренней шины и шины видеопамяти обычно больше, чем внешней. Современные графические адаптеры имеют не меньше двух видеоконтроллеров и одновременно управляют одним, или несколькими дисплеями.

Видео-ПЗУ

Видео-ПЗУ (Video ROM) — постоянное запоминающее устройство (ПЗУ), в которое записаны BIOS видеокарты, экранные шрифты, служебные таблицы и т. п. ПЗУ не используется видеоконтроллером напрямую — к нему обращается только центральный процессор.

Видео-ОЗУ

Видеопамять выполняет функцию кадрового буфера, в котором хранится изображение, генерируемое и постоянно изменяемое графическим процессором и выводимое на экран монитора. В видеопамяти хранятся также промежуточные невидимые на экране элементы изображения и другие данные. Видеопамять бывает нескольких типов, различающихся по скорости доступа и рабочей частоте. Современные видеокарты комплектуются памятью типа DDR, GDDR2, GDDR3, GDDR4, GDDR5, GDDR6 и HBM. Следует также иметь в виду, что, помимо видеопамяти, находящейся на видеокарте, современные графические процессоры обычно используют в своей работе часть общей системной памяти компьютера, прямой доступ к которой организуется драйвером видеоадаптера через шину AGP или PCIE. В случае использования архитектуры Uniform Memory Access в качестве видеопамяти используется часть системной памяти компьютера.

Коннектор

Видеоадаптеры VGA и более поздние обычно имели всего один разъём VGA (15-контактный D-Sub). Изредка ранние версии VGA-адаптеров имели также разъём предыдущего поколения (9-контактный) для совместимости со старыми мониторами. Выбор рабочего выхода задавался переключателями на плате видеоадаптера.

В настоящее время платы оснащают разъёмами DVI или HDMI, либо DisplayPort в количестве от одного до трёх (некоторые видеокарты ATi последнего поколения оснащаются шестью коннекторами).

Система охлаждения

Система охлаждения предназначена для сохранения температурного режима видеопроцессора и (зачастую) видеопамяти в допустимых пределах.

Система охлаждения имеет тот же радиатор и кулер, как на центральном процессоре. На видеокартах ноутбуков устанавливается только радиатор.

Видеопамять

Объём памяти большего количества современных видеокарт варьируется от 256 МБ (например, AMD Radeon HD 4350)[7] до 48 ГБ (например, NVIDIA Quadro RTX 8000)[8]. Поскольку доступ к видеопамяти GPU и другими электронным компонентами должен обеспечивать желаемую высокую производительность всей графической подсистемы в целом, используются специализированные высокоскоростные типы памяти, такие, как SGRAM, двухпортовые (англ. dual-port) VRAM, WRAM, другие. Приблизительно с 2003 года видеопамять, как правило, базировалась на основе DDR технологии памяти SDRAM, с удвоенной эффективной частотой (передача данных синхронизируется не только по нарастающему фронту тактового сигнала, но и ниспадающему). И в дальнейшем DDR2, GDDR3, GDDR4, GDDR5 и на момент 2016 года[9] GDDR5X. С выходом серии высокопроизводительных видеокарт AMD Fury совместно с уже устоявшейся на рынке памятью GDDR начала использоваться память нового типа HBM, предлагая значительно большую пропускную способность и упрощение самой платы видеокарты, за счёт отсутствия необходимости разводки и распайки чипов памяти. Пиковая скорость передачи данных (пропускная способность) памяти современных видеокарт достигает 480 ГБ/с для типа памяти GDDR5X (например, у NVIDIA TITAN X Pascal[10]) и 672 ГБ/с для типа памяти GDDR6 (например, у TITAN RTX[11]).

Видеопамять используется для временного сохранения, помимо непосредственно данных изображения, и другие: текстуры, шейдеры, вершинные буферы, Z-буфер (удалённость элементов изображения в 3D-графике), и тому подобные данные графической подсистемы (за исключением, по большей части данных Video BIOS, внутренней памяти графического процессора и т. п.) и коды.

Обычно, при покупке видеокарты, смотрят только на объем видеопамяти.

Если все то, что написано выше, сказать коротко, то видеокарта, тот же самый компьютер, имеющий системную плату, процессор, оперативную память, но без жесткого диска.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector