Новости|5 Июнь 2012 11:29

Nvidia показала «облачную» видеокарту

логотип NvidiaКомпания Nvidia готовится устроить настоящую революцию в развитии графических систем: на недавней пресс-конференции производитель показал несколько  новейших и «умных» разработок, которые должны изменить ход развития видеотехнологий. Все анонсированные решения связаны с «облачным» обсчетом графики, и, как предполагают в Nvidia, представленные возможности будут интересны как профессионалам в области работы с трехмерными изображениями, так заядлым геймерам. Причина очевидна — использование «облаков» существенно сократит нагрузку на систему, не принося ущерба качеству изображения, а скорее наоборот.

Зрелищнее всего возможности «облачных» видеокарт выглядели на демонстрации их использования в играх. В ней разработчики показали, как, подключив ТВ-панель ко Всемирной паутине, можно играть в самые современные игры, графика которых не только сравнима с последним поколением специализированных приставок, но даже превосходит его.

Естественно, телевизор не был простым, это была SMART-модель LG с установленным клиентом сервиса Gaikai. Что касается работы технологии, то здесь все достаточно несложно: сама компьютерная игра воспроизводится на серверах вышеупомянутого сервиса, а телевизор (либо любое другое устройство) принимает уже готовое изображение. Ключевая сложность, преследующая авторов всех похожих проектов, кроется в том, что между исходящей от игрока командой, откликом игры на сервере и отображением графики на источнике изображения проходит недопустимо много времени, тем самым делая малоприятной игру, где необходима быстрая реакция. Но в Nvidia нашли способ сократить задержку, создав The GeForce GRID — систему, которая обеспечит кодирование видеопотока непосредственно силами чипа видеокарты (GPU).

Кроме этого, Nvidia показала и несколько серьезных приложений для своих новых разработок. Так, система VGX позволит применять графическое ускорение в механизмах виртуализации, задействовать графические чипы для общих вычислений. Также в компании заявили, что работают над процессорами, в которых будет использоваться до 16 гигабайт ОЗУ и до 192 графических ядер.